Od počátků programování, které sahá až do antiky, dosáhlo lidstvo na tomto poli obrovského pokroku. Důkazem je i nový počítačový algoritmus GPT-2, jenž je schopen generovat velmi uvěřitelné texty.
Nástroj GPT-2 je z algoritmů založených na principu umělé inteligenci (AI) údajně nejschopnější. Program dokáže vytvořit texty natolik věrohodné, že je možné snadno zaměnit s texty, které vyprodukoval člověk.
Americká nezisková společnost OpenAI se v roce 2018 podepsala již pod jedním programem, a to nástrojem GPT-1, na který GPT-2 přímo navazuje.
Z čeho skládá věty?
Věty poskládané GPT-2 vznikají ze zadání napsaného člověkem a z nastudovaného materiálu. Po příkazu uživatele o doplnění textu začne program na základě předepsaných parametrů vytvářet pokračování výpovědi.
Tvůrci vysvětlují, že jejich model další slovo jednoduše předpovídá a využívá k tomu 40 GB textů stažených z internetu. To odpovídá přibližně 36 milionům stránek textu. Vědci vytvořili nový dataset, který klade důraz na různorodost obsahu staženého z internetu.
„Abychom zachovali kvalitu textů, využili jsme stránky, které byly označeny lidskými kurátory za kvalitní,“ sdělili vývojáři.
Postup neuronové sítě je velice unikátní, sama o sobě totiž není schopna rozumět tomu, co vytváří, ale „chápe“, že obsah zní uvěřitelně.
Nikdo není bezchybný
Programátoři se rozhodli některé z vygenerovaných obsahů sdílet. Texty vynikají nejen rozsahem, ale i kvalitou, to však neznamená, že neobsahují žádné chyby.
Ve většině případů se jedná o chyby faktického typu, tedy takové, kdy se neshoduje např. jméno, věk osob či citát, jenž si stroj vymyslel.
Nahradí člověka chytré generátory?
Oproti předešlému projektu, nebyl program GPT-2 prozatím plně zveřejněn, tvůrci z iniciativy OpenAI jsou opatrní, a mají tak v úmyslu o něm nejprve vést celospolečenskou debatu.
Uvedli, že by tento nástroj pro generování textů mohl být zneužit k masovému klamání, zkreslovaní nebo zneužívání, a tak zveřejnili pouze část výsledků – teoretický popis a zdrojové kódy algoritmu.
Možnosti zneužití
Bezplatné vypuštění algoritmu do internetové sítě by mohlo vést k několika formám zneužití. Jednou z nich jsou např. falešné či zavádějící články, které by vypadaly jako novinové, ale nebyly by pravdivé, šlo by o tzv. fake news.
Na sociálních sítích by docházelo k utváření nepravdivého obsahu, vznikaly by podvodné inzeráty nebo videa.
Dalším způsobem zneužití by mohla být krádež identity reálných či smyšlených osob, kdy by konverzace na člověka působila dojmem, že probíhá skutečný rozhovor mezi dvěma existujícími lidmi. Tím však seznam zdaleka nekončí, možností zneužití je mnohem více.
Jak se bránit?
Přestože společnost OpenAI s algoritmem zachází opatrně a je si také vědoma, co by se mohlo stát, kdyby byl uvolněn na trh, je třeba být na pozoru, protože s podobnou technologií by mohl přijít v budoucnu kdokoli.
„Veřejnost bude muset být mnohem skeptičtější vůči textům publikovaným na internetu,“ upozorňují tvůrci.