Nečtěte roboty
Stroje schopné vytvářet přesvědčivé texty už máme, ochranu proti nim nikoli
Americká nezisková organizace OpenAI, jejímž deklarovaným cílem je vývoj umělé inteligence pro dobro celého lidstva, zveřejnila 14. února model pro analýzu a vytváření textu s názvem GPT-2. Původním cílem tohoto modelu, který byl trénován na osmi milionech webových stránek, bylo s ohledem na předcházející text předvídat následující slovo. GPT-2 má nyní nicméně velmi široké využití. Nejenom, že dokáže porozumět logickým souvislostem a smysluplně odpovídat na otázky týkající se analyzovaného textu, ale umí také pokračovat v již napsaném textu. Kromě toho, že GPT-2 využívá dostupné informace k formulování nových zpráv, dokáže vytvářet i přesvědčivé a přitom nepravdivé texty. Systému stačí jen pár slov, aby dokázal rozvinout načaté téma.
Lepší překlady i fake news
Podle OpenAI předčil tento model dosud všechny existující modely a jeho text je tak přirozený, že se jeho tvůrci rozhodli nezveřejnit plný kód, ale jen omezenou verzi pro výzkumné experimenty. I když má GPT-2 velký potenciál pro využití zejména při tvorbě textů, vytváření věrohodných chatbotů, při automatických překladech mezi jazyky nebo při tvorbě systémů rozpoznávajících mluvenou řeč, organizace OpenAI uvedla i potenciálně nebezpečná využití. Těmi jsou zavádějící zprávy, napodobování jiných osob v komunikaci, automatizace falešného nebo nebezpečného obsahu na sociálních sítích a automatické vytváření spamu či phishingu.
Nejvíce je ale v této souvislosti poukazováno na fenomén tzv. „deep fake“. Deep fake zpravidla označuje videa vytvořená pomocí umělé inteligence, která věrně zobrazují události, k nimž nikdy nedošlo. Typicky může být tato technologie použita k vytvoření videí politiků v choulostivých situacích. Odhalení pravdy pak představuje zdlouhavý proces, během nějž tak jako tak dojde k poškození pověsti dotčené osoby. K podobným účelům může být použito právě GPT-2. Generování textů je přitom snadnější a může být vydáváno za standardní žurnalistiku.
Právě deep fake je jedním z problémů, na který se zaměřila i Evropská unie a 5. prosince 2018 představila Akční plán proti dezinformacím. Tento plán reaguje na sdělení Evropské komise z dubna 2018, ve kterém byly nastíněny základní problémy a hrozby spojené s šířením dezinformací v online prostředí a přístup EU k řešení tohoto problému. V tomto směru pokládá Evropská komise za důležité zejména zlepšit transparentnost procesu vytváření informací, podporovat jejich diverzitu, indikovat věrohodnost informací pomocí garance původu důvěryhodným subjektem a prosazovat inkluzi ve formě osvěty a zapojení širokého spektra subjektů.
Akční plán následně přichází se čtyřmi doporučeními – zlepšit detekci, analýzu a označování dezinformací, posílit koordinovanou a společnou reakci na dezinformace, mobilizovat soukromý sektor, aby sám s dezinformacemi bojoval, a zvýšit společenské povědomí o tomto problému.
Kromě problematiky deep fake se však GPT-2 týká i dalších oblastí. Na prvním místě jde o otázku odpovědnosti za vytváření škodlivého obsahu, která by mohla být do budoucna regulována pomocí institutu tzv. objektivní právní odpovědnosti, kdy osoba odpovídá za škodu způsobenou určitým provozem (typicky provoz nebezpečného závodu nebo provoz dopravního prostředku) bez ohledu na své zavinění. Dále bude třeba řešit otázky ochrany autorských práv k textům vytvořeným umělou inteligencí (AI) a odůvodněností jejich případné právní ochrany. Právo by v této oblasti mělo najít rovnováhu mezi ochranou investic do vývoje AI a výsledků její tvorby, zájmy běžných tvůrců děl a zájmem celé společnosti.
Nový model dokáže vytvářet i složitější a přitom nepravdivé texty. Systému stačí jen pár slov, aby dokázal rozvinout načaté téma.
Pozor, diskutujete s robotem
Další otázkou je pak i zavedení povinnosti označovat texty vytvořené AI. V této souvislosti se již nějakou dobu na úrovni EU hovoří o právu člověka být informován o tom, že komunikuje s chatbotem. Toto právo by se pak pravděpodobně promítlo i do povinnosti označit původ textu. S tím bude souviset i otázka identifikace v online prostředí, která by mohla fungovat jako záruka původu textů a komunikace.
Rozhodnutí OpenAI nezveřejnit GPT-2 lze s ohledem na výše uvedené rozhodně považovat za správný krok. OpenAI tím dala najevo, že si je vědoma své odpovědnosti v sociální oblasti a právních rizik spojených se zveřejněním podobného nástroje a zároveň ilustrovala, jak významným oborem bude do budoucna posuzování rizik v technologické oblasti. Zejména aplikace umělé inteligence budou snadno využitelné a zneužitelné zároveň. Problémem však bude držet krok s rozvojem AI a vytvářet nástroje například k detekci dezinformací. Technická řešení proto musí podpořit i striktní právní pravidla.