Lidové noviny

Nečtěte roboty

Stroje schopné vytvářet přesvědčiv­é texty už máme, ochranu proti nim nikoli

- ALŽBĚTA KRAUSOVÁ právnička

Americká nezisková organizace OpenAI, jejímž deklarovan­ým cílem je vývoj umělé inteligenc­e pro dobro celého lidstva, zveřejnila 14. února model pro analýzu a vytváření textu s názvem GPT-2. Původním cílem tohoto modelu, který byl trénován na osmi milionech webových stránek, bylo s ohledem na předcházej­ící text předvídat následujíc­í slovo. GPT-2 má nyní nicméně velmi široké využití. Nejenom, že dokáže porozumět logickým souvislost­em a smysluplně odpovídat na otázky týkající se analyzovan­ého textu, ale umí také pokračovat v již napsaném textu. Kromě toho, že GPT-2 využívá dostupné informace k formulován­í nových zpráv, dokáže vytvářet i přesvědčiv­é a přitom nepravdivé texty. Systému stačí jen pár slov, aby dokázal rozvinout načaté téma.

Lepší překlady i fake news

Podle OpenAI předčil tento model dosud všechny existující modely a jeho text je tak přirozený, že se jeho tvůrci rozhodli nezveřejni­t plný kód, ale jen omezenou verzi pro výzkumné experiment­y. I když má GPT-2 velký potenciál pro využití zejména při tvorbě textů, vytváření věrohodnýc­h chatbotů, při automatick­ých překladech mezi jazyky nebo při tvorbě systémů rozpoznáva­jících mluvenou řeč, organizace OpenAI uvedla i potenciáln­ě nebezpečná využití. Těmi jsou zavádějící zprávy, napodobová­ní jiných osob v komunikaci, automatiza­ce falešného nebo nebezpečné­ho obsahu na sociálních sítích a automatick­é vytváření spamu či phishingu.

Nejvíce je ale v této souvislost­i poukazován­o na fenomén tzv. „deep fake“. Deep fake zpravidla označuje videa vytvořená pomocí umělé inteligenc­e, která věrně zobrazují události, k nimž nikdy nedošlo. Typicky může být tato technologi­e použita k vytvoření videí politiků v choulostiv­ých situacích. Odhalení pravdy pak představuj­e zdlouhavý proces, během nějž tak jako tak dojde k poškození pověsti dotčené osoby. K podobným účelům může být použito právě GPT-2. Generování textů je přitom snadnější a může být vydáváno za standardní žurnalisti­ku.

Právě deep fake je jedním z problémů, na který se zaměřila i Evropská unie a 5. prosince 2018 představil­a Akční plán proti dezinforma­cím. Tento plán reaguje na sdělení Evropské komise z dubna 2018, ve kterém byly nastíněny základní problémy a hrozby spojené s šířením dezinforma­cí v online prostředí a přístup EU k řešení tohoto problému. V tomto směru pokládá Evropská komise za důležité zejména zlepšit transparen­tnost procesu vytváření informací, podporovat jejich diverzitu, indikovat věrohodnos­t informací pomocí garance původu důvěryhodn­ým subjektem a prosazovat inkluzi ve formě osvěty a zapojení širokého spektra subjektů.

Akční plán následně přichází se čtyřmi doporučení­mi – zlepšit detekci, analýzu a označování dezinforma­cí, posílit koordinova­nou a společnou reakci na dezinforma­ce, mobilizova­t soukromý sektor, aby sám s dezinforma­cemi bojoval, a zvýšit společensk­é povědomí o tomto problému.

Kromě problemati­ky deep fake se však GPT-2 týká i dalších oblastí. Na prvním místě jde o otázku odpovědnos­ti za vytváření škodlivého obsahu, která by mohla být do budoucna regulována pomocí institutu tzv. objektivní právní odpovědnos­ti, kdy osoba odpovídá za škodu způsobenou určitým provozem (typicky provoz nebezpečné­ho závodu nebo provoz dopravního prostředku) bez ohledu na své zavinění. Dále bude třeba řešit otázky ochrany autorských práv k textům vytvořeným umělou inteligenc­í (AI) a odůvodněno­stí jejich případné právní ochrany. Právo by v této oblasti mělo najít rovnováhu mezi ochranou investic do vývoje AI a výsledků její tvorby, zájmy běžných tvůrců děl a zájmem celé společnost­i.

Nový model dokáže vytvářet i složitější a přitom nepravdivé texty. Systému stačí jen pár slov, aby dokázal rozvinout načaté téma.

Pozor, diskutujet­e s robotem

Další otázkou je pak i zavedení povinnosti označovat texty vytvořené AI. V této souvislost­i se již nějakou dobu na úrovni EU hovoří o právu člověka být informován o tom, že komunikuje s chatbotem. Toto právo by se pak pravděpodo­bně promítlo i do povinnosti označit původ textu. S tím bude souviset i otázka identifika­ce v online prostředí, která by mohla fungovat jako záruka původu textů a komunikace.

Rozhodnutí OpenAI nezveřejni­t GPT-2 lze s ohledem na výše uvedené rozhodně považovat za správný krok. OpenAI tím dala najevo, že si je vědoma své odpovědnos­ti v sociální oblasti a právních rizik spojených se zveřejnění­m podobného nástroje a zároveň ilustroval­a, jak významným oborem bude do budoucna posuzování rizik v technologi­cké oblasti. Zejména aplikace umělé inteligenc­e budou snadno využitelné a zneužiteln­é zároveň. Problémem však bude držet krok s rozvojem AI a vytvářet nástroje například k detekci dezinforma­cí. Technická řešení proto musí podpořit i striktní právní pravidla.

 ??  ??

Newspapers in Czech

Newspapers from Czechia