Zahrá si s nami bullshit bingo
Čo keď natrénujeme AI na statusoch Ľuboša Blahu?
Jednou z vlastností jazykových modelov ako ChatGPT je schopnosť vymýšľať si veci, ktoré nie sú pravda, ale mohli by byť. V službách dezinfoscény teda vyzerajú ako ideálny pomocník.
Odpoveď na to, či nám AI v blízkej budúcnosti viac dezinformácií vytvorí alebo odchytí, nám naznačujú predchádzajúce technologické revolúcie. Spoiler alert: dôvodov na optimizmus je málo.
Dezinformačné a konšpiračné texty sú jedny z najľahších žánrov na svete. Ich čítanie aj písanie pripomína vtipnú hru bullshit bingo. Hráči si pri nej z kartičiek odškrtávajú slová, ktoré podľa nich v danom dezinformačnom texte určite zaznejú. Pri Ľubošovi Blahovi by to bola napr. Amerika, prezidentka, liberáli či slniečka. Zoznam kľúčových slov je u konšpiračnej scény ľahko predvídateľný a rovnako ľahko by ste ho vedeli nasypať do generátora dezinformácií.
Ani úroveň článkov na našich dezinfoweboch nie je o nič lepšia a naučiť sa ich napodobniť je pre jazykový model malina. Okrem kľúčových slov tak stroj ľahko naučíte aj spôsob, akým tieto slová spájať do bizarných súvislostí.
Treba si uvedomiť, že dnes automatizovanému generovaniu dezinformačných naratívov bránia iba etické pravidlá tvorcov jazykových modelov a aj kapitál, ktorý na natrénovanie umelej inteligencie potrebujete. S lacnejúcim hardvérom, dostupnejším softvérom a ochotou istej skupiny výskumníkov dať sa do služieb dezinformačných aktérov nás však čakajú komplikované časy.
Generatívne modely umelej inteligencie totiž budú schopné vytvárať presvedčivé dezinformačné články, memečká či statusy jedným klikom a ešte ich aj umne prispôsobovať rôznym cieľovkám.
Výskumný tím na Georgetownskej univerzite už v roku 2021 skúmal dezinformátorské schopnosti jazykového modelu GPT-3, ktorý poháňa aj slávneho četbota ChatGPT. Ukázalo sa, že tento model vie veľmi dobre tvoriť a adaptovať dezinformačné naratívy a napodobňovať literárny štýl konšpiračných teórií typu QAnon.
AI je navyše dobrá v simulácii demografie a hodnotového nastavenia ľudí. Vďaka tomu dokáže generovať presvedčivé texty tak pre konzervatívcov, ako aj pre liberálov, pre ľudí majetných aj marginalizovaných.
AI navyše už dnes dokáže pracovať s rôznymi štýlmi. Dobre zvládne napísať status anonymného trolla, ale zvládol by napríklad aj rap Majka Spirita. Vzdelanejšie publikum vie obalamutiť napohľad dobrou argumentáciou, a keď treba, tak aj vymyslenými zdrojmi.
Konverzácia s jazykovými modelmi je už dnes pre mnohých prekvapivo prirodzená a v dohľadnom čase sa bude zlepšovať. Jej presvedčivosť bude pre nás natoľko silná, že sa jazykové modely pre mnohých stanú informačnou autoritou. AI sa s nami bude rozprávať tak múdro a presvedčivo, že jej bude ľahké uveriť takmer hocičo.
A to stále hovoríme len o textoch. Generované obrázky a videá bude prakticky nemožné odlíšiť od reality.
OPATRENIA SÚ V PLIENKACH
Nie je ťažké si predstaviť, ako budú trolie farmy a dezinformační aktéri s pomocou AI schopní zaplavovať informačný priestor nezmyslami ešte rýchlejšie a presvedčivejšie ako doteraz.
Ako tomu predísť, už nie je témou sci-fi románov. Sú to konkrétne a aktuálne výskumné problémy, ktoré musia múdri ľudia riešiť už dnes.
Pred chvíľou spomínaní výskumníci z Georgetownskej univerzity sa preto koncom minulého roka stretli s tímom OpenAI. S tvorcami ChatGPT rozoberali výzvy a riziká vyplývajúce zo zneužitia jazykových modelov na tvorbu a šírenie dezinfa. Ich workshop sa udial krátko pred tým, ako OpenAI spustilo verejnú prevádzku ChatGPT. V januári vydali spoločný report, ktorý okrem problémov súvisiacich so zneužitím generatívnej umelej inteligencie na tvorbu dezinfa opisuje aj ich možné riešenia.
Prvou skupinou sú „tvrdé“opatrenia, ktoré by obmedzili prístup niektorých aktérov k AI modelom alebo zaviedli vládnu reguláciu v oblasti prístupu k dátam či hardvéru. Okrem hrozby neprimeranej štátnej kontroly či korupcie by však v tomto prípade ostala nevyriešená otázka, čo so štátmi typu Rusko alebo Maďarsko, ktorých vlády samy šíria dezinformácie.
Druhá skupina opatrení je tak trochu zo sveta naivných evergreenov. Apelujú na tvorcov AI, aby robili modely „citlivé na fakty“a aby ich mali dobre zabezpečené proti zneužitiu. Časť zodpovednosti by zároveň radi presunuli na iných. Volajú po posilňovaní mediálnej gramotnosti a sociálne platformy majú podľa nich kontrolovať, či obsah zverejňuje skutočná osoba alebo AI. Vzhľadom na to, aké slabé sú sociálne platformy vo vymáhaní vlastných pravidiel už dnes, je naivné očakávať, že toto by zvládli lepšie.
No a treťou skupinou sú naozaj nápadité opatrenia. Jedným z nich sú tzv. rádioaktívne dáta, ktoré majú fungovať podobne ako kontrastná látka pri zdravotníckych vyšetreniach. Výskumníci navrhujú AI modely cielene „nakŕmiť“dátami, ktoré detekčnej umelej inteligencii napovedia, že ide o umelo generovaný obsah, a pomôžu jej ho odhaliť. Otázne však je, koľko takýchto „dátových atómoviek“by bolo treba zhodiť na web, aby sa vzniknuté rádioaktívne dáta prejavili na tvorbe jazykových modelov, a nakoľko etický by takýto masívny zásah do informačného priestoru vlastne bol.