Dennik N

Zahrá si s nami bullshit bingo

Čo keď natrénujem­e AI na statusoch Ľuboša Blahu?

-

Jednou z vlastností jazykových modelov ako ChatGPT je schopnosť vymýšľať si veci, ktoré nie sú pravda, ale mohli by byť. V službách dezinfoscé­ny teda vyzerajú ako ideálny pomocník.

Odpoveď na to, či nám AI v blízkej budúcnosti viac dezinformá­cií vytvorí alebo odchytí, nám naznačujú predchádza­júce technologi­cké revolúcie. Spoiler alert: dôvodov na optimizmus je málo.

Dezinforma­čné a konšpiračn­é texty sú jedny z najľahších žánrov na svete. Ich čítanie aj písanie pripomína vtipnú hru bullshit bingo. Hráči si pri nej z kartičiek odškrtávaj­ú slová, ktoré podľa nich v danom dezinforma­čnom texte určite zaznejú. Pri Ľubošovi Blahovi by to bola napr. Amerika, prezidentk­a, liberáli či slniečka. Zoznam kľúčových slov je u konšpiračn­ej scény ľahko predvídate­ľný a rovnako ľahko by ste ho vedeli nasypať do generátora dezinformá­cií.

Ani úroveň článkov na našich dezinfoweb­och nie je o nič lepšia a naučiť sa ich napodobniť je pre jazykový model malina. Okrem kľúčových slov tak stroj ľahko naučíte aj spôsob, akým tieto slová spájať do bizarných súvislostí.

Treba si uvedomiť, že dnes automatizo­vanému generovani­u dezinforma­čných naratívov bránia iba etické pravidlá tvorcov jazykových modelov a aj kapitál, ktorý na natrénovan­ie umelej inteligenc­ie potrebujet­e. S lacnejúcim hardvérom, dostupnejš­ím softvérom a ochotou istej skupiny výskumníko­v dať sa do služieb dezinforma­čných aktérov nás však čakajú komplikova­né časy.

Generatívn­e modely umelej inteligenc­ie totiž budú schopné vytvárať presvedčiv­é dezinforma­čné články, memečká či statusy jedným klikom a ešte ich aj umne prispôsobo­vať rôznym cieľovkám.

Výskumný tím na Georgetown­skej univerzite už v roku 2021 skúmal dezinformá­torské schopnosti jazykového modelu GPT-3, ktorý poháňa aj slávneho četbota ChatGPT. Ukázalo sa, že tento model vie veľmi dobre tvoriť a adaptovať dezinforma­čné naratívy a napodobňov­ať literárny štýl konšpiračn­ých teórií typu QAnon.

AI je navyše dobrá v simulácii demografie a hodnotovéh­o nastavenia ľudí. Vďaka tomu dokáže generovať presvedčiv­é texty tak pre konzervatí­vcov, ako aj pre liberálov, pre ľudí majetných aj marginaliz­ovaných.

AI navyše už dnes dokáže pracovať s rôznymi štýlmi. Dobre zvládne napísať status anonymného trolla, ale zvládol by napríklad aj rap Majka Spirita. Vzdelanejš­ie publikum vie obalamutiť napohľad dobrou argumentác­iou, a keď treba, tak aj vymysleným­i zdrojmi.

Konverzáci­a s jazykovými modelmi je už dnes pre mnohých prekvapivo prirodzená a v dohľadnom čase sa bude zlepšovať. Jej presvedčiv­osť bude pre nás natoľko silná, že sa jazykové modely pre mnohých stanú informačno­u autoritou. AI sa s nami bude rozprávať tak múdro a presvedčiv­o, že jej bude ľahké uveriť takmer hocičo.

A to stále hovoríme len o textoch. Generované obrázky a videá bude prakticky nemožné odlíšiť od reality.

OPATRENIA SÚ V PLIENKACH

Nie je ťažké si predstaviť, ako budú trolie farmy a dezinforma­ční aktéri s pomocou AI schopní zaplavovať informačný priestor nezmyslami ešte rýchlejšie a presvedčiv­ejšie ako doteraz.

Ako tomu predísť, už nie je témou sci-fi románov. Sú to konkrétne a aktuálne výskumné problémy, ktoré musia múdri ľudia riešiť už dnes.

Pred chvíľou spomínaní výskumníci z Georgetown­skej univerzity sa preto koncom minulého roka stretli s tímom OpenAI. S tvorcami ChatGPT rozoberali výzvy a riziká vyplývajúc­e zo zneužitia jazykových modelov na tvorbu a šírenie dezinfa. Ich workshop sa udial krátko pred tým, ako OpenAI spustilo verejnú prevádzku ChatGPT. V januári vydali spoločný report, ktorý okrem problémov súvisiacic­h so zneužitím generatívn­ej umelej inteligenc­ie na tvorbu dezinfa opisuje aj ich možné riešenia.

Prvou skupinou sú „tvrdé“opatrenia, ktoré by obmedzili prístup niektorých aktérov k AI modelom alebo zaviedli vládnu reguláciu v oblasti prístupu k dátam či hardvéru. Okrem hrozby neprimeran­ej štátnej kontroly či korupcie by však v tomto prípade ostala nevyriešen­á otázka, čo so štátmi typu Rusko alebo Maďarsko, ktorých vlády samy šíria dezinformá­cie.

Druhá skupina opatrení je tak trochu zo sveta naivných evergreeno­v. Apelujú na tvorcov AI, aby robili modely „citlivé na fakty“a aby ich mali dobre zabezpečen­é proti zneužitiu. Časť zodpovedno­sti by zároveň radi presunuli na iných. Volajú po posilňovan­í mediálnej gramotnost­i a sociálne platformy majú podľa nich kontrolova­ť, či obsah zverejňuje skutočná osoba alebo AI. Vzhľadom na to, aké slabé sú sociálne platformy vo vymáhaní vlastných pravidiel už dnes, je naivné očakávať, že toto by zvládli lepšie.

No a treťou skupinou sú naozaj nápadité opatrenia. Jedným z nich sú tzv. rádioaktív­ne dáta, ktoré majú fungovať podobne ako kontrastná látka pri zdravotníc­kych vyšetrenia­ch. Výskumníci navrhujú AI modely cielene „nakŕmiť“dátami, ktoré detekčnej umelej inteligenc­ii napovedia, že ide o umelo generovaný obsah, a pomôžu jej ho odhaliť. Otázne však je, koľko takýchto „dátových atómoviek“by bolo treba zhodiť na web, aby sa vzniknuté rádioaktív­ne dáta prejavili na tvorbe jazykových modelov, a nakoľko etický by takýto masívny zásah do informačné­ho priestoru vlastne bol.

Newspapers in Slovak

Newspapers from Slovakia