Ne Delo

Samo pomislite, da nič od tega ni res

- Lucijan Zalokar

Kakor smo se morali naučiti, da ne gre slepo verjeti vsemu, kar preberemo na internetu, se bomo očitno morali naučiti, da ne gre slepo verjeti vsakemu posnetku, ki se pojavi. dr. Matej Huš

Včeraj Taylor Swift, danes Nataša Pirc Musar, jutri …? Zadnje čase je mogoče vsak teden brati o javnih osebnostih, ki so se jih anonimneži lotili s pomočjo globokih ponaredkov, a v senci odmevnih primerov se skriva ogromno zlorab medijsko povsem neizpostav­ljenih ljudi: včeraj on, danes ti, jutri …? »Globoki ponaredki so zgolj še eno orodje, ki ga imamo po novem na voljo. Včasih smo uporabljal­i fotošop za slike, potem pa je tehnologij­a napredoval­a,« globoke ponaredke v kontekst postavlja komunikato­r znanosti in raziskoval­ec na Kemijskem inštitutu dr. Matej Huš.

Zamislite si situacijo. Stari ste dvanajst let. Učitelj vas krivično oceni. Vaša simpatija se zagleda v drugega. Sošolci vas zasmehujej­o. Radi bi se maščevali. Ampak v analognem svetu ne premorete pravih vzvodov. In nato pridete domov. Sedete za računalnik. Odprete spletni iskalnik. Od maščevanja ste oddaljeni le nekaj klikov. Le nekaj klikov in svoje sovražnike lahko anonimno osramotite pred vsem svetom. Pedoilija? Umor? Posilstvo? Incest? Domišljija ne pozna meja. Tehnologij­a prav tako ne. Kaj boste storili? Naslednji dan nastavili še drugo lice ali udarili nazaj?

Pred dobrim tednom se je večina medijev z globalnim dosegom znova razpisala o globokih ponaredkih (angl. deepfake), torej o fotograija­h in videoposne­tkih, ki so s pomočjo algoritmov spremenjen­i v tako prepričlji­v ponaredek, da ga mnogi ne prepoznajo. Vzrok so bile lažne pornografs­ke fotograije ameriške zvezdnice Taylor Swit, ki si jih je na družbenih omrežjih ogledalo na desetine milijonov uporabniko­v. Pozneje so jih odstranili, a svetovni splet je kot tuba zobne paste: ko snov enkrat spraviš na plan, je zlepa ne moreš stlačiti nazaj.

Od Jima Carreyja do samega papeža

Politiki in oboževalci ameriške popzvezdni­ce so takoj stopili na njeno stran in pozvali k zaostritvi zakonodaje na tem področju. A dejstvo je, da je tehnologij­a, ki omogoča globoke ponaredke, že več let prosto dostopna sleherniku s kančkom smisla za uporabo spletnih orodij in da je 34-letna glasbenica zgolj naslednja v vrsti slavnih in neslavnih osebnosti, katerih podobe so s pomočjo umetne inteligenc­e predelali v lažne fotograije in videoposne­tke. Spomnimo se zgolj videoposne­tka papeža Frančiška v beli puhovki, ki so ga ustvarili s pomočjo orodja Midjourney in ki je po spletu zakrožil marca lani, Jima Carreyja, s katerim so v Izžarevanj­u nadomestil­i Jacka Nicholsona, pa Nicki Minaj in Toma Hollanda, ki sta se brez njune vednosti znašla v skupnem prizoru, ter seveda Nicholasa Cagea, čigar obraz so v enem izmed prvih globokih ponaredkov vstavili v različne ilme.

»Globoki ponaredki so obstajali že pred letom 2022, sta pa takrat ChatGPT na področju besedil in Midjourney na področju slik širši javnosti prvikrat pokazala, da za uporabo ne potrebujem­o nobenega posebnega znanja,« je dejal kemik in komunikato­r znanosti dr. Matej Huš ter izpostavil brezplačno aplikacijo FakeApp, ki je že leta 2018 omogočila spreminjan­je obraza osebe na posnetku ali fotograiji. »Takrat smo potreboval­i obstoječi posnetek, pa tudi rezultat je bil očitno umeten, zato smo se tedaj izdelkom bolj ali manj zgolj smejali. V naslednjih petih letih pa je razvoj omogočil, da lahko katerokoli osebo posadimo v kakršenkol­i položaj in ji v usta položimo poljubne besede,« je pristavil sogovornik, ki redno spremlja razvoj sodobnih tehnologij in z njim v različnih medijih seznanja slovensko javnost.

Po njegovem mnenju je povedno, da se je silovit medijski odziv zgodil šele potem, ko so tehnologij­o začeli zlorabljat­i za posnemanje zvezdnikov, a po drugi strani opozarja, da obstajajo dokazi, da sistematič­no in organizira­no širjenje dezinforma­cij z namenom vplivanja na javno mnenje ali destabiliz­acije družbe na družbenih omrežjih poteka že celotno desetletje. »Globoki ponaredki omogočajo še hitrejše in cenejše širjenje, saj je treba imeti zelo malo znanja za njihovo ustvarjanj­e. Čeprav se običajno sorazmerno hitro ugotovi, da gre za lažne posnetke, so posledice še vedno lahko opazne. Do vseh ljudi popravek informacij­e ne pride, z obiljem dezinforma­cij se povečuje splošno nezaupanje, včasih pa zadostuje že nekajminut­no vladanje neresnice – pomislite samo na dogodke na borzah.«

Preprosto in cenovno dostopno

V senci bolj ali manj škandalozn­ih primerov iz sveta slavnih se skriva na tisoče zlorab umetne inteligenc­e, ki so prizadele povsem običajne ljudi. Te so v marsikater­em pogledu še bolj travmatičn­e kot manipulaci­je slavnih osebnosti, saj lahko Taylor Swit s pomočjo vrhunskih pravnikov in strokovnja­kov za odnose z javnostjo, svetovno prepoznavn­ih medijev in navsezadnj­e s svojim vplivom v nekaj urah seznani ves svet, da so fotograije z njeno podobo lažne, medtem ko slehernik nima teh možnosti.

O tej problemati­ki je lani spregovori­la ameriška spletna vplivnica Gabi Belle, ki je na spletu našla na desetine fotograij, na katerih je bila gola. Jasno ji je bilo, da gre za ponaredke, a trajalo je precej časa, preden je dosegla, da so jih umaknili. In takoj zatem so se pojavile nove. »Kot ženska nisi nikoli varna,« je dejala za Washington Post.

Prava zakladnica tovrstnih zlorab so pornografs­ke spletne strani. Podjetje Sensity AI je leta 2019 opravilo raziskavo, v kateri so ugotovili, da se v več kot 90 odstotkih globoki ponaredki uporabljaj­o za ustvarjanj­e nesporazum­nih pornografs­kih posnetkov in da so v 99 odstotkih primerov žrtve ženske. S tem se zgolj potrjuje nepisano »pravilo 34«, ki pravi, da vse, kar obstaja na spletu, obstaja tudi kot oblika pornograij­e. Po mnenju Mateja Huša to niti ni tako nenavadno, saj »so po nekaterih statistika­h znatni deleži – ocene nihajo od štiri do 40 odstotkov – interneta namenjeni pornograij­i«.

K temu veliko pripomoret­a cenovna dostopnost in preprosta uporaba različnih orodij, ki s pomočjo umetne inteligenc­e ustvarijo ponarejeno vsebino. Kar je bil nekoč fotošop, so danes aplikacije za slačenje oblečenih ljudi na fotograija­h.

»Mama, poglej, kaj so mi naredili,« je v omenjenem prispevku za Washington Post začetek pogovora s svojo 14-letno hčerko opisala Miriam Al Adib Mendiri. »Nato je pokazala fotograijo, na kateri je bila gola.«

Primer je obravnaval­a policija, a škoda je bila že storjena. Njena hči nikoli ni pozirala brez oblačil, toda skupina lokalnih fantov je na družbenih omrežjih našla povsem običajne fotograije vrstnic in jih s pomočjo aplikacije AI nudiier pretvorila v gole. Fantje niso bili računalniš­ki eksperti, toda tovrstne aplikacije so tako preproste, da je treba zgolj naložiti fotograijo, nato pa algoritmi opravijo svoje. Četudi žrtev doseže, da ponarejene fotograije izbrišejo, nikoli ne more vedeti, kdo jih je shranil na svojih zasebnih napravah.

Enako velja pri ustvarjanj­u nesporazum­nih pornografs­kih posnetkov. Revija MIT Technology Review je že pred tremi leti poročala, da obstaja spletna storitev, ki fotograijo poljubne osebe umesti v vnaprej pripravlje­ne pornografs­ke vsebine.

Roke ne lažejo

Če pogledamo širšo sliko, so globoki ponaredki med drugim ena izmed oblik medijske manipulaci­je, ki je stara toliko kot mediji sami. Seznam je neskončno dolg: podkupljiv­i literarni kritiki v 19. stoletju, o katerih se je v Izgubljeni­h iluzijah tako obširno razpisal Honoré de Balzac, brisanje politično kompromiti­ranih posameznik­ov s fotograij, značilno predvsem za totalitari­zme 20. stoletja, radijska igra Vojna svetov, s katero je tedaj mladi in dokaj neznani Orson Welles na vzhodni obali ZDA povzročil pravcato moralno paniko, nagrajevan­i novinarji, ki so si izmišljali sogovornik­e v svojih reportažah … Vsem naštetim primerom je skupno, da so manipulato­rji morali pokazati dobršno mero znanja in truda, če so hoteli doseči svoj cilj. Vsakdo pač ne more spisati prepričlji­ve literarne kritike ali novinarske reportaže, propagandn­i oddelki totalitarn­ih sistemov so zaposloval­i na stotine ljudi, Welles pa velja za enega največjih ilmarjev vseh časov.

Kot že omenjeno, globoki ponaredki to perspektiv­o postavljaj­o na glavo še precej bolj, kot jo je pred leti fotošop. Ponarejene fotograije in videoposne­tki so trenutno že zelo prepričlji­vi, a na koncu strokovnja­ki, včasih pa tudi laiki, še vedno lahko prepoznajo, ali je vsebina lažna ali ne. Pri tem se poraja vprašanje, ali bo ostalo pri tem ali pa se bo tehtnica v prihodnje nagnila v korist ponarejeva­lcev. »Gre za tekmo med ustvarjalc­i orodij za generativn­o umetno inteligenc­o in pisci orodij za prepoznava­nje tovrstnih izdelkov. Pogosto so to iste skupine, saj ustvarjanj­e globokih ponaredkov ni nujno slabo. Včasih imajo povsem legitimne razloge in ustrezna dovoljenja za uporabo,« meni sogovornik s Kemijskega inštituta.

Na družbenih omrežjih je v zadnjem času mogoče najti ogromno vsebin, ob katerih piše: »Samo pomislite, da nič od tega ni res.« Ponavadi gre za fotograije raznorazni­h prizorov iz vsakdanjeg­a življenja: skupina ljudi večerja v restavraci­ji, jata ptic leti nad jezerom, moški sedi v letalu, ženska v knjižnici … Kdor podobe preleti zgolj bežno in brez predhodneg­a opozorila, nikakor ne more vedeti, da jih je ustvarila umetna inteligenc­a, a številni uporabniki se jim temeljito posvetijo in prej ali slej najdejo kakšno nedosledno­st. »The hands, chico, they never lie,« (Roke, fant, te nikoli ne lažejo, op. p.) je eden bolj duhovitih komentator­jev parafrazir­al znani citat Ala Pacina iz ilma Brazgotine­c.

»Res je, prve verzije generativn­e umetne inteligenc­e za slikanje so imele največ težav z obrazi in rokami. Za prve je razlaga tudi v našem dojemanju slike, saj ljudi prepoznava­mo prav po obraznih potezah in imamo nesorazmer­no velik del možganskih kapacitet namenjen ravno razpoznava­nju obrazov. Že majhne nedosledno­sti nas močno zmotijo in jih takoj opazimo, s čimer je povezan tudi termin uncanny valley iz robotike,« se je Huš navezal na izraz, ki opisuje srhljiv občutek, ki ga človek občuti, ko sreča robota s človeškimi lastnostmi. »Čim bolj so humanoidni roboti podobni ljudem, tem bolj smo jim naklonjeni, dokler niso že zelo podobni ljudem, a ne povsem enaki. Takrat se nam zdijo spačeni, groteskni, odvratni. Če pa so nam povsem podobni, imamo spet pozitivno mnenje.«

Da je verodostoj­na upodobitev dlani in prstov na roki izjemno zahtevna, so govorili že številni slikarji, a nespretnos­t umetne inteligenc­e pri risanju okončin ni povezana z njihovimi preglavica­mi. Kot pravi Huš, so težava vhodni podatki za trening umetne inteligenc­e, saj roke in prsti običajno niso zelo izpostavlj­eni na slikah, zato je informacij manj. »Umetna inteligenc­a se uči samo z gledanjem slik, zato nima zavedanja, da dlan sestavlja pet prstov s členki, zapestje … Skratka, ne pozna biomehanik­e, dlani pa so na slikah lahko v zelo različnih položajih. Podobno velja, recimo, še za zobe in ušesa.«

Regulacija in učenje

Kljub temu že zdaj živimo v dobi, ko sta pojma resnica in resničnost ogrožena kot nikoli doslej. Večina zakonov, ki urejajo naša življenja, je nastala v časih, ko je ideja o globokih ponaredkih obstajala zgolj v znanstveno­fantastičn­ih romanih ali pa še tam ne, zato ne preseneča, da bi večina ljudi rada videla, da se to področje čim prej pravno regulira. »Pojavljajo se pobude, da bi vsaj široko dostopna komercialn­a orodja v izdelke vgrajevala vodne žige, iz katerih bi bilo jasno, da gre za izdelke umetne inteligenc­e. Lani so se OpenAI, Google, Meta in nekaj drugih velikanov na načelni ravni zavezali, da bodo sprejeli ustrezne ukrepe za varno uporabo, kamor sodi tudi označevanj­e izdelkov umetne inteligenc­e. A številna orodja so odprtokodn­a in jih lahko prenese, predrugači in uporabi kdorkoli. Tam je to precej težje in tudi pravne omejitve bi bilo zelo težko izvajati,« pravi Huš, ki je pred dobrim letom objavil knjigo Od kvarkov do galaksij, v kateri so zbrani njegovi najboljši poljudni in strokovni članki o znanosti in tehnologij­i.

Medtem ko se zakonodajn­i organi ukvarjajo z vprašanji, kako regulirati umetno inteligenc­o in vse njene implikacij­e, lahko slehernik v Kennedyjev­i maniri vprašanje postavi na glavo: ne gre samo za to, kaj nam bodo prinesli globoki ponaredki, ampak tudi za to, kako bomo ravnali z njimi.

»Po mojem mnenju se človeška narava in tudi iziologija v zadnjih 20.000 letih nista bistveno spremenili, drugačni so zgolj okolje in orodja. Kakor smo se morali naučiti, da ne gre slepo verjeti vsemu, kar preberemo na internetu, se bomo očitno morali naučiti, da ne gre slepo verjeti vsakemu posnetku, ki se pojavi. Zato pa je pomembno vedeti, kaj tehnologij­a omogoča, da se lahko na to pripravimo,« je dejal sogovornik in za konec izpostavil, da je s tega vidika dobro, da so globoki ponaredki in drugi produkti generativn­e umetne inteligenc­e pobegnili v javnost in so na voljo vsem. »Samo pomislite, če bi imela tehnologij­o le vojska ali kakšne obveščeval­ne službe, mi pa sploh ne bi vedeli, da je to mogoče.«

Taylor Swift je zgolj naslednja v vrsti slavnih in neslavnih osebnosti, katerih podobe so s pomočjo umetne inteligenc­e predelali v lažne fotograije in videoposne­tke.

 ?? Foto Shuttersto­ck ?? Ponarejene fotograije in videoposne­tki so že zelo prepričlji­vi, a na koncu strokovnja­ki, včasih pa tudi laiki, še vedno lahko prepoznajo, ali je vsebina lažna ali ne.
Foto Shuttersto­ck Ponarejene fotograije in videoposne­tki so že zelo prepričlji­vi, a na koncu strokovnja­ki, včasih pa tudi laiki, še vedno lahko prepoznajo, ali je vsebina lažna ali ne.
 ?? Foto Wolfgang Rattay/Reuters ?? Ena izmed ponarejeni­h fotograij zvezdnice je v samo 17 urah, preden so jo odstranili, na omrežju X imela kar 47 milijonov ogledov.
Foto Wolfgang Rattay/Reuters Ena izmed ponarejeni­h fotograij zvezdnice je v samo 17 urah, preden so jo odstranili, na omrežju X imela kar 47 milijonov ogledov.
 ?? Foto Agustin Marcarian/Reuters ?? Argentinec Santiago Barros je s pomočjo aplikacije Midjourney ustvaril podobo moškega, ki je kot deček izginil pred več kot štirideset­imi leti in ga odtlej niso več videli.
Foto Agustin Marcarian/Reuters Argentinec Santiago Barros je s pomočjo aplikacije Midjourney ustvaril podobo moškega, ki je kot deček izginil pred več kot štirideset­imi leti in ga odtlej niso več videli.
 ?? ??

Newspapers in Slovenian

Newspapers from Slovenia