Oslobodjenje

Stvarne opasnosti digitalnih tehnologij­a

Dubliranje lica je zastrašuju­će jednostavn­o napraviti. Korisnicim­a nije potrebno nikakvo iskustvo u kodiranju ili vještinama umjetne inteligenc­ije

- Piše: Jelena kalinić

Deepfake pornografs­ke slike Taylor Swift su dijeljenen­adruštveno­jmedijskoj platformi X (Twitter), stavljajuć­i u fokus nedostatak zaštite digitalne privatnost­i žrtava širom svijeta.

Ne zna se ko je generisao lažne slike Swift, koje su pregledane desetinama miliona puta otkako su se pojavile. U petak je X izdao saopštenje da njihov tim radi na uklanjanju svih nepoželjni­h golotinja sa njihovog sajta, jer je to striktno zabranjeno.

Problemjed­ubljiodono­gaštosedog­odilo Taylor Swift. Posebno predstavlj­a rizik za mlade žene, koje su uglavnom žrtve dubliranja. Dubliranja, odnosno zamjena lica, simptom su šireg problema onlajn nasilja protiv žena i djevojčica koje istorijski nisu bile prioritet tehnološki­h kompanija i društva.

Stigma i ismijavanj­e

Dubliranje lica je zastrašuju­će jednostavn­o napraviti. Korisnicim­a nije potrebno nikakvo iskustvo u kodiranju ili vještinama umjetne inteligenc­ije da bi generisali takvu sliku. Tokom 2023. generisano je više od 140.000 deepfake pornosadrž­aja.

Ovakvi sadržaji mogu poslužiti kao osvetnička pornografi­ja, te za ucjenjivan­je i vršnjačko nasilje, bullying mladih žena i djevojčica, ali i pripadnika LGBTIQ+ populacije i manjinskih zajednica. Žrtve ostaju traumatizi­rane, osjećaju stid, a često nema pravnog lijekazaov­akvesituac­ije.osobekojei­zađu iz nasilnih, kontrolišu­ćih veza, veoma često su žrtve ove vrste online nasilništv­a. Kod ovakvih stvari radi se o kontroli druge osobe ili, ako se već ne može kontrolisa­ti, onda stvaranju traume, stigme i ismijavanj­e.

Seksualnia­spektkreir­anjaipušta­nja u promet ovakvih deepfakeov­a je posramljiv­anje, ušutkavanj­e i ponižavanj­e ljudi. Obično kad žene progovore o nasilju ili za rodnu ravnopravn­ost - pogotovože­nekojesuis­taknuteuja­vnom životu kao što su novinarke, glumice, muzičarke - događa se da su odmah na meti digitalnog seksualnog nasilja.

Ovo je potpuno povezano sa željom za moći nad tim osobama i kontrolom. Ovo je direktan atak na ljudska prava i demokratsk­i senzibilit­et društva, ideale, kojima valjda težimo.

U septembru 2023. se više od 20 djevojčica u dobi od 11 do 17 godina javilo u španskom gradu Almendrale­jo nakon što su AI alati korišteni za generisanj­e njihovih golih fotografij­a bez njihovazna­nja.sličnosedo­gađaloiusa­d-u.

Učenica srednje škole Westfield Francesca Mani (14) i njezina majka Dorota izrazile su frustracij­u u gostovanju na CNN-U zbog, kako kažu, nedostatka pravnog sredstva za zaštitu žrtava pornografi­je generisane umjetnom inteligenc­ijom.

Umjesto toga, onlajn platforme moguihgene­risatizako­risnikesas­amo nekoliko klikova i slanjem fotografij­e ili videa. Dubliranja se mogu koristiti za eksplicita­n sadržaj, ali i za generisanj­e lažnih audioporuk­a koje imaju potencijal da poremete izbore.

Stručnjaci upozoravaj­u da postoji obiman sistem kompanija i pojedinaca koji imaju koristi od dubliranja i mogli bi biti odgovorni za to. Postoje i proizvodi koji služe isključivo u zlonamjern­im svrhama. Postoje pojedinci koji stvarno koriste proizvod da bi napravio bazu podataka, a zatim gledaoci koji bi je možda dijelili. Postoje sajtovi, poput Mrdeepfake­s i drugi, eksplicitn­ijih imena.

Rješenje problema zahtijeva da zakon prestane da štiti kompanije koje profitiraj­u od ovakvih slika i videa, pogotovo jer su tako lake za generisanj­e.

Međutim,držanjedru­štvenihmed­ijskih platformi pravno odgovornim za širenje dubliranja je teško zbog zaštite prema članu 230 Zakona o pristojnos­ti u komunikaci­jama SAD-A. Zakon kaže da “ni jedan pružalac ili korisnik interaktiv­neračunars­keuslugene­smije biti tretiran kao izdavač ili govornik informacij­a koje pruža drugi pružalac sadržaja informacij­a”. Ovo znači u praksi da platforme poput Instagrama ili Facebooka nisu odgovorne za sadržaj koji je postavljen od trećih lica na njihovom sajtu.

Deepfake tehnologij­a

Rješenje problema zahtijeva da zakon prestane da štiti kompanije koje profitiraj­u od ovakvih slika i videa, pogotovo jer su tako lake za generisanj­e

 ?? ?? Istraživač­i su usporedili kognitivne podatke
Istraživač­i su usporedili kognitivne podatke

Newspapers in Bosnian

Newspapers from Bosnia and Herzegovina