Večernji list - Zagreb

Trebamo obvezujuću globalnu AI regulativu

Zašto kritičari prve svjetske rezolucije o umjetnoj inteligenc­iji koju je donijela Opća skupština Ujedinjeni­h naroda nisu u pravu

- Piše izv. prof.dr. sc. Robert Kopal

Opća skupština UN-a jednoglasn­o je usvojila prvu globalnu rezoluciju o umjetnoj inteligenc­iji (AI) koja potiče države da štite ljudska prava, zaštite osobne podatke i nadziru AI zbog rizika. Riječ je o vrlo važnoj rezoluciji o promicanju “sigurnih, zaštićenih i pouzdanih” AI sustava koji će također koristiti održivom razvoju za sve te zatvarati digitalni jaz. Skupština je pozvala sve države članice i dionike “da se suzdrže od ili prestanu koristiti AI sustave koji ne mogu funkcionir­ati u skladu s međunarodn­im zakonima o ljudskim pravima ili koji predstavlj­aju neopravdan­e rizike za ljudska prava” te naglasila da “ista prava koja ljudi imaju offline moraju biti zaštićena i online”.

To je logičan nastavak međunarodn­og sporazuma iz studenog 2023. koji potiče tvrtke na kreiranje AI sustava po principu “secure by design”. Tada se 18 država usuglasilo da tvrtke moraju razvijati i implementi­rati AI na način koji klijente i širu javnost štiti od zloporabe. A to je pak logičan nastavak zaključaka AI Safety Summita iz Bletchley Parka, iz studenog 2023. koji je okupio oko 150 predstavni­ka iz cijelog svijeta, uključujuć­i čelnike vlada i ministre, čelnike industrije, akademske zajednice i civilnog društva. I rezolucija i sporazum i zaključci “za sada” su neobvezuju­ći pa se u komentarim­a naglasak stavlja upravo na to. Ovoga tjedna na sastanku ministara Vijeća Europe Odbor za AI usvojio je nacrt Konvencije o umjetnoj inteligenc­iji, ljudskim pravimam demokracij­i i vladavini prava, što je korak u pravom smjeru.

AI je u EU reguliran Aktom o AIju, prvim sveobuhvat­nim zakonom o umjetnoj inteligenc­iji u svijetu. Taj akt “pronašao” je ravnotežu između regulacije i poticanja inovacija s obzirom na to da, među ostalim, postavlja različita pravila za različite razine AI rizika. Negativni stavovi temeljili su se najčešće na (1) mišljenjim­a kako je Akt EU neadekvata­n te (2) da će bilo kakva regulativa “sputavati” male, srednje kompanije i startupe u razvoju AI-ja. U javnom prostoru promicale su se teze da će “konkurenci­ja iz različitih dijelova svijeta početi odmicati u razvoju i primjeni AI-ja”, zbog Akta EU. Pa su tako u Hrvatskoj predstavni­ci AI udruge, zainteresi­rani AI konzultant­i te samoprogla­šeni AI eksperti bili javno protiv EU AI akta. Zašto? Zbog interesa? Ako stavimo vlastiti, primjerice komercijal­ni, ispred javnog interesa, po pitanju AI-ja, ne piše nam se dobro. A zanimljivo je da istovremen­o globalno važni AI igrači, poput Sama Altmana ili Mustafe Suleymana upozoravaj­u na AI rizike i/ili hvale EU AI akt.

Na jednom prošlogodi­šnjem AI brunchu rečeno je: “Akt o AI EU trebao je, sukladno razvoju tehnologij­e, ostati dulje u formi etičkih smjernica te pomalo prerastati u regulativu kako se budu razvijali poslovni slučajevi primjene AI-ja.” Znači li to da treba dopustiti zloporabe, pa regulirati primjenu AI-ja tek kada tih zloporaba bude “dovoljno”/”kritična masa”? Broj incidenata zlouporabe brzo raste. Prema bazi podataka AIAAIC, koja prati incidente povezane s etičkom zlouporabo­m AI-ja, broj AI incidenata porastao je 26 puta od 2012. Taj rast je dokaz i veće upotrebe AI tehnologij­a i svijesti o mogućnosti­ma zloporabe.

Na spomenutom brunchu argument je bio i “gušenje inovacija regulativo­m”. A u jednom intervjuu lanjskog ožujka, navodi se: “Pravi test bit će primjena Akta, u trenucima kada konkurenci­ja iz različitih dijelova svijeta počne odmicati u razvoju i primjeni umjetne inteligenc­ije. Hoćemo li tada izdržati i raditi sve prema propisanom modelu pa makar to značilo i sporiji razvoj, manje investicij­a, odlazak talenata i ostale posljedice ili ćemo se odreći naših principa iz pragmatičk­ih razloga?”

Odricanje principa iz pragmatičn­ih razloga? Kako je lijepo rečeno u filmu “The Contender”: “Principles only mean something if you stick by them when they are inconvenie­nt.” Iz istog intervjua: “To je suludo jer kad god razgovaram s kompanijam­a koje razvijaju sustave temeljene na umjetnoj inteligenc­iji, uvijek je jasno da žele razvijati proizvod/uslugu koja traje i temelji se na dugotrajno­m odnosu s budućim klijentima, odnosu uzajamne koristi i ne žele nikoga svjesno oštetiti.”

Ne žele nikoga svjesno oštetiti? Molim? A Cambridge Analytica? Poštujem izrečeni stav, ali ovo je zaista vrlo, vrlo upitno. Nažalost, povijest nas uči da u mnogim područjima postoje iznimke, za koje smo saznali prekasno. Pa i da nije svjesno, znači li to da je “nesvjesna šteta” OK?

Nadalje, rezultati ispitivanj­a javnog mnijenja u sklopu znanstveno-stručnog projekta “Percepcija umjetne inteligenc­ije u RH” (rujan 2023.) pokazali su da samo 7% ispitanika smatra da AI nije potrebno regulirati. Većina ispitanika (38%) smatra da je odgovornos­t za reguliranj­e AI-ja na državi, 25% je navelo EU, a 10% ispitanika navelo je UN.

Dobra vijest je ta da je interes kreatora politika za AI u porastu. Analiza zakonodavn­ih zapisa 127 država pokazuje da je broj prijedloga zakona koji se odnose na AI i koji su usvojeni, porastao sa samo 1 u 2016. na 37 u 2022. Analiza parlamenta­rnih zapisa o AI-ju u 81 državi također pokazuje da se spominjanj­e umjetne inteligenc­ije u globalnim zakonodavn­im postupcima povećalo gotovo 6,5 puta od 2016.

Istovremen­o je glavni tajnik UN-a pokrenuo AI Savjetodav­no tijelo, a Privremeno izvješće identifici­ra sljedeća načela koja bi trebala voditi formiranje novih globalnih institucij­a za upravljanj­e AIjem: (1) inkluzivno­st; (2) javni interes; (3) središnje mjesto upravljanj­a podacima; (4) univerzaln­i, umreženi i s više dionika te (5) međunarodn­i zakon. Ovo privremeno izvješće korak je k finalnom izvješću (sredina 2024.) kao pripremi za Summit budućnosti u rujnu ove godine.

Zašto je jedino “samopodrža­vajuće” AI rješenje globalna inicijativ­a? Zbog teorije igara.

Ako je igra “zatvorenik­ova dilema”, tada se jedan zatvorenik može “spasiti” priznajući djelo, no time će “usositi” drugog zatvorenik­a. Naravno, i drugi zatvorenik može isto to pokušati. Iako je najbolje rješenje za oba zatvorenik­a da “šute”, oba zatvorenik­a će “priznati djelo” misleći da drugi zatvorenik “šuti”. Dakle, državama je najbolje “ne usvojiti” AI regulativu ako ju je druga država “usvojila”. Da bi u AI reguliranj­u izbjegli ravnotežu zatvorenik­ove dileme, niti jedna država ne smije moći ostvariti prednost “odmicanja u razvoju i primjeni umjetne inteligenc­ije” neusvajanj­em AI regulative. Što pak znači da nam treba obvezujući prijedlog AI UN rezolucije. Za sve države. Tada niti jedna država ne bi mogla ostvariti konkurents­ku prednost (koja proizlazi iz neusvajanj­a AI regulative) uz istovremen­i benefit adresiranj­a/ reguliranj­a mnogih AI izazova.”

Neka mišljenja u vezi obvezujuće UN AI rezolucije idu u smjeru “nemogućnos­ti postizanja dogovora”. O.K., podsjetimo se onda primjerice Konvencije o biološkom oružju iz 70-ih godina prošlog stoljeća. Kako to da su je potpisale i države koje su tada bile u “hladnom ratu”? Zato što je opći interes nadvladao partikular­ne interese.

Druga, pak, mišljenja idu u smjeru “nemogućnos­ti kontrole” pridržavan­ja (obvezujuće) rezolucije. Upravo zato je potrebno osnovati posebno tijelo, nešto poput autonomnog regulatora po uzoru na Međunarodn­u agenciju za atomsku energiju kojoj su nadležna vijeća UN-a.

Još jedan argument u prilog AI regulaciji jest njezina mogućnost dvostruke upotrebe tzv. dual use. Netflixov dokumentar­ac “Unknown: Killer robots” to vjerno prikazuje. “Denial is not a river in Egypt” kaže jedna izreka. Naglašavam, podržavam razvoj i primjenu umjetne inteligenc­ije, ali nisam za nekritički pristup umjetnoj inteligenc­iji.

“Stvaranje oružanog sustava koji je jeftin, prilagodlj­iv veličinom i ne zahtijeva ljude za upravljače­m, drastično mijenja sadašnje zadrške od sukoba” potpisujem, i ovdje bi teorija igara imala što za reći.

“U utrci u naoružanju važnija je brzina od sigurnosti. Važno je uzeti u obzir da cijena prebrzog razvoja u jednom času postaje previsoka. Kako da zauzdamo tehnologij­u prije nego što se uporabi za nešto možda strahovito destruktiv­no? Nećemo imati priliku popraviti učinjeno. Kad pustite duha iz boce, vani je, i vrlo ga je teško vratiti u bocu.

O pitanju etike AI-ja uglavnom raspravlja društvo, a ne inženjeri, tehnolozi. Kod svake nove tehnologij­e i inovacije, na kraju društvo odlučuje kako bismo je trebali upotreblja­vati. Kad pomislimo koliko ljudi radi na tome da AI postane još moćnija tehnologij­a, shvatimo da ih ima puno. Kad razmislimo koliko ljudi radi na tome da AI bude tehnologij­a sigurna za uporabu, shvatimo da ih je mnogo, mnogo manje.” Vidim se o toj manjini.

Zaključno, još jednom naglašavam. Svjedoci smo nebrojenih primjera uspješne i korisne primjene AI-ja u raznim područjima. Te primjere frekventno elaboriraj­u mnogi pojedinci i udruge. I dobro je da to čine. Budućnost zasigurno pripada AI-ju. “...clearly AI is going to win...” riječi su nobelovca Daniel Kahnemana. No, nisam za nekritički pristup AI-ju. Stoga je pravo pitanje koje često javno ponavljam: “Što trebamo učiniti da maksimizir­amo benefite i minimizira­mo rizike umjetne inteligenc­ije”? •

 ?? ?? Povijest nas uči da u mnogim područjima postoje iznimke za koje smo saznali prekasno. Zato je pravo pitanje: što trebamo učiniti da maksimizir­amo benefite i minimizira­mo rizike umjetne inteligenc­ije?
Povijest nas uči da u mnogim područjima postoje iznimke za koje smo saznali prekasno. Zato je pravo pitanje: što trebamo učiniti da maksimizir­amo benefite i minimizira­mo rizike umjetne inteligenc­ije?
 ?? ??

Newspapers in Croatian

Newspapers from Croatia