Trebamo obvezujuću globalnu AI regulativu
Zašto kritičari prve svjetske rezolucije o umjetnoj inteligenciji koju je donijela Opća skupština Ujedinjenih naroda nisu u pravu
Opća skupština UN-a jednoglasno je usvojila prvu globalnu rezoluciju o umjetnoj inteligenciji (AI) koja potiče države da štite ljudska prava, zaštite osobne podatke i nadziru AI zbog rizika. Riječ je o vrlo važnoj rezoluciji o promicanju “sigurnih, zaštićenih i pouzdanih” AI sustava koji će također koristiti održivom razvoju za sve te zatvarati digitalni jaz. Skupština je pozvala sve države članice i dionike “da se suzdrže od ili prestanu koristiti AI sustave koji ne mogu funkcionirati u skladu s međunarodnim zakonima o ljudskim pravima ili koji predstavljaju neopravdane rizike za ljudska prava” te naglasila da “ista prava koja ljudi imaju offline moraju biti zaštićena i online”.
To je logičan nastavak međunarodnog sporazuma iz studenog 2023. koji potiče tvrtke na kreiranje AI sustava po principu “secure by design”. Tada se 18 država usuglasilo da tvrtke moraju razvijati i implementirati AI na način koji klijente i širu javnost štiti od zloporabe. A to je pak logičan nastavak zaključaka AI Safety Summita iz Bletchley Parka, iz studenog 2023. koji je okupio oko 150 predstavnika iz cijelog svijeta, uključujući čelnike vlada i ministre, čelnike industrije, akademske zajednice i civilnog društva. I rezolucija i sporazum i zaključci “za sada” su neobvezujući pa se u komentarima naglasak stavlja upravo na to. Ovoga tjedna na sastanku ministara Vijeća Europe Odbor za AI usvojio je nacrt Konvencije o umjetnoj inteligenciji, ljudskim pravimam demokraciji i vladavini prava, što je korak u pravom smjeru.
AI je u EU reguliran Aktom o AIju, prvim sveobuhvatnim zakonom o umjetnoj inteligenciji u svijetu. Taj akt “pronašao” je ravnotežu između regulacije i poticanja inovacija s obzirom na to da, među ostalim, postavlja različita pravila za različite razine AI rizika. Negativni stavovi temeljili su se najčešće na (1) mišljenjima kako je Akt EU neadekvatan te (2) da će bilo kakva regulativa “sputavati” male, srednje kompanije i startupe u razvoju AI-ja. U javnom prostoru promicale su se teze da će “konkurencija iz različitih dijelova svijeta početi odmicati u razvoju i primjeni AI-ja”, zbog Akta EU. Pa su tako u Hrvatskoj predstavnici AI udruge, zainteresirani AI konzultanti te samoproglašeni AI eksperti bili javno protiv EU AI akta. Zašto? Zbog interesa? Ako stavimo vlastiti, primjerice komercijalni, ispred javnog interesa, po pitanju AI-ja, ne piše nam se dobro. A zanimljivo je da istovremeno globalno važni AI igrači, poput Sama Altmana ili Mustafe Suleymana upozoravaju na AI rizike i/ili hvale EU AI akt.
Na jednom prošlogodišnjem AI brunchu rečeno je: “Akt o AI EU trebao je, sukladno razvoju tehnologije, ostati dulje u formi etičkih smjernica te pomalo prerastati u regulativu kako se budu razvijali poslovni slučajevi primjene AI-ja.” Znači li to da treba dopustiti zloporabe, pa regulirati primjenu AI-ja tek kada tih zloporaba bude “dovoljno”/”kritična masa”? Broj incidenata zlouporabe brzo raste. Prema bazi podataka AIAAIC, koja prati incidente povezane s etičkom zlouporabom AI-ja, broj AI incidenata porastao je 26 puta od 2012. Taj rast je dokaz i veće upotrebe AI tehnologija i svijesti o mogućnostima zloporabe.
Na spomenutom brunchu argument je bio i “gušenje inovacija regulativom”. A u jednom intervjuu lanjskog ožujka, navodi se: “Pravi test bit će primjena Akta, u trenucima kada konkurencija iz različitih dijelova svijeta počne odmicati u razvoju i primjeni umjetne inteligencije. Hoćemo li tada izdržati i raditi sve prema propisanom modelu pa makar to značilo i sporiji razvoj, manje investicija, odlazak talenata i ostale posljedice ili ćemo se odreći naših principa iz pragmatičkih razloga?”
Odricanje principa iz pragmatičnih razloga? Kako je lijepo rečeno u filmu “The Contender”: “Principles only mean something if you stick by them when they are inconvenient.” Iz istog intervjua: “To je suludo jer kad god razgovaram s kompanijama koje razvijaju sustave temeljene na umjetnoj inteligenciji, uvijek je jasno da žele razvijati proizvod/uslugu koja traje i temelji se na dugotrajnom odnosu s budućim klijentima, odnosu uzajamne koristi i ne žele nikoga svjesno oštetiti.”
Ne žele nikoga svjesno oštetiti? Molim? A Cambridge Analytica? Poštujem izrečeni stav, ali ovo je zaista vrlo, vrlo upitno. Nažalost, povijest nas uči da u mnogim područjima postoje iznimke, za koje smo saznali prekasno. Pa i da nije svjesno, znači li to da je “nesvjesna šteta” OK?
Nadalje, rezultati ispitivanja javnog mnijenja u sklopu znanstveno-stručnog projekta “Percepcija umjetne inteligencije u RH” (rujan 2023.) pokazali su da samo 7% ispitanika smatra da AI nije potrebno regulirati. Većina ispitanika (38%) smatra da je odgovornost za reguliranje AI-ja na državi, 25% je navelo EU, a 10% ispitanika navelo je UN.
Dobra vijest je ta da je interes kreatora politika za AI u porastu. Analiza zakonodavnih zapisa 127 država pokazuje da je broj prijedloga zakona koji se odnose na AI i koji su usvojeni, porastao sa samo 1 u 2016. na 37 u 2022. Analiza parlamentarnih zapisa o AI-ju u 81 državi također pokazuje da se spominjanje umjetne inteligencije u globalnim zakonodavnim postupcima povećalo gotovo 6,5 puta od 2016.
Istovremeno je glavni tajnik UN-a pokrenuo AI Savjetodavno tijelo, a Privremeno izvješće identificira sljedeća načela koja bi trebala voditi formiranje novih globalnih institucija za upravljanje AIjem: (1) inkluzivnost; (2) javni interes; (3) središnje mjesto upravljanja podacima; (4) univerzalni, umreženi i s više dionika te (5) međunarodni zakon. Ovo privremeno izvješće korak je k finalnom izvješću (sredina 2024.) kao pripremi za Summit budućnosti u rujnu ove godine.
Zašto je jedino “samopodržavajuće” AI rješenje globalna inicijativa? Zbog teorije igara.
Ako je igra “zatvorenikova dilema”, tada se jedan zatvorenik može “spasiti” priznajući djelo, no time će “usositi” drugog zatvorenika. Naravno, i drugi zatvorenik može isto to pokušati. Iako je najbolje rješenje za oba zatvorenika da “šute”, oba zatvorenika će “priznati djelo” misleći da drugi zatvorenik “šuti”. Dakle, državama je najbolje “ne usvojiti” AI regulativu ako ju je druga država “usvojila”. Da bi u AI reguliranju izbjegli ravnotežu zatvorenikove dileme, niti jedna država ne smije moći ostvariti prednost “odmicanja u razvoju i primjeni umjetne inteligencije” neusvajanjem AI regulative. Što pak znači da nam treba obvezujući prijedlog AI UN rezolucije. Za sve države. Tada niti jedna država ne bi mogla ostvariti konkurentsku prednost (koja proizlazi iz neusvajanja AI regulative) uz istovremeni benefit adresiranja/ reguliranja mnogih AI izazova.”
Neka mišljenja u vezi obvezujuće UN AI rezolucije idu u smjeru “nemogućnosti postizanja dogovora”. O.K., podsjetimo se onda primjerice Konvencije o biološkom oružju iz 70-ih godina prošlog stoljeća. Kako to da su je potpisale i države koje su tada bile u “hladnom ratu”? Zato što je opći interes nadvladao partikularne interese.
Druga, pak, mišljenja idu u smjeru “nemogućnosti kontrole” pridržavanja (obvezujuće) rezolucije. Upravo zato je potrebno osnovati posebno tijelo, nešto poput autonomnog regulatora po uzoru na Međunarodnu agenciju za atomsku energiju kojoj su nadležna vijeća UN-a.
Još jedan argument u prilog AI regulaciji jest njezina mogućnost dvostruke upotrebe tzv. dual use. Netflixov dokumentarac “Unknown: Killer robots” to vjerno prikazuje. “Denial is not a river in Egypt” kaže jedna izreka. Naglašavam, podržavam razvoj i primjenu umjetne inteligencije, ali nisam za nekritički pristup umjetnoj inteligenciji.
“Stvaranje oružanog sustava koji je jeftin, prilagodljiv veličinom i ne zahtijeva ljude za upravljačem, drastično mijenja sadašnje zadrške od sukoba” potpisujem, i ovdje bi teorija igara imala što za reći.
“U utrci u naoružanju važnija je brzina od sigurnosti. Važno je uzeti u obzir da cijena prebrzog razvoja u jednom času postaje previsoka. Kako da zauzdamo tehnologiju prije nego što se uporabi za nešto možda strahovito destruktivno? Nećemo imati priliku popraviti učinjeno. Kad pustite duha iz boce, vani je, i vrlo ga je teško vratiti u bocu.
O pitanju etike AI-ja uglavnom raspravlja društvo, a ne inženjeri, tehnolozi. Kod svake nove tehnologije i inovacije, na kraju društvo odlučuje kako bismo je trebali upotrebljavati. Kad pomislimo koliko ljudi radi na tome da AI postane još moćnija tehnologija, shvatimo da ih ima puno. Kad razmislimo koliko ljudi radi na tome da AI bude tehnologija sigurna za uporabu, shvatimo da ih je mnogo, mnogo manje.” Vidim se o toj manjini.
Zaključno, još jednom naglašavam. Svjedoci smo nebrojenih primjera uspješne i korisne primjene AI-ja u raznim područjima. Te primjere frekventno elaboriraju mnogi pojedinci i udruge. I dobro je da to čine. Budućnost zasigurno pripada AI-ju. “...clearly AI is going to win...” riječi su nobelovca Daniel Kahnemana. No, nisam za nekritički pristup AI-ju. Stoga je pravo pitanje koje često javno ponavljam: “Što trebamo učiniti da maksimiziramo benefite i minimiziramo rizike umjetne inteligencije”? •