Znanstvenici u strahu od umjetne inteligencije
Tko će snositi odgovornost za nesreću koju prouzroči samovozeće vozilo: putnik, vlasnik ili dizajner takvog stroja?
Dileme: Mole Ii eovjek nau-CIti umjetnu inteligenciju mo-ralu i etici // Popis poslova koji ce roboti preuzeti od Ijudi sve dull // 2elimo Ii svijet u kojem su ljudi vi§ak// Kako bez* osvojiti svemiri rak?
TayTweets je u 12 sati od stava da su ljudi super došao do stava da je Hitler bio u pravu i da mrzi Židove Ni u najoptimističnijoj projekciji ne smijemo zaboraviti na mogućnost hakiranja AI-ja
Može li čovjek naučiti umjetnu inteligenciju moralu i etici i smije li se robotu dopustiti da odlučuje o životu nekog čovjeka? Čovjek je kroz povijest oduvijek bio izvrstan u korištenju alata. Od rudimentarnih primjena oštrog kamena u stilu noža i izuma kotača pa do modernih alata širokog spektra koji su mu omogućili da zavlada prirodnim resursima i stvori si dosad najperspektivnije uvjete za život. Jesmo li se toliko usavršili u izradi alata da nam slijedi budućnost u kojoj će umjetna inteligencija ili roboti izmaknuti kontroli svoga kreatora? Posljednjih godina te teze možemo vidjeti i izvan hollywoodskih filmova. Elon Musk, Stephen Hawking, Bill Gates i drugi počeli su javno upozoravati na potencijalne opasnosti od umjetne inteligencije. Jedno od posebno bitnih pitanja je može li čovjek naučiti umjetnu inteligenciju moralu i etici. Također, smije li se dopustiti robotu da samostalno odlučuje o životu nekog čovjeka? U iščekivanju smo uvođenja serije autonomnih vozila bez ljudskog vozača. Tko će snositi odgovornost za nesreću koju prouzroči samovozeće vozilo: putnik, vlasnik ili dizajner takvog stroja? Na ta pitanja još nema odgovora, no barem kod samovozećih automobila imamo podatke da bi uzrokovali puno manje prometnih nesreća nego ljudi.
Postupno učenje
Mnogi stručnjaci usporedili bi umjetnu inteligenciju s djetetom. Dijete vrijednosti stječe odgojem, promatranjem i skupljanjem iskustva. Tako je jedan projekt u Češkoj – GoodAI (dobra umjetna inteligencija) uveo digitalnog mentora koji nadzire proces učenja i donošenja odluka softvera. – Ljudi ne puštaju svoju djecu da sama prelaze cestu, nego ih godinama uče da paze na promet. Tako i mi postupno umjetnoj inteligenciji uvodimo sve kompleksnije scenarije – izjavio je osnivač GoodAI centra Marek Rosa za Economist. Da je Microsoft pratio njihov primjer postupnog razvoja, možda bi izbjegao lanjski debakl s automatskim profilom na Twitteru. Na taj primjer podsjetio nas je Marko Kos, asistent na Katedri za etiku zagrebačkog Filozofskog fakulteta. – TayTweets je neslavno ugašen budući da je u nepunih 12 sati došao od stava “ljudi su super” do stava “Hitler je bio u pravu, mrzim Židove!” učeći na iskustvu internetske komunikacije. Komunikacija na internetu toliko je zabrinjavajuća da Tay bez “kućnog odgoja” koji bi usadio osnovne parametre od kojih ne može odstupiti, vjerojatno nema drugih opcija do postati rasistička i seksistička ličnost” – zaključuje Kos te dodaje da iz dana u dan raste vjerojatnost da čovjek razvije umjetnu inteligenciju koja će oponašati čovjeka ili mu biti slična. No, upozorava da to ne znači i da će AI prihvatiti etička načela. – Činjenica da neko biće posjeduje intelekt, ove ili one vrste, ne jamči da razumije pojmove “moral” i “etika”. Postoje mnoge pretpostavke zašto umjetna inteligencija neće moći prihvatiti etička načela ili moralitet. Američki filozof Hubert Dreyfus sažeo je svoj odgovor u tvrdnju: Neće ih biti briga. Moj stav nastavlja se na Dreyfusov – intelekt ne jamči mogućnost emotivne investicije i metaforičkog mišljenja. Odnosno, naša mogućnost da rezoniramo na visokoj razini o objektima oko sebe ne osigurava da posjedujemo razinu mišljenja u kojoj preko asocijacija koje čine jedinstvenu sliku našeg unutarnjeg života stvaramo scenarije koji na metaforičkoj razini imaju iste interpretacije. Pretpostavljam da umjetna inteligencija u tom kontekstu može samo oponašati život nekog pojedinca, no ne vjerujem da će živjeti vlastitu interpretaciju života – poručuje Kos, a ističe i još jedan potencijalni problem: čak ni u najoptimističnijoj projekciji ne smijemo zaboraviti na mogućnost hakiranja. Analiza razvoja znanstvenih otkrića uči nas da naše djelovanje u sadašnjosti ponekad ima nepredvidive, odgođene posljedice za našu budućnost.
IMB: uvijek ljudska kontrola
Jedan od poznatih primjera razvoja umjetne inteligencije je IBM-ov Watson koji je daleko dogurao otkad je 2011. pobijedio u kvizu Izazov. Watson bi u onkologiji mogao postati iznimno koristan asistent liječnicima u borbi protiv raka. Iz IBM-a su nam poslali svoj manifest pravila po kojima svi njihovi programi uvijek moraju ostati pod ljudskom kontrolom. – Radimo više na proširenoj inteligenciji nego na umjetnoj inteligenciji. To je ključna razlika između sustava koji pojačavaju i povećavaju ekspertize čovjeka i onih koji pokušavaju replicirati ljudsku inteligenciju. Vode nas kognitivni principi koji obvezuju i IBM i sve one koji ulažu novac u umjetnu inteligenciju da stvaraju tehnologiju koja je etički odgovorna. Neće AI sustavi postati svjesna bića. I ostat će pod ljudskom kontrolom – poručila je Harriet Green, direktorica Watson Internet of Things jedinice. Igor Čatić, umirovljeni profesor na Fakultetu strojarstva i brodogradnje u Zagrebu, podsjeća da na pitanje razvoja umjetne inteligencije filozofi gledaju kroz jednu prizmu, a inženjeri kroz drugu. No, uvjeren je da se razvoj AI-ja ne može zaustaviti. – Previše je ulaganja da bi se ti procesi zaustavili – zaključuje Čatić. Jedno je sigurno, debata će se nastaviti, što možda dovede i do međunarodnih pravila razvoja umjetne inteligencije.