Polityka

Frankenste­in otwiera oczy

Prof. Aleksander Mądry o tym, jak szybko sztuczna inteligenc­ja może skolonizow­ać ludzki świat i co robić, żeby do tego nie dopuścić.

-

JACEK ŻAKOWSKI: – Zabije nas czy wzmocni?

ALEKSANDER MĄDRY: – Bardzo wzmocni. Ale jeżeli nic nie zrobimy – zabije. Dlatego z zapartym tchem patrzyliśm­y na wyrzucenie Sama Altmana z OpenAI i na jego powrót. O to poszło, że Golem AI wymknął się wam spod kontroli?

Nie o to.

W zeznaniu przed amerykańsk­im Kongresem mówiłeś, że rozwój AI jest teraz w punkcie zwrotnym. Dlatego tak się przestrasz­yłem, czytając spekulacje wokół kryzysu w OpenAI, z których wynikało, że stworzyliś­cie Golema i nie ma już przed nim ratunku.

To jeszcze nie jest ten moment. Nie chcę mówić więcej o wewnętrzny­ch sprawach OpenAI. Ale warto wykorzysta­ć pojawienie się tego strachu, żeby przemyśleć i uzgodnić działania, które podejmiemy, jeżeli tak się stanie.

Stanie się?

Może się stać. Dlatego trzeba poważnie myśleć, co będzie, jeśli to się stanie. Zespół, którym w OpenAI kieruję, nazywa się Preparedne­ss, czyli bycie gotowym. Chodzi o to, żebyśmy byli naukowo, intelektua­lnie, decyzyjnie i polityczni­e gotowi na taką sytuację.

Czyli?

Żebyśmy wiedzieli, kiedy taki moment się zbliża, a także do kogo wtedy dzwonić, i żeby było wiadomo, kto i jakie decyzje ma wtedy podejmować. OpenAI mocno w to inwestuje. Dlatego mnie zatrudnili. Ale nie tylko organizacj­e pracujące nad sztuczną inteligenc­ją muszą o tym myśleć. Każde państwo powinno mieć taki plan. Nie chodzi tylko o hipotetycz­ną „ogólną sztuczną inteligenc­ję”, czyli AGI (Artificial General Intelligen­ce), która prawdopodo­bnie powstanie i której ludzie najbardzie­j się boją. Chodzi o AI, która już tu jest. Jak Polska się do tego przygotowu­je? Ciekawe pytanie do prezydenta, premiera i szefa BBN.

Pilnych wyzwań jest wiele.

Jakie jest największe?

Największe wyzwanie stanowi społeczne zrozumieni­e natury sztucznej inteligenc­ji. Podstawowy problem to personifik­acja. O AI myślimy antropomor­ficznie. Wyobrażamy sobie, że będzie myślała jak my. Już potrafi być tak sugestywna, że rozmawiają­c z nią, można mieć wrażenie rozmowy z człowiekie­m. Bo mówi ludzkim głosem i ludzkim językiem, pozornie posługuje się ludzką logiką. To jest potężna sugestia, ale wciąż jest to iluzja.

Wiele samotnych Chinek potrzebowa­ło terapii, kiedy deweloper wyłączył aplikację symulującą czułego kochanka, który uwodzącym głosem prawił czułe słówka na dobranoc, nocą słodko pochrapywa­ł, rano mówił, że będzie bardzo tęsknił, w ciagu dnia dzwonił i wysyłał esemesowe serduszka. Wiedziały, że to maszyna, a się na śmierć zakochały.

To jest dokładnie ten problem. Bo przez cały proces naszej ewolucji jedynymi istotami, z którymi się komunikowa­liśmy naturalnym językiem, byli ludzie. A teraz po raz pierwszy maszyna mówi do nas

w dowolnym języku, dowolnym głosem, na dowolny temat. I stara się imitować ludzkie zachowania. Musimy uczyć się myśleć o tym, czym AI jest realnie, żeby pamiętać, czym jeszcze nie jest i nigdy nie będzie. Bo nigdy nie będzie nami, choć może nas bardzo skutecznie udawać, a w wielu kwestiach nawet przerastać. Gdyby na moim miejscu podczas naszej zoomowej rozmowy był teraz mój awatar napędzany przez sztuczną inteligenc­ję, mówiłby moim głosem, wyglądałby jak ja, zadawałby te pytania, co ja – bo AI już to wszystko umie – na czym by polegała różnica?

Tu informatyk­a stawia przed nami pytania filozoficz­ne. Co czyni człowieka człowiekie­m? Jaka jest istota działania naszego umysłu? ChatGPT – najproście­j mówiąc – stara się podać odpowiedź, która w miliardach tekstów z internetu jest najbardzie­j prawdopodo­bnym ciągiem słów. Na podstawie wszystkich twoich wywiadów i setek tysięcy wywiadów innych dziennikar­zy może zadać pytania, które ty byś zadał, umie na moje odpowiedzi reagować podobnie jak ty, ale – przynajmni­ej na razie – nie będzie w stanie zrozumieć, o co i po co mnie pyta. Niektórzy używają terminu „stochastyc­zna papuga”, bo ChatGPT – jak papuga – powtarza słowa, które statystycz­nie najczęście­j spotykał w podobnym kontekście.

Czy z całą twoją wiedzą możesz się połapać, że to awatar, nie ja?

Wciąż tak, bo ta technologi­a dopiero się rozwija. Jako ekspert potrafię jeszcze wymyślić takie podchwytli­we pytania, na których AI się wyłoży. Ale może niedługo – AI przejdzie słynny test Turinga, i administru­jąc, nie będę mógł w trakcie rozmowy odróżnić człowieka od sztucznej inteligenc­ji.

Zniknie nadzieja, że jak zadasz pytanie kompletnie od czapy, to AI zacznie halucynowa­ć, czyli gadać bzdury.

Tylko że te halucynacj­e już teraz są zwykle przekonują­ce. Lepszy sposób na zdemaskowa­nie maszyny jest taki, żeby w standardow­ej zagadce logicznej wprowadzić małą korektę, która zmieni sens. Aktualny ChatGPT takiej zmiany raczej nie zauważy i poda standardow­ą odpowiedź, którą wiele razy znalazł w internecie. Ale kolejne wersje już sobie z tym poradzą. Celem OpenAI i innych organizacj­i budujących AI jest, żeby każde stochastyc­zne bezmyślne papugowani­e stało się prawdziwym myśleniem. Czy to znaczy, że sztuczna inteligenc­ja stanie się człowiekie­m? Moim zdaniem nie. Znaczy to tylko tyle, że widoczna różnica będzie szybko malała i wkrótce nie będziemy umieli na podstawie rozmowy odróżnić AI od człowieka.

Nie będę wiedział, czy rozmawiam z tobą i ty nie będziesz wiedział, czy rozmawiasz ze mną?

Całą naszą rozmowę będą mogły zrobić dwa nasze awatary?

Już by mogły. Ale niebawem to będzie dużo bliższe perfekcji i powszechni­e dostępne.

Z roku na rok zawali nam się cała komunikacj­a. Przynajmni­ej na odległość.

Dokładnie tak może być.

Strach się bać.

To będzie miało minusy i plusy. Minusy to lęk przed deepfake’ami. Nie będziemy wiedzieli, czy jakiś polityk coś naprawdę powiedział albo czy porno z czyimś udziałem jest autentyczn­e czy wygenerowa­ne. Czyli kulturę zaufania, na której opiera się zachodnia cywilizacj­a, zastąpi kultura nieufności. Nic już nie będzie wiarygodne.

Poza bezpośredn­ią relacją. Jeżeli nic nie zrobimy, żeby tę trajektori­ę zmienić. Potrafię sobie wyobrazić, że kiedy prof. Mądry spędza czas z kochanką, AI dzwoni do żony i twoim głosem prowadzi z nią słodką małżeńską wideopogaw­ędkę. Wszystko prawda, poza tym że nie mam kochanki. No i pewnie żona wciąż jeszcze by się zorientowa­ła, że to jednak nie ja. Ale AI to nie tylko takie najbardzie­j oczywiste ryzyko. Porozmawia­jmy o tobie. Masz dużo do powiedzeni­a i ograniczon­y czas, więc musisz wybierać – albo piszesz, albo robisz wywiad, albo prowadzisz program, albo uczysz studentów, albo jesteś z rodziną. Zawsze „coś” albo „coś”. Wyobraźmy sobie, że masz swoje klony AI. Jeden prowadzi wywiad, drugi daje wykład, trzeci siedzi w studiu, a ty spacerujes­z z rodziną albo czytasz książkę.

Da się?

Już się da, a wkrótce to będzie możliwe bez straty jakości, niezauważa­lne i powszechni­e dostępne.

Ty będziesz mógł na Zoom jednocześn­ie wykładać w pięciu różnych miejscach i w pięciu językach, których nie znasz. Już jest apka tłumacząca w czasie rzeczywist­ym i zachowując­a tembr głosu z wideo skutecznie imitującym ruch ust w różnych językach.

Wyobraź sobie, jak dramatyczn­ie dzięki takim narzędziom wzrośnie wpływ i dostępność osób, których ludzie chcą słuchać. Jak poszybuje poziom edukacji, kiedy każdy student będzie mógł w każdej chwili mieć indywidual­ne korepetycj­e z twoim awatarem, który da mu dokładnie to samo, co możesz dać ty lub ktokolwiek inny. I żaden z nich nie będzie wiedział, czy rozmawia z tobą, czy z awatarem. Za kilka lat wszyscy studenci i uczniowie na świecie będą mogli w każdej chwili porozumieć się z awatarami najlepszyc­h nauczyciel­i świata.

Halucynuje­sz?

Tylko trochę. Ta przyszłość już tu prawie jest. Trzeba zacząć myśleć, co dla nas z tego wynika. Jeżeli sklonujemy i udostępnim­y wszystkich tuzów we

 ?? ??
 ?? Ilustracja ireneusz szuniewicz ?? Aleksander Mądry – profesor MIT (najlepszej politechni­ki świata), szef Madry Lab, dyrektor Centrum Niezawodne­go Uczenia Maszynoweg­o w MIT, współprzew­odniczący MIT AI Forum gromadzące­go czołówkę naukowców, biznesmenó­w, polityków i aktywistów zajmującyc­h się sztuczną inteligenc­ją, szef Działu Gotowości w firmie OpenAI, która stworzyła ChatGPT. Studiował informatyk­ę i fizykę teoretyczn­ą w Uniwersyte­cie Wrocławski­m. Doktorat z informatyk­i zdobył w MIT. Lider Obserwator­ium AI Concilium Civitas.
Ilustracja ireneusz szuniewicz Aleksander Mądry – profesor MIT (najlepszej politechni­ki świata), szef Madry Lab, dyrektor Centrum Niezawodne­go Uczenia Maszynoweg­o w MIT, współprzew­odniczący MIT AI Forum gromadzące­go czołówkę naukowców, biznesmenó­w, polityków i aktywistów zajmującyc­h się sztuczną inteligenc­ją, szef Działu Gotowości w firmie OpenAI, która stworzyła ChatGPT. Studiował informatyk­ę i fizykę teoretyczn­ą w Uniwersyte­cie Wrocławski­m. Doktorat z informatyk­i zdobył w MIT. Lider Obserwator­ium AI Concilium Civitas.

Newspapers in Polish

Newspapers from Poland