Frankenstein otwiera oczy
Prof. Aleksander Mądry o tym, jak szybko sztuczna inteligencja może skolonizować ludzki świat i co robić, żeby do tego nie dopuścić.
JACEK ŻAKOWSKI: – Zabije nas czy wzmocni?
ALEKSANDER MĄDRY: – Bardzo wzmocni. Ale jeżeli nic nie zrobimy – zabije. Dlatego z zapartym tchem patrzyliśmy na wyrzucenie Sama Altmana z OpenAI i na jego powrót. O to poszło, że Golem AI wymknął się wam spod kontroli?
Nie o to.
W zeznaniu przed amerykańskim Kongresem mówiłeś, że rozwój AI jest teraz w punkcie zwrotnym. Dlatego tak się przestraszyłem, czytając spekulacje wokół kryzysu w OpenAI, z których wynikało, że stworzyliście Golema i nie ma już przed nim ratunku.
To jeszcze nie jest ten moment. Nie chcę mówić więcej o wewnętrznych sprawach OpenAI. Ale warto wykorzystać pojawienie się tego strachu, żeby przemyśleć i uzgodnić działania, które podejmiemy, jeżeli tak się stanie.
Stanie się?
Może się stać. Dlatego trzeba poważnie myśleć, co będzie, jeśli to się stanie. Zespół, którym w OpenAI kieruję, nazywa się Preparedness, czyli bycie gotowym. Chodzi o to, żebyśmy byli naukowo, intelektualnie, decyzyjnie i politycznie gotowi na taką sytuację.
Czyli?
Żebyśmy wiedzieli, kiedy taki moment się zbliża, a także do kogo wtedy dzwonić, i żeby było wiadomo, kto i jakie decyzje ma wtedy podejmować. OpenAI mocno w to inwestuje. Dlatego mnie zatrudnili. Ale nie tylko organizacje pracujące nad sztuczną inteligencją muszą o tym myśleć. Każde państwo powinno mieć taki plan. Nie chodzi tylko o hipotetyczną „ogólną sztuczną inteligencję”, czyli AGI (Artificial General Intelligence), która prawdopodobnie powstanie i której ludzie najbardziej się boją. Chodzi o AI, która już tu jest. Jak Polska się do tego przygotowuje? Ciekawe pytanie do prezydenta, premiera i szefa BBN.
Pilnych wyzwań jest wiele.
Jakie jest największe?
Największe wyzwanie stanowi społeczne zrozumienie natury sztucznej inteligencji. Podstawowy problem to personifikacja. O AI myślimy antropomorficznie. Wyobrażamy sobie, że będzie myślała jak my. Już potrafi być tak sugestywna, że rozmawiając z nią, można mieć wrażenie rozmowy z człowiekiem. Bo mówi ludzkim głosem i ludzkim językiem, pozornie posługuje się ludzką logiką. To jest potężna sugestia, ale wciąż jest to iluzja.
Wiele samotnych Chinek potrzebowało terapii, kiedy deweloper wyłączył aplikację symulującą czułego kochanka, który uwodzącym głosem prawił czułe słówka na dobranoc, nocą słodko pochrapywał, rano mówił, że będzie bardzo tęsknił, w ciagu dnia dzwonił i wysyłał esemesowe serduszka. Wiedziały, że to maszyna, a się na śmierć zakochały.
To jest dokładnie ten problem. Bo przez cały proces naszej ewolucji jedynymi istotami, z którymi się komunikowaliśmy naturalnym językiem, byli ludzie. A teraz po raz pierwszy maszyna mówi do nas
w dowolnym języku, dowolnym głosem, na dowolny temat. I stara się imitować ludzkie zachowania. Musimy uczyć się myśleć o tym, czym AI jest realnie, żeby pamiętać, czym jeszcze nie jest i nigdy nie będzie. Bo nigdy nie będzie nami, choć może nas bardzo skutecznie udawać, a w wielu kwestiach nawet przerastać. Gdyby na moim miejscu podczas naszej zoomowej rozmowy był teraz mój awatar napędzany przez sztuczną inteligencję, mówiłby moim głosem, wyglądałby jak ja, zadawałby te pytania, co ja – bo AI już to wszystko umie – na czym by polegała różnica?
Tu informatyka stawia przed nami pytania filozoficzne. Co czyni człowieka człowiekiem? Jaka jest istota działania naszego umysłu? ChatGPT – najprościej mówiąc – stara się podać odpowiedź, która w miliardach tekstów z internetu jest najbardziej prawdopodobnym ciągiem słów. Na podstawie wszystkich twoich wywiadów i setek tysięcy wywiadów innych dziennikarzy może zadać pytania, które ty byś zadał, umie na moje odpowiedzi reagować podobnie jak ty, ale – przynajmniej na razie – nie będzie w stanie zrozumieć, o co i po co mnie pyta. Niektórzy używają terminu „stochastyczna papuga”, bo ChatGPT – jak papuga – powtarza słowa, które statystycznie najczęściej spotykał w podobnym kontekście.
Czy z całą twoją wiedzą możesz się połapać, że to awatar, nie ja?
Wciąż tak, bo ta technologia dopiero się rozwija. Jako ekspert potrafię jeszcze wymyślić takie podchwytliwe pytania, na których AI się wyłoży. Ale może niedługo – AI przejdzie słynny test Turinga, i administrując, nie będę mógł w trakcie rozmowy odróżnić człowieka od sztucznej inteligencji.
Zniknie nadzieja, że jak zadasz pytanie kompletnie od czapy, to AI zacznie halucynować, czyli gadać bzdury.
Tylko że te halucynacje już teraz są zwykle przekonujące. Lepszy sposób na zdemaskowanie maszyny jest taki, żeby w standardowej zagadce logicznej wprowadzić małą korektę, która zmieni sens. Aktualny ChatGPT takiej zmiany raczej nie zauważy i poda standardową odpowiedź, którą wiele razy znalazł w internecie. Ale kolejne wersje już sobie z tym poradzą. Celem OpenAI i innych organizacji budujących AI jest, żeby każde stochastyczne bezmyślne papugowanie stało się prawdziwym myśleniem. Czy to znaczy, że sztuczna inteligencja stanie się człowiekiem? Moim zdaniem nie. Znaczy to tylko tyle, że widoczna różnica będzie szybko malała i wkrótce nie będziemy umieli na podstawie rozmowy odróżnić AI od człowieka.
Nie będę wiedział, czy rozmawiam z tobą i ty nie będziesz wiedział, czy rozmawiasz ze mną?
Całą naszą rozmowę będą mogły zrobić dwa nasze awatary?
Już by mogły. Ale niebawem to będzie dużo bliższe perfekcji i powszechnie dostępne.
Z roku na rok zawali nam się cała komunikacja. Przynajmniej na odległość.
Dokładnie tak może być.
Strach się bać.
To będzie miało minusy i plusy. Minusy to lęk przed deepfake’ami. Nie będziemy wiedzieli, czy jakiś polityk coś naprawdę powiedział albo czy porno z czyimś udziałem jest autentyczne czy wygenerowane. Czyli kulturę zaufania, na której opiera się zachodnia cywilizacja, zastąpi kultura nieufności. Nic już nie będzie wiarygodne.
Poza bezpośrednią relacją. Jeżeli nic nie zrobimy, żeby tę trajektorię zmienić. Potrafię sobie wyobrazić, że kiedy prof. Mądry spędza czas z kochanką, AI dzwoni do żony i twoim głosem prowadzi z nią słodką małżeńską wideopogawędkę. Wszystko prawda, poza tym że nie mam kochanki. No i pewnie żona wciąż jeszcze by się zorientowała, że to jednak nie ja. Ale AI to nie tylko takie najbardziej oczywiste ryzyko. Porozmawiajmy o tobie. Masz dużo do powiedzenia i ograniczony czas, więc musisz wybierać – albo piszesz, albo robisz wywiad, albo prowadzisz program, albo uczysz studentów, albo jesteś z rodziną. Zawsze „coś” albo „coś”. Wyobraźmy sobie, że masz swoje klony AI. Jeden prowadzi wywiad, drugi daje wykład, trzeci siedzi w studiu, a ty spacerujesz z rodziną albo czytasz książkę.
Da się?
Już się da, a wkrótce to będzie możliwe bez straty jakości, niezauważalne i powszechnie dostępne.
Ty będziesz mógł na Zoom jednocześnie wykładać w pięciu różnych miejscach i w pięciu językach, których nie znasz. Już jest apka tłumacząca w czasie rzeczywistym i zachowująca tembr głosu z wideo skutecznie imitującym ruch ust w różnych językach.
Wyobraź sobie, jak dramatycznie dzięki takim narzędziom wzrośnie wpływ i dostępność osób, których ludzie chcą słuchać. Jak poszybuje poziom edukacji, kiedy każdy student będzie mógł w każdej chwili mieć indywidualne korepetycje z twoim awatarem, który da mu dokładnie to samo, co możesz dać ty lub ktokolwiek inny. I żaden z nich nie będzie wiedział, czy rozmawia z tobą, czy z awatarem. Za kilka lat wszyscy studenci i uczniowie na świecie będą mogli w każdej chwili porozumieć się z awatarami najlepszych nauczycieli świata.
Halucynujesz?
Tylko trochę. Ta przyszłość już tu prawie jest. Trzeba zacząć myśleć, co dla nas z tego wynika. Jeżeli sklonujemy i udostępnimy wszystkich tuzów we