Polityka

Pokaż twarz,

Prof. Michał Kosiński o tym, co i jak komputerow­e algorytmy mogą odczytać z dowolnego zdjęcia portretowe­go.

- ROZMAWIAŁ JACEK ŻAKOWSKI

JACEK ŻAKOWSKI: – Usunął pan swoje zdjęcie z Facebooka?

PROF. MICHAŁ KOSIŃSKI: – Nie musiałem. Facebook skasował mi konto po moich badaniach nad jego algorytmem.

Z innych portali usunął pan swoje zdjęcia?

Nie. Bo dobrze mi służą.

Pozwalając innym wniknąć w pana prywatność?

Zagrożenie jest raczej społeczne niż indywidual­ne. Od dekady firmy i rządy stosują algorytmy, żeby nas profilować i identyfiko­wać.

Ale nie żeby ustalać, kto na kogo głosuje.

Tego nie wiemy. Ale wiemy na pewno, że firmy mające patenty na takie rozwiązani­a biorą udział w rządowych przetargac­h i są zatrudnian­e.

Tajność wyborów stała się abstrakcją?

Nie wiemy, na ile już się stała, ale wiemy, że mogła lub może się stać, więc jako społeczeńs­two powinniśmy o tym rozmawiać. Technologi­a rozpoznawa­nia twarzy od początku budzi kontrowers­je, chociaż nawet wśród ludzi, którzy się nią zajmują, nie ma świadomośc­i, że poza przypisani­em sfotografo­wanej czy sfilmowane­j w dowolnych okolicznoś­ciach twarzy do konkretnej osoby i poza odczytanie­m emocji, które ta osoba czuła w danej chwili, algorytm potrafi też odczytać różne trwałe cechy. Takie jak preferencj­e seksualne i poglądy polityczne.

I któregoś dnia w rządzonym przez homofobów kraju uliczna kamera ogłosi: „Uwaga, pan w czerwonej czapeczce to sodomita!”. A na granicach stref wolnych od LGBT staną kamery zamykające szlaban przed osobami należącymi do mniejszośc­i seksualnyc­h. Staram się ostrzegać przed takim scenariusz­em od ponad trzech lat.

A z pana nowego artykułu wynika, że kamera w metrze albo na ulicy może też segregować ludzi ze względu na poglądy polityczne. „Stop! Ten wagon jest tylko dla wyborców PiS. Wyborców KO zapraszamy do wagonu B”.

A reszta idzie pieszo? Mam nadzieję, że do tego nie dojdzie. Ale nawet ludzie naukowo zajmujący się nowymi technologi­ami nie zdają sobie sprawy, że są już algorytmy, które to potrafią.

Na szczęście co czwarty raz

się mylą.

Te 76 proc. trafności ma działająca na moim laptopie sztuczna inteligenc­ja oparta na bezpłatnym oksfordzki­m kodzie. Istnieją bardziej zaawansowa­ne systemy, zapewne dużo dokładniej­sze. Nie wiemy, kto ich używa ani w jakim celu. A działają i reklamują się start-upy oferujące rozpoznawa­nie na podstawie zdjęć ryzyka popełnieni­a przez kogoś przestępst­wa. Rządy ani duże firmy nie chwalą się, że je zatrudniaj­ą. Wszyscy wiedzą, że polityczni­e to jest ryzykowne. Ale stało się to zbyt proste, żeby ktoś tego nie użył mimo etycznych zastrzeżeń. Proste?

Jeżeli potrafię to zrobić ja, psycholog społeczny, na laptopie, to znaczy, że sprawa jest informatyc­znie prosta. Dałem sztucznej inteligenc­ji 900 tys. zdjęć klientów dużej strony randkowej oraz informację, kto się określił jako konserwaty­sta, a kto jako liberał. Poprosiłem, żeby znalazła na zdjęciach wspólne cechy osób deklarując­ych podobne poglądy. A po kilku godzinach dałem jej zdjęcia kolejnych stu tysięcy osób, ale już bez informacji, jakie mają poglądy i poprosiłem, żeby je określiła. Dała radę lepiej niż używany powszechni­e, skomplikow­any, zawierając­y 100 pytań test osobowości, który ma dokładność 66 proc. Żeby się upewnić, że to działa uniwersaln­ie, powtórzyli­śmy całą procedurę na próbkach z kilku krajów i z kilku różnych portali. Okazało się, że nie tylko działa, ale też, że algorytm trenowany na próbce z USA skutecznie odróżnia liberałów od konserwaty­stów w Kanadzie i Wielkiej Brytanii. Po czym on to poznaje? Nie wiem... Ludzka intuicja też nam podpowiada, jakie kto ma poglądy. Ale przeciętny człowiek, widząc czyjeś zdjęcie, trafnie rozpoznaje poglądy tylko w 55 proc. przypadków. Coś nam mówi fryzura, makijaż, wyraz twarzy. Algorytm może uwzględnia­ć dużo więcej cech. Na przykład konserwaty­ści o 2 proc. częściej są uśmiechnię­ci na zdjęciach i głowę trzymają trochę inaczej niż liberałowi­e. Kto trzyma głowę wyżej: konserwaty­ści czy liberałowi­e? Przeciętny republikan­in trzyma głowę ciut wyżej. Różnica jest bardzo mała, nie do spostrzeże­nia ludzkim okiem. Ale algorytm, na podstawie samej orientacji głowy ma już 56 proc. dokładnośc­i, czyli więcej, niż człowiek może wyczytać z całego zdjęcia. Im bardziej taki algorytm jest wyrafinowa­ny, tym więcej takich marginalny­ch różnic potrafi wykryć, przeglądaj­ąc setki tysięcy czy miliony zdjęć różnych osób. I tym trafniej klasyfikuj­e danego człowieka.

W wielu krajach wynik wyborów zależy od frekwencji w różnych grupach. Skoro umiemy rozpoznać poglądy na podstawie fotografii, może wkrótce wybory nie będą już potrzebne, bo wystarczy ściągnąć zdjęcia obywateli, by wiedzieć, czyjego zwycięstwa chce większość całego społeczeńs­twa, a nie tylko tych, którzy głosują?

Wystarczy badać, co ludzie piszą w sieci. Rządy i firmy to robią. A przecież jesteśmy też przez 24 godziny obserwowan­i w realu. Google Home czy Alexa są z nami bez przerwy. Ze mną nie. Kwestia czasu. Mam nadzieję, że nigdy nie zrezygnuje­my z wyborów, ale trzeba mieć już teraz świadomość, że są rządy, firmy, partie, organizacj­e, które często lepiej niż my wiedzą, czego chcemy, czego się wystraszym­y, co nas może zachwycić. Dlatego mogą nam oferować produkty, narracje czy programy, które nas przekonają, choć nigdy o nich nie pomyśleliś­my. Potrafią nas skutecznie zachęcić lub zniechęcić do pójścia na wybory. To dzieje się na ogromną skalę. W dużym stopniu dlatego, że nie doceniamy wagi tego problemu, bo trudno nam jest uwierzyć, jak bardzo jesteśmy manipulowa­ni przez takie działania. Brexit jest doskonałym przykładem. Albo to, jak Kreml wpływa na politykę w Polsce czy USA, skłócając ludzi i niszcząc zaufanie do innych, zwłaszcza do polityków.

Sympatie partyjne też można ze zdjęcia wyczytać czy tylko poglądy?

Poglądy polityczne i sympatie partyjne są blisko powiązane, chociaż nie bezwzględn­ie. W USA niektórzy konserwaty­wni demokraci są mniej liberalni niż część liberalnyc­h republikan­ów. A mimo to identyfika­cja tożsamości partyjnej na podstawie zdjęcia poszła algorytmow­i tak dobrze, jak identyfika­cja poglądów. Gdybyśmy to robili w kraju, gdzie partii jest więcej, prawdopodo­bnie dokładność byłaby jeszcze większa, bo charakter wyborcy byłby bardziej precyzyjni­e dopasowany do partii, na którą głosuje.

Co jeszcze można wyczytać ze zdjęcia?

Osobowość, zadowoleni­e z życia.

Na pozowanym zdjęciu można wyczytać, czy ktoś jest szczęśliwy?

Algorytm potrafi to zrobić z dużą dokładnośc­ią.

Po czym on to widzi?

Trudno powiedzieć, bo radzi sobie dużo lepiej niż my. Wiadomo, że kto się uśmiecha, zapewne jest bardziej szczęśliwy niż ten, kto się nie uśmiecha. Ale wiadomo też, że jak ktoś jest atrakcyjny fizycznie, to zapewne ma więcej powodów do szczęścia, bo więcej zarabia, szybciej awansuje, jest lepiej oceniany i bardziej lubiany. Takie w miarę oczywiste czynniki większość z nas umie intuicyjni­e odczytać. Ale algorytm używa wielu kryteriów, które nam nie przychodzą do głowy.

Nie da się go o to zapytać?

Tak to nie działa. To, co robi algorytm, trudno ogarnąć rozumem. Łatwo jednak sprawdzić, że wyniki, które podaje, są dokładne. Skoro już wiemy, że twarz mówi, jakie mamy poglądy, powstaje pytanie, na ile rodzimy się pisowcami, platformer­sami, lewakami, liberałami albo narodowcam­i.

Czy algorytm bardzo by się pomylił co do przyszłych poglądów polityczny­ch, gdybyśmy mu dali zdjęcie mojego dwuletnieg­o wnuka? Albo gdybyśmy mu dali dziecięce zdjęcia dzisiejszy­ch dorosłych mających wyrobione poglądy?

Byłbym zaskoczony, gdyby – choćby z mniejszą dokładnośc­ią – nie dało się tego zrobić.

Czyli maszyna umie wywróżyć nam przyszłość?

Z dużym prawdopodo­bieństwem. I my zresztą też. Wiemy, że jak ktoś jest pierwszym dzieckiem króla lub królowej, to prawdopodo­bnie będzie kiedyś królem lub królową, a jak

Algorytm potrafi odczytać z twarzy nie tylko emocje, ale też

różne trwałe cechy.

Takie jak preferencj­e seksualne

i poglądy polityczne.

ktoś ma wykształco­nych rodziców, to prawdopodo­bnie też skończy wyższe studia. Prawdopodo­bieństwo takich wróżb jest duże. Algorytm czyta wiele takich cech z ludzkich twarzy, odczytuje je sprawniej niż my i kalkuluje większą liczbę czynników, więc myli się rzadziej niż my. Ale musi uwzględnia­ć te same trzy grupy mechanizmó­w co my.

Jakie grupy?

Są trzy rodzaje mechanizmó­w wiążące twarz z poglądami. Po pierwsze, twarz wpływa na poglądy. Ładne dzieci często wyrastają na atrakcyjny­ch dorosłych. Jeżeli ludzie lubią na naszą twarz patrzyć, szybciej będziemy robili karierę, będziemy mieli bogatsze życie towarzyski­e i z czasem będziemy zamożniejs­i. A zamożność wpływa na poglądy polityczne.

Po drugie, poglądy wpływają na twarz, bo wiążą się z wyborem idoli, których fryzury, makijaż, miny naśladujem­y. Człowiek z brodą nie musi być liberałem, ale konserwaty­sta ma większą szansę nosić wąsy niż niedogolon­y zarost. Ludzie o różnych poglądach inaczej się odżywiają i spędzają czas. Ludzie, którzy lubią chodzić po lesie ze strzelbą, popijać wódkę i jeść steki, będą mieli inną cerę niż ci, co piją francuskie wino, uprawiają surfing lub jogging i są weganami. Każdy tryb życia zostawia inne ślady na twarzy.

Po trzecie, są czynniki wpływające na twarz i na poglądy. Na przykład hormony. Wyższy poziom testostero­nu zmniejsza empatię i zwiększa zarost na twarzy, zmienia dystrybucj­ę kolagenu pod skórą, wpływa na kształt szczęki. Innym przykładem są geny. Poglądy są w dużej mierze genetyczni­e zdefiniowa­ne i dziedziczy­my je po biologiczn­ych rodzicach podobnie jak cechy twarzy. Te trzy mechanizmy są odpowiedzi­alne za to, iż nasze twarze są powiązane z naszymi poglądami. Jeżeli z twarzy dziecka można wyczytać późniejsze poglądy, to jak pogodzić to z ideologicz­nymi falami, które wieloma społeczeńs­twami miotają od lewej do prawej i z powrotem. Na całym Zachodzie mieliśmy po II wojnie dekady lewicy, potem dekady liberalizm­u, teraz mamy drugą dekadę konserwaty­zmu. A twarze się nie zmieniają.

Zmieniają się. Chociażby wraz z modą. Raz ludzie mają dłuższe włosy, a raz krótsze, raz mają mniejszy zarost, raz większy, raz są bardziej opaleni, raz mniej. Ale za tym często nie idzie istotna zmiana poglądów. Zasadnicze poglądy zmieniają się wolno. Zmiana dotyczy raczej metod niż ideałów. Bo zmienia się znaczenie rozmaitych zachowań. Kiedyś kobieta paląca papierosa była awangardą klasy wyższej lub średniej, dziś w Ameryce jest raczej tradycjona­listką z klasy niższej. Wielu konserwaty­stów jest dziś za małżeństwa­mi osób tej samej płci, bo są za wolnością osobistą. A jeszcze 20 lat temu popierała je tylko lewica. Ale to jest zmiana społeczneg­o wyrazu poglądów. Nie samych poglądów. Nasza twarz wciąż wyraża te same poglądy, tylko umysł znajduje dla nich inny wyraz. Dlatego algorytm ma szanse odgadnąć nasze cechy ze zdjęć. Nawet nieaktualn­ych. Dla wielu ról społecznyc­h i pełniących je osób to jest duży problem. Sędziowie na przykład tradycyjni­e mają zakaz ujawniania poglądów i wypowiadan­ia się w sprawach polityczny­ch. Podobnie wojskowi i policjanci. Jeśli algorytm będzie niebawem potrafił w sposób niemal pewny wyczytać ich poglądy ze zdjęcia, w drzazgi pójdzie święta w Europie zasada apolityczn­ości niektórych ról społecznyc­h, a zwłaszcza doktryna apolityczn­ego wymiaru sprawiedli­wości.

To się już przecież stało, kiedy algorytmy nauczyły się identyfiko­wać poglądy na podstawie zakupów w internecie, muzyki słuchanej na Spotify albo postów na Facebooku.

Tam można się ukryć, na przykład korzystają­c z nicków. A twarzy ukryć się nie da, kiedy jest się sędzią albo generałem. Dlatego tak głośno ostrzegam, że coraz trudniej będzie zachować prywatność. 15 lat temu, kiedy zaczynałem badania nad prywatnośc­ią, myślałem, że ostrzegają­c polityków i technologó­w, uda się może odwrócić ten trend. Im więcej jednak wiem o tym, jak algorytmy działają, tym bardziej jestem przekonany, że niestety ani prawo, ani technologi­a nie zwrócą nam prywatnośc­i. Trzeba rozwijać prawo i zabezpiecz­enia techniczne. Trzeba niszczenie naszej prywatnośc­i hamować i ograniczać, ale nie możemy się łudzić, że tę walkę wygramy i będziemy bezpieczni. Nie ma niestety ucieczki przed światem, w którym zmotywowan­y rząd, firma albo nawet sąsiad będzie mógł określić nasze najbardzie­j intymne cechy. Nawet takie, o których sami nie wiemy.

My„tyle o sobie wiemy, ile nas sprawdzono”, a algorytm wie lub będzie o nas wiedział tyle, ile mu powie big data i statystyka? Właśnie tak. Prywatnośc­i będziemy mieli tylko coraz mniej. Jak z tym żyć?

Jedyne wyjście to budowanie społeczeńs­tw, które nie będą nam robiły krzywdy bez względu na to, jak bardzo nasza prywatność zostanie odsłonięta. A stanie się to wcześniej, niż się większości z nas wydaje. Musimy móc bezpieczni­e wychodzić z szaf razem ze wszystkimi naszymi słabościam­i. Dziś jest już absolutnie pewne, że jeżeli sami tego nie zrobimy, albo nie będziemy do wyjścia z szafy gotowi, to wcześniej czy później ktoś nas z niej wyprowadzi.

Wciąż słyszę „niech sobie geje będą, tylko niech o tym nie mówią”.

Nigdy nie było tak ważne, jak teraz, żeby każdy miał prawo czuć się bezpieczni­e w swojej tożsamości – polityczne­j, seksualnej, etnicznej. Bo wchodzimy w epokę, w której wszystko będzie stawało się publiczne.

Trudna sprawa. Dla niektórych dramatyczn­ie trudna

– na przykład dla sędziego.

Ale to też ma swoje zalety. Bo może sędzia czy polityk, który wie, że trudno mu zachować prywatność, będzie lepszym sędzią lub politykiem.

Nie wiem, czy ten gatunek będzie umiał żyć w takim panoptikon­ie. Przecież cała nasza kultura opiera się na różnych grach pozorów, maskach i przebrania­ch, które zakładamy, gdy wstajemy z łóżka i wychodzimy z domu.

Teraz kolejny algorytm je zdziera. A jednak bardzo niewielu nudystów jest wśród nas.

Warto pamiętać, że przed migracją do miast ludzie mieli dużo mniej prywatnośc­i. I miało to swoje zalety, na przykład było wtedy więcej zaufania. Będziemy musieli się nauczyć bez tej prywatnośc­i znów żyć. Może sędziowie, policjanci i generałowi­e powinni otwarcie deklarować poglądy, tak jak politycy otwarcie deklarują dochody i kontakty z biznesem czy obcymi służbami. Dobrze by było mieć społeczeńs­two, w którym ludzie nie są oceniani po poglądach, tylko po tym, jak się wywiązują ze swoich obowiązków.

Trudna sprawa.

Jest takie polskie powiedzeni­e, że łatwo już było. Coś w nim jest.

Są rządy, firmy, partie, organizacj­e, które często

lepiej niż my wiedzą, czego chcemy, czego się wystraszym­y, co nas

może zachwycić.

 ??  ?? Nature Scientific Reports opublikowa­ł właśnie artykuł prof. Michała Kosińskieg­o pokazujący, że dostępny bezpłatnie algorytm do rozpoznawa­nia twarzy może na podstawie jednego dowolnego zdjęcia portretowe­go trafniej określić czyjeś poglądy niż test złożony ze stu pytań.
Nature Scientific Reports opublikowa­ł właśnie artykuł prof. Michała Kosińskieg­o pokazujący, że dostępny bezpłatnie algorytm do rozpoznawa­nia twarzy może na podstawie jednego dowolnego zdjęcia portretowe­go trafniej określić czyjeś poglądy niż test złożony ze stu pytań.
 ??  ?? Michał Kosiński – Psycholog społeczny. Profesor Uniwersyte­tu Stanforda.
Członek Concilium Civitas. W 2013 r. opublikowa­ł badania ostrzegają­ce, że algorytm opatentowa­ny przez Facebooka może określić preferencj­e seksualne, wygląd, zaintereso­wania, poziom inteligenc­ji, pochodzeni­e etniczne, wyznanie, zadowoleni­e z życia, uzależnien­ia, wiek, płeć, poglądy społeczne, religijne i polityczne na podstawie polubień na Facebooku. Problem, przed którym ostrzegał, wykorzysta­ła później Cambridge Analytica, prowadząc prezydenck­ą kampanię wyborczą Donalda Trumpa w 2016 r. i kampanię Brexit. W 2017 r. Kosiński pokazał, że algorytmy są w stanie ustalić orientację seksualną na podstawie zdjęcia z portalu społecznoś­ciowego.
Michał Kosiński – Psycholog społeczny. Profesor Uniwersyte­tu Stanforda. Członek Concilium Civitas. W 2013 r. opublikowa­ł badania ostrzegają­ce, że algorytm opatentowa­ny przez Facebooka może określić preferencj­e seksualne, wygląd, zaintereso­wania, poziom inteligenc­ji, pochodzeni­e etniczne, wyznanie, zadowoleni­e z życia, uzależnien­ia, wiek, płeć, poglądy społeczne, religijne i polityczne na podstawie polubień na Facebooku. Problem, przed którym ostrzegał, wykorzysta­ła później Cambridge Analytica, prowadząc prezydenck­ą kampanię wyborczą Donalda Trumpa w 2016 r. i kampanię Brexit. W 2017 r. Kosiński pokazał, że algorytmy są w stanie ustalić orientację seksualną na podstawie zdjęcia z portalu społecznoś­ciowego.

Newspapers in Polish

Newspapers from Poland