Corriere della Sera - La Lettura
Intelligenza artificiale poco intelligente senza la psicologia
A confronto con Gerd Gigerenzer sui limiti dell’IA: «Funziona nei giochi dalle regole fisse come gli scacchi ma va in crisi nelle situazioni instabili. Inoltre manca di intuizione e non ha le funzioni sensoriali del nostro corpo»
Abbiamo incontrato lo scienziato cognitivo tedesco Gerd Gigerenzer al workshop della Nato organizzato dalla Herbert Simon Society dal titolo «Combattere la disinformazione in un mondo pandemico: il ruolo dell’Intelligenza Artificiale e delle scienze cognitive», tenuto a Roma dal 16 al 17 novembre.
RICCARDO VIALE — Come lei scrive nel libro How to Stay Smart in a Smart World (Mit Press), che uscirà nel 2022, l’Intelligenza Artificiale (IA) contemporanea è sopravvalutata nella sua capacità di prevedere fenomeni instabili. I fallimenti di Google Flu Trends e Watson sono due esempi di errori relativi alle illusioni predittive dell’apprendimento automatico (machine learning). Il primo ambiva ad anticipare l’arrivo delle influenze e, dopo qualche previsione iniziale, inanellò una serie di insuccessi a cominciare dalla febbre suina. Il secondo, elaborato dalla Ibm dopo i successi in un famoso gioco televisivo, fu promosso per la diagnosi e terapia del cancro. Ma raggiunse livelli di accuratezza minori di uno studente di Medicina del primo anno. Nel mondo poi si moltiplicano aziende che vendono programmi di IA miracolosi nella previsione dei fenomeni economici e finanziari. Io li chiamo «IA fake». GERD GIGERENZER — Le persone sono state ingannate sulle capacità dell’apprendimento automatico. Lo storytelling è il seguente: l’IA ha battuto i migliori giocatori negli scacchi e nel go. La potenza di calcolo raddoppia ogni due anni. Pertanto, le macchine presto faranno tutto meglio degli umani. Le due premesse sono corrette, la conclusione è sbagliata. Il motivo è che la potenza di calcolo fa molto per alcuni tipi di problemi, ma non per altri. Gli algoritmi complessi funzionano meglio in situazioni stabili, in cui sono disponibili grandi quantità di dati. È qui che si trovano i successi più noti dell’IA, come negli scacchi e nel go, che sono giochi ben definiti, con regole stabili che valgono oggi e domani. Al contrario, in situazioni instabili o mal definite, cioè in condizioni di incertezza, gli algoritmi complessi non funzionano così bene. I Big Data ingannano se il futuro non è come il passato.
RICCARDO VIALE — Quindi la paura che l’intelligenza artificiale possa prevedere il tuo comportamento, come sostiene Shoshana Zuboff nel libro Il capitalismo della sorveglianza, è esagerata? Secondo l’autrice, gli algoritmi dei social network attraverso l’analisi dei dati di quello che lei chiama «surplus comportamentale», cioè comportamenti abituali come l’uso dell’automobile o la scelta dei film, sono in grado di prevedere le nostre propensioni al consumo.
GERD GIGERENZER — Sì, è una paura esagerata. Il libro di Zuboff è ammirevole ed eccellente sotto molti aspetti, ma lei comunque si innamora del clamore del marketing che afferma che gli algoritmi sono generalmente molto accurati. Ci avverte che gli algoritmi monitorano e modellano il comportamento umano con «precisione senza precedenti» e che i capitalisti della sorveglianza «sanno tutto di noi». Al contrario, gli studi hanno dimostrato che il targeting con annunci personalizzati è in realtà piuttosto impreciso e che gli inserzionisti potrebbero essere stati fuorviati da Google, Facebook e altre piattaforme pubblicitarie.
RICCARDO VIALE — Quello che, però, preoccupa sono la polarizzazione epistemica e l’anestesia del pensiero critico che sono causate dagli algoritmi di newsfeed dei social network come Facebook. In rete noi riceviamo soprattutto notizie che sono coerenti con le tesi che sosteniamo. Se siamo no vax, ad esempio, ci vengono fornite informazioni che sono contro i vaccini. Si tratta di una enorme «fallacia della conferma», che non fa che polarizzare le nostre posizioni e farci arretrare sul piano della conoscenza.
GERD GIGERENZER — La mancanza di pensiero critico su internet è davvero sorprendente. Uno studio su oltre tremila nativi digitali statunitensi ha riportato che il 96% non sa come verificare l’affidabilità di siti e post! Un altro studio sul sistema di raccomandazione di YouTube, che consiglia i video successivi, ha dimostrato che indirizza gli utenti verso video più estremi, meno basati sui fatti e che determina il 70% del tempo di visione.
RICCARDO VIALE — Ne consegue che l’autorità di regolamentazione europea dovrebbe intervenire per obbligare i social network a introdurre algoritmi di newsfeed più critici, che generino un’offerta almeno casuale di informazioni legate al tema preferito degli utenti.
GERD GIGERENZER — Il «peccato originale» di internet è che gli utenti non sono più i clienti ma — in termini di tempo e attenzione — sono il prodotto da vendere. I veri clienti sono gli inserzionisti che pagano le piattaforme per ogni clic sui loro annunci. Le autorità di regolamentazione devono modificare questo modello di business da «paga con i tuoi
dati» a «paga con i tuoi soldi». Quindi gli utenti sarebbero i clienti e non ci sarebbe bisogno di attirarli in post e video sempre più estremi come mezzo per tenerli più a lungo sulla piattaforma in modo che possano vedere più pubblicità.
RICCARDO VIALE — Un’altra strada è aumentare la capacità digitale degli utenti e quella di discriminare le fake news. A mio parere, una soluzione interessante per raggiungere questo obiettivo è il selfnudging. Con questo termine si intendono una serie di misure comportamentali autoimposte per aumentare la conoscenza digitale, quella delle trappole cognitive nella rete e delle modalità di rispondere correttamente di fronte a notizie di dubbia provenienza. Tornando all’IA, penso che la sua potenza di macinazione di Big Data sia lontana dall’essere un comportamento intelligente perché le manca il lato umano, l’attitudine a decidere attraverso pochi dati ed euristiche, regole empiriche semplici.
GERD GIGERENZER — La maggior parte delle persone nell’apprendimento automatico crede che la psicologia sia irrilevante per costruire algoritmi efficienti. Questo è vero se si progetta l’IA per giocare a scacchi o a go, o per altre situazioni stabili, ma non necessariamente in situazioni di incertezza, come la previsione del comportamento umano. In effetti, il significato originale dell’IA, descritto da Herbert Simon, Allen Newell e altri, era quello di estrarre le euristiche del pensiero strategico utilizzate dagli esperti e programmarle in un computer, che quindi può elaborare le regole più velocemente e senza errori. In situazioni di incertezza, l’IA psicologica può superare algoritmi complessi e Big Data. Il mio gruppo di ricerca lo ha dimostrato in molte situazioni. Ad esempio, ricorda il tentativo di Google di prevedere la diffusione dell’influenza? Il primo algoritmo di Google Flu Trends (Gft) è stato addestrato su anni di dati sulle visite mediche relative all’influenza e ha appreso che l’influenza è alta in inverno e bassa in estate. Poi l’influenza suina ha colpito inaspettatamente all’inizio dell’estate e il Gft ha fallito. Gli ingegneri di Google hanno rivisto l’algoritmo segreto rendendolo più complesso, aumentando il numero di variabili da 45 a 160, nella convinzione che la complessità paghi. La scienza dell’euristica, al contrario, insegna che in condizioni di incertezza, è necessario rendere l’algoritmo più semplice, non più complesso. Abbiamo utilizzato le intuizioni psicologiche per sviluppare un’euristica che si basa solo su un singolo punto dati, le più recenti visite mediche relative all’influenza, e ignora tutto il resto. Questa IA psicologica ha predetto l’influenza meglio della Gft originale, meglio della Gft rivista e meglio delle revisioni successive.
RICCARDO VIALE — Un’altra importante carenza dell’IA attuale è l’assenza del corpo. Solo la cognizione incarnata
(embodied cognition), cioè un’attività cognitiva che sia integrata con l’apparato sensoriale, motorio e viscerale può adattarsi con successo all’ambiente. Di fatto decidiamo attraverso il corpo che ci dice come interagire con l’ambiente e gli effetti attesi delle nostre decisioni.
GERD GIGERENZER — Sia gli umani sia gli altri animali si affidano a euristiche che sfruttano le capacità sensoriali e motorie del corpo. Le formiche misurano le dimensioni di un potenziale nido usando scie di feromoni e gli umani catturano le palle al volo correndo a una velocità che mantenga costante l’angolo dello sguardo rispetto alla caduta. Queste euristiche veloci e frugali sono radicate nel corpo: è la complessità del corpo evoluto che consente all’euristica di essere semplice. RICCARDO VIALE — L’adattamento ecologico e il successo cognitivo dipendono dall’Umwelt (ambiente) specifico di ogni individuo. Ognuno di noi ha un
Umwelt diverso, cioè vediamo e consideriamo rilevanti aspetti diversi dell’ambiente. Possiamo, però, coordinare le nostre azioni (discorso e decisioni) per caratteristiche comuni che condividiamo. L’IA attuale è priva di qualsiasi Umwelt.
GERD GIGERENZER — L’ambiente di queste macchine è composto dai dati che ottengono per adattarsi ai loro parametri. Ma una rete neurale profonda non è nemmeno cosciente del fatto che esista un ambiente. Alpha Zero può battere ogni essere umano negli scacchi e go ,ma non sa che sta giocando a un gioco chiamato scacchi, o che c’è un avversario umano che gioca contro di esso.
RICCARDO VIALE — Infine, il nostro successo adattivo si basa anche sulla conoscenza di fondo o sul senso comune che include principi inferenziali di tipo innato, insieme a norme sociali e morali acquisite. GERD GIGERENZER — Le reti neurali possono risolvere molti problemi, ma non con ciò che chiamiamo giudizio e intuizione. In effetti, nessuno sa come insegnare alle reti neurali la psicologia intuitiva o la fisica intuitiva e il resto del senso comune. RICCARDO VIALE — Se le osservazioni precedenti sono corrette, lei pensa che sia possibile proporre un nuovo approccio all’IA che si basi sulla cognizione incarnata e sulla razionalità ecologica? Una nuova robotica euristica incarnata?
GERD GIGERENZER — La chiave sarà l’Intelligenza Artificiale psicologica, ovvero dotare un robot di una cassetta degli attrezzi di euristiche adattive, un modulo di apprendimento che aiuti ad abbinare l’euristica agli ambienti e un modulo di scoperta che ricombini gli elementi costitutivi per creare nuove euristiche adattive. E avremmo bisogno di creare un corpo che dia alla macchina uno scopo, ad esempio, in primo luogo per agire socialmente o per sopravvivere.
RICCARDO VIALE — Lei crede che questo nuovo sviluppo possa superare lo scetticismo filosofico di un autore come John Searle nei confronti della vecchia IA simulazionista? Metaforicamente è possibile aprire la famosa Stanza Cinese
(Chinese Room), cioè che la IA capisca il significato di ciò che sta facendo?
GERD GIGERENZER — Questa è una grande domanda. L’attuale apprendimento automatico scommette sulle associazioni statistiche e questo non porterà alla comprensione, proprio come sostiene Searle. La questione dovrebbe essere, tuttavia, rivalutata rispetto all’intuizione che l’IA psicologica è progettata per affrontare l’incertezza, proprio come la mente umana si è evoluta per domare l’incertezza e non tanto per affrontare il rischio o altre situazioni stabili. In situazioni di rischio, come giocare alla roulette, non serve alcuna comprensione del significato nel senso di Searle, solo calcolo. L’integrazione dell’Intelligenza Artificiale psicologica con l’apprendimento automatico potrebbe forse cambiare lo scenario quando si affrontano situazioni incerte.
RICCARDO VIALE — Che ne pensa di Rumore, il nuovo libro di Daniel Kahneman, Olivier Sibony e Cass Sunstein?
GERD GIGERENZER — Ho trovato il libro piuttosto deludente, e sotto diversi aspetti. Innanzitutto, proprio come Pensieri veloci e lenti di Kahneman, non riesce a fare la distinzione essenziale tra rischio e incertezza. In una situazione di rischio, conosciamo sempre la migliore previsione o azione, proprio come sappiamo dove si trova il centro di un bersaglio: questa è l’analogia con cui inizia il libro. La sua affermazione chiave è che il rumore è un problema e deve essere eliminato. Gli autori presumono che la risposta giusta, il centro del bersaglio, sia sempre conoscibile. Eppure non è così in situazioni di incertezza, compresi i due esempi presentati dagli autori: decisioni giudiziarie e sottoscrizione di assicurazioni. Rumore potrebbe essere un modello di business buono per McKinsey (dove uno degli autori, Olivier Sibony, ha lavorato per anni) per vendere audit del rumore, «checklist» e algoritmi ai propri clienti. Ricordiamo che la crisi finanziaria del 2008 è avvenuta in parte perché banchieri e autorità di regolamentazione hanno erroneamente sostituito il giudizio di banchieri esperti con modelli di rischio complessi che non erano in grado di affrontare l’incertezza. L’illusione della certezza — sappiamo dov’è il centro del bersaglio — è una fede molto persistente in Rumore.