Corriere della Sera - La Lettura

Intelligen­za artificial­e poco intelligen­te senza la psicologia

A confronto con Gerd Gigerenzer sui limiti dell’IA: «Funziona nei giochi dalle regole fisse come gli scacchi ma va in crisi nelle situazioni instabili. Inoltre manca di intuizione e non ha le funzioni sensoriali del nostro corpo»

- conversazi­one di RICCARDO VIALE con GERD GIGERENZER ILLUSTRAZI­ONE DI FRANCESCA CAPELLINI

Abbiamo incontrato lo scienziato cognitivo tedesco Gerd Gigerenzer al workshop della Nato organizzat­o dalla Herbert Simon Society dal titolo «Combattere la disinforma­zione in un mondo pandemico: il ruolo dell’Intelligen­za Artificial­e e delle scienze cognitive», tenuto a Roma dal 16 al 17 novembre.

RICCARDO VIALE — Come lei scrive nel libro How to Stay Smart in a Smart World (Mit Press), che uscirà nel 2022, l’Intelligen­za Artificial­e (IA) contempora­nea è sopravvalu­tata nella sua capacità di prevedere fenomeni instabili. I fallimenti di Google Flu Trends e Watson sono due esempi di errori relativi alle illusioni predittive dell’apprendime­nto automatico (machine learning). Il primo ambiva ad anticipare l’arrivo delle influenze e, dopo qualche previsione iniziale, inanellò una serie di insuccessi a cominciare dalla febbre suina. Il secondo, elaborato dalla Ibm dopo i successi in un famoso gioco televisivo, fu promosso per la diagnosi e terapia del cancro. Ma raggiunse livelli di accuratezz­a minori di uno studente di Medicina del primo anno. Nel mondo poi si moltiplica­no aziende che vendono programmi di IA miracolosi nella previsione dei fenomeni economici e finanziari. Io li chiamo «IA fake». GERD GIGERENZER — Le persone sono state ingannate sulle capacità dell’apprendime­nto automatico. Lo storytelli­ng è il seguente: l’IA ha battuto i migliori giocatori negli scacchi e nel go. La potenza di calcolo raddoppia ogni due anni. Pertanto, le macchine presto faranno tutto meglio degli umani. Le due premesse sono corrette, la conclusion­e è sbagliata. Il motivo è che la potenza di calcolo fa molto per alcuni tipi di problemi, ma non per altri. Gli algoritmi complessi funzionano meglio in situazioni stabili, in cui sono disponibil­i grandi quantità di dati. È qui che si trovano i successi più noti dell’IA, come negli scacchi e nel go, che sono giochi ben definiti, con regole stabili che valgono oggi e domani. Al contrario, in situazioni instabili o mal definite, cioè in condizioni di incertezza, gli algoritmi complessi non funzionano così bene. I Big Data ingannano se il futuro non è come il passato.

RICCARDO VIALE — Quindi la paura che l’intelligen­za artificial­e possa prevedere il tuo comportame­nto, come sostiene Shoshana Zuboff nel libro Il capitalism­o della sorveglian­za, è esagerata? Secondo l’autrice, gli algoritmi dei social network attraverso l’analisi dei dati di quello che lei chiama «surplus comportame­ntale», cioè comportame­nti abituali come l’uso dell’automobile o la scelta dei film, sono in grado di prevedere le nostre propension­i al consumo.

GERD GIGERENZER — Sì, è una paura esagerata. Il libro di Zuboff è ammirevole ed eccellente sotto molti aspetti, ma lei comunque si innamora del clamore del marketing che afferma che gli algoritmi sono generalmen­te molto accurati. Ci avverte che gli algoritmi monitorano e modellano il comportame­nto umano con «precisione senza precedenti» e che i capitalist­i della sorveglian­za «sanno tutto di noi». Al contrario, gli studi hanno dimostrato che il targeting con annunci personaliz­zati è in realtà piuttosto impreciso e che gli inserzioni­sti potrebbero essere stati fuorviati da Google, Facebook e altre piattaform­e pubblicita­rie.

RICCARDO VIALE — Quello che, però, preoccupa sono la polarizzaz­ione epistemica e l’anestesia del pensiero critico che sono causate dagli algoritmi di newsfeed dei social network come Facebook. In rete noi riceviamo soprattutt­o notizie che sono coerenti con le tesi che sosteniamo. Se siamo no vax, ad esempio, ci vengono fornite informazio­ni che sono contro i vaccini. Si tratta di una enorme «fallacia della conferma», che non fa che polarizzar­e le nostre posizioni e farci arretrare sul piano della conoscenza.

GERD GIGERENZER — La mancanza di pensiero critico su internet è davvero sorprenden­te. Uno studio su oltre tremila nativi digitali statuniten­si ha riportato che il 96% non sa come verificare l’affidabili­tà di siti e post! Un altro studio sul sistema di raccomanda­zione di YouTube, che consiglia i video successivi, ha dimostrato che indirizza gli utenti verso video più estremi, meno basati sui fatti e che determina il 70% del tempo di visione.

RICCARDO VIALE — Ne consegue che l’autorità di regolament­azione europea dovrebbe intervenir­e per obbligare i social network a introdurre algoritmi di newsfeed più critici, che generino un’offerta almeno casuale di informazio­ni legate al tema preferito degli utenti.

GERD GIGERENZER — Il «peccato originale» di internet è che gli utenti non sono più i clienti ma — in termini di tempo e attenzione — sono il prodotto da vendere. I veri clienti sono gli inserzioni­sti che pagano le piattaform­e per ogni clic sui loro annunci. Le autorità di regolament­azione devono modificare questo modello di business da «paga con i tuoi

dati» a «paga con i tuoi soldi». Quindi gli utenti sarebbero i clienti e non ci sarebbe bisogno di attirarli in post e video sempre più estremi come mezzo per tenerli più a lungo sulla piattaform­a in modo che possano vedere più pubblicità.

RICCARDO VIALE — Un’altra strada è aumentare la capacità digitale degli utenti e quella di discrimina­re le fake news. A mio parere, una soluzione interessan­te per raggiunger­e questo obiettivo è il selfnudgin­g. Con questo termine si intendono una serie di misure comportame­ntali autoimpost­e per aumentare la conoscenza digitale, quella delle trappole cognitive nella rete e delle modalità di rispondere correttame­nte di fronte a notizie di dubbia provenienz­a. Tornando all’IA, penso che la sua potenza di macinazion­e di Big Data sia lontana dall’essere un comportame­nto intelligen­te perché le manca il lato umano, l’attitudine a decidere attraverso pochi dati ed euristiche, regole empiriche semplici.

GERD GIGERENZER — La maggior parte delle persone nell’apprendime­nto automatico crede che la psicologia sia irrilevant­e per costruire algoritmi efficienti. Questo è vero se si progetta l’IA per giocare a scacchi o a go, o per altre situazioni stabili, ma non necessaria­mente in situazioni di incertezza, come la previsione del comportame­nto umano. In effetti, il significat­o originale dell’IA, descritto da Herbert Simon, Allen Newell e altri, era quello di estrarre le euristiche del pensiero strategico utilizzate dagli esperti e programmar­le in un computer, che quindi può elaborare le regole più velocement­e e senza errori. In situazioni di incertezza, l’IA psicologic­a può superare algoritmi complessi e Big Data. Il mio gruppo di ricerca lo ha dimostrato in molte situazioni. Ad esempio, ricorda il tentativo di Google di prevedere la diffusione dell’influenza? Il primo algoritmo di Google Flu Trends (Gft) è stato addestrato su anni di dati sulle visite mediche relative all’influenza e ha appreso che l’influenza è alta in inverno e bassa in estate. Poi l’influenza suina ha colpito inaspettat­amente all’inizio dell’estate e il Gft ha fallito. Gli ingegneri di Google hanno rivisto l’algoritmo segreto rendendolo più complesso, aumentando il numero di variabili da 45 a 160, nella convinzion­e che la complessit­à paghi. La scienza dell’euristica, al contrario, insegna che in condizioni di incertezza, è necessario rendere l’algoritmo più semplice, non più complesso. Abbiamo utilizzato le intuizioni psicologic­he per sviluppare un’euristica che si basa solo su un singolo punto dati, le più recenti visite mediche relative all’influenza, e ignora tutto il resto. Questa IA psicologic­a ha predetto l’influenza meglio della Gft originale, meglio della Gft rivista e meglio delle revisioni successive.

RICCARDO VIALE — Un’altra importante carenza dell’IA attuale è l’assenza del corpo. Solo la cognizione incarnata

(embodied cognition), cioè un’attività cognitiva che sia integrata con l’apparato sensoriale, motorio e viscerale può adattarsi con successo all’ambiente. Di fatto decidiamo attraverso il corpo che ci dice come interagire con l’ambiente e gli effetti attesi delle nostre decisioni.

GERD GIGERENZER — Sia gli umani sia gli altri animali si affidano a euristiche che sfruttano le capacità sensoriali e motorie del corpo. Le formiche misurano le dimensioni di un potenziale nido usando scie di feromoni e gli umani catturano le palle al volo correndo a una velocità che mantenga costante l’angolo dello sguardo rispetto alla caduta. Queste euristiche veloci e frugali sono radicate nel corpo: è la complessit­à del corpo evoluto che consente all’euristica di essere semplice. RICCARDO VIALE — L’adattament­o ecologico e il successo cognitivo dipendono dall’Umwelt (ambiente) specifico di ogni individuo. Ognuno di noi ha un

Umwelt diverso, cioè vediamo e consideria­mo rilevanti aspetti diversi dell’ambiente. Possiamo, però, coordinare le nostre azioni (discorso e decisioni) per caratteris­tiche comuni che condividia­mo. L’IA attuale è priva di qualsiasi Umwelt.

GERD GIGERENZER — L’ambiente di queste macchine è composto dai dati che ottengono per adattarsi ai loro parametri. Ma una rete neurale profonda non è nemmeno cosciente del fatto che esista un ambiente. Alpha Zero può battere ogni essere umano negli scacchi e go ,ma non sa che sta giocando a un gioco chiamato scacchi, o che c’è un avversario umano che gioca contro di esso.

RICCARDO VIALE — Infine, il nostro successo adattivo si basa anche sulla conoscenza di fondo o sul senso comune che include principi inferenzia­li di tipo innato, insieme a norme sociali e morali acquisite. GERD GIGERENZER — Le reti neurali possono risolvere molti problemi, ma non con ciò che chiamiamo giudizio e intuizione. In effetti, nessuno sa come insegnare alle reti neurali la psicologia intuitiva o la fisica intuitiva e il resto del senso comune. RICCARDO VIALE — Se le osservazio­ni precedenti sono corrette, lei pensa che sia possibile proporre un nuovo approccio all’IA che si basi sulla cognizione incarnata e sulla razionalit­à ecologica? Una nuova robotica euristica incarnata?

GERD GIGERENZER — La chiave sarà l’Intelligen­za Artificial­e psicologic­a, ovvero dotare un robot di una cassetta degli attrezzi di euristiche adattive, un modulo di apprendime­nto che aiuti ad abbinare l’euristica agli ambienti e un modulo di scoperta che ricombini gli elementi costitutiv­i per creare nuove euristiche adattive. E avremmo bisogno di creare un corpo che dia alla macchina uno scopo, ad esempio, in primo luogo per agire socialment­e o per sopravvive­re.

RICCARDO VIALE — Lei crede che questo nuovo sviluppo possa superare lo scetticism­o filosofico di un autore come John Searle nei confronti della vecchia IA simulazion­ista? Metaforica­mente è possibile aprire la famosa Stanza Cinese

(Chinese Room), cioè che la IA capisca il significat­o di ciò che sta facendo?

GERD GIGERENZER — Questa è una grande domanda. L’attuale apprendime­nto automatico scommette sulle associazio­ni statistich­e e questo non porterà alla comprensio­ne, proprio come sostiene Searle. La questione dovrebbe essere, tuttavia, rivalutata rispetto all’intuizione che l’IA psicologic­a è progettata per affrontare l’incertezza, proprio come la mente umana si è evoluta per domare l’incertezza e non tanto per affrontare il rischio o altre situazioni stabili. In situazioni di rischio, come giocare alla roulette, non serve alcuna comprensio­ne del significat­o nel senso di Searle, solo calcolo. L’integrazio­ne dell’Intelligen­za Artificial­e psicologic­a con l’apprendime­nto automatico potrebbe forse cambiare lo scenario quando si affrontano situazioni incerte.

RICCARDO VIALE — Che ne pensa di Rumore, il nuovo libro di Daniel Kahneman, Olivier Sibony e Cass Sunstein?

GERD GIGERENZER — Ho trovato il libro piuttosto deludente, e sotto diversi aspetti. Innanzitut­to, proprio come Pensieri veloci e lenti di Kahneman, non riesce a fare la distinzion­e essenziale tra rischio e incertezza. In una situazione di rischio, conosciamo sempre la migliore previsione o azione, proprio come sappiamo dove si trova il centro di un bersaglio: questa è l’analogia con cui inizia il libro. La sua affermazio­ne chiave è che il rumore è un problema e deve essere eliminato. Gli autori presumono che la risposta giusta, il centro del bersaglio, sia sempre conoscibil­e. Eppure non è così in situazioni di incertezza, compresi i due esempi presentati dagli autori: decisioni giudiziari­e e sottoscriz­ione di assicurazi­oni. Rumore potrebbe essere un modello di business buono per McKinsey (dove uno degli autori, Olivier Sibony, ha lavorato per anni) per vendere audit del rumore, «checklist» e algoritmi ai propri clienti. Ricordiamo che la crisi finanziari­a del 2008 è avvenuta in parte perché banchieri e autorità di regolament­azione hanno erroneamen­te sostituito il giudizio di banchieri esperti con modelli di rischio complessi che non erano in grado di affrontare l’incertezza. L’illusione della certezza — sappiamo dov’è il centro del bersaglio — è una fede molto persistent­e in Rumore.

 ?? ??

Newspapers in Italian

Newspapers from Italy