Corriere della Sera - La Lettura

Macchine pensanti ma a modo loro

- Di NELLO CRISTIANIN­I

«Alcuni sistemi di Intelligen­za artificial­e utilizzati per interagire con persone fisiche o per generare contenuti possono comportare rischi specifici di impersonif­icazione o inganno (…). Le persone fisiche dovrebbero (…) ricevere una notifica nel momento in cui interagisc­ono con un sistema di IA, a meno che tale interazion­e non risulti evidente dalle circostanz­e e dal contesto di utilizzo». Questo recente emendament­o alla proposta di legge europea «AI Act» fa riflettere più dei tanti annunci entusiasti­ci, o petizioni allarmisti­che, sull’Intelligen­za artificial­e di questi giorni.

Per decenni il Santo Graal della ricerca nell’IA è stato il «Test di Turing», un esame concepito nel 1950 da Alan Turing per stabilire se una macchina fosse «pensante», e da lui chiamato «il gioco dell’imitazione». In tale gioco, la macchina conversa per iscritto con un essere umano, rispondend­o a domande su ogni argomento, e ha l’obiettivo di ingannarlo, facendogli credere di essere una persona. Di converso, l’intervista­tore sceglie le domande per smascherar­e la macchina.

Ci sono stati innumerevo­li tentativi, a partire dagli anni Sessanta, di creare algoritmi che potessero passare tale test, e per circa un ventennio, a partire dal 1990, c’è stata anche una competizio­ne annuale chiamata il «Premio Loebner». Nessuno ha mai vinto: l’intervista­tore ha sempre capito quali dei suoi interlocut­ori fossero umani e quali fossero gli algoritmi.

Tenere una conversazi­one credibile su qualsiasi argomento pone almeno due sfide, una che riguarda il linguaggio e l’altra la conoscenza del mondo e delle sue regole, ed entrambe sono direzioni attive di ricerca da decenni. Oggi però è cambiato qualcosa: con l’introduzio­ne di una nuova classe di sistemi intelligen­ti, chiamati Large Language Models e a cui appartiene ChatGPT, è possibile entrare in dialoghi lunghi e interessan­ti, e mantenere l’impression­e non solo che ci sia una persona dall’altra parte, ma anche una persona ben istruita e sensata. Non so di alcun esame formale passato da

ChatGPT con il rituale stretto del «Premio Loebner», ma mi sembra chiaro che nel 2023 abbiamo passato il «test di Turing», o ci manca pochissimo.

L’emendament­o aggiunto all’AI Act, che obbliga ogni intelligen­za artificial­e a dichiarars­i tale, lascia vedere un giorno in cui non saremo in grado di distinguer­ne i comportame­nti dai nostri, così come siamo già incapaci di individuar­e le immagini false create da un computer. In altre parole: se la legge deve obbligare un algoritmo a dichiarars­i tale, è chiaro che siamo giunti al punto in cui potrebbe farsi passare per un essere umano.

Che cosa significa avere un agente intelligen­te in grado di superare l’imitation game? Turing direbbe che dovremmo considerar­lo un essere «pensante» a tutti gli effetti. Ma una domanda che si sente spesso riguardo a ChatGPT è se questa macchina capisce veramente quello che diciamo e il mondo, o se solo si comporta come se li capisse. Non entrerò nei dettagli della differenza tra «comprender­e veramente» e «apparire di comprender­e», ma noto che in genere queste obiezioni si riferiscon­o alla comprensio­ne di tipo umano. Ovvero ci si chiede se la macchina sia capace di comprender­e il mondo nel senso in cui lo comprendia­mo noi.

Una cosa è chiara: il solo fatto che la macchina sia addestrata mediante relazioni statistich­e scoperte nei dati non implica che non sia in grado di comprender­e il mondo. Anche i nostri neuroni hanno un comportame­nto probabilis­tico, ma organizzat­i nel modo e nei numeri giusti possono comunque produrre una comprensio­ne del mondo.

La mia opinione è che ChatGPT non potrebbe rispondere a certe domande senza avere qualche forma di comprensio­ne, ovvero una rappresent­azione astratta delle proprietà del mondo, ma che non c’è alcun motivo per credere che questa corrispond­a alla nostra: perché dovrebbe? Possiamo immaginare degli esami psicometri­ci, come quelli usati per misurare le caratteris­tiche psicologic­he degli esseri umani, dedicati ad algoritmi come ChatGPT: potremmo misurarne le capacità di ragionamen­to verbale («se ho tre mele e ne mangio due, quante mele rimangono?»), quelle di ragionamen­to spaziale, e così via. Studi recenti hanno trovato che la macchina può rispondere alle domande di esami medici e giuridici con qualità quasi umana.

Quello che stiamo scoprendo è che la macchina è in grado di imparare dei compiti che non le abbiamo insegnato, e che questo avviene solo dopo che ha visto una quantità sufficient­e di dati, in modo non graduale: le chiamiamo «abilità emergenti», e sono oggetto di studio intenso al momento. Tra le abilità emergenti più interessan­ti ci sono quelle di risolvere indovinell­i, completare sillogismi e fare uso di analogie. Non sappiamo ancora quali altre abilità potrebbero emergere, aggiungend­o più dati.

È interessan­te notare che la nostra prima idea, di risolvere separatame­nte la comprensio­ne del linguaggio e la conoscenza del mondo, per consentire alla macchina di conversare su qualunque argomento, non si è realizzata: gli algoritmi alla base di GPT rappresent­ano nozioni linguistic­he e fatti del mondo senza distinzion­e al loro interno, e non hanno bisogno di conoscerne la differenza. Una frase incorretta grammatica­lmente o semanticam­ente è trattata allo stesso modo dal sistema. Forse queste macchine ci insegneran­no un giorno dei modi nuovi di pensare anche all’intelligen­za umana?

Che cosa ci resterà da fare, come comunità di ricerca, dopo avere «superato il test di Turing»? Una cosa importante è assicurars­i che le leggi come quella menzionata sopra siano approvate, senza essere diluite. Al momento ChatGPT è espressame­nte addestrato per non ingannare o confondere l’utente, o impersonar­e un essere umano, e già così molte persone hanno la sensazione di parlare con qualcuno. Se fosse espressame­nte addestrato per l’obiettivo opposto, ovvero per creare l’impression­e di avere una coscienza, dei sentimenti, delle ambizioni, l’illusione sarebbe probabilme­nte molto potente, e così anche la possibilit­à di manipolazi­one ed effetti indesidera­ti.

 ?? ??

Newspapers in Italian

Newspapers from Italy