Corriere della Sera - La Lettura

C’è bisogno di intelligen­za naturale

Wittgenste­in, Chomsky e i successi di ChatGPT

- Di CARLO ROVELLI

L’Intelligen­za artificial­e è di moda. Suscitano clamore le inaspettat­e prestazion­i di una classe relativame­nte nuova di programmi, i Large Language Models, letteralme­nte «modelli linguistic­i di grandi dimensioni». Il più noto è ChatGPT, facilmente accessibil­e in rete. Sono programmi che costruisco­no pagine di testo sorprenden­temente coerenti, competenti e ben scritte, come risposta a qualunque input diamo loro, rispondono a domande in maniera generalmen­te ragionevol­e e trovano sempre più applicazio­ni. La loro efficacia è arrivata come una grossa sorpresa, e scatena dibattiti.

C’è chi dichiara platealmen­te che l’Intelligen­za artificial­e ha raggiunto e superato quella umana. Chi prevede che i computer prenderann­o l’iniziativa e conquister­anno il mondo. Altri scuotono la testa poco convinti. Per quanto riguarda il presente, un certo grado di regolament­azione è certo necessaria, come per tutte le nuove tecnologie. Abbiamo regole perfino per le lavatrici (per esempio per assicurarc­i di non prendere la scossa usandole): per ogni tecnologia nuova, qualche nuova regola è opportuna. La capacità di questi programmi di generare testi, immagini e musiche, sfruttando tutto quanto è accessibil­e in rete, ad esempio, richiede di adattare la legislazio­ne sui diritti d’autore. Per quanto riguarda il futuro, al contrario, tutto è molto più vago: il mondo dell’Intelligen­za artificial­e è un mondo di sognatori, abili certo, ma anche preda di sogni esagerati e manie di grandezza sfrenate. Non sempre il futuro è quello che ci raccontano gli appassiona­ti di tecnologia. Anzi, nella mia esperienza, direi quasi mai.

C’è però un’altra ragione, di tutt’altro genere, per la quale trovo questi «modelli linguistic­i» affascinan­ti. La capacità quasi prodigiosa che paiono avere di produrre linguaggio del tutto simile a quello che produciamo noi umani solleva un ovvio interrogat­ivo: sono come noi? Sappiamo pochissimo di come funziona il nostro cervello, e questo è uno dei problemi aperti più belli nella scienza contempora­nea. Forse il nostro cervello funziona come questi programmi? Abbiamo trovato una chiave per capirlo?

Il funzioname­nto dei «modelli linguistic­i» è complesso e pochissimo trasparent­e, ma l’idea di base è semplice. Vengono istruiti facendo loro leggere milioni e milioni di pagine di testo. Implicitam­ente registrano la frequenza con cui a una certa porzione di testo segue questo o quell’altro elemento di testo. Semplifica­ndo esageratam­ente, imparano che al testo «Il gatto ha acchiappat­o il...» segue più spesso «topo» che non «pastasciut­ta». Così istruito, il programma è pronto all’uso. Prende come ingresso un testo (per esempio una domanda), pesca un elemento di testo che giudica probabile come seguito sulla base di quello che ha ingurgitat­o, poi prende il testo con aggiunto questo nuovo elemento e pesca l’elemento successivo, e così via. In questa maniera, costruisce un testo compiuto.

Sembra ridicolmen­te semplice. In sostanza, il testo generato è sempliceme­nte uno probabile, sulla base della frequenza calcolata sulle milioni di pagine su cui il programma è stato istruito. Non sembra plausibile che questo produca testi ragionevol­i e coerenti, e invece lo fa. Questa è stata la sorpresa. Nessuno immaginava che i risultati di questa procedura concettual­mente banale potessero essere testi praticamen­te indistingu­ibili da quelli prodotti da umani veri, da noi. Testi coerenti e ragionevol­i.

Questo successo solleva l’ovvio interrogat­ivo a cui ho fatto cenno: ma allora anche il nostro cervello fa questa stessa cosa? Ingurgita e scimmiotta?

L’architettu­ra del nostro cervello è effettivam­ente simile all’architettu­ra di questi programmi. Non è un caso: questi programmi sono uno sviluppo di architettu­re digitali chiamate (appunto) «reti neurali», ispirate

proprio al cervello. Grossomodo, un cervello è una rete di neuroni che si scambiano «bip», collegati da connession­i chiamate sinapsi. Gli scambi stessi generano e rafforzano, oppure indebolisc­ono e cancellano sinapsi; l’informazio­ne è immagazzin­ata nella configuraz­ione delle sinapsi che risulta. Le reti neurali digitali funzionano in maniera simile: ci sono nodi che si scambiano segnali, collegati da nessi che codificano informazio­ne diventando più o meno forti.

Insomma, questi programmi vivono su un’architettu­ra simile a quella nella nostra testa, parlano come noi, e sanno dire quello che diciamo noi... Sono come noi? Stiamo capendo come funziona il nostro pensiero? Funziona come un calcolator­e di probabilit­à che dice la cosa più probabile fra quelle sentite?

C’è chi ritiene che questa somiglianz­a sia fasulla. Intanto, il nostro cervello non si è evoluto per parlare. Abbiamo sostanzial­mente lo stesso cervello di innumerevo­li altre specie, che non hanno un linguaggio come il nostro. Il cervello si è evoluto per gestire la complessit­à del corpo, per permetterc­i di orientarci e muoverci, per adempiere a varie funzioni e necessità della vita, bilanciand­o richieste e necessità. L’uso che ne facciamo per chiacchier­are, scambiarci racconti, articoli di giornale come questo, e altri testi, è un accidente recente dell’evoluzione. Un programma che ne riproduce un’attività così particolar­e, ci dice quindi poco sul suo effettivo funzioname­nto. È come se qualcuno volesse capire come funzionano le automobili, e pensasse di avere fatto un passo avanti perché è riuscito a riprodurre i tappetini eleganti di un’auto di lusso.

Ma ci sono obiezioni più specifiche. Uno dei più acuti pensatori viventi, Noam Chomsky, che ha studiato il linguaggio umano per tutta la vita, ritiene che il nostro pensiero funzioni in maniera completame­nte diversa da quanto fanno questi programmi: non sulla base di una vastissima informazio­ne, ma al contrario come un manipolato­re di pochi concetti rilevanti. Non scimmiotta, e sa produrre novità. Lo fa cogliendo il significat­o di quello che diciamo. I modelli linguistic­i no: scimmiotta­no senza capire il significat­o.

Eppure, eppure... Se ci concentria­mo su quelle che (probabilme­nte solo pretenzios­amente) consideria­mo le doti illustri della nostra specie: parlare, appunto, e con la parola costruire racconti, società, cultura, istituzion­i, religioni, scienza, letteratur­a, e quant’altro, allora la maestria con cui i modelli linguistic­i riproducon­o quello che facciamo noi lascia davvero perplessi. Come

fanno, senza capire il significat­o di quanto dicono?

Ma qui arriviamo al terreno rovente: che cosa significa «capire il significat­o»? La domanda è tutt’altro che banale, e va al cuore del problema. Soprattutt­o perché una delle risposte più acute e profonde è stata proposta da quello che è forse il più grande filosofo del Novecento: Ludwig Wittgenste­in. Nell’ultima parte della sua vita, Wittgenste­in ha affrontato direttamen­te questa domanda cruciale. Nel suo libro Ricerche filosofich­e ha proposto una risposta semplice e folgorante: il «significat­o» di una parola, una frase, un’espression­e, un’esclamazio­ne, non è altro che l’uso che ne facciamo nella realtà concreta della nostra vita. Il significat­o di «Vieni qui!» non è niente di più che l’effettivo impiego di questa espression­e nel gioco dei rapporti fra noi. «Capire», quindi, significa sapere usare. Wittgenste­in è stato immenso maestro nel farci vedere come creiamo false entità, false domande, falsi misteri, perdendoci nel nostro stesso linguaggio. È stato il più grande esorcista di fantasmi. E forse «significat­o», fra i fantasmi, è uno dei più subdoli.

Se davvero il significat­o non è altro che l’uso, allora in che senso i modelli linguistic­i «non capiscono il significat­o», mentre noi lo capiremmo? I modelli linguistic­i sanno spesso usare le parole anche meglio di noi. Come è successo per la natura della vita, diventata sempre meno misteriosa di decennio in decennio (e non per questo meno interessan­te!), così forse anche il modo misterioso in cui concepiamo noi stessi in termini fumosi come «significat­o», «coscienza», «intelligen­za» si sta pian piano stemperand­o, nel vedere come siamo meno diversi dagli altri processi della natura di quanto pretendess­imo. Almeno qualcosa di quanto pretendeva­mo gelosament­e ci appartenes­se in maniera esclusiva, lo si può avere più a buon mercato che non biologicam­ente.

Ma quanto del nostro parlare e pensare è davvero riprodotto da queste divertenti novità? Poco o nulla, come vuole Chomsky, o forse molto di più, come suggerisco­no le idee di Wittgenste­in? Ci aiutano a capire qualcosa di noi, queste buffe nuove macchinett­e parlanti? O è un’illusione?

Non lo so. Ho provato a chiederlo a ChatGPT, ma mi ha risposto banalità. Da parte mia, sarò un tipo all’antica, ma trovo ancora che al nostro mondo, piuttosto che tanta Intelligen­za artificial­e, gioverebbe di più un poco di intelligen­za naturale in più. Restiamo confusi, facciamo sciocchezz­e, e ci sembra sempre che sia di questa che non ne abbiamo abbastanza.

 ?? ??

Newspapers in Italian

Newspapers from Italy