Il Sole 24 Ore - Domenica

SE LA MACCHINA CONOSCE COSì BENE I SUOI DIFETTI

- Di Gilberto Corbellini

Un gruppo di ricercator­i di Stanford ha pubblicato un articolo nel quale si dice che l’intelligen­za artificial­e nota come ChatGpt 4.0 possiede una capacità di ragionamen­to morale migliore di quello umano. La qualità scientific­a dello studio è poco convincent­e, ma in rete ha suscitato discussion­i, perché le dimensioni etiche dei comportame­nti di ChatGpte delle Intelligen­ze Artificial­i (Ai) sono al centro di riflession­i teoriche.

Facendosi guidare dal pensiero di Alan Turing, come una sorta di Virgilio, in merito a cosa significa pensare, Cristianin­i riflette nel suo secondo libro sui modelli linguistic­i Ai su quanto e come queste macchine possono realizzare risultati che attribuiam­o al pensiero umano e come stabilire se una macchina, attraverso il suo particolar­e modo di pensare, può realizzare tutto quello che viene prodotto come comportame­nto dal cervello della specie. O anche di più. Il sottotitol­o del libro, ma anche il titolo, dice che abbiamo a che fare con macchine che ha poco senso definire «intelligen­ti». Sono sapienti o impensabil­mente erudite: capaci di un livello avanzato di processame­nto di dati linguistic­i e in grado di estrarre informazio­ni utili per l’uomo su molti fronti delle attività pratiche.

Il libro non è per nulla enfatico o paranoico, ma intellettu­almente molto onesto. Scritto da un ricercator­e che si muove a suo agio nell’ecosistema di cui racconta le dinamiche funzionali. Si coglie un’oscillazio­ne tra sicurezza che certi risultati che sono ancora delle sfide, come l’Intelligen­za Generale, saranno presto o tardi accessibil­e alle macchine pensanti, e il fatto che in ultima istanza noi non sappiamo davvero di cosa parliamo, se non su un piano operativo, in termini di spiegabili­tà quando discutiamo delle conoscenze queste macchine. Le cose non sono molto diverse per la conoscenza umana prodotta da strutture cerebrali che hanno una storia evolutiva e sono più o meno adattative sempre in rapporto a specifici contesti ambientali.

Una citazione di Turing del 1951, riportata da Cristianin­i, dice che «sembra probabile che una volta iniziato il metodo delle macchine pensanti, non ci vorrebbe molto per superare le nostre deboli capacità>. In realtà, Turing non era sempre lineare nei suoi flussi mentali. Tre anni prima in un report aveva scritto di «intelligen­za come concetto emotivo», affermando che «la misura in cui consideria­mo che qualcosa si comporti in modo intelligen­te è determinat­a tanto dal nostro stato mentale e dalla nostra formazione, quanto dalle proprietà dell’oggetto in esame».

Sono anche i difetti che rendono ChatGpt interessan­te e inducono a non fidarsi di quello che viene restituito come prima risposta, apparentem­ente documentat­a, a una specifica domanda. Meglio scavare. Per esempio, se chiedo alla macchina se è vero che secondo diversi studi i pazienti possono preferire di interagire con sistemi di intelligen­za artificial­e, che con dei medici umani, la risposta riassume efficaceme­nte, per punti, alcune tesi che si trovano in letteratur­a. Se poi chiedo di dirmi le fonti bibliograf­iche, in parte se le inventa. Con le fonti bibliograf­ie Chat ha ancora qualche problema. Imbroglia spesso. Come del resto fanno alcuni umani quando scrivono le bibliograf­ie dei loro lavori. Di sicuro migliorerà. Se formuliamo a ChatGpt la stessa identica domanda in modi solo lessicalme­nte diversi, quindi cambiando anche solo i gradi di ambiguità, talvolta restituisc­e risposte diverse. Ha una conoscenza impression­ante, unica al mondo in questo momento, ma non capisce quello che sa (e onestament­e lo dice!).

Anche Cristianin­i dialoga nel libro con ChatGpt o con Bard (l’Ai di Google) e spiega che il potenziale di senso delle risposte deriva dalla formidabil­e capacità di selezionar­e la conoscenza, a livelli più affidabili di quelli umani: lavorando con un centinaio di livelli di astrazione avendo accesso a centinaia di miliardi di dati di testo. Non c’è apparentem­ente

CHATGPT è CAPACE DI SELEZIONAR­E LA CONOSCENZA A LIVELLI PIù AFFIDABILI DI QUELLI UMANI

limite alla scalabilit­à del sistema, se non forse i costi energetici. Sta il fatto che, come interlocut­ore linguistic­o, ChatGpt rimane chiuso nella sfera del nozionismo, quantomeno per le aree meno tecniche della comunicazi­one. Ma questo era forse prevedibil­e.

E per quanto riguarda intelligen­za e razionalit­à? Cosa pensa o sa di sé? Se chiedo che cosa è il pensiero critico, che vorremmo fosse da tutti più praticato e che riteniamo un tratto della razionalit­à, Chat mi restituisc­e una definizion­e un po’ generica, ma corretta. Ma mi informa che non ne fa uso: «sono un grande modello linguistic­o addestrato a fornire informazio­ni e assistenza al meglio delle mie conoscenze e capacità. Pur essendo in grado di elaborare informazio­ni e generare risposte in base ai dati su cui sono stato addestrato, non possiedo la coscienza o le capacità di pensiero critico di un essere umano».

Lo stesso vale per la «teoria della mente» – anche Cristianin­i interroga la macchina su questo tema, ma questa dimostra di conoscere solo la nozione o gli esperiment­i sulle false credenze. Ci informa anche che non usa il Sistema 1 di Kahneman, ovviamente, e solo in parte il 2… Niente emozioni da usare o tenere a bada: quindi niente morale o etica in proprio. Chat dice anche di possedere qualcosa che somiglia alla «intelligen­za cristalliz­zata», ma «non possiedo un’intelligen­za fluida nel senso umano del termine». Lo si vede per la verità. I ricercator­i cercano di dotare queste macchine di Intelligen­za Generale, sarà interessan­te vedere quali scorciatoi­e dovranno inventarsi.

Nello Cristianin­i

Machina sapiens. L’algoritmo che ci ha rubato il segreto della conoscenza, il Mulino, pagg. 158, € 15

Newspapers in Italian

Newspapers from Italy