SE LA MACCHINA CONOSCE COSì BENE I SUOI DIFETTI
Un gruppo di ricercatori di Stanford ha pubblicato un articolo nel quale si dice che l’intelligenza artificiale nota come ChatGpt 4.0 possiede una capacità di ragionamento morale migliore di quello umano. La qualità scientifica dello studio è poco convincente, ma in rete ha suscitato discussioni, perché le dimensioni etiche dei comportamenti di ChatGpte delle Intelligenze Artificiali (Ai) sono al centro di riflessioni teoriche.
Facendosi guidare dal pensiero di Alan Turing, come una sorta di Virgilio, in merito a cosa significa pensare, Cristianini riflette nel suo secondo libro sui modelli linguistici Ai su quanto e come queste macchine possono realizzare risultati che attribuiamo al pensiero umano e come stabilire se una macchina, attraverso il suo particolare modo di pensare, può realizzare tutto quello che viene prodotto come comportamento dal cervello della specie. O anche di più. Il sottotitolo del libro, ma anche il titolo, dice che abbiamo a che fare con macchine che ha poco senso definire «intelligenti». Sono sapienti o impensabilmente erudite: capaci di un livello avanzato di processamento di dati linguistici e in grado di estrarre informazioni utili per l’uomo su molti fronti delle attività pratiche.
Il libro non è per nulla enfatico o paranoico, ma intellettualmente molto onesto. Scritto da un ricercatore che si muove a suo agio nell’ecosistema di cui racconta le dinamiche funzionali. Si coglie un’oscillazione tra sicurezza che certi risultati che sono ancora delle sfide, come l’Intelligenza Generale, saranno presto o tardi accessibile alle macchine pensanti, e il fatto che in ultima istanza noi non sappiamo davvero di cosa parliamo, se non su un piano operativo, in termini di spiegabilità quando discutiamo delle conoscenze queste macchine. Le cose non sono molto diverse per la conoscenza umana prodotta da strutture cerebrali che hanno una storia evolutiva e sono più o meno adattative sempre in rapporto a specifici contesti ambientali.
Una citazione di Turing del 1951, riportata da Cristianini, dice che «sembra probabile che una volta iniziato il metodo delle macchine pensanti, non ci vorrebbe molto per superare le nostre deboli capacità>. In realtà, Turing non era sempre lineare nei suoi flussi mentali. Tre anni prima in un report aveva scritto di «intelligenza come concetto emotivo», affermando che «la misura in cui consideriamo che qualcosa si comporti in modo intelligente è determinata tanto dal nostro stato mentale e dalla nostra formazione, quanto dalle proprietà dell’oggetto in esame».
Sono anche i difetti che rendono ChatGpt interessante e inducono a non fidarsi di quello che viene restituito come prima risposta, apparentemente documentata, a una specifica domanda. Meglio scavare. Per esempio, se chiedo alla macchina se è vero che secondo diversi studi i pazienti possono preferire di interagire con sistemi di intelligenza artificiale, che con dei medici umani, la risposta riassume efficacemente, per punti, alcune tesi che si trovano in letteratura. Se poi chiedo di dirmi le fonti bibliografiche, in parte se le inventa. Con le fonti bibliografie Chat ha ancora qualche problema. Imbroglia spesso. Come del resto fanno alcuni umani quando scrivono le bibliografie dei loro lavori. Di sicuro migliorerà. Se formuliamo a ChatGpt la stessa identica domanda in modi solo lessicalmente diversi, quindi cambiando anche solo i gradi di ambiguità, talvolta restituisce risposte diverse. Ha una conoscenza impressionante, unica al mondo in questo momento, ma non capisce quello che sa (e onestamente lo dice!).
Anche Cristianini dialoga nel libro con ChatGpt o con Bard (l’Ai di Google) e spiega che il potenziale di senso delle risposte deriva dalla formidabile capacità di selezionare la conoscenza, a livelli più affidabili di quelli umani: lavorando con un centinaio di livelli di astrazione avendo accesso a centinaia di miliardi di dati di testo. Non c’è apparentemente
CHATGPT è CAPACE DI SELEZIONARE LA CONOSCENZA A LIVELLI PIù AFFIDABILI DI QUELLI UMANI
limite alla scalabilità del sistema, se non forse i costi energetici. Sta il fatto che, come interlocutore linguistico, ChatGpt rimane chiuso nella sfera del nozionismo, quantomeno per le aree meno tecniche della comunicazione. Ma questo era forse prevedibile.
E per quanto riguarda intelligenza e razionalità? Cosa pensa o sa di sé? Se chiedo che cosa è il pensiero critico, che vorremmo fosse da tutti più praticato e che riteniamo un tratto della razionalità, Chat mi restituisce una definizione un po’ generica, ma corretta. Ma mi informa che non ne fa uso: «sono un grande modello linguistico addestrato a fornire informazioni e assistenza al meglio delle mie conoscenze e capacità. Pur essendo in grado di elaborare informazioni e generare risposte in base ai dati su cui sono stato addestrato, non possiedo la coscienza o le capacità di pensiero critico di un essere umano».
Lo stesso vale per la «teoria della mente» – anche Cristianini interroga la macchina su questo tema, ma questa dimostra di conoscere solo la nozione o gli esperimenti sulle false credenze. Ci informa anche che non usa il Sistema 1 di Kahneman, ovviamente, e solo in parte il 2… Niente emozioni da usare o tenere a bada: quindi niente morale o etica in proprio. Chat dice anche di possedere qualcosa che somiglia alla «intelligenza cristallizzata», ma «non possiedo un’intelligenza fluida nel senso umano del termine». Lo si vede per la verità. I ricercatori cercano di dotare queste macchine di Intelligenza Generale, sarà interessante vedere quali scorciatoie dovranno inventarsi.
Nello Cristianini
Machina sapiens. L’algoritmo che ci ha rubato il segreto della conoscenza, il Mulino, pagg. 158, € 15