AI, grande entusiasmo e qualche preoccupazione
Savarese (Salesforce): il ruolo dell’uomo resterà centrale
All’inizio del 2023 Microsoft fece sperimentare ad alcuni giornalisti americani la tecnologia di ChatGpt appena ricevuta da Open AI senza i vincoli e i “guard rail” che questa azienda aveva inserito nella versione appena offerta al pubblico. Formulando una valanga di domande diverse, Kevin Roose del New York Times mise a dura prova l’intelligenza artificiale di Microsoft che, a un certo punto, disse di chiamarsi Sydney e cominciò a corteggiare il giornalista invitandolo a lasciare una moglie che non lo amava.
La conversazione, affascinante e sconcertante, fece il giro del mondo. Gli unici a non preoccuparsi furono i tecnologi di Microsoft: avevano messo in circolazione un’AI “disinibita” per capire fin dove potesse arrivare e come imbrigliarla. Sydney venne ben presto “lobotomizzata” e Roose oggi scrive di lei con nostalgia e si dice deluso da intelligenze artificiali divenute noiose. Più che noiose, “sanitarizzate”: tutti i language models oggi disponibili – ChatGpt di Open AI, Gemini di Google, Claude di Anthropic, Perplexity e altri ancora – danno risposte chiare (al netto di qualche “allucinazione”) in campo tecnico-scientifico, mentre a domande che toccano questioni politiche e sociali sensibili (Trump, Biden, la guerra a Gaza, le culture wars su razzismo, sessualità, istruzione dei minori) rispondono in modo generico o se la cavano con un “su questo sto ancora imparando”.
Segnali contrastanti
Dopo i grandi entusiasmi, qualche delusione, riflussi inevitabili dopo una novità rivoluzionaria: l’importante è capire quali saranno le applicazioni imprenditoriali della nuova tecnologia, di quanto aumenterà la produttività dei sistemi economici, quale sarà l’impatto sul mercato del lavoro e sui consumi elettrici (ogni risposta di ChatGpt brucia molta energia). «Noi a Salesforce abbiamo scelto di concentrarci su programmi specifici per offrire alla nostra clientela, nel mondo del business, prodotti tarati sulle sue esigenze. In questo modo possiamo usare modelli più piccoli e maneggevoli di quelli giganteschi di società come Open AI che, dovendo rispondere su tutto, da Shakespeare alle origini dell’universo, arrivano ad avere fino a mille miliardi di parametri. A noi ne bastano 15 o 20 e questo offre diversi vantaggi: minori costi di programmazione, un ridotto consumo di energia e una latenza più bassa: la risposta arriva più rapidamente». A spiegarlo è Silvio Savarese, personaggio chiave per capire l’evoluzione dell’AI.
Docente di robotica a Stanford, l’università più avanzata in questo campo, tre anni fa è passato a Salesforce, leader mondiale nell’assistenza alle imprese soprattutto per quanto riguarda i rapporti con la clientela, dove è vicepresidente esecutivo e, soprattutto, chief scientist, cioè capo dell’innovazione: ruolo che lo ha proiettato al 15esimo posto nella classifica dei personaggi più influenti nel mondo Usa dell’intelligenza artificiale stilata da Business Insider.
Dal mercato arrivano segnali contrastanti: molte aziende stanno usando l’AI in modo massiccio: JP Morgan Chase, la maggiore banca
Usa, la sperimenta in 300 applicazioni, la Bayer ha 700 use cases, nel Nasdaq l’AI ha consentito di ridurre i tempi di verifica di possibili crimini finanziari su un’operazione da 60 a 3 minuti.
Le cautele
Ci sono anche imprese che guardano a questa nuova tecnologia con estrema cautela per l’alto costo di gestione del software e per i rischi di infiltrazioni. Salesforce affronta questi quesiti con modelli settoriali specifici più limitati e meno esposti ai rischi di incursioni di pirati informatici. «Nell’addestramento dei modelli non usiamo i dati dei nostri clienti – precisa Savarese –. Col nuovo co-pilot offriamo uno strumento che può svolgere diversi task in successione: gli posso chiedere di scrivere e mandare una mail e di veicolare la risposta inoltrandola a un’altra piattaforma. Un vero assistente autonomo».
EinsteinGpt di Salesforce è in grado di autoprodurre codici. I programmatori rischiano di rimanere presto disoccupati? Savarese spiega che, anche se l’AI consente di automatizzare molte funzioni, col rischio di ridurre la domanda di lavoro in alcuni settori, il ruolo dell’uomo resterà centrale anche per la necessità di identificare le “allucinazioni” che ogni tanto spuntano nelle risposte dei modelli.
Uomo d’impresa, Savarese mantiene la mentalità del ricercatore: conserva un limitato incarico d’insegnamento di robotica a Stanford e pubblica saggi sull’intelligenza artificiale generale (Agi), quella che dovrebbe raggiungere e superare le capacità umane. Arriverà? «È possibile, ma è un traguardo lontano. Per poterci arrivare l’AI, che oggi interagisce solo col mondo digitale, dovrebbe acquisire capacità multisensoriali: avere accesso alla vista, all’udito, al tatto – spiega Savarese –. E qui entra in gioco la robotica. Raggiungere l’embodiment, la comprensione del mondo fisico, è solo il primo requisito. C’è molto altro: l’AI fa affermazioni senza sapere se sono vere o false, non sa distinguere. Non capisce cosa significa mentire, non ha sensibilità morale. Può anche imparare a essere ironica, se addestrata, ma non capisce cosa significa».
Pur con tutti questi limiti, Savarese riconosce che quella dell’AI generativa è una rivoluzione che cambierà le nostre vite e il modo di produrre. «Avevamo sottostimato l’impatto delle grosse reti, gli effetti di scala, la capacità di sistemi che moltiplicano la loro potenza: fanno addirittura salti quantici nella produzione di contenuti», racconta lo scienziato, che continua il suo lavoro di apripista in un’azienda che gli mette a disposizione vaste risorse umane: «A Stanford avevo 20 ricercatori. Qui, non posso dire quanti per regole aziendali, ma parliamo di multipli».
E a preoccuparlo, più che la prospettiva di un’Agi che un domani potrebbe distruggere l’uomo, è il rischio di un uso avventato delle tecnologie già disponibili che, senza “guard rail”, possono sia costruire, sia distruggere: da campagne di disinformazione con effetti politici devastanti all’ingegnerizzazione di batteri resistenti a ogni terapia. «Attenti a non costruire ponti con pilastri non adeguatamente testati, che rischiano di sgretolarsi», conclude Savarese.