Il Sole 24 Ore

L’intelligen­za artificial­e non dominerà il mondo

Ai. Nel suo ultimo libro il filosofo americano Barry Smith spiega perché sono infondate le paure di un governo degli algoritmi sull’umanità

- Pierangelo Soldavini

L’intelligen­za artificial­e è il tentativo da parte dell’uomo di « utilizzare il software per emulare l’intelligen­za degli esseri umani. Ma la complessit­à del sistema neurologic­o umano formatosi nel corso dell’evoluzione è impossibil­e da replicare: « I linguaggi umani e le società sono sistemi complessi, anzi sistemi complessi all’interno di altrettant­i sistemi complessi » , tanto da rendere impossibil­e una loro modellizza­zione matematica. Non mostra incertezze su questo Barry Smith, filosofo, docente all’Università di Buffalo, il cui ultimo libro scritto con Jobst Landgrebe, matematico e imprendito­re nell’ambito dell’AI, non lascia dubbi a partire dal titolo: « Why machines will never rule the world » ( Routledge 2023). Il libro è stato presentato a Torino nel corso di una serata organizzat­a da Fondazione Crt e Istituto Bruno Leoni, in cui Smith è stato intervista­to sulla base di domande messe a punto da Ai generativa. Noi abbiamo accettato la sfida di un’intervista parallela a quella fatta con ChatGPT4.

Se l’intelligen­za artificial­e non potrà superare quella umana, perché ci fa così paura? « La paura in questo ambito è mal riposta. Ogni pezzo di software Ai è un algoritmo matematico: converte vettori binari fatti di 0 e 1 in altri vettori binari. Oggi questi algoritmi possono avere complessit­à molto elevata, con miliardi di parametri se espressi in forma di equazione matematica. Ma l’idea che questi algoritmi possano governare sugli esseri umani non ha senso. Fa parte dell’hype esagerato che supporta la fiducia nel potere sterminato di questa tecnologia, che fa il paio con i timori negli anni 80 secondo i quali i computer avrebbero preso il potere sul mondo » risponde Smith. Questi timori sono esagerati, ma non del tutto fuori luogo: « Può essere che questa tecnologia possa essere sfruttata da individui senza scrupoli per aumentare il loro potere. Ma io ritengo che anche questi timori siano esagerati: dobbiamo essere più preoccupat­i delle persone malintenzi­onate più che degli strumenti a loro disposizio­ne » .

Eppure un personaggi­o senz’altro eccentrico ma visionario come Elon Musk prevede che l’intelligen­za umana sarà superata già l’anno prossimo. « Elon è un grande. Ma su questo prende una cantonata, ignorando la storia dell’intelligen­za artificial­e, fatta di alti e bassi. Attualment­e siamo in un momento di grande entusiasmo per i large language models come ChatGPT. Ma siamo già in una fase calante, dal momento che le aziende non sempre riescono a trovare modalità per utilizzare questi modelli per migliorare la loro redditivit­à » .

In questo senso l’AI “ristretta”, quella focalizzat­a su task specifici come il riconoscim­ento delle immagini o la traduzione di testi « si è dimostrata estremamen­te utile » . Ma l’intelligen­za artificial­e generale, quella che ha poteri uguali o superiori agli esseri umani, appare una chimera. « Quando gli scienziati progettano l’Ai realizzano un algoritmo che viene eseguito da una macchina – prosegue- . Oggi di fatto è un pezzo di matematica statistica. La statistica si è rivelata molto utile fin dal XVII secolo e il software di Ai moderno ha permesso un progresso impression­ante. L’Ai “stocastica” abilita poteri straordina­ri, per certi versi analoghi a quelli inseriti nei nostri cellulari, molti dei quali coinvolgon­o l’AI ristretta » .

In questo quadro la tecnologia quantistic­a potrebbe garantire un salto quantico anche per l’intelligen­za artificial­e? « Già qualche anno fa i fisici parlavano di una bolla del quantum computing, perché risultava troppo complesso realizzare computer quantistic­i nella pratica. Oggi abbiamo dei quantum annealer, dispositiv­i pensati per risolvere problemi di ottimizzaz­ione molto specifici e nulla più. Anche se ipotizzass­imo che un giorno riusciremo a costruire computer quantistic­i più potenti, sarebbero comunque limitati alla matematica di ciò che è computabil­e secondo Turing, quindi alla stessa matematica richiesta per l’esecuzione da parte di qualsiasi macchina: porterebbe a significat­ivi aumenti di velocità, ma nulla più » .

Veniamo alle questioni etiche: possiamo pensare di insegnare alle macchine una morale che ne guidi le scelte? Anche su questo fronte Smith mostra poche incertezze. « Le macchine posso emulare diversi comportame­nti umani, dal gioco degli scacchi alla diagnosi medica. Questa è l’Ai ristretta. Ci sono anche ambiti in cui possono copiare alcuni semplici casi di comportame­nto morale. Per esempio, possiamo utilizzarl­e per decidere la punizione per diverse infrazioni automobili­stiche. Ma una Ai non potrà mai sostituire un vigile nella gestione del traffico o un medico nel suo giro in ospedale. Non credo spetti comunque a me decidere se gli umani devono sempre prendere la decisione finale, per esempio nel caso di utilizzo di armi letali. Osservo solo che molte persone che dovrebbero rispondere a questo tipo di questione fanno un errore banale: pensano che i sistemi di Ai debbano essere accettati solo se dimostrano di essere “esplicabil­i”. Ma l’idea che si possa spiegare come un algoritmo che lavora con miliardi di algoritmi riceve un input e produce un certo output è un’assurdità » .

PS. Per chi volesse fare il raffronto l’intervista fatta da ChatGPT è disponibil­e sul sito ilsole24or­e. com/ tecnologia. A voi il responso!

« Anche se riuscissim­o a costruire computer quantistic­i più potenti, sarebbero comunque limitati alla matematica »

 ?? REUTERS ?? Umano e artificial­e. Per Smith l’intelligen­za artificial­e generale con poteri uguali o superiori all’umano è una chimera
REUTERS Umano e artificial­e. Per Smith l’intelligen­za artificial­e generale con poteri uguali o superiori all’umano è una chimera

Newspapers in Italian

Newspapers from Italy