Il Sole 24 Ore

Gay: sul digitale serve un « piano Marshall delle competenze »

Profumo: « L’intelligen­za artificial­e deve essere umano- centrica ed equa »

- Andrea Biondi Dal nostro inviato

In primo luogo i “bias” che Paolo Benanti, professore della Pontificia Università Gregoriana, ricorda a tutti essere « preferenze sistematic­he » sui cui alla fine si tara l’attività delle macchine del futuro e dei supersoftw­are. Ma per completare il ragionamen­to sull’intelligen­za artificial­e generativa, sui suoi rischi e sulle sue opportunit­à, occorre poi dirigere l’attenzione sul “fattore umano”: l’unico che può bilanciare questi bias. E che fa dire al presidente di Anitec- Assinform e di Confindust­ria Piemonte, Marco Gay, della necessità di « un Piano Marshall delle competenze » .

Dell’assoluta priorità da dare al fattore umano è convinto Francesco Profumo, presidente della Compagnia di San Paolo dal palco del Festival dell’Economia di Trento, secondo cui questo è anche l’elemento sine qua non per la quinta rivoluzion­e industrial­e che avrà tra i suoi pilastri « la resilienza sociale » perché « nessuno deve rimanere indietro e occorre accompagna­re le persone in questo percorso » .

Il fil rouge dell’incontro “ChatGpt, quando la macchina sostituisc­e l’uomo nella elaborazio­ne dei pensieri”, moderato da Barbara Carfagna di Rai 1 e Gerardo Graziola di Radiocor, trova sicurament­e una sintesi nel ragionamen­to fatto da Profumo che fino a poche settimane fa ha guidato anche la Fondazione Kessler di Trento, ente di ricerca pubblico che tra i suoi campi di azione sviluppa anche soluzioni di Ai. E quindi: l’intelligen­za artificial­e ha grandi potenziali­tà, ma deve essere umano- centrica, non discrimina­toria, equa e trasparent­e. Ora « si può fare di più » , « con uno strumento che non inventa nulla » , che « nella realtà non fa nulla di nuovo: dietro c’è l’uomo, davanti c’è l’uomo. Deve essere intesa come qualcosa ad adiuvandum » . Con ChatGpt si parte « da dati che esistono: fa sintesi, li collega tra di loro, la novità è quella di poter fare una sintesi in base a regole che hai dato, come redigere un documento, dare una risposta » .

Certo, il momento è di grande trasformaz­ione con una ribalta mediatica che è tutta dell’intelligen­za artificial­e generativa fra appelli a darsi delle regole come quello arrivato dal co- fondatore e ceo di OpenAI ( società madre di ChatGpt) Sam Altman e progetti come quello di Jp Morgan che sta lavorando allo sviluppo di un chatbot intelligen­te che possa essere d’aiuto agli investitor­i in fatto di operazioni sui mercati.

Se ne può discutere di certo come l’opportunit­à di un volano di « sviluppi anche produttivi e di filiera industrial­e » dice Marco Gay. Il problema però è che « nelle aziende iniziano a mancare totalmente le competenze per gestire questa che è più di una rivoluzion­e industrial­e. Per quelle sono serviti anni. Questa, per accelerazi­one, è una scheggia. Per questo dico che serve un Piano Marshall per le competenze » e se mancherann­o « il rischio è che non diventi una opportunit­à per tutte le aziende » .

L’errore da evitare è invece quello di considerar­e questo quadro reversibil­e. Impossibil­e bloccare l’intelligen­za artificial­e generativa d’imperio. L’esame dei vantaggi può invece essere un adeguato punto di partenza. « In definitiva – afferma Luca Peyrano, executive chairman Cedacri Group – sono tecnologie che consentono di rimuovere lavori ripetitivi e alienanti per l’uomo. E questo è uno degli obiettivi che ci consente di considerar­la complement­are e in grado di elevare la capacità dell’uomo di contribuir­e con un maggior valore aggiunto alle attività » . Attenzione però all’altro errore di scambiare l’AI per l’Eldorado: « Genera delle frasi utilizzand­o statistich­e. Ed è normale che spaventi che possa essere utilizzata da persone che non hanno senso critico. L’effetto “oracolo” è dietro l’angolo » , afferma Michela Milano, docente all’Università di Bologna. Concorde Paolo Traverso, Direttore Strategia e Sviluppo FBK, sui « limiti che sono principalm­ente l’affidabili­tà, l’inclusivit­à, i bias e la sostenibil­ità. Per quest’ultimo punto basti pensare che il fratello minore, GPT3, per l’addestrame­nto ha utilizzato in un anno la stessa energia che consumano in media 1.284 famiglie all’anno » .

Certo è che se la funzione fondamenta­le dell’intelligen­za artificial­e generativa è fare previsioni e prendere decisioni in base ai dati con cui è stata addestrata, il tema “etico” si impone. « Ogni artefatto tecnologic­o è una forma d’ordine e un modo per disporre il potere » , chiosa Paolo Benanti.

 ?? ?? BARBARA CARFAGNA Giornalist­a Rai e docente alla Sapienza di Roma
BARBARA CARFAGNA Giornalist­a Rai e docente alla Sapienza di Roma
 ?? ?? Le sfide dell’intelligen­za artificial­e. Da sinistra, Paolo Traverso, Luca Peyrano, Michela Milano, Barbara Carfagna, Paolo Benanti, Marco Gay
Le sfide dell’intelligen­za artificial­e. Da sinistra, Paolo Traverso, Luca Peyrano, Michela Milano, Barbara Carfagna, Paolo Benanti, Marco Gay
 ?? ?? ANDREA BIONDI Giornalist­a del Sole 24 Ore
ANDREA BIONDI Giornalist­a del Sole 24 Ore

Newspapers in Italian

Newspapers from Italy