Gay: sul digitale serve un « piano Marshall delle competenze »
Profumo: « L’intelligenza artificiale deve essere umano- centrica ed equa »
In primo luogo i “bias” che Paolo Benanti, professore della Pontificia Università Gregoriana, ricorda a tutti essere « preferenze sistematiche » sui cui alla fine si tara l’attività delle macchine del futuro e dei supersoftware. Ma per completare il ragionamento sull’intelligenza artificiale generativa, sui suoi rischi e sulle sue opportunità, occorre poi dirigere l’attenzione sul “fattore umano”: l’unico che può bilanciare questi bias. E che fa dire al presidente di Anitec- Assinform e di Confindustria Piemonte, Marco Gay, della necessità di « un Piano Marshall delle competenze » .
Dell’assoluta priorità da dare al fattore umano è convinto Francesco Profumo, presidente della Compagnia di San Paolo dal palco del Festival dell’Economia di Trento, secondo cui questo è anche l’elemento sine qua non per la quinta rivoluzione industriale che avrà tra i suoi pilastri « la resilienza sociale » perché « nessuno deve rimanere indietro e occorre accompagnare le persone in questo percorso » .
Il fil rouge dell’incontro “ChatGpt, quando la macchina sostituisce l’uomo nella elaborazione dei pensieri”, moderato da Barbara Carfagna di Rai 1 e Gerardo Graziola di Radiocor, trova sicuramente una sintesi nel ragionamento fatto da Profumo che fino a poche settimane fa ha guidato anche la Fondazione Kessler di Trento, ente di ricerca pubblico che tra i suoi campi di azione sviluppa anche soluzioni di Ai. E quindi: l’intelligenza artificiale ha grandi potenzialità, ma deve essere umano- centrica, non discriminatoria, equa e trasparente. Ora « si può fare di più » , « con uno strumento che non inventa nulla » , che « nella realtà non fa nulla di nuovo: dietro c’è l’uomo, davanti c’è l’uomo. Deve essere intesa come qualcosa ad adiuvandum » . Con ChatGpt si parte « da dati che esistono: fa sintesi, li collega tra di loro, la novità è quella di poter fare una sintesi in base a regole che hai dato, come redigere un documento, dare una risposta » .
Certo, il momento è di grande trasformazione con una ribalta mediatica che è tutta dell’intelligenza artificiale generativa fra appelli a darsi delle regole come quello arrivato dal co- fondatore e ceo di OpenAI ( società madre di ChatGpt) Sam Altman e progetti come quello di Jp Morgan che sta lavorando allo sviluppo di un chatbot intelligente che possa essere d’aiuto agli investitori in fatto di operazioni sui mercati.
Se ne può discutere di certo come l’opportunità di un volano di « sviluppi anche produttivi e di filiera industriale » dice Marco Gay. Il problema però è che « nelle aziende iniziano a mancare totalmente le competenze per gestire questa che è più di una rivoluzione industriale. Per quelle sono serviti anni. Questa, per accelerazione, è una scheggia. Per questo dico che serve un Piano Marshall per le competenze » e se mancheranno « il rischio è che non diventi una opportunità per tutte le aziende » .
L’errore da evitare è invece quello di considerare questo quadro reversibile. Impossibile bloccare l’intelligenza artificiale generativa d’imperio. L’esame dei vantaggi può invece essere un adeguato punto di partenza. « In definitiva – afferma Luca Peyrano, executive chairman Cedacri Group – sono tecnologie che consentono di rimuovere lavori ripetitivi e alienanti per l’uomo. E questo è uno degli obiettivi che ci consente di considerarla complementare e in grado di elevare la capacità dell’uomo di contribuire con un maggior valore aggiunto alle attività » . Attenzione però all’altro errore di scambiare l’AI per l’Eldorado: « Genera delle frasi utilizzando statistiche. Ed è normale che spaventi che possa essere utilizzata da persone che non hanno senso critico. L’effetto “oracolo” è dietro l’angolo » , afferma Michela Milano, docente all’Università di Bologna. Concorde Paolo Traverso, Direttore Strategia e Sviluppo FBK, sui « limiti che sono principalmente l’affidabilità, l’inclusività, i bias e la sostenibilità. Per quest’ultimo punto basti pensare che il fratello minore, GPT3, per l’addestramento ha utilizzato in un anno la stessa energia che consumano in media 1.284 famiglie all’anno » .
Certo è che se la funzione fondamentale dell’intelligenza artificiale generativa è fare previsioni e prendere decisioni in base ai dati con cui è stata addestrata, il tema “etico” si impone. « Ogni artefatto tecnologico è una forma d’ordine e un modo per disporre il potere » , chiosa Paolo Benanti.