Serve una strategia per progettare macchine conformi all’etica
Intelligenza artificiale/ 2
èun percorso storico a ritroso quello che padre Paolo Benanti, presidente della Commissione AI per l’informazione e docente presso la Pontificia Università Gregoriana, intraprende nel suo intervento durante la quarta giornata dell’evento « Talk to the future » , organizzato dall’Ordine degli avvocati di Milano, per interrogare l’intelligenza artificiale. Un percorso che si snoda su due direttrici: una più generale, che parte dai transistor dopo la Seconda guerra mondiale e si chiede cosa significhi il cambiamento di realtà in un contesto di diritti, perché il transistor ha reso gli oggetti qualcosa di differente, non più determinato dalla materialità, ma dal software.
È il caso della Tesla, che viene definita come epifenomeno della realtà, l’esempio di come il software stia mangiando la realtà o la stia definendo, come accadde con Walmart nel 1980. « Il software definisce la realtà » è una categoria da pensare perché spesso noi acquistiamo beni ( lo smartphone su tutti), di cui non possediamo la proprietà, visto che il software, che determina il valore dello smartphone, è in licenza. Tornando alle categorie fondanti del diritto romano, va ricordato che il possesso dà luogo all’usus e al fructus: questo modello di trasformazione della realtà separa il fructus dall’usus. Laddove c’è un fructus che si lega al potere e al controllo, basta una licenza o serve un’altra forma di diritto? Tutto questo può intaccare anche la professione dell’avvocatura. L’altro elemento dell’informatizzazione attuale verte sulla democrazia e passa dal computer, un attrezzo che nasce come bellico e si diffonde nelle organizzazioni civili in una forma centralizzata del potere computazionale. Negli anni Ottanta, la rivolta degli hippie contro il potere centrale arriva a compimento nel diffondere il potere computazionale a livello personale con il personal computer. Con la caduta del muro di Berlino e l’ingresso della Cina nel Wto, si sgretola quel paradigma che aveva retto il mondo occidentale dal 1945: libero mercato + democrazia liberale = maggiore benessere. La Cina ha dimostrato che si può essere più ricchi, ma non per forza più liberali. Altra evoluzione: arriva lo smartphone, la più personale potenza computazionale che abbiamo a disposizione che, se durante le primavere arabe ci è parsa la migliore amica della democrazia, nel 2021 con Capitol Hill ha dimostrato l’esatto opposto. Con la pandemia, infine, abbiamo surrogato una vita analogica nel digitale grazie al potere computazionale personale. Dal 2014 abbiamo dematerializzato il mondo tanto che le nostre tasche sono sempre più vuote. Lo spazio fisico, però, è lo spazio della democrazia: abbiamo quindi realizzato una democrazia computazionale? Siamo a oggi, con l’arrivo di ChatGpt, e l’Ai diventa di tutti. Il potere computazionale accade ancora nel mio spazio di potere computazionale o nel cloud accentrato in pochi soggetti ? Questa è la sfida del diritto che deve porre paletti per difendere set valoriali. Il rischio, d’altronde, è che la realtà diventi una commodity del software: chi controlla il software, controlla tutto. È per questo che l’algoretica deve essere intesa come un approccio strategico che imponga di progettare macchine che siano conformi all’etica, per non cadere nella deresponsabilizzazione dei cittadini, nella narrazione che spetta alle macchine essere etiche. Il professor Federico Cabitza, associato presso l’Università degli Studi di Milano- Bicocca, invita a passare da una progettazione « Ethical by design » a una « Ethical in design » . Questo perché, come ricorda Massimo Chiriatti, chief technical & innovation officer Lenovo, è la macchina a stare al centro, l’uomo sta alla periferia, a fornire l’input e a ricevere l’output. L’evoluzione tecnologica ha fatto in modo che da un procedimento deduttivo, che fornisce la certezza del risultato, si sia passati a uno induttivo in cui siamo sorpresi dal risultato. Ma è bene ricordare che l’Ai è un corpo che non fa esperienza del mondo, non è una macchina che decide, correla i dati, senza una causa e un effetto. Lo dimostrano le traduzioni digitali: giocando con le parole, possiamo dire che le macchine conoscono la sintassi, ma non la semantica. Non siamo di fronte a una rivoluzione antropologica, sottolinea Cabitza, ma alla civiltà del testo come coronamento e fine: the end, dicono gli inglesi. Il lavoro non verrà tolto dall’Ai, ma da chi saprà usarla. Il problema chiave, aggiunge Chiriatti, è la velocità della nostra formazione a confronto con la velocità della nostra obsolescenza. L’algoretica deve quindi porre guardrail legali ed etici alle macchine. Per evitare sia l’hypersuasion, il condizionamento surrettizio delle macchine, sia l’algocrazia, il controllo attraverso gli algoritmi che si nascono negli oggetti di uso comune.
IL PROBLEMA è LA VELOCITà DELLA NOSTRA FORMAZIONE A CONFRONTO CON LA NOSTRA OBSOLESCENZA