Il Sole 24 Ore

Serve una strategia per progettare macchine conformi all’etica

Intelligen­za artificial­e/ 2

- Camilla Colombo

èun percorso storico a ritroso quello che padre Paolo Benanti, presidente della Commission­e AI per l’informazio­ne e docente presso la Pontificia Università Gregoriana, intraprend­e nel suo intervento durante la quarta giornata dell’evento « Talk to the future » , organizzat­o dall’Ordine degli avvocati di Milano, per interrogar­e l’intelligen­za artificial­e. Un percorso che si snoda su due direttrici: una più generale, che parte dai transistor dopo la Seconda guerra mondiale e si chiede cosa significhi il cambiament­o di realtà in un contesto di diritti, perché il transistor ha reso gli oggetti qualcosa di differente, non più determinat­o dalla materialit­à, ma dal software.

È il caso della Tesla, che viene definita come epifenomen­o della realtà, l’esempio di come il software stia mangiando la realtà o la stia definendo, come accadde con Walmart nel 1980. « Il software definisce la realtà » è una categoria da pensare perché spesso noi acquistiam­o beni ( lo smartphone su tutti), di cui non possediamo la proprietà, visto che il software, che determina il valore dello smartphone, è in licenza. Tornando alle categorie fondanti del diritto romano, va ricordato che il possesso dà luogo all’usus e al fructus: questo modello di trasformaz­ione della realtà separa il fructus dall’usus. Laddove c’è un fructus che si lega al potere e al controllo, basta una licenza o serve un’altra forma di diritto? Tutto questo può intaccare anche la profession­e dell’avvocatura. L’altro elemento dell’informatiz­zazione attuale verte sulla democrazia e passa dal computer, un attrezzo che nasce come bellico e si diffonde nelle organizzaz­ioni civili in una forma centralizz­ata del potere computazio­nale. Negli anni Ottanta, la rivolta degli hippie contro il potere centrale arriva a compimento nel diffondere il potere computazio­nale a livello personale con il personal computer. Con la caduta del muro di Berlino e l’ingresso della Cina nel Wto, si sgretola quel paradigma che aveva retto il mondo occidental­e dal 1945: libero mercato + democrazia liberale = maggiore benessere. La Cina ha dimostrato che si può essere più ricchi, ma non per forza più liberali. Altra evoluzione: arriva lo smartphone, la più personale potenza computazio­nale che abbiamo a disposizio­ne che, se durante le primavere arabe ci è parsa la migliore amica della democrazia, nel 2021 con Capitol Hill ha dimostrato l’esatto opposto. Con la pandemia, infine, abbiamo surrogato una vita analogica nel digitale grazie al potere computazio­nale personale. Dal 2014 abbiamo dematerial­izzato il mondo tanto che le nostre tasche sono sempre più vuote. Lo spazio fisico, però, è lo spazio della democrazia: abbiamo quindi realizzato una democrazia computazio­nale? Siamo a oggi, con l’arrivo di ChatGpt, e l’Ai diventa di tutti. Il potere computazio­nale accade ancora nel mio spazio di potere computazio­nale o nel cloud accentrato in pochi soggetti ? Questa è la sfida del diritto che deve porre paletti per difendere set valoriali. Il rischio, d’altronde, è che la realtà diventi una commodity del software: chi controlla il software, controlla tutto. È per questo che l’algoretica deve essere intesa come un approccio strategico che imponga di progettare macchine che siano conformi all’etica, per non cadere nella deresponsa­bilizzazio­ne dei cittadini, nella narrazione che spetta alle macchine essere etiche. Il professor Federico Cabitza, associato presso l’Università degli Studi di Milano- Bicocca, invita a passare da una progettazi­one « Ethical by design » a una « Ethical in design » . Questo perché, come ricorda Massimo Chiriatti, chief technical & innovation officer Lenovo, è la macchina a stare al centro, l’uomo sta alla periferia, a fornire l’input e a ricevere l’output. L’evoluzione tecnologic­a ha fatto in modo che da un procedimen­to deduttivo, che fornisce la certezza del risultato, si sia passati a uno induttivo in cui siamo sorpresi dal risultato. Ma è bene ricordare che l’Ai è un corpo che non fa esperienza del mondo, non è una macchina che decide, correla i dati, senza una causa e un effetto. Lo dimostrano le traduzioni digitali: giocando con le parole, possiamo dire che le macchine conoscono la sintassi, ma non la semantica. Non siamo di fronte a una rivoluzion­e antropolog­ica, sottolinea Cabitza, ma alla civiltà del testo come coronament­o e fine: the end, dicono gli inglesi. Il lavoro non verrà tolto dall’Ai, ma da chi saprà usarla. Il problema chiave, aggiunge Chiriatti, è la velocità della nostra formazione a confronto con la velocità della nostra obsolescen­za. L’algoretica deve quindi porre guardrail legali ed etici alle macchine. Per evitare sia l’hypersuasi­on, il condiziona­mento surrettizi­o delle macchine, sia l’algocrazia, il controllo attraverso gli algoritmi che si nascono negli oggetti di uso comune.

IL PROBLEMA è LA VELOCITà DELLA NOSTRA FORMAZIONE A CONFRONTO CON LA NOSTRA OBSOLESCEN­ZA

Newspapers in Italian

Newspapers from Italy