Corriere della Sera - La Lettura
Le cinque regole europee per l’etica dei robot
Il 18 dicembre un gruppo di esperti nominato dalla Commissione europea ha presentato la prima versione delle linee guida in tema di intelligenza artificiale. Punto fondamentale: l’affidabilità
Lo scorso 25 aprile la Commissione europea con una propria Comunicazione ha delineato l’«approccio» all’intelligenza artificiale e alla robotica avanzata, in risposta a iniziative analoghe negli Stati Uniti e in Cina, oltre che in alcuni Stati membri come la Francia. In un ambito di crescente competizione e di sicura rilevanza economica e politica a livello globale, l’Unione europea, per distinguersi, propone una visione human-centric, che pone l’uomo al centro, e per farlo promuove la creazione di un quadro normativo chiaro — rivedendo alcune discipline normative esistenti e considerando la possibilità di promuoverne altre — e l’adozione di linee guida in materia di etica della tecnologia ispirate, in primo luogo, alla Carta dei diritti fondamentali dell’Unione. A tal fine ha nominato uno High level expert group («gruppo di esperti di alto livello») che comprende esponenti dell’industria, accademici e specialisti internazionali che il 18 dicembre hanno pubblicato la prima versione delle linee guida.
Si tratta di un documento destinato, nelle stesse parole della Commissione, a essere flessibile e sottoposto a continui adattamenti per consentire il proliferare di queste tecnologie e del relativo mercato, promuovendo però in primo luogo «i valori umani» poiché «lo sviluppo e l’uso dell’intelligenza artificiale non deve es- sere percepito come un fine in sé, ma con lo scopo di aumentare il benessere dei cittadini». L’unico fine in sé — come ricorda la Critica kantiana — è l’essere umano e questo documento lo afferma, orientando tutte le fasi dalla ricerca e sviluppo di nuovi prodotti tecnologici, alla loro distribuzione e utilizzo.
Si tratta di uno strumento di policy — non dunque una legge — e per questo la decisione di aderire ai principi che propone sarà comunque frutto della scelta individuale della singola impresa, del ricercatore o anche dell’utilizzatore di queste tecnologie. Certamente l’ambizione della Commissione è quella di farsi forza di tutta la propria moral suasion, fissando un punto di riferimento internazionale dal quale pochi vorranno apertamente discostarsi. Potenzialmente quindi i destinatari e interessati a questo documento non sono solo i cittadini europei e coloro che con l’Europa intenderanno interagire per motivi industriali o di ricerca scientifica — come tipicamente avviene quando si tratta di un atto normativo — bensì anche tutti quei soggetti, operanti in ambito internazionale e in altri Paesi, che si riconosceranno in queste affermazioni o attribuiranno ad esse un valore. A tutti costoro verrà, infatti, consentito di firmare e aderire pubblicamente a questo documento.
Il testo si incentra sulla nozione di Trustworthy AI («intelligenza artificiale affidabile»), nel duplice senso che i prodotti devono essere tecnicamente affidabili e che le persone devono potersi fidare della tecnologia. Proprio questo secondo aspetto — si ritiene — costituisce il frutto che solo un approccio etico — che cerchi di definire cosa sia buono e cosa sia giusto e cosa, eventualmente, costituisca una buona vita — può assicurare.
In effetti le questioni etiche potenzialmente rilevanti sono molteplici e assai diverse tra loro: dal potenziamento umano — la possibilità di manipolare il proprio corpo attraverso la tecnologia al fine di superare limiti fisici o mentali considerati invalicabili —, allo sviluppo ed uso di armi completamente autonome — che prescindano dal controllo diretto dell’essere umano nella decisione di uccidere —, alla possibilità di analizzare dati complessi di un individuo, riferibili alle sue abitudini, preferenze, idee politiche e religiose, al fine di profilarlo, predire o addirittura manipolare il suo comportamento. Ancora, determinare il modo in cui una macchina debba agire di fronte a una scelta tragica come quella di sacrificare una vita per salvarne un’altra, come nel caso di possibili incidenti mortali che coinvolgano veicoli a guida autonoma.
Per potersi fidare della tecnologia — secondo la Commissione europea — è allora necessario che questa persegua un ethical purpose («scopo etico»), che deve essere sotteso a ogni fase, dalla sua ideazione alla sua diffusione e utilizzo.
Mentre l’affidabilità tecnica discende dall’utilizzo delle migliori conoscenze che lo sviluppo tecnologico consente di acquisire, lo scopo etico è rappresentato da un lato dal rispetto dei diritti fondamentali e dalle discipline normative — europee — vigenti, ma da un altro anche da cinque principi fondamentali che il documento fissa.
Si tratta della Beneficiency («beneficenza»): il concetto che l’intelligenza artificiale debba essere sviluppata per promuovere il benessere degli individui e della società, favorendo sviluppo economico, equità sociale e tutela dell’ambiente. Della Non-maleficiency («non maleficenza»): l’intelligenza artificiale non deve nuocere agli uomini, evitando discriminazioni, manipolazioni del singolo o dell’opinione pubblica. I recenti scandali di Cambridge Analytica e relativi a certi usi di algoritmi e social media per conoscere ed influenzare decisioni politiche costituiscono esempi concreti. Altro principio ancora è l’Autonomy («autonomia»), in base a cui deve essere assicurata la libertà degli esseri umani dalla subordinazione o coercizione di sistemi di intelligenza artificiale, il cui uso non de-
ve diventare obbligatorio. In astratto, sembrerebbe affermare la Commissione, un medico non dovrebbe essere costretto, per svolgere il proprio lavoro, a fare ricorso a sistemi esperti — programmi di intelligenza artificiale — come Watson della Ibm (in grado di rispondere a domande poste con linguaggio naturale). Eppure è molto probabile — e di per sé neppure preoccupante — che il mercato imponga nuovi standard di prestazione che presuppongano il ricorso a queste tecnologie. Quarto principio è la Justice («giustizia»): l’idea che lo sviluppo, l’uso e la regolazione dell’intelligenza artificiale devono essere improntati a un principio di equità, garantendo eguali opportunità, risarcimento in caso di incidenti, conformità della macchina rispetto alle aspettative etiche che la società si pone. E infine l’Explicability (comprensibilità), in base a cui è necessario assicurare trasparenza della tecnologia e del modello di business.
Ora, i primi quattro principi riproducono quelli della bioetica nord-americana elaborati dai filosofi contemporanei Tom L. Beauchamp e James F. Childress e sono di per sé abbastanza generici nella loro formulazione. Non sono stati ideati per la tecnoetica e la loro applicazione in questo campo non è sempre ovvia.
Il quinto, per contro, costituisce uno degli aspetti peculiari sollevati per la prima volta con forza proprio dalle nuove tecnologie emergenti. Gli algoritmi e i sistemi di intelligenza artificiale saranno, infatti, usati per decidere in modo automatico molti aspetti della nostra vita, ad esempio la concessione di un prestito bancario. Il principio esige la trasparenza e piena comprensibilità del procedimento usato dal sistema per arrivare alla sua conclusione. Di per sé ineccepibile, rischia di essere di difficile implementazione se si considera come approcci di
machine learning (il sistema si modifica autonomamente attraverso il proprio funzionamento nel tempo, imparando dall’esperienza) e di analisi di big data sovente rendano il percorso decisionale della macchina opaco.
In modo piuttosto sorprendente, invece, i primi quattro principi si pongono — su un piano teorico almeno — su una linea diversa rispetto al discorso bioetico europeo. Questo muove dal principio — e diritto fondamentale affermato anche dall’articolo 1 della Carta dei diritti fondamentali dell’Unione europea — di dignità umana, contrapposto a quello americano di autonomia. Paradigmatico il caso francese noto come lancer du nain, in cui il Consiglio di Stato affermò come un uomo adulto affetto da nanismo, nel pieno possesso delle sue facoltà mentali, non potesse liberamente decidere di consentire ad altri di scaraventarlo come una pietra, per puro divertimento, in una discoteca parigina, seppure a fronte di una retribuzione. La sua scelta libera era, infatti, lesiva della dignità di ogni altro uomo e non poteva quindi disporne. La libertà, la scelta individuale consapevole e informata, può, in questa prospettiva, incontrare un limite insuperabile.
Il quadro etico che la Commissione viene ora a delineare per la robotica sembra invece fondato su una scelta in parte diversa, in cui la dignità umana fonda l’autonomia che, a sua volta, si concretizza, a livello applicativo, nel principio del consenso informato. Il singolo deve essere informato, perché possa comprendere e quindi liberamente determinarsi, potenzialmente senza limiti. Quali conseguenze questo possa portare, nell’analisi di singoli casi eticamente sensibili che presuppongano l’uso di queste tecnologie, non è possibile dirlo ora. Molto dipende da come i diversi principi in conflitto saranno, di volta in volta, bilanciati.
Tra i rischi contemplati il documento individua anche l’inganno. Un essere umano, interagendo con un robot androide o un sistema di intelligenza artificiale — come il software del film potrebbe non riuscire a distinguere la natura artificiale della macchina, sviluppando un’affezione irrazionale. Il documento esige che ogni forma di inganno sia prevenuta, che l’uomo sia informato della vera natura della macchina. Che succederebbe però se, informato, acconsentisse a essere manipolato dal robot? Se la simulazione e l’apparenza che si venisse a creare fosse desiderata — una macchina per scopi sessuali o che finga di essere un partner o un amico —, il consenso sarebbe sufficiente a rendere quell’uso eticamente accettabile?