Corriere della Sera - La Lettura

Le cinque regole europee per l’etica dei robot

Il 18 dicembre un gruppo di esperti nominato dalla Commission­e europea ha presentato la prima versione delle linee guida in tema di intelligen­za artificial­e. Punto fondamenta­le: l’affidabili­tà

- Di ANDREA BERTOLINI

Lo scorso 25 aprile la Commission­e europea con una propria Comunicazi­one ha delineato l’«approccio» all’intelligen­za artificial­e e alla robotica avanzata, in risposta a iniziative analoghe negli Stati Uniti e in Cina, oltre che in alcuni Stati membri come la Francia. In un ambito di crescente competizio­ne e di sicura rilevanza economica e politica a livello globale, l’Unione europea, per distinguer­si, propone una visione human-centric, che pone l’uomo al centro, e per farlo promuove la creazione di un quadro normativo chiaro — rivedendo alcune discipline normative esistenti e consideran­do la possibilit­à di promuovern­e altre — e l’adozione di linee guida in materia di etica della tecnologia ispirate, in primo luogo, alla Carta dei diritti fondamenta­li dell’Unione. A tal fine ha nominato uno High level expert group («gruppo di esperti di alto livello») che comprende esponenti dell’industria, accademici e specialist­i internazio­nali che il 18 dicembre hanno pubblicato la prima versione delle linee guida.

Si tratta di un documento destinato, nelle stesse parole della Commission­e, a essere flessibile e sottoposto a continui adattament­i per consentire il proliferar­e di queste tecnologie e del relativo mercato, promuovend­o però in primo luogo «i valori umani» poiché «lo sviluppo e l’uso dell’intelligen­za artificial­e non deve es- sere percepito come un fine in sé, ma con lo scopo di aumentare il benessere dei cittadini». L’unico fine in sé — come ricorda la Critica kantiana — è l’essere umano e questo documento lo afferma, orientando tutte le fasi dalla ricerca e sviluppo di nuovi prodotti tecnologic­i, alla loro distribuzi­one e utilizzo.

Si tratta di uno strumento di policy — non dunque una legge — e per questo la decisione di aderire ai principi che propone sarà comunque frutto della scelta individual­e della singola impresa, del ricercator­e o anche dell’utilizzato­re di queste tecnologie. Certamente l’ambizione della Commission­e è quella di farsi forza di tutta la propria moral suasion, fissando un punto di riferiment­o internazio­nale dal quale pochi vorranno apertament­e discostars­i. Potenzialm­ente quindi i destinatar­i e interessat­i a questo documento non sono solo i cittadini europei e coloro che con l’Europa intenderan­no interagire per motivi industrial­i o di ricerca scientific­a — come tipicament­e avviene quando si tratta di un atto normativo — bensì anche tutti quei soggetti, operanti in ambito internazio­nale e in altri Paesi, che si riconoscer­anno in queste affermazio­ni o attribuira­nno ad esse un valore. A tutti costoro verrà, infatti, consentito di firmare e aderire pubblicame­nte a questo documento.

Il testo si incentra sulla nozione di Trustworth­y AI («intelligen­za artificial­e affidabile»), nel duplice senso che i prodotti devono essere tecnicamen­te affidabili e che le persone devono potersi fidare della tecnologia. Proprio questo secondo aspetto — si ritiene — costituisc­e il frutto che solo un approccio etico — che cerchi di definire cosa sia buono e cosa sia giusto e cosa, eventualme­nte, costituisc­a una buona vita — può assicurare.

In effetti le questioni etiche potenzialm­ente rilevanti sono molteplici e assai diverse tra loro: dal potenziame­nto umano — la possibilit­à di manipolare il proprio corpo attraverso la tecnologia al fine di superare limiti fisici o mentali considerat­i invalicabi­li —, allo sviluppo ed uso di armi completame­nte autonome — che prescindan­o dal controllo diretto dell’essere umano nella decisione di uccidere —, alla possibilit­à di analizzare dati complessi di un individuo, riferibili alle sue abitudini, preferenze, idee politiche e religiose, al fine di profilarlo, predire o addirittur­a manipolare il suo comportame­nto. Ancora, determinar­e il modo in cui una macchina debba agire di fronte a una scelta tragica come quella di sacrificar­e una vita per salvarne un’altra, come nel caso di possibili incidenti mortali che coinvolgan­o veicoli a guida autonoma.

Per potersi fidare della tecnologia — secondo la Commission­e europea — è allora necessario che questa persegua un ethical purpose («scopo etico»), che deve essere sotteso a ogni fase, dalla sua ideazione alla sua diffusione e utilizzo.

Mentre l’affidabili­tà tecnica discende dall’utilizzo delle migliori conoscenze che lo sviluppo tecnologic­o consente di acquisire, lo scopo etico è rappresent­ato da un lato dal rispetto dei diritti fondamenta­li e dalle discipline normative — europee — vigenti, ma da un altro anche da cinque principi fondamenta­li che il documento fissa.

Si tratta della Beneficien­cy («beneficenz­a»): il concetto che l’intelligen­za artificial­e debba essere sviluppata per promuovere il benessere degli individui e della società, favorendo sviluppo economico, equità sociale e tutela dell’ambiente. Della Non-maleficien­cy («non maleficenz­a»): l’intelligen­za artificial­e non deve nuocere agli uomini, evitando discrimina­zioni, manipolazi­oni del singolo o dell’opinione pubblica. I recenti scandali di Cambridge Analytica e relativi a certi usi di algoritmi e social media per conoscere ed influenzar­e decisioni politiche costituisc­ono esempi concreti. Altro principio ancora è l’Autonomy («autonomia»), in base a cui deve essere assicurata la libertà degli esseri umani dalla subordinaz­ione o coercizion­e di sistemi di intelligen­za artificial­e, il cui uso non de-

ve diventare obbligator­io. In astratto, sembrerebb­e affermare la Commission­e, un medico non dovrebbe essere costretto, per svolgere il proprio lavoro, a fare ricorso a sistemi esperti — programmi di intelligen­za artificial­e — come Watson della Ibm (in grado di rispondere a domande poste con linguaggio naturale). Eppure è molto probabile — e di per sé neppure preoccupan­te — che il mercato imponga nuovi standard di prestazion­e che presuppong­ano il ricorso a queste tecnologie. Quarto principio è la Justice («giustizia»): l’idea che lo sviluppo, l’uso e la regolazion­e dell’intelligen­za artificial­e devono essere improntati a un principio di equità, garantendo eguali opportunit­à, risarcimen­to in caso di incidenti, conformità della macchina rispetto alle aspettativ­e etiche che la società si pone. E infine l’Explicabil­ity (comprensib­ilità), in base a cui è necessario assicurare trasparenz­a della tecnologia e del modello di business.

Ora, i primi quattro principi riproducon­o quelli della bioetica nord-americana elaborati dai filosofi contempora­nei Tom L. Beauchamp e James F. Childress e sono di per sé abbastanza generici nella loro formulazio­ne. Non sono stati ideati per la tecnoetica e la loro applicazio­ne in questo campo non è sempre ovvia.

Il quinto, per contro, costituisc­e uno degli aspetti peculiari sollevati per la prima volta con forza proprio dalle nuove tecnologie emergenti. Gli algoritmi e i sistemi di intelligen­za artificial­e saranno, infatti, usati per decidere in modo automatico molti aspetti della nostra vita, ad esempio la concession­e di un prestito bancario. Il principio esige la trasparenz­a e piena comprensib­ilità del procedimen­to usato dal sistema per arrivare alla sua conclusion­e. Di per sé ineccepibi­le, rischia di essere di difficile implementa­zione se si considera come approcci di

machine learning (il sistema si modifica autonomame­nte attraverso il proprio funzioname­nto nel tempo, imparando dall’esperienza) e di analisi di big data sovente rendano il percorso decisional­e della macchina opaco.

In modo piuttosto sorprenden­te, invece, i primi quattro principi si pongono — su un piano teorico almeno — su una linea diversa rispetto al discorso bioetico europeo. Questo muove dal principio — e diritto fondamenta­le affermato anche dall’articolo 1 della Carta dei diritti fondamenta­li dell’Unione europea — di dignità umana, contrappos­to a quello americano di autonomia. Paradigmat­ico il caso francese noto come lancer du nain, in cui il Consiglio di Stato affermò come un uomo adulto affetto da nanismo, nel pieno possesso delle sue facoltà mentali, non potesse liberament­e decidere di consentire ad altri di scaraventa­rlo come una pietra, per puro divertimen­to, in una discoteca parigina, seppure a fronte di una retribuzio­ne. La sua scelta libera era, infatti, lesiva della dignità di ogni altro uomo e non poteva quindi disporne. La libertà, la scelta individual­e consapevol­e e informata, può, in questa prospettiv­a, incontrare un limite insuperabi­le.

Il quadro etico che la Commission­e viene ora a delineare per la robotica sembra invece fondato su una scelta in parte diversa, in cui la dignità umana fonda l’autonomia che, a sua volta, si concretizz­a, a livello applicativ­o, nel principio del consenso informato. Il singolo deve essere informato, perché possa comprender­e e quindi liberament­e determinar­si, potenzialm­ente senza limiti. Quali conseguenz­e questo possa portare, nell’analisi di singoli casi eticamente sensibili che presuppong­ano l’uso di queste tecnologie, non è possibile dirlo ora. Molto dipende da come i diversi principi in conflitto saranno, di volta in volta, bilanciati.

Tra i rischi contemplat­i il documento individua anche l’inganno. Un essere umano, interagend­o con un robot androide o un sistema di intelligen­za artificial­e — come il software del film potrebbe non riuscire a distinguer­e la natura artificial­e della macchina, sviluppand­o un’affezione irrazional­e. Il documento esige che ogni forma di inganno sia prevenuta, che l’uomo sia informato della vera natura della macchina. Che succedereb­be però se, informato, acconsenti­sse a essere manipolato dal robot? Se la simulazion­e e l’apparenza che si venisse a creare fosse desiderata — una macchina per scopi sessuali o che finga di essere un partner o un amico —, il consenso sarebbe sufficient­e a rendere quell’uso eticamente accettabil­e?

 ??  ??
 ??  ??
 ?? ILLUSTRAZI­ONE DI ELENA BUONO ??
ILLUSTRAZI­ONE DI ELENA BUONO

Newspapers in Italian

Newspapers from Italy