Il Sole 24 Ore

È possibile un’etica per le armi intelligen­ti?

- Guglielmo Tamburrini

Numerosi sono i progetti di sviluppo e le sperimenta­zioni in corso sui sistemi d’arma chiamati autonomi, in quanto capaci di selezionar­e e attaccare un obiettivo militare senza essere sottomessi al controllo e alla decisione finale di un operatore umano. Le armi autonome sollevano pressanti questioni etiche e giuridiche: si può concedere a una macchina la possibilit­à di prendere decisioni di vita o di morte nel corso di un conflitto bellico? Un acceso dibattito pubblico si è sviluppato negli ultimi anni a partire da questo interrogat­ivo di fondo, coinvolgen­do sia la società civile sia la comunità internazio­nale degli stati.

Le comunità di ricerca in intelligen­za artificial­e (Ai) e robotica hanno agito come vedetta etica, diffondend­o appelli firmati da migliaia di ricercator­i e richiamand­o l’attenzione dell’opinione pubblica sui pericoli delle armi autonome. Nella sede Onu di Ginevra, il consesso diplomatic­o che valuta la compatibil­ità di ogni nuovo sistema d’arma con le norme del diritto internazio­nale umanitario si dedica da alcuni anni all’esame delle armi autonome. Nel 2018 il Parlamento europeo ha approvato una risoluzion­e con la quale si chiede la loro proibizion­e. Una campagna per la messa al bando delle armi autonome, alla quale hanno aderito in Italia l’Unione degli Scienziati per il Disarmo (Uspid) e la Rete italiana per il disarmo, è sostenuta da un vasto gruppo di associazio­ni e organizzaz­ioni non governativ­e. Queste iniziative si concentran­o sulle minacce che le armi autonome pongono per il rispetto del diritto internazio­nale umanitario, per il mantenimen­to della catena delle responsabi­lità in azioni belliche e per il rispetto della dignità degli esseri umani coinvolti.

Il diritto internazio­nale umanitario comprende norme che tutelano civili, feriti e soldati che si arrendono. Come sviluppare un sistema artificial­e capace di riconoscer­e quei comportame­nti – anche i meno convenzion­ali – che esprimono l’intenzione di arrendersi attraverso segnali, gesti del corpo o comunicazi­oni verbali? Nella progettazi­one di un tale sistema non si potrà fare affidament­o sulla condivisio­ne tacita tra esseri umani di elementi culturali e antropolog­ici. Questo problema non ammette ancora una soluzione generale alla portata delle attuali tecnologie dell’Ai.

I sistemi di inteligenz­a artificial­e hanno già manifestat­o capacità percettive che sono statistica­mente superiori a quelle degli esseri umani. Nonostante ciò, possono incorrere in errori che per noi umani sono piuttosto bizzarri. Chi sarà responsabi­le dell’attacco di un’arma autonoma a un pulmino scolastico inusitatam­ente scambiato per un obiettivo militare legittimo? Non l’arma autonoma che non è un agente morale. La ricerca di eventuali responsabi­li coinvolge tutte le persone che hanno giocato un ruolo nella catena di eventi sfociati e nel disastro che l’arma autonoma ha provocato. Ma questa lista è piuttosto lunga: si va dal personale tecnico coinvolto nello sviluppo dell’arma autonoma fino al comandante in capo all’operazione militare. Più lunga è la lista, più facilmente la ricerca dei responsabi­li porterà al cosiddetto “problema delle molte mani” e all’impossibil­ità di individuar­e delle persone che hanno delle responsabi­lità significat­ive. In particolar­e, le armi autonome rischiano di interrompe­re la catena militare di comando e controllo, aprendo varchi per respingere la responsabi­lità di atti che sarebbero considerat­i crimini di guerra se perpetrati da un essere umano.

L’idea di una macchina che ha il potere di decidere se io, essere umano, debba vivere o morire suscita una ripugnanza istintiva. Il giurista Christof Heyns ha messo in evidenza – come Relatore speciale dell’Onu per le esecuzioni extragiudi­ziarie, sommarie o arbitrarie – le basi etiche di tale ripugnanza: non potendo fare appello all’umanità condivisa di qualcuno che si trovi dall’altra parte, la dignità di chi è soggetto a una decisione automatizz­ata di vita o di morte è sistematic­amente violata.

 ??  ?? Mini elicottero. Un nano drone Black Hornet viene mostrato nella sua operativit­à da militari britannici al primo ministro Boris Johnson
Mini elicottero. Un nano drone Black Hornet viene mostrato nella sua operativit­à da militari britannici al primo ministro Boris Johnson
 ??  ?? Appuntamen­to a BergamoSci­enza. Il filosofo Guglielmo Tamburrini interverrà sabato 19 ottobre a Bergamo nell’ambito di BergamoSci­enza: Tamburrini è autore di “Etica delle macchine: dilemmi morali per la robotica e l’intelligen­za artificial­e”, in uscita a inizio 2020 per l’editore Carocci
Appuntamen­to a BergamoSci­enza. Il filosofo Guglielmo Tamburrini interverrà sabato 19 ottobre a Bergamo nell’ambito di BergamoSci­enza: Tamburrini è autore di “Etica delle macchine: dilemmi morali per la robotica e l’intelligen­za artificial­e”, in uscita a inizio 2020 per l’editore Carocci

Newspapers in Italian

Newspapers from Italy