I ROBOT E IL DIRITTO ASSENTE
Uno dei temi portanti del Festival dell’Economia, andato da poco in archivio, è stato quello della robotica e dell’intelligenza artificiale. L’espansione di tale campo nella realtà odierna e l’accelerazione dei suoi sviluppi in quella di domani giustificano il fortissimo interesse che ruota attorno a esso. Uno dei profili su cui si richiama l’attenzione è quello dell’assenza, a oggi, di una cornice etica e giuridica di riferimento. In realtà, robotica e intelligenza artificiale sono cose diverse e come tali vanno trattate. Un braccio telescopico, guidato da un chirurgo in via remota attraverso un joystick, ad esempio, permette di operare con maggior precisione, eliminando il naturale tremore delle mani, riducendo la perdita di sangue e i giorni di permanenza in ospedale dopo l’intervento. Tale esempio di robotica, come in tutt’altro campo l’utilizzo dei droni per bombardamenti mirati e comandati a distanza, mette in ogni caso nelle mani dell’uomo il compito di assumere le decisioni del caso. Se, dove e come intervenire, insomma, è scelta che spetta non al robot, ma al chirurgo come al soldato, e che fonda una precisa responsabilità personale di questi ultimi. Con l’intelligenza artificiale tale distinzione si fa più incerta e problematica. Nel momento in cui, ad esempio, è un algoritmo che attraverso il confronto di centinaia di migliaia di dati relativi a casi simili suggerisce una diagnosi e una prognosi.
Oppure propone il destinatario di un trapianto di organo, ci si può chiedere chi stia in realtà assumendo la decisione. Come ci si deve interrogare su chi sia responsabile — l’operatore a distanza o il drone, il produttore della macchina o il programmatore — per l’uccisione di un civile scambiato per un terrorista a motivo di un riconoscimento facciale errato.
Per ora, il diritto non ha indicato soluzioni specifiche né univoche in proposito. Alcuni ritengono che si debba in ogni caso fare riferimento alla persona umana che si serve del macchinario, richiamando l’analogia con la responsabilità del produttore (come per l’esercizio di attività pericolose), con quella per la custodia di animali o per quella dei «genitori, tutori e maestri d’arte». Altri propongono invece di elaborare un’inedita forma di «personalità elettronica» in grado di spostare la titolarità delle decisioni e le relative responsabilità direttamente in capo alla macchina dotata di intelligenza artificiale. In questo senso, ad esempio, l’Arabia Saudita si è spinta a riconoscere la cittadinanza al robot Sophia.
Allo stato dell’arte, la maggior parte degli scienziati esclude fughe in avanti di questo genere. Seppur risultato di processi che vengono definiti di intelligenza artificiale, le decisioni ottenute anche attraverso gli algoritmi più complicati non possono essere equiparate alla complessità delle scelte umane per quanto riguarda, ad esempio, il profilo emotivo. Non è inoltre dato sapere, in molti casi, quali passaggi e motivazioni abbiano portato alla singola decisione. Da questo punto di vista, si può certamente parlare di differenti gradi di «automazione», ma non del raggiungimento di una piena «autonomia». E se i robot dotati di intelligenza artificiale potranno efficacemente affiancare e assistere le persone, è bene che non le sostituiscano nella più umana e delicata delle facoltà: quella di prendere decisioni per il bene (o il male) dei propri simili.