Giudice artificiale
L’automatizzazione della giustizia con i dati e gli algoritmi predittivi mette in discussione l’ultimo baluardo dell’etica umanistica. Ma anche le macchine hanno pregiudizi.
Hercules Shepherd Jr., lo scorso agosto, è entrato in aula a Cleveland, negli Stati Uniti, con la tuta arancione da detenuto. Due sere prima gli agenti l’avevano trovato in possesso di una busta di cocaina e aveva tentato la fuga. Il giudice Jimmy Jackson, prima di decidere se accettare o meno la richiesta di rilascio su cauzione, ha guardato svogliatamente Shepherd e poi attentamente il punteggio sentenziato dall’algoritmo sul computer: due possibilità su sei di compiere un altro reato, una su sei le eventualità di tagliare la corda. Ottimo punteggio. L’imputato è stato rilasciato con una richiesta molto bassa di cauzione. Solo un anno fa il giudice avrebbe sentenziato sulla base delle scartoffie e della sua intuizione, cara vecchia abitudine tutta umana. Ma nel 2018 diversi Stati americani hanno introdotto l’algoritmo nel processo per eliminare – questa l’intenzione – il rischio di pregiudizio, soprattutto di genere e di razza. Ormai anche tutti i grandi studi legali statunitensi fanno ricorso alla startup Casetext, che fornisce ricerche forensi basate sul data processing. Legge e tecnologia si stanno alleando contro il fattore umano, e il passo che potrebbe segnare il giro di boa della quarta rivoluzione industriale (e forse della storia del genere umano) è la creazione del giudice-macchina. Secondo uno studio appena pubblicato dal Centro per l’Etica applicata dell’Università di Oxford, “vostro onore Matrix” è più attendibile del giudice in carne e ossa, che magari prima di emettere la sua decisione ha esagerato con le pinte di birra o ce l’ha col mondo perché ha appena scoperto di essere stato tradito dalla moglie. Umano, troppo umano, e quindi fallibile. Sono stati selezionati un migliaio di vecchi casi giudiziari, associati alle relative sentenze e sottoposti al voto di un pubblico selezionato (ovviamente, con un algoritmo) che si è espresso sull’operato più o meno “giusto” del magistrato giudicante. Ebbene, il responso del pubblico è stato pressoché identico a quello della macchina: entrambi hanno bocciato circa il 40 per cento delle sentenze umane. L’University College di Londra ha invece sottoposto al giudice robot 584 casi giudicati dalla Corte europea per i Diritti umani, e la macchina ha verificato come oltre la metà delle sentenze su casi di tortura o di violazione della privacy fosse basata su elementi extralegali, suggeriti dalla consuetudine, dalla considerazione del contesto sociale o dettate dal buon senso. L’uso dell’intelligenza artificiale per simulare la decisione umana ha messo in guardia l’Unione europea, che recentemente con la General Data Processing Regulation ha stabilito «il diritto a non essere soggetto a decisioni basate solamente su processi automatizzati». Ci si chiede infatti se non vi sia una buona dose d’incoscienza in questo affrettato affidamento del nostro destino nelle mani di super macchine intelligenti. Non si parla di guida autonoma o di sfide a scacchi: nulla come la giustizia ci induce a interrogarci su che cosa voglia dire essere umani nell’era dell’intelligenza artificiale. “Vostro onore Matrix” si basa sulla fredda fattualità della legge, mentre il magistrato, posto di fronte a casi complessi, spesso rimanda la decisione a una corte più alta. Non solo: anche la macchina può essere distorta dai pregiudizi dei programmatori. Sempre il centro di Oxford ha verificato come un Twitter chatbot chiamato Tay è diventato sessista, razzista e antisemita nel giro di ventiquattr’ore dopo essere stato a stretto contatto e aver interagito, durante una fase di “apprendimento intensivo”, con un pubblico a quanto pare politicamente scorretto.