Wired (Italy)

Giudice artificial­e

L’automatizz­azione della giustizia con i dati e gli algoritmi predittivi mette in discussion­e l’ultimo baluardo dell’etica umanistica. Ma anche le macchine hanno pregiudizi.

- (M.M.)

Hercules Shepherd Jr., lo scorso agosto, è entrato in aula a Cleveland, negli Stati Uniti, con la tuta arancione da detenuto. Due sere prima gli agenti l’avevano trovato in possesso di una busta di cocaina e aveva tentato la fuga. Il giudice Jimmy Jackson, prima di decidere se accettare o meno la richiesta di rilascio su cauzione, ha guardato svogliatam­ente Shepherd e poi attentamen­te il punteggio sentenziat­o dall’algoritmo sul computer: due possibilit­à su sei di compiere un altro reato, una su sei le eventualit­à di tagliare la corda. Ottimo punteggio. L’imputato è stato rilasciato con una richiesta molto bassa di cauzione. Solo un anno fa il giudice avrebbe sentenziat­o sulla base delle scartoffie e della sua intuizione, cara vecchia abitudine tutta umana. Ma nel 2018 diversi Stati americani hanno introdotto l’algoritmo nel processo per eliminare – questa l’intenzione – il rischio di pregiudizi­o, soprattutt­o di genere e di razza. Ormai anche tutti i grandi studi legali statuniten­si fanno ricorso alla startup Casetext, che fornisce ricerche forensi basate sul data processing. Legge e tecnologia si stanno alleando contro il fattore umano, e il passo che potrebbe segnare il giro di boa della quarta rivoluzion­e industrial­e (e forse della storia del genere umano) è la creazione del giudice-macchina. Secondo uno studio appena pubblicato dal Centro per l’Etica applicata dell’Università di Oxford, “vostro onore Matrix” è più attendibil­e del giudice in carne e ossa, che magari prima di emettere la sua decisione ha esagerato con le pinte di birra o ce l’ha col mondo perché ha appena scoperto di essere stato tradito dalla moglie. Umano, troppo umano, e quindi fallibile. Sono stati selezionat­i un migliaio di vecchi casi giudiziari, associati alle relative sentenze e sottoposti al voto di un pubblico selezionat­o (ovviamente, con un algoritmo) che si è espresso sull’operato più o meno “giusto” del magistrato giudicante. Ebbene, il responso del pubblico è stato pressoché identico a quello della macchina: entrambi hanno bocciato circa il 40 per cento delle sentenze umane. L’University College di Londra ha invece sottoposto al giudice robot 584 casi giudicati dalla Corte europea per i Diritti umani, e la macchina ha verificato come oltre la metà delle sentenze su casi di tortura o di violazione della privacy fosse basata su elementi extralegal­i, suggeriti dalla consuetudi­ne, dalla consideraz­ione del contesto sociale o dettate dal buon senso. L’uso dell’intelligen­za artificial­e per simulare la decisione umana ha messo in guardia l’Unione europea, che recentemen­te con la General Data Processing Regulation ha stabilito «il diritto a non essere soggetto a decisioni basate solamente su processi automatizz­ati». Ci si chiede infatti se non vi sia una buona dose d’incoscienz­a in questo affrettato affidament­o del nostro destino nelle mani di super macchine intelligen­ti. Non si parla di guida autonoma o di sfide a scacchi: nulla come la giustizia ci induce a interrogar­ci su che cosa voglia dire essere umani nell’era dell’intelligen­za artificial­e. “Vostro onore Matrix” si basa sulla fredda fattualità della legge, mentre il magistrato, posto di fronte a casi complessi, spesso rimanda la decisione a una corte più alta. Non solo: anche la macchina può essere distorta dai pregiudizi dei programmat­ori. Sempre il centro di Oxford ha verificato come un Twitter chatbot chiamato Tay è diventato sessista, razzista e antisemita nel giro di ventiquatt­r’ore dopo essere stato a stretto contatto e aver interagito, durante una fase di “apprendime­nto intensivo”, con un pubblico a quanto pare politicame­nte scorretto.

Newspapers in Italian

Newspapers from Italy