Una carta etica europea per limitare la giustizia definita dai big data
L’intelligenza artificiale e il machine learning rappresentano una sfida senza precedenti per il mondo moderno e, nel panorama giuridico, uno dei principali ambiti di diffusione di tali strumenti è costituito dal perseguimento della condotta vietata: si fari ferimento alla sempre più diffusa applicazione dell’ intelligenza artificiale nell’ambito dei sistemi di giustizia predittiva.
Ciò è possibile grazie ai Big Data, le ingenti quantità di dati che provengono da una serie di fonti diverse e che sono oggetto di trattamento automatizzato mediante algoritmi informatici e tecniche avanzate di trattamento dei dati, al fine di individuare correlazioni, tendenze o modelli.
Il più famoso software di giustizia predittiva èCompas( acronimo di Cor offender management profiling for alternative sanctions), sviluppato da un’ azienda privata e utilizzato dai giudici di diversi Stati americani per valutare il rischio di recidiva dell’ imputato attraverso l’ elaborazione dei dati emersi dal fascicolo processuale e dall’esito di un test a 137 domande.
Non è pubblicamente noto il meccanismo di funzionamento dell’ tale circostanza è stata rilevata come una violazione del principi odi giusto processo da Eric Loomis, il quale– dando vita al celebre Loomis case – ha impugnatola sentenza che lo ha sei annidi carcere per non essersi fermato a un controllo di polizia: nella determinazione della pena il giudice aveva tenuto conto del fatto che Compas aveva classificato Loomis come persona altamente propensa a ripetere lo stesso reato. Nel 2016, la Corte Suprema del Wisconsin ha rigettato l’ appello, sostenendo che il verdetto sarebbe statolo stesso anche senza l’ uso di Compas. La sentenza di secondo grado, tuttavia, ha invitato alla cautela e a esercitare il dubbio nell’ uso dell’ algoritmo. Peraltro, uno studio del 2016 ha analizzatole valutazioni svolte da oltre settemila persone arrestate nellac onte adiBroward, in Florida: l’ inchiesta sostiene che l’ algoritmo abbia dei pregiudizi nei confronti degliparticolare, ineri avrebbero quasi il doppio delle possibilità dei bianchi di essere etichettati come “ad alto rischio” pur non incorrendo poi in recidiva; secondo il gruppo di ricerca, peraltro, Compascom metterebbe l’ errore opposto trai bianchi, i quali avrebbero più possibilità de ineri di essere etichettati “a basso rischio”, salvo poi commettere altri reati.
L’utilizzo degli algoritmi in ambito processuale si estende anche all’esercizio della professione forense: in Francia è stata implementata una piattaforma che “predice” gli esiti giudiziari, anticipando il risultato potenziale della causa e agevolando così la decisione sull’opportunità o meno di promuovere un determinato giudizio. Il software Predictice, destinato agli avvocati, calcola la probabilità statistica di successo della causa, l’ammontare dei risarcimenti ottenuti in contenziosi simili e gli argomenti su cui sia conveniente insistere. L’algoritmo utilizza un database che include un milione di righe di documenti, sentenze, codici e testi giuridici: facendo leva sul linguaggio giuridico (che segue determinati standard), viene automatizzata l’indicizzazione e l’ interpretazione dei dati, con l’ aggiunta di meta dati con le caratteristiche delle controversie. La piattaforma consente, addirittura, di confrontare le diverse strategie processuali in modo da poter costruire, sulla base delle variabili del caso, l’argomentazione che ha più probabilità di successo.
Trai vantaggi riconducibili all’ utilizzo di questo tip od istrumento possono riconoscersi la diminuzione delle vertenzepretestuose e il perseguimento di una certa qual prevedibilità delle decisioni.Il rischio, tuttavia, è l’ affermarsi di una giustizia predittiva, automatizzata ma soprattutto omologata e ripetitiva.
Il potenziale di operatività dell’ intelligenza artificiale nell’ amministrazione della giustizia è, a ben vedere, enorme. Di ciò hanno preso contezza anche le istituzioni europee: la Commissione europea per l’efficienza della giustizia del Consiglio d’Europa (Cepej) ha, infatti, recentemente approvato la prima carta etica sull’utilizzo dell’ intelligenza artificiale nei sistemi giudiziari.
Tra i principi affermati spiccano il principio di non discriminazione, di qualità e di sicurezza, di trasparenza e neutralità nell’utilizzo degli strumenti tecnologici. In particolare, si afferma l’importanza di preservare il potere del giudice di controllare in qualsiasi momento le decisioni giudiziarie e ida ti utilizzati, nonché di continuare ad avere la possibilità di discostarsi dalle soluzioni proposte dall’ Intelligenza Artificiale, tenendo conto delle specificità del caso concreto.