Se un algoritmo può decidere chi deve andare in carcere
Gli algoritmi penetrano sempre più in ogni aspetto della nostra vita spesso semplificandola, come quando il navigatore dell’auto ci porta su un percorso alternativo perché quello più breve al momento è anche più trafficato. Ma sono meccanismi misteriosi, dei quali non conosciamo il funzionamento.
Fin qui ne abbiamo discusso soprattutto perché, con lo sviluppo dell’intelligenza artificiale, si sta alzando la soglia dei mestieri soppressi: da quelli ripetitivi degli operai ai lavori intellettuali di medio livello come quelli di fiscalisti, contabili e radiologi.
Nel campo del diritto fin qui si è discusso dell’automazione di una parte del lavoro degli avvocati: la preparazione di un caso confrontandolo con la giurisprudenza esistente. Ma in tribunale l’intelligenza artificiale comincia a essere utilizzata, oltre che dagli avvocati, anche dai giudici. E qui tutto diventa più delicato e controverso. Sentenze decise da un algoritmo? Non siamo ancora a questo, ma da tempo la magistratura americana si serve anche degli strumenti dell’intelligenza artificiale per stabilire l’entità della condanna, l’eventuale ricorso alla libertà vigilata e i casi in cui si può scarcerare su cauzione. Ad ammettere che il problema è serio e già urgente è lo stesso presidente della Corte Suprema, John Roberts.
È comprensibile, visto che il primo caso significativo — una sentenza per una sparatoria in Wisconsin nella quale il condannato ha ricevuto una lunga pena detentiva perché un software chiamato Compas ha giudicato alta la possibilità che lui torni a delinquere — ha alimentato un’aspra battaglia giudiziaria. L’imputato, Eric Loomis, ha fatto ricorso sostenendo che non può essere tenuto in carcere sulla base di un meccanismo del quale non solo lui e la sua difesa, ma nemmeno i giudici conoscono il funzionamento. La Corte Suprema del Wisconsin gli ha dato torto, ma la questione ora finirà a Washington. E i più ritengono che con l’algoritmo giudiziario sia stata imboccata una strada molto pericolosa.
È il giudizio non solo dei giuristi ma anche dei tecnologi: perfino Wired, la bibbia del mondo digitale, chiede di fermare tutto, almeno per una verifica. C’è da tutelare il diritto della difesa di sapere come vengono costruite le accuse a carico dell’imputato. I tribunali, poi, non sviluppano i loro algoritmi: comprano quelli di società private che, proteggendo i loro brevetti, non ne rivelano il funzionamento. Un’inammissibile mancanza di trasparenza. Tanto più che l’algoritmo, anche se funziona bene, non è neutrale. Ad esempio basa certi giudizi su valutazioni socioeconomiche: numeri oggettivi ma con implicazioni politiche. C’è di che riflettere anche nella prospettiva di un loro uso da parte dei governi.