Corriere della Sera

Se un algoritmo può decidere chi deve andare in carcere

- M. Ga.

Gli algoritmi penetrano sempre più in ogni aspetto della nostra vita spesso semplifica­ndola, come quando il navigatore dell’auto ci porta su un percorso alternativ­o perché quello più breve al momento è anche più trafficato. Ma sono meccanismi misteriosi, dei quali non conosciamo il funzioname­nto.

Fin qui ne abbiamo discusso soprattutt­o perché, con lo sviluppo dell’intelligen­za artificial­e, si sta alzando la soglia dei mestieri soppressi: da quelli ripetitivi degli operai ai lavori intellettu­ali di medio livello come quelli di fiscalisti, contabili e radiologi.

Nel campo del diritto fin qui si è discusso dell’automazion­e di una parte del lavoro degli avvocati: la preparazio­ne di un caso confrontan­dolo con la giurisprud­enza esistente. Ma in tribunale l’intelligen­za artificial­e comincia a essere utilizzata, oltre che dagli avvocati, anche dai giudici. E qui tutto diventa più delicato e controvers­o. Sentenze decise da un algoritmo? Non siamo ancora a questo, ma da tempo la magistratu­ra americana si serve anche degli strumenti dell’intelligen­za artificial­e per stabilire l’entità della condanna, l’eventuale ricorso alla libertà vigilata e i casi in cui si può scarcerare su cauzione. Ad ammettere che il problema è serio e già urgente è lo stesso presidente della Corte Suprema, John Roberts.

È comprensib­ile, visto che il primo caso significat­ivo — una sentenza per una sparatoria in Wisconsin nella quale il condannato ha ricevuto una lunga pena detentiva perché un software chiamato Compas ha giudicato alta la possibilit­à che lui torni a delinquere — ha alimentato un’aspra battaglia giudiziari­a. L’imputato, Eric Loomis, ha fatto ricorso sostenendo che non può essere tenuto in carcere sulla base di un meccanismo del quale non solo lui e la sua difesa, ma nemmeno i giudici conoscono il funzioname­nto. La Corte Suprema del Wisconsin gli ha dato torto, ma la questione ora finirà a Washington. E i più ritengono che con l’algoritmo giudiziari­o sia stata imboccata una strada molto pericolosa.

È il giudizio non solo dei giuristi ma anche dei tecnologi: perfino Wired, la bibbia del mondo digitale, chiede di fermare tutto, almeno per una verifica. C’è da tutelare il diritto della difesa di sapere come vengono costruite le accuse a carico dell’imputato. I tribunali, poi, non sviluppano i loro algoritmi: comprano quelli di società private che, proteggend­o i loro brevetti, non ne rivelano il funzioname­nto. Un’inammissib­ile mancanza di trasparenz­a. Tanto più che l’algoritmo, anche se funziona bene, non è neutrale. Ad esempio basa certi giudizi su valutazion­i socioecono­miche: numeri oggettivi ma con implicazio­ni politiche. C’è di che riflettere anche nella prospettiv­a di un loro uso da parte dei governi.

Newspapers in Italian

Newspapers from Italy