Se un al­go­rit­mo può de­ci­de­re chi de­ve an­da­re in car­ce­re

Corriere della Sera - - CRONACHE - M. Ga.

Gli al­go­rit­mi pe­ne­tra­no sem­pre più in ogni aspet­to del­la no­stra vi­ta spes­so sem­pli­fi­can­do­la, co­me quan­do il na­vi­ga­to­re dell’au­to ci por­ta su un per­cor­so al­ter­na­ti­vo per­ché quel­lo più bre­ve al mo­men­to è an­che più traf­fi­ca­to. Ma so­no mec­ca­ni­smi mi­ste­rio­si, dei qua­li non co­no­scia­mo il fun­zio­na­men­to.

Fin qui ne ab­bia­mo di­scus­so so­prat­tut­to per­ché, con lo svi­lup­po dell’intelligen­za ar­ti­fi­cia­le, si sta al­zan­do la so­glia dei me­stie­ri sop­pres­si: da quel­li ri­pe­ti­ti­vi de­gli operai ai la­vo­ri in­tel­let­tua­li di me­dio li­vel­lo co­me quel­li di fi­sca­li­sti, con­ta­bi­li e ra­dio­lo­gi.

Nel cam­po del di­rit­to fin qui si è di­scus­so dell’au­to­ma­zio­ne di una par­te del la­vo­ro de­gli av­vo­ca­ti: la preparazio­ne di un ca­so con­fron­tan­do­lo con la giu­ri­spru­den­za esi­sten­te. Ma in tri­bu­na­le l’intelligen­za ar­ti­fi­cia­le co­min­cia a es­se­re uti­liz­za­ta, ol­tre che da­gli av­vo­ca­ti, an­che dai giu­di­ci. E qui tut­to di­ven­ta più de­li­ca­to e con­tro­ver­so. Sen­ten­ze de­ci­se da un al­go­rit­mo? Non sia­mo an­co­ra a que­sto, ma da tem­po la ma­gi­stra­tu­ra ame­ri­ca­na si ser­ve an­che de­gli stru­men­ti dell’intelligen­za ar­ti­fi­cia­le per sta­bi­li­re l’en­ti­tà del­la con­dan­na, l’even­tua­le ri­cor­so al­la li­ber­tà vi­gi­la­ta e i ca­si in cui si può scar­ce­ra­re su cau­zio­ne. Ad am­met­te­re che il pro­ble­ma è se­rio e già ur­gen­te è lo stes­so pre­si­den­te del­la Cor­te Su­pre­ma, John Roberts.

È com­pren­si­bi­le, vi­sto che il pri­mo ca­so si­gni­fi­ca­ti­vo — una sen­ten­za per una spa­ra­to­ria in Wi­scon­sin nel­la qua­le il con­dan­na­to ha ri­ce­vu­to una lun­ga pe­na de­ten­ti­va per­ché un soft­ware chia­ma­to Com­pas ha giu­di­ca­to al­ta la pos­si­bi­li­tà che lui torni a de­lin­que­re — ha ali­men­ta­to un’aspra bat­ta­glia giu­di­zia­ria. L’im­pu­ta­to, Eric Loo­mis, ha fat­to ri­cor­so so­ste­nen­do che non può es­se­re te­nu­to in car­ce­re sul­la ba­se di un mec­ca­ni­smo del qua­le non so­lo lui e la sua di­fe­sa, ma nem­me­no i giu­di­ci co­no­sco­no il fun­zio­na­men­to. La Cor­te Su­pre­ma del Wi­scon­sin gli ha da­to torto, ma la que­stio­ne ora fi­ni­rà a Wa­shing­ton. E i più ri­ten­go­no che con l’al­go­rit­mo giu­di­zia­rio sia sta­ta im­boc­ca­ta una stra­da mol­to pe­ri­co­lo­sa.

È il giu­di­zio non so­lo dei giu­ri­sti ma an­che dei tec­no­lo­gi: perfino Wi­red, la bibbia del mon­do di­gi­ta­le, chie­de di fermare tut­to, al­me­no per una ve­ri­fi­ca. C’è da tu­te­la­re il di­rit­to del­la di­fe­sa di sa­pe­re co­me ven­go­no co­strui­te le ac­cu­se a ca­ri­co dell’im­pu­ta­to. I tri­bu­na­li, poi, non svi­lup­pa­no i lo­ro al­go­rit­mi: com­pra­no quel­li di so­cie­tà pri­va­te che, pro­teg­gen­do i lo­ro bre­vet­ti, non ne ri­ve­la­no il fun­zio­na­men­to. Un’inam­mis­si­bi­le man­can­za di tra­spa­ren­za. Tan­to più che l’al­go­rit­mo, an­che se fun­zio­na be­ne, non è neu­tra­le. Ad esem­pio ba­sa cer­ti giu­di­zi su va­lu­ta­zio­ni so­cioe­co­no­mi­che: nu­me­ri og­get­ti­vi ma con im­pli­ca­zio­ni po­li­ti­che. C’è di che ri­flet­te­re an­che nel­la pro­spet­ti­va di un lo­ro uso da par­te dei go­ver­ni.

Newspapers in Italian

Newspapers from Italy

© PressReader. All rights reserved.