LA GIU­STI­ZIA DEI RO­BOT

L’al­go­rit­mo stu­dia­to per ve­lo­ciz­za­re i pro­ces­si. La for­mu­la ma­te­ma­ti­ca per pre­ve­de­re i cri­mi­ni. Co­me cam­bie­rà il si­ste­ma giu­di­zia­rio con l’in­tel­li­gen­za ar­ti­fi­cia­le? Un’in­da­gi­ne

Il Foglio Quotidiano - - NEWS - Di An­na­li­sa Chirico

Vi fa­re­ste giu­di­ca­re da un giu­di­ce ro­bot? Af­fi­de­re­ste a un al­go­rit­mo, per quan­to smart, la de­ci­sio­ne sul­la vo­stra li­ber­tà per­so­na­le o sul­la vo­stra pro­prie­tà? Non sia­mo in un film fan­ta­sy. L’ap­pli­ca­zio­ne dell’in­tel­li­gen­za ar­ti­fi­cia­le al set­to­re giu­ri­di­co por­ta con sé una ca­sca­ta di con­se­guen­ze pra­ti­che e una ri­fles­sio­ne, af­fa­sci­nan­te e spa­ven­to­sa in­sie­me, sul­le ri­ca­du­te in ter­mi­ni di tu­te­la dei di­rit­ti fon­da­men­ta­li e di giu­sto pro­ces­so. “E’ una sfi­da straor­di­na­ria per il fu­tu­ro del­la giu­ri­sdi­zio­ne”, di­chia­ra al Fo­glio Fa­bio Pinelli, av­vo­ca­to di lun­go cor­so e mem­bro del­la Fon­da­zio­ne Leo­nar­do. Un fu­tu­ro che è già pre­sen­te: l’Esto­nia, pae­se all’avan­guar­dia nel cam­po dell’e-go­vern­ment e del­la cit­ta­di­nan­za di­gi­ta­le, uti­liz­za un al­go­rit­mo per ri­sol­ve­re le con­tro­ver­sie ri­sar­ci­to­rie fi­no al va­lo­re di set­te­mi­la eu­ro. “Nel ca­so esto­ne – pro­se­gue l’av­vo­ca­to Pinelli – il co­sid­det­to ‘au­to­ma­ted de­ci­sion sy­stem’, già ope­ra­ti­vo in un gran nu­me­ro di con­tro­ver­sie ci­vi­li, è in gra­do di ri­ce­ve­re la do­cu­men­ta­zio­ne elet­tro­ni­ca del­le par­ti e di con­fron­tar­la con nor­ma­ti­ve, at­ti de­po­si­ta­ti, re­go­la­men­ti, per trar­ne in­fi­ne le con­clu­sio­ni. In ca­so di op­po­si­zio­ne di una del­le par­ti, si può pro­ce­de­re al giu­di­zio con un giu­di­ce in car­ne e os­sa. L’obiet­ti­vo è quel­lo di ren­de­re l’am­mi­ni­stra­zio­ne più ra­pi­da e snel­la al­leg­ge­ren­do il ca­ri­co di la­vo­ro per can­cel­lie­ri e ma­gi­stra­ti”. La qua­li­tà del giu­di­zio ri­schia di es­se­re sa­cri­fi­ca­ta sull’al­ta­re dell’ef­fi­cien­za? “L’al­go­rit­mo è in gra­do di ge­sti­re e com­pa­ra­re tut­ti i pre­ce­den­ti giu­ri­spru­den­zia­li co­me nes­sun giu­di­ce uma­no sa­preb­be fa­re. Inol­tre, la de­ci­sio­ne au­to­ma­tiz­za­ta non ri­sen­te di con­di­zio­na­men­ti emo­ti­vi o di pre­giu­di­zi sog­get­ti­vi”. Un giu­di­ce ro­bot dif­fi­cil­men­te ver­rà ri­cu­sa­to… “An­che la di­sci­pli­na dell’asten­sio­ne, al co­spet­to di un soft­ware, per­de di si­gni­fi­ca­to. Per chi am­bi­sce al­la de­ci­sio­ne fred­da di un giu­di­ce pri­vo di emo­zio­ni, è uno sce­na­rio af­fa­sci­nan­te. Con­ti­nuo tut­ta­via a ri­te­ne­re che stru­men­ti co­sì po­ten­ti va­da­no uti­liz­za­ti con l’au­si­lio dell’uma­ni­tà, an­che emo­ti­va, di un giu­di­ce, so­prat­tut­to in am­bi­to pe­na­le”. Ne­gli Sta­ti Uni­ti da an­ni le cor­ti im­pie­ga­no al­go­rit­mi, for­ni­ti da so­cie­tà pri­va­te co­me Com­pas, per de­ter­mi­na­re la mi­su­ra del­la cau­zio­ne e, in mo­do an­cor più con­tro­ver­so, per cal­co­la­re il ri­schio di re­ci­di­va e l’en­ti­tà del­la pe­na de­ten­ti­va. Di­ver­si stu­di han­no di­mo­stra­to co­me i prin­ci­pa­li al­go­rit­mi in uso ol­treo­cea­no ab­bia­no di­scri­mi­na­to a sfa­vo­re dei ne­ri e a fa­vo­re dei bian­chi. “La tra­spa­ren­za del si­ste­ma in­for­ma­ti­co, che noi giu­ri­sti non sia­mo in gra­do di ga­ran­ti­re, po­ne un pro­ble­ma in­sor­mon­ta­bi­le. Es­sen­do si­ste­mi bre­vet­ta­ti, il lo­ro fun­zio­na­men­to non è co­no­sci­bi­le in quan­to co­per­to dal se­gre­to in­du­stria­le. Non a ca­so, nel 2018 il Con­si­glio d’Eu­ro­pa ha adot­ta­to la Car­ta eti­ca eu­ro­pea per l’uso dell’Ia nei si­ste­mi di giu­sti­zia pe­na­le; in es­sa si po­ne l’ac­cen­to sul ri­schio di di­scri­mi­na­zio­ne poi­ché tra i da­ti va­lo­riz­za­ti dall’al­go­rit­mo è ele­va­ta la pro­ba­bi­li­tà che spe­ci­fi­ci fat­to­ri di pe­ri­co­lo­si­tà ven­ga­no ri­co­strui­ti in re­la­zio­ne a de­ter­mi­na­te ap­par­te­nen­ze et­ni­che, re­li­gio­se, di estra­zio­ne eco­no­mi­co-so­cia­le”. Nel 2016 la Cor­te Su­pre­ma del Wi­scon­sin ha re­spin­to il ri­cor­so di un con­dan­na­to a sei an­ni di re­clu­sio­ne af­fer­man­do la le­git­ti­mi­tà del­la pro­ce­du­ra: all’obie­zio­ne sul­la non co­no­scen­za del fun­zio­na­men­to dell’al­go­rit­mo le so­cie­tà for­ni­tri­ci dei soft­ware re­cla­ma­no che i pro­pri al­go­rit­mi so­no se­gre­ti in­du­stria­li non di­vul­ga­bi­li, nem­me­no agli imputati a cui si ap­pli­ca­no. “E’ una ma­te­ria con­tro­ver­sa che sta pren­den­do for­ma man ma­no che ca­si si­mi­li fi­ni­sco­no in tri­bu­na­le. Non è ir­ra­gio­ne­vo­le pen­sa­re che il pro­gres­so dell’Ia po­trà con­dur­re a pro­dot­ti sem­pre più so­fi­sti­ca­ti, ef­fet­ti­va­men­te in gra­do, se for­ni­ti del­le cor­ret­te in­for­ma­zio­ni, di da­re ri­sul­ta­ti pa­ra­go­na­bi­li a quel­li cui giun­ge­reb­be un es­se­re uma­no. Ri­cor­do quan­do nel 2006, per la pri­ma vol­ta, la stam­pa na­zio­na­le die­de no­ti­zia del tri­bu­na­le di Zi­bo, in una re­gio­ne sper­du­ta del­la Ci­na, do­ve un com­pu­ter so­fi­sti­ca­to ave­va già emes­so ol­tre mil­le­cin­que­cen­to sen­ten­ze. La rea­zio­ne tra i giu­ri­sti fu tra lo stu­pi­to e il di­ver­ti­to. Og­gi in­ve­ce sia­mo chia­ma­ti a oc­cu­par­ce­ne per­ché, dal­le au­to a gui­da au­to­no­ma fi­no all’al­go­rit­mo nei tri­bu­na­li, l’im­pie­go dei soft­ware è de­sti­na­to a es­se­re sem­pre più este­so. Per que­sto con la fon­da­zio­ne Leo­nar­do, pre­sie­du­ta dal pro­fes­so­re Lu­cia­no Vio­lan­te, stia­mo la­vo­ran­do sul rap­por­to tra eser­ci­zio del­la giu­ri­sdi­zio­ne e pro­gres­so tec­no­lo­gi­co”. Nell’espe­rien­za ci­ne­se, il com­pu­ter si era ri­ve­la­to più o me­no in­dul­gen­te del giu­di­ce uma­no? “Con­tra­ria­men­te a quel­lo che si po­treb­be pen­sa­re, nei pri­mi mil­le­cin­que­cen­to pro­ces­si il com­pu­ter non ave­va mai com­mi­na­to la pe­na di mor­te, pur ap­pli­ca­bi­le a ol­tre la me­tà dei cri­mi­ni at­tri­bui­ti al­la sua com­pe­ten­za. Quel­la macchina ar­ti­fi­cia­le era sen­si­bi­le al­la fun­zio­ne rie­du­ca­ti­va del­la pe­na. E nes­su­na im­pu­gna­zio­ne era sta­ta pro­po­sta con­tro le sue de­ci­sio­ni: le sen­ten­ze ve­ni­va­no per­ce­pi­te co­me eque an­che da par­te di chi le su­bi­va”. Ri­spet­to a que­ste nuo­ve en­ti­tà ar­ti­fi­cia­li si po­ne poi il te­ma del­la re­spon­sa­bi­li­tà in se­de giu­di­zia­ria: il dog­ma del ma­chi­na de­lin­que­re non po­te­st non reg­ge più. “Il ca­so em­ble­ma­ti­co è quel­lo del­la self-dri­ving car, l’au­to sen­za con­du­cen­te. Chi ri­spon­de di un even­tua­le in­ci­den­te? Il mo­del­lo tra­di­zio­na­le per il qua­le le mac­chi­ne so­no me­ri stru­men­ti dell’agi­re cri­mi­no­so uma­no non è più ap­pli­ca­bi­le per­ché il ri­sul­ta­to dan­no­so è cau­sa del­la scel­ta del­la so­la macchina, in mo­do del tut­to scol­le­ga­to dall’agi­re dell’uo­mo che l’ha co­strui­ta. E an­che l’uo­mo che del­la macchina fa uso dif­fi­cil­men­te può es­se­re ri­te­nu­to re­spon­sa­bi­le del dan­no, nel­la mi­su­ra in cui que­sto non è im­pe­di­bi­le at­tra­ver­so l’uti­liz­zo di un qual­che stru­men­to di vi­gi­lan­za sul­la con­dot­ta ar­bi­tra­ria del­la macchina. Se la vet­tu­ra è se­mi-au­to­no­ma, ov­ve­ro do­ta­ta di co­man­di che per­met­to­no di in­ter­ve­ni­re in ca­so di emer­gen­za, pos­so­no per­ma­ne­re mar­gi­ni di re­spon­sa­bi­li­tà col­po­sa del po­ten­zia­le gui­da­to­re; nel ca­so in­ve­ce in cui l’au­to­ma­zio­ne sia com­ple­ta, al pun­to da ri­te­ne­re l’uo­mo un ve­ro e pro­prio tra­spor­ta­to, al­lo­ra l’im­pos­si­bi­li­tà og­get­ti­va di in­ter­ven­ti uma­ni di emer­gen­za im­pe­di­sce di con­te­sta­re pe­nal­men­te una qual­che col­pa dell’uti­liz­za­to­re”. I ter­zi dan­neg­gia­ti do­vreb­be­ro ci­ta­re in giu­di­zio una macchina? “La pro­spet­ti­va di pu­ni­re di­ret­ta­men­te la macchina sem­bra fan­ta­sia e in­ve­ce è par­ti­co­lar­men­te fe­con­da ne­gli am­bien­ti di com­mon law. Esi­ste tut­ta­via il ri­schio evi­den­te di un vuo­to di tu­te­la pe­na­le per ta­lu­ni ti­pi di of­fe­sa dal mo­men­to che i mo­del­li im­pu­ta­ti­vi di re­spon­sa­bi­li­tà og­get­ti­va non so­no com­pa­ti­bi­li con il prin­ci­pio di col­pe­vo­lez­za e per­so­na­li­tà del­la re­spon­sa­bi­li­tà pe­na­le”. Le po­ten­zia­li­tà in­ve­sti­ga­ti­ve del­la co­sid­det­ta “po­li­zia pre­dit­ti­va” su­pe­ra­no i con­fi­ni dell’im­ma­gi­na­zio­ne. “Quel­lo del­le in­da­gi­ni è un am­bi­to di enor­me ri­lie­vo sot­to il pro­fi­lo sia dell’ef­fi­ca­cia sia dei ri­schi per la pri­va­cy. Già og­gi i nuo­vi stru­men­ti in­for­ma­ti­ci so­no in gra­do di rac­co­glie­re e pro­ces­sa­re una gran­de quan­ti­tà di da­ti, in par­ti­co­la­re vi­deo e im­ma­gi­ni, che ar­ri­va­no a pre­ve­de­re, sul­la ba­se di una se­rie di si­mi­la­ri­tà e ri­pe­ti­zio­ni com­por­ta­men­ta­li, il ri­schio del­la com­mis­sio­ne di spe­ci­fi­che at­ti­vi­tà cri­mi­na­li in un de­ter­mi­na­to con­te­sto spa­zio-tem­po­ra­le. I co­sid­det­ti ‘tra­sfer­ti­sti’ del­le ra­pi­ne in ban­ca, per esem­pio, col­pi­sco­no in un tem­po cir­co­scrit­to più obiet­ti­vi; ela­bo­ran­do i da­ti re­la­ti­vi a un ele­va­to nu­me­ro di ra­pi­ne sul ter­ri­to­rio, l’al­go­rit­mo è in gra­do di pre­di­re, pro­ba­bi­li­sti­ca­men­te, luo­go e fa­scia ora­ria del­la ra­pi­na suc­ces­si­va, con­sen­ten­do co­sì un’ef­fi­ca­ce azio­ne di con­tra­sto”. La lot­ta al cri­mi­ne può giu­sti­fi­ca­re un Gran­de fra­tel­lo sen­za li­mi­ti? “Que­sto è il pun­to de­ci­si­vo. L’al­go­rit­mo che pre­di­ce le ra­pi­ne im­ma­gaz­zi­na una mo­le infinita di da­ti (im­ma­gi­ni di per­so­ne, tar­ghe di au­to etc.) del tut­to estra­nei agli in­te­res­si pub­bli­ci che ven­go­no per­se­gui­ti”. Nel 2018 è en­tra­to in vi­go­re il nuo­vo Re­go­la­men­to eu­ro­peo sul­la pri­va­cy che all’ar­ti­co­lo 22 san­ci­sce il di­rit­to di non es­se­re sot­to­po­sti a una de­ci­sio­ne giu­di­zia­ria ba­sa­ta esclu­si­va­men­te sul trat­ta­men­to au­to­ma­tiz­za­to, com­pre­sa la pro­fi­la­zio­ne. “An­che la Car­ta eti­ca già men­zio­na­ta ci­ta tra i prin­cì­pi ir­ri­nun­cia­bi­li il ri­spet­to dei di­rit­ti fon­da­men­ta­li del­la per­so­na, in­clu­sa la ri­ser­va­tez­za, la tra­spa­ren­za del si­ste­ma e la ga­ran­zia del con­trol­lo uma­no. I giu­ri­sti ov­via­men­te non pos­so­no oc­cu­par­si del­le dif­fi­col­tà ope­ra­ti­ve con­nes­se agli stru­men­ti in­for­ma­ti­ci. E’ chia­ro che og­gi il te­ma dell’Ia e dei Big da­ta com­por­ta una ri­fles­sio­ne più ampia sul rap­por­to tra sta­to e cit­ta­di­no”. In che sen­so? “Il le­gi­sla­to­re con­tem­po­ra­neo, in una de­ri­va se­cu­ri­ta­ria e giu­sti­zia­li­sta, s’ispi­ra al prin­ci­pio mol­to to­ta­li­ta­rio che il cit­ta­di­no deb­ba es­se­re una ca­sa di ve­tro nei con­fron­ti del­le isti­tu­zio­ni. In una pro­spet­ti­va li­be­ra­le in­ve­ce va­le il con­tra­rio: le isti­tu­zio­ni han­no l’ob­bli­go del­la tra­spa­ren­za men­tre gli

L’Esto­nia uti­liz­za già un al­go­rit­mo per ri­sol­ve­re le con­tro­ver­sie ri­sar­ci­to­rie fi­no al va­lo­re di set­te­mi­la eu­ro

“L’al­go­rit­mo è in gra­do di ge­sti­re e com­pa­ra­re tut­ti i pre­ce­den­ti giu­ri­spru­den­zia­li co­me nes­sun giu­di­ce uma­no sa­preb­be fa­re”

“L’al­go­rit­mo che pre­di­ce le ra­pi­ne im­ma­gaz­zi­na una mo­le infinita di da­ti del tut­to estra­nei agli in­te­res­si pub­bli­ci che ven­go­no per­se­gui­ti”

in­di­vi­dui so­no ti­to­la­ri del di­rit­to pri­ma­rio al­la ri­ser­va­tez­za. La scar­sa sen­si­bi­li­tà in pro­po­si­to è te­sti­mo­nia­ta dal­la ‘leg­ge spaz­za­cor­rot­ti’ che ha am­plia­to si­gni­fi­ca­ti­va­men­te lo spa­zio di pra­ti­ca­bi­li­tà del­le in­da­gi­ni a mez­zo tro­jan hor­se”. Lei si ri­fe­ri­sce all’uti­liz­zo del cap­ta­to­re in­for­ma­ti­co, ori­gi­na­ria­men­te li­mi­ta­to ai rea­ti di ma­fia e ter­ro­ri­smo e ora im­pie­ga­to ai de­lit­ti di cri­mi­na­li­tà or­ga­niz­za­ta. “Io non so­no tra co­lo­ro che vor­reb­be­ro fa­re a me­no di que­sti stru­men­ti, né ho un’idea ro­man­ti­ca dei di­rit­ti che non fa i conti con la con­tem­po­ra­nei­tà. Ma è sta­ta la Cor­te di Cas­sa­zio­ne a se­zio­ni uni­te, nel­la fa­mo­sa sen­ten­za Scu­ra­ti del 2016, ad af­fer­ma­re che il mez­zo tec­no­lo­gi­co ‘im­po­ne un dif­fi­ci­le bi­lan­cia­men­to del­le esi­gen­ze in­ve­sti­ga­ti­ve che sug­ge­ri­sco­no di fa­re ri­cor­so a que­sto stru­men­to dal­le po­ten­zia­li­tà non pie­na­men­te esplo­ra­te con la ga­ran­zia dei di­rit­ti in­di­vi­dua­li che pos­so­no su­bi­re gra­vi le­sio­ni’”. Il le­gi­sla­to­re pe­rò ha by­pas­sa­to que­sta de­ci­sio­ne al­lar­gan­do l’am­bi­to ap­pli­ca­ti­vo del vi­rus spia. “I di­rit­ti fon­da­men­ta­li non pos­so­no es­se­re sa­cri­fi­ca­ti sull’al­ta­re del­la lot­ta al cri­mi­ne. Ma­fia e ter­ro­ri­smo so­no fe­no­me­ni cri­mi­no­si di gra­vi­tà ec­ce­zio­na­le, il che giu­sti­fi­ca l’im­pie­go di mez­zi in­ve­sti­ga­ti­vi par­ti­co­lar­men­te in­va­si­vi. Ma l’ec­ce­zio­ne non può di­ven­ta­re la normalità. Gli smart­pho­ne che tut­ti te­nia­mo in ta­sca ac­cu­mu­la­no una mi­ria­de di da­ti per­so­na­li e sen­si­bi­li che en­tra­no nel­la di­spo­ni­bi­li­tà di un ge­sto­re

“Pur am­met­ten­do l’im­par­zia­li­tà del giu­di­ce ro­bot, si può svol­ge­re il con­trad­dit­to­rio di fron­te a una macchina? Non si può”

pri­va­to. Si di­ce che cer­ti ti­pi di smart watch, quel­li che re­gi­stra­no an­che da­ti bio­me­tri­ci co­me ve­lo­ci­tà del pas­so e fre­quen­za car­dia­ca, con­sen­ta­no di mo­ni­to­ra­re, a fi­ni com­mer­cia­li, le rea­zio­ni emo­ti­ve del­le per­so­ne in se­gui­to al­la vi­sio­ne di de­ter­mi­na­ti con­te­nu­ti sul web. Uno sce­na­rio in­quie­tan­te”. In con­clu­sio­ne, il giu­di­ce ro­bot pre­sen­ta lu­ci e om­bre. Più ef­fi­cien­za, d’ac­cor­do, ma sul fron­te pe­na­le il giu­di­ce uma­no, per quan­to im­per­fet­to, re­sta for­se l’op­zio­ne mi­glio­re? “Il giu­sto pro­ces­so non può pre­scin­de­re dal di­rit­to co­sti­tu­zio­na­le dell’ac­cu­sa­to di in­ter­ro­ga­re o far in­ter­ro­ga­re co­lo­ro che ren­do­no di­chia­ra­zio­ni a suo ca­ri­co da­van­ti a un giu­di­ce ter­zo e im­par­zia­le. E al­lo­ra, pur am­met­ten­do l’im­par­zia­li­tà del giu­di­ce ro­bot (al­me­no all’ap­pa­ren­za, vi­sto che è sco­no­sciu­ta la sua pro­get­ta­zio­ne e pro­gram­ma­zio­ne), si può svol­ge­re il con­trad­dit­to­rio di fron­te a una macchina sper­so­na­liz­za­ta, di­stan­te, che ela­bo­ra da­ti? Non si può. Chiun­que pra­ti­chi le au­le di giu­sti­zia sa che il con­trad­dit­to­rio è fat­to di sguar­di, in­ciam­pi emo­ti­vi, sen­sa­zio­ni e per­ce­zio­ni as­so­lu­ta­men­te uma­ne e rea­li che non pos­so­no es­se­re sot­trat­te al con­trol­lo uma­no. Il di­rit­to e il pro­ces­so pe­na­le pe­ne­tra­no nel pro­fon­do il cuo­re dell’uma­ni­tà; e ba­sta que­sta con­si­de­ra­zio­ne per con­clu­de­re che non pos­so­no es­se­re di­su­ma­niz­za­ti”.

Chiun­que pra­ti­chi le au­le di giu­sti­zia sa che il con­trad­dit­to­rio è fat­to di sguar­di, in­ciam­pi emo­ti­vi, sen­sa­zio­ni e per­ce­zio­ni uma­ne e rea­li che non pos­so­no es­se­re sot­trat­te al con­trol­lo uma­no

Newspapers in Italian

Newspapers from Italy

© PressReader. All rights reserved.