Giu­di­ce ar­ti­fi­cia­le

L’au­to­ma­tiz­za­zio­ne del­la giu­sti­zia con i da­ti e gli al­go­rit­mi pre­dit­ti­vi met­te in di­scus­sio­ne l’ul­ti­mo ba­luar­do dell’eti­ca uma­ni­sti­ca. Ma an­che le mac­chi­ne han­no pre­giu­di­zi.

Wired (Italy) - - CONTENTS - (M.M.)

Her­cu­les She­pherd Jr., lo scor­so ago­sto, è en­tra­to in au­la a Cle­ve­land, ne­gli Sta­ti Uni­ti, con la tu­ta aran­cio­ne da de­te­nu­to. Due sere pri­ma gli agen­ti l’ave­va­no tro­va­to in pos­ses­so di una bu­sta di co­cai­na e ave­va ten­ta­to la fu­ga. Il giu­di­ce Jim­my Jack­son, pri­ma di de­ci­de­re se ac­cet­ta­re o me­no la ri­chie­sta di ri­la­scio su cau­zio­ne, ha guar­da­to svo­glia­ta­men­te She­pherd e poi at­ten­ta­men­te il pun­teg­gio sen­ten­zia­to dall’al­go­rit­mo sul com­pu­ter: due pos­si­bi­li­tà su sei di com­pie­re un al­tro rea­to, una su sei le even­tua­li­tà di ta­glia­re la cor­da. Ot­ti­mo pun­teg­gio. L’im­pu­ta­to è sta­to ri­la­scia­to con una ri­chie­sta mol­to bas­sa di cau­zio­ne. So­lo un an­no fa il giu­di­ce avreb­be sen­ten­zia­to sul­la ba­se del­le scar­tof­fie e del­la sua in­tui­zio­ne, ca­ra vec­chia abi­tu­di­ne tut­ta uma­na. Ma nel 2018 di­ver­si Sta­ti ame­ri­ca­ni han­no in­tro­dot­to l’al­go­rit­mo nel pro­ces­so per eli­mi­na­re – que­sta l’in­ten­zio­ne – il ri­schio di pre­giu­di­zio, so­prat­tut­to di ge­ne­re e di raz­za. Or­mai an­che tut­ti i gran­di stu­di le­ga­li sta­tu­ni­ten­si fan­no ri­cor­so al­la star­tup Ca­se­text, che for­ni­sce ri­cer­che fo­ren­si ba­sa­te sul da­ta pro­ces­sing. Leg­ge e tec­no­lo­gia si stan­no al­lean­do con­tro il fat­to­re uma­no, e il pas­so che po­treb­be se­gna­re il gi­ro di boa del­la quar­ta ri­vo­lu­zio­ne in­du­stria­le (e for­se del­la sto­ria del ge­ne­re uma­no) è la crea­zio­ne del giu­di­ce-mac­chi­na. Se­con­do uno stu­dio ap­pe­na pub­bli­ca­to dal Cen­tro per l’Eti­ca ap­pli­ca­ta dell’Uni­ver­si­tà di Ox­ford, “vo­stro ono­re Ma­trix” è più at­ten­di­bi­le del giu­di­ce in car­ne e os­sa, che ma­ga­ri pri­ma di emet­te­re la sua de­ci­sio­ne ha esa­ge­ra­to con le pin­te di bir­ra o ce l’ha col mon­do per­ché ha ap­pe­na sco­per­to di es­se­re sta­to tra­di­to dal­la mo­glie. Uma­no, trop­po uma­no, e quin­di fal­li­bi­le. So­no sta­ti se­le­zio­na­ti un mi­glia­io di vec­chi ca­si giu­di­zia­ri, as­so­cia­ti al­le re­la­ti­ve sen­ten­ze e sot­to­po­sti al vo­to di un pub­bli­co se­le­zio­na­to (ov­via­men­te, con un al­go­rit­mo) che si è espres­so sull’ope­ra­to più o me­no “giu­sto” del ma­gi­stra­to giu­di­can­te. Eb­be­ne, il re­spon­so del pub­bli­co è sta­to pres­so­ché iden­ti­co a quel­lo del­la mac­chi­na: en­tram­bi han­no boc­cia­to cir­ca il 40 per cen­to del­le sen­ten­ze uma­ne. L’Uni­ver­si­ty Col­le­ge di Lon­dra ha in­ve­ce sot­to­po­sto al giu­di­ce ro­bot 584 ca­si giu­di­ca­ti dal­la Cor­te eu­ro­pea per i Di­rit­ti uma­ni, e la mac­chi­na ha ve­ri­fi­ca­to co­me ol­tre la me­tà del­le sen­ten­ze su ca­si di tor­tu­ra o di vio­la­zio­ne del­la pri­va­cy fos­se ba­sa­ta su ele­men­ti ex­tra­le­ga­li, sug­ge­ri­ti dal­la con­sue­tu­di­ne, dal­la con­si­de­ra­zio­ne del con­te­sto so­cia­le o det­ta­te dal buon sen­so. L’uso dell’in­tel­li­gen­za ar­ti­fi­cia­le per si­mu­la­re la de­ci­sio­ne uma­na ha mes­so in guar­dia l’Unio­ne eu­ro­pea, che re­cen­te­men­te con la Ge­ne­ral Da­ta Pro­ces­sing Re­gu­la­tion ha sta­bi­li­to «il di­rit­to a non es­se­re sog­get­to a de­ci­sio­ni ba­sa­te so­la­men­te su pro­ces­si au­to­ma­tiz­za­ti». Ci si chie­de in­fat­ti se non vi sia una buo­na do­se d’in­co­scien­za in que­sto af­fret­ta­to af­fi­da­men­to del no­stro de­sti­no nel­le ma­ni di super mac­chi­ne in­tel­li­gen­ti. Non si par­la di gui­da au­to­no­ma o di sfi­de a scac­chi: nul­la co­me la giu­sti­zia ci in­du­ce a in­ter­ro­gar­ci su che co­sa vo­glia di­re es­se­re uma­ni nell’era dell’in­tel­li­gen­za ar­ti­fi­cia­le. “Vo­stro ono­re Ma­trix” si ba­sa sul­la fred­da fat­tua­li­tà del­la leg­ge, men­tre il ma­gi­stra­to, po­sto di fron­te a ca­si com­ples­si, spes­so ri­man­da la de­ci­sio­ne a una cor­te più al­ta. Non so­lo: an­che la mac­chi­na può es­se­re di­stor­ta dai pre­giu­di­zi dei pro­gram­ma­to­ri. Sem­pre il cen­tro di Ox­ford ha ve­ri­fi­ca­to co­me un Twit­ter chat­bot chia­ma­to Tay è di­ven­ta­to ses­si­sta, raz­zi­sta e an­ti­se­mi­ta nel gi­ro di ven­ti­quat­tr’ore do­po es­se­re sta­to a stret­to con­tat­to e aver in­te­ra­gi­to, du­ran­te una fa­se di “ap­pren­di­men­to in­ten­si­vo”, con un pub­bli­co a quan­to pa­re po­li­ti­ca­men­te scor­ret­to.

Newspapers in Italian

Newspapers from Italy

© PressReader. All rights reserved.