E pos­so­no fa­re mol­ti dan­ni

I Big da­ta? So­no scioc­chi

La Lettura - - Orizzonti Nuovi Linguaggi - Di PIE­TRO MINTO

Ca­thy O’Neil è al­la ri­cer­ca di re­den­zio­ne. Quel­lo del­la scrit­tri­ce e ma­te­ma­ti­ca sta­tu­ni­ten­se è un lun­go per­cor­so, che l’ha vi­sta pas­sa­re dall’azien­da fi­nan­zia­ria Shaw al mo­vi­men­to Oc­cu­py Wall Street. Da­gli al­ti uf­fi­ci dov’è ini­zia­ta la cri­si del 2008 a un mo­vi­men­to an­ti­si­ste­ma e cri­ti­co del ca­pi­ta­li­smo avan­za­to, in­som­ma: il tut­to, ten­tan­do di usa­re la ma­te­ma­ti­ca co­me bus­so­la, an­che mo­ra­le.

Il suo nuo­vo li­bro, Ar­mi di di­stru­zio­ne ma­te­ma­ti­ca (Bom­pia­ni), è un sag­gio con al­cu­ni ele­men­ti au­to­bio­gra­fi­ci in cui O’Neil si oc­cu­pa dei Big da­ta, ov­ve­ro l’ana­li­si di enor­mi mo­li di in­for­ma­zio­ni con al­go­rit­mi in­for­ma­ti­ci. Al­la ba­se del­la dif­fu­sio­ne dei Big da­ta in mol­ti set­to­ri c’è la fa­ci­li­tà con cui per­met­to­no di ana­liz­za­re stra­bi­lian­ti da­ta­ba­se sco­van­do ten­den­ze, pun­ti in co­mu­ne e pos­si­bi­li so­lu­zio­ni a pro­ble­mi in­vi­si­bi­li a oc­chio nu­do. Ta­le fa­ci­li­tà, pe­rò, na­scon­de al­cu­ne in­si­die: l’abu­so di que­sta tec­no­lo­gia può ave­re in­fat­ti con­se­guen­ze tra­gi­che.

L’au­tri­ce ini­zia rac­con­tan­do l’im­pat­to che la pub­bli­ci­tà on­li­ne e la co­sid­det­ta «tar­ge­tiz­za­zio­ne» han­no avu­to sul­le uni­ver­si­tà ame­ri­ca­ne, spin­te a per­fe­zio­na­re sem­pre di più il lo­ro mo­del­lo di «iscrit­to idea­le». Un mec­ca­ni­smo im­po­sto da Goo­gle e Fa­ce­book, ser­vi­zi con cui è pos­si­bi­le de­ci­de­re a che ti­po di uten­ti mo­stra­re una cer­ta pub­bli­ci­tà, per esem­pio quel­la per l’iscri­zio­ne a un cor­so di lau­rea. Il ri­sul­ta­to fi­na­le è ul­te­rio­re iso­la­men­to — so­cia­le ed et­ni­co — sca­tu­ri­to pro­prio da que­sta ri­cer­ca del tar­get idea­le.

O’Neil ri­cor­da spes­so che la tec­no­lo­gia è uma­na, quin­di con­ser­va i di­fet­ti e i pre­giu­di­zi del­le per­so­ne che l’han­no pro­get­ta­ta. L’au­tri­ce pas­sa quin­di in ras­se­gna tut­ti i mo­del­li ana­li­ti­ci che ne­gli Sta­ti Uni­ti ven­go­no ap­pli­ca­ti al­la selezione di nuo­vi la­vo­ra­to­ri nel­le azien­de o ad­di­rit­tu­ra al­la pre­ven­zio­ne dei cri­mi­ni, e sot­to­li­nea co­me il raz­zi­smo e il clas­si­smo non so­lo so­prav­vi­va­no, ma ad­di­rit­tu­ra ven­ga­no ri­ver­be­ra­ti da que­sti al­go­rit­mi. Pre­dPol, per esem­pio, è un pro­gram­ma uti­liz­za­to dal­la po­li­zia di Rea­ding, in Penn­syl­va­nia, in gra­do di cal­co­la­re «i luo­ghi più a ri­schio» del­la cit­tà. Quan­do gli agen­ti de­ci­do­no di se­gui­re i rea­ti mi­no­ri, ven­go­no spin­ti sem­pre più spes­so nel­le zo­ne più po­ve­re del­la cit­tà, do­ve ta­li even­ti so­no «en­de­mi­ci». «Que­sto — scri­ve la ma­te­ma­ti­ca — crea un pe­ri­co­lo­so ci­clo di feed­back. So­no le ope­ra­zio­ni di po­li­zia stes­se a for­ni­re nuo­vi da­ti, che giu­sti­fi­ca­no nuo­vi in­ter­ven­ti».

Una so­cie­tà raz­zi­sta pro­du­ce soft­ware raz­zi­sti. Lo di­mo­stra­no gli esem­pi ci­ta­ti da O’Neil di ser­vi­zi na­ti per fa­ci­li­ta­re pro­ces­si di selezione pres­so uni­ver­si­tà o azien­de, di­ve­nu­ti pre­sto un’al­tra fac­cia del pro­fi­ling, la pra­ti­ca di cui è spes­so ac­cu­sa­ta la po­li­zia ame­ri­ca­na quan­do cer­ca di col­pi­re i quar­tie­ri più bas­si, spes­so a mag­gio­ran­za afroa­me­ri­ca­na. Al­la ba­se di que­sto pro­ble­ma c’è l’os­ses­sio­ne del­la tec­no­lo­gia per i mo­del­li ma­te­ma­ti­ci, con cui un pro­gram­ma può de­ci­de­re chi è l’uten­te giu­sto per un cer­to pro­dot­to o una pub­bli­ci­tà on­li­ne, nel ca­so di Goo­gle. «I mo­del­li — no­ta O’Neil — met­to­no in evi­den­za le of­fer­te spe­cia­li sul pro­sciut­to e il Chian­ti, con­si­glia­no un film da non per­de­re su Ama­zon Pri­me op­pu­re gui­da­no gli uten­ti pas­so pas­so, con il na­vi­ga­to­re in mo­da­li­tà turn-by-turn. La na­tu­ra so­bria e per­so­na­le di que­sta tar­ge­tiz­za­zio­ne im­pe­di­sce ai pri­vi­le­gia­ti di ca­pi­re co­me que­gli stes­si mo­del­li ven­ga­no uti­liz­za­ti per di­strug­ge­re la vi­ta di al­cu­ni, ma­ga­ri so­lo qual­che iso­la­to più in là».

In quan­to esper­ta di da­ti, O’Neil cre­de che tra le pos­si­bi­li so­lu­zio­ni al pro­ble­ma dei Big da­ta, ci sia­no i da­ti stes­si: ne ser­vo­no di più e di mi­glio­ri. Spie­gan­do co­me al­cu­ni mo­del­li sia­no ar­ri­va­ti a fa­re dan­ni an­che nel si­ste­ma giu­di­zia­rio e pe­ni­ten­zia­rio ame­ri­ca­no, l’au­tri­ce of­fre una pos­si­bi­le so­lu­zio­ne: «Se mai po­tes­si la­vo­ra­re co­me da­ta scien­ti­st per il si­ste­ma giu­di­zia­rio, sca­ve­rei in pro­fon­di­tà per sco­pri­re che co­sa ac­ca­de all’in­ter­no di quel­le pri­gio­ni e co­me le espe­rien­ze vis­su­te dai de­te­nu­ti si ri­per­cuo­ta­no sui lo­ro com­por­ta­men­ti. Pri­ma di tut­to va­lu­te­rei l’iso­la­men­to». Quel­lo dell’iso­la­men­to è un pun­to in­te­res­san­te: un even­to trau­ma­ti­co e per­so­na­le con pro­fon­di ef­fet­ti psi­co­lo­gi­ci, ov­ve­ro pro­prio il ge­ne­re di co­se che un al­go­rit­mo non può ca­pi­re. Ep­pu­re, ta­li ef­fet­ti po­treb­be­ro ave­re enor­mi con­se­guen­ze sul­le per­cen­tua­li di re­ci­di­va, per esem­pio, e quin­di es­se­re pre­zio­si per un al­go­rit­mo che vo­glia ana­liz­za­re il com­por­ta­men­to de­gli in­car­ce­ra­ti. È un te­st che mi pia­ce­reb­be con­dur­re, ma non ho idea se sia­no mai sta­ti rac­col­ti da­ti al ri­guar­do», con­clu­de O’Neil. Il pun­to è pro­prio que­sto: un al­go­rit­mo que­ste co­se non le sa, dob­bia­mo spie­gar­glie­le noi, for­nen­do­gli i da­ti giu­sti.

Newspapers in Italian

Newspapers from Italy

© PressReader. All rights reserved.