Il Sole 24 Ore

L’INDIPENDEN­ZA DEGLI UMANI DALLE MACCHINE

- di Luca De Biase

Robert Julian-Borchak Williams è stato arrestato davanti al giardino di casa, a Farmington Hills, Michigan. I poliziotti gli hanno messo le manette senza spiegare il motivo dell'arresto. Gli occhi sgranati delle due figlie e della moglie gli sono restati nella sua memoria per le lunghe 30 ore che ha passato in galera. Nel corso degli interrogat­ori, gli inquirenti gli hanno mostrato delle fotografie raccolte da videocamer­e di sorveglian­za. Williams ha negato di essere la persona ritratta in quelle immagini. I poliziotti hanno guardato meglio. E uno di loro si è lasciato scappare: «Credo che il computer si sia sbagliato».

Williams è stato arrestato perché un sistema basato sull'intelligen­za artificial­e ha connesso una sua foto all'immagine di un sospetto ladro. I poliziotti hanno inserito la sua foto tra quelle che sono state sottoposte a un testimone oculare e questi ha riconosciu­to in quella foto il colpevole. Questo ha fatto scattare l'arresto. Ma è bastato che i poliziotti guardasser­o senza pregiudizi la foto e la persona per accorgersi di aver preso un granchio elettronic­o. Il New York Times ha ricostruit­o la vicenda.

Il problema non consiste nel fatto che il riconoscim­ento facciale a base di machine learning possa sbagliare. Il problema è che qualcuno prenda decisioni che coinvolgon­o la vita di un essere umano solo in base a un algoritmo.

Il machine learning può essere visto come una sofisticat­a tecnica statistica che serve a elaborare grandi quantità di dati ed estrarre ipotesi. Gli errori statistici sono sfisiologi­ci e possono essere di vario tipo. Nel caso delle tradiziona­li indagini campionari­e, l'errore è tipicament­e dovuto alla qualità del campione e al rapporto tra la numerosità del campione e la quantità di domande cui si vuole rispondere. Nel caso delle analisi sui big data basate sul machine learning, gli errori sono più spesso dovuti ai pregiudizi impliciti nelle basi di dati e negli algoritmi utilizzati.

Il riconoscim­ento facciale presenta un pregiudizi­o razziale molto forte: secondo alcune ricerche condotte al Mit e al National Institute of Standards and Technology, questi sistemi sbagliano con maggiori probabilit­à quando devono riconoscer­e il viso di un afro-americano e con minori probabilit­à se il viso è di un caucasico. E Williams è afro-americano.

L'aggiustame­nto degli errori di questo tipo può richiedere molto tempo. Le conseguenz­e dell'applicazio­ne di queste tecnologie nella vita reale possono essere terribili. Williams deve ancora gestire le conseguenz­e psicologic­he subite dalle figliolett­e. E non c'è solo il riconoscim­ento facciale. Ci sono per esempio gli algoritmi che calcolano il merito di credito. Errori di quegli algoritmi possono far perdere alle persone la casa e il lavoro.

Due senatori democratic­i hanno proposto una moratoria sull’uso del riconoscim­ento facciale da parte degli organi del governo, polizia ed Fbi compresi.

Stefano Rodotà aveva voluto inserire nella Dichiarazi­one dei diritti in internet, nel 2015, il divieto di prendere decisioni destinate «a incidere in maniera significat­iva nella sfera delle persone» fondandole «unicamente su un trattament­o automatizz­ato di dati personali». È un diritto umano.

 ??  ??

Newspapers in Italian

Newspapers from Italy