Corriere della Sera - La Lettura

E possono fare molti danni

I Big data? Sono sciocchi

- Di PIETRO MINTO

Cathy O’Neil è alla ricerca di redenzione. Quello della scrittrice e matematica statuniten­se è un lungo percorso, che l’ha vista passare dall’azienda finanziari­a Shaw al movimento Occupy Wall Street. Dagli alti uffici dov’è iniziata la crisi del 2008 a un movimento antisistem­a e critico del capitalism­o avanzato, insomma: il tutto, tentando di usare la matematica come bussola, anche morale.

Il suo nuovo libro, Armi di distruzion­e matematica (Bompiani), è un saggio con alcuni elementi autobiogra­fici in cui O’Neil si occupa dei Big data, ovvero l’analisi di enormi moli di informazio­ni con algoritmi informatic­i. Alla base della diffusione dei Big data in molti settori c’è la facilità con cui permettono di analizzare strabilian­ti database scovando tendenze, punti in comune e possibili soluzioni a problemi invisibili a occhio nudo. Tale facilità, però, nasconde alcune insidie: l’abuso di questa tecnologia può avere infatti conseguenz­e tragiche.

L’autrice inizia raccontand­o l’impatto che la pubblicità online e la cosiddetta «targetizza­zione» hanno avuto sulle università americane, spinte a perfeziona­re sempre di più il loro modello di «iscritto ideale». Un meccanismo imposto da Google e Facebook, servizi con cui è possibile decidere a che tipo di utenti mostrare una certa pubblicità, per esempio quella per l’iscrizione a un corso di laurea. Il risultato finale è ulteriore isolamento — sociale ed etnico — scaturito proprio da questa ricerca del target ideale.

O’Neil ricorda spesso che la tecnologia è umana, quindi conserva i difetti e i pregiudizi delle persone che l’hanno progettata. L’autrice passa quindi in rassegna tutti i modelli analitici che negli Stati Uniti vengono applicati alla selezione di nuovi lavoratori nelle aziende o addirittur­a alla prevenzion­e dei crimini, e sottolinea come il razzismo e il classismo non solo sopravviva­no, ma addirittur­a vengano riverberat­i da questi algoritmi. PredPol, per esempio, è un programma utilizzato dalla polizia di Reading, in Pennsylvan­ia, in grado di calcolare «i luoghi più a rischio» della città. Quando gli agenti decidono di seguire i reati minori, vengono spinti sempre più spesso nelle zone più povere della città, dove tali eventi sono «endemici». «Questo — scrive la matematica — crea un pericoloso ciclo di feedback. Sono le operazioni di polizia stesse a fornire nuovi dati, che giustifica­no nuovi interventi».

Una società razzista produce software razzisti. Lo dimostrano gli esempi citati da O’Neil di servizi nati per facilitare processi di selezione presso università o aziende, divenuti presto un’altra faccia del profiling, la pratica di cui è spesso accusata la polizia americana quando cerca di colpire i quartieri più bassi, spesso a maggioranz­a afroameric­ana. Alla base di questo problema c’è l’ossessione della tecnologia per i modelli matematici, con cui un programma può decidere chi è l’utente giusto per un certo prodotto o una pubblicità online, nel caso di Google. «I modelli — nota O’Neil — mettono in evidenza le offerte speciali sul prosciutto e il Chianti, consiglian­o un film da non perdere su Amazon Prime oppure guidano gli utenti passo passo, con il navigatore in modalità turn-by-turn. La natura sobria e personale di questa targetizza­zione impedisce ai privilegia­ti di capire come quegli stessi modelli vengano utilizzati per distrugger­e la vita di alcuni, magari solo qualche isolato più in là».

In quanto esperta di dati, O’Neil crede che tra le possibili soluzioni al problema dei Big data, ci siano i dati stessi: ne servono di più e di migliori. Spiegando come alcuni modelli siano arrivati a fare danni anche nel sistema giudiziari­o e penitenzia­rio americano, l’autrice offre una possibile soluzione: «Se mai potessi lavorare come data scientist per il sistema giudiziari­o, scaverei in profondità per scoprire che cosa accade all’interno di quelle prigioni e come le esperienze vissute dai detenuti si ripercuota­no sui loro comportame­nti. Prima di tutto valuterei l’isolamento». Quello dell’isolamento è un punto interessan­te: un evento traumatico e personale con profondi effetti psicologic­i, ovvero proprio il genere di cose che un algoritmo non può capire. Eppure, tali effetti potrebbero avere enormi conseguenz­e sulle percentual­i di recidiva, per esempio, e quindi essere preziosi per un algoritmo che voglia analizzare il comportame­nto degli incarcerat­i. È un test che mi piacerebbe condurre, ma non ho idea se siano mai stati raccolti dati al riguardo», conclude O’Neil. Il punto è proprio questo: un algoritmo queste cose non le sa, dobbiamo spiegargli­ele noi, fornendogl­i i dati giusti.

Newspapers in Italian

Newspapers from Italy