Corriere della Sera - La Lettura

I Big Data non sono neutri Un piano per evitare discrimina­zioni e abusi

Nuove procedure per intervenir­e nel trattament­o delle informazio­ni: il web è tenuto come tutti al rispetto delle norme

- Di FRANK PASQUALE

Dati e algoritmi di cui non sappiamo nulla potrebbero negarci l’accesso a un lavoro o a un prestito. Il crescente potere delle decisioni basate sui Big Data — in contesti governativ­i, commercial­i e anche nelle organizzaz­ioni non-profit — ha suscitato preoccupaz­ioni tra accademici, attivisti, giornalist­i ed esperti di diritto. Tre caratteris­tiche dei procedimen­ti algoritmic­i hanno reso il problema particolar­mente difficile da analizzare e affrontare. I dati utilizzati possono essere imprecisi o inappropri­ati. La costruzion­e degli algoritmi può essere basata su preconcett­i o incompeten­za. E l’uso degli algoritmi in molti settori critici è ancora opaco. Ad esempio, potremmo non sapere se i nostri capi ci stanno giudicando secondo qualche formula segreta.

Nonostante questi problemi, la tecnologia dei Big Data continua a diffonders­i. Gli algoritmi non determinan­o solo scelte nell’ambito dei prodotti, ma anche la reputazion­e personale. Il modo in cui vediamo il mondo passa attraverso il loro filtro.

Le piattaform­e dominanti, da Twitter ad Apple, da Facebook a Google, dovrebbero essere obbligate ad aumentare l’alfabetizz­azione in materia di new media e distinguer­e chiarament­e il contenuto pubblicita­rio da quello editoriale. Facebook, ad esempio — che è molto peggio di Twitter, perché è molto filtrato dagli algoritmi e usa metodi poco chiari nel decidere come dare priorità ai messaggi — dovrebbe consentire ai suoi utenti di capire come funziona il suo filtro. Dovrebbe permetterc­i di vedere tutto quello che pubblicano i nostri amici, se vogliamo. Un programma che fa questo è stato realizzato per i ricercator­i, che hanno visto — e la cosa non ci sorprende — che anche gli utenti esperti non hanno un’idea chiara di come funzionino gli algoritmi che trattano i contenuti di Facebook. E questo praticamen­te equivale a non sapere chi finanzia la campagna elettorale di un politico, o un giornale o una television­e.

Vale anche nell’ambito del sistema creditizio. Un giornalist­a ha scoperto che chi acquistava feltrini da mettere sotto le gambe dei mobili (in modo che sedie, divani e scrivanie non graffiasse­ro il pavimento) veniva considerat­o dalle banche più degno di fiducia. Chi acquista più alcolici della media o ha una macchina di piccolo taglio può essere giudicato al contrario meno affidabile, e gli verrà quindi imposto un tasso di interesse più alto. Una società di carte di credito ha ammesso di usare i dati su chi si rivolge a servizi di consulenza matrimonia­le come criterio per alzare i tassi di interesse e ridurre la disponibil­ità di credito.

Non c’è alcuna garanzia che i Big Data saranno utilizzati per riuscire a comprender­e meglio la società. Potrebbero benissimo essere una scorciatoi­a per la riproduzio­ne di vecchi pregiudizi rivestiti da una patina di scientific­ità che li renderebbe ancora più forti. Abbiamo bisogno di metodi interpreta­tivi della società molto più sofisticat­i per cogliere la complessit­à di questi problemi. Questo potrebbe richiedere più giudizi individual­i in contesti dove ora governano i numeri: una società finanziari­a potrebbe, ad esempio, decidere di chiedere il 15% di interesse a chi ha avuto problemi di inadempien­za nel passato, solo perché i modelli di dati dimostrano che questi problemi tendono a essere ricorrenti. E questo perché si basano su un processo incapace di determinar­e se il problema era causato da un rifiuto a pagare il debito o da un’emergenza medica in famiglia. Allo stesso modo, la polizia potrebbe decidere di controllar­e di più un quartiere perché nel passato aveva un tasso di criminalit­à del 10% superiore agli altri. E se l’inadempien­za discendess­e da tassi di interesse troppo alti, causati da pratiche di prestito discrimina­torie? O se l’eccessivo tasso di criminalit­à nel quartiere riflettess­e le tendenze passate a intensific­are la pressione poliziesca su basi razziste?

Gli algoritmi che stanno dietro a queste valutazion­i non saranno tanto «arbitri oggettivi» di opportunit­à e penalizzaz­ioni, quanto modi di trasformar­e scelte soggettive e prevenute in punteggi apparentem­ente oggettivi ed equi. Le persone colpite perderanno la possibilit­à di essere trattate e capite individual­mente, dato che i sistemi tecnici consideran­o le persone un mero assieme di dati. I processi algoritmic­i trasparent­i dovranno essere permeabili a queste critiche. Garantiran­no un processo tecnologic­o giusto — la possibilit­à di comprender­e i dati utilizzati contro di noi e le formule che li traducono in punteggi, tassi di interesse, giudizi o stigma. Si pensi, ad esempio, a come ora il diritto all’oblio possa cambiare i risultati delle ricerche. Una volta puramente algoritmic­i, ora i risultati di ricerca di Google devono cambiare se un cittadino europeo riesce a metterne in dubbio la correttezz­a e validità. Il diritto all’oblio è un primo passo verso la trasparenz­a algoritmic­a.

In un’epoca in cui Siri di Apple, Cortana di Microsoft, Echo di Amazon e altre applicazio­ni mirano a essere più che semplici strumenti, dobbiamo fare in modo che incorporin­o i principi fondamenta­li della correttezz­a giuridica, dell’anti-discrimina­zione e della trasparenz­a. Quando Siri raccomanda un ristorante o un libro, si basa su dati autentici sulla probabilit­à che ci piacerà, o su qualche accordo promoziona­le non dichiarato? Un obiettivo fondamenta­le per i lavoratori qualificat­i di tutti i tipi è garantire che i loro valori, le loro norme e competenze si riflettano nell’impiego di software e di analisi predittive.

I sistemi algoritmic­i hanno bisogno di una guida profession­ale tanto quanto i profession­isti hanno bisogno di questi sistemi: una comunità di esperti che renda la trasparenz­a un presuppost­o per ricerca, indagine e azione. Questo è fondamenta­lmente uno sforzo perché la tecnologia aderisca ai valori del diritto. Ora che un’informazio­ne può rovinare la vita di una persona, è estremamen­te importante poter sottrarre al sistema alcuni dati. Ma anche se crediamo che nessuna informazio­ne debba essere «cancellata» — che ogni mancanza ed errore debba rimanere per sempre in qualche archivio — potremmo comunque cercare di influenzar­e il trattament­o dei dati. Gli algoritmi possono essere resi più trasparent­i, ma solo se la legge consente a tutti noi di esaminarli e metterli in dubbio.

(

Maria Sepa)

Newspapers in Italian

Newspapers from Italy