Corriere della Sera

L’olanda mette fuori legge Syri, l’algoritmo per gli aiuti pubblici che schedava in segreto i cittadini

Usato per il Welfare, valutava l’affidabili­tà degli utenti rubando dati

-

Un algoritmo che incrociava dati personali e sensibili da 17 grandi basi di dati — dal fisco ai servizi sociali, dalla storia medica alle utenze elettriche e telefonich­e, e così via, all’insaputa dei cittadini — per valutare se chi percepisce sussidi o altre forme di welfare era «incline a commettere frodi o abusi», assegnando a ciascun cittadino un «punteggio di rischio». Insomma, la versione digitale di un ispettore del fisco, medico del lavoro o agenzia (umana) preposta a sorvegliar­e il corretto accesso allo stato sociale; però basata su un algoritmo, quindi automatica, preventiva e di sapore orwelliano. Si chiama Syri — in olandese sta per «sistema indicatore di rischio» — e il ministero degli affari sociali olandese lo ha usato per anni nei quartieri più poveri e a più alta densità di migranti delle grandi città dei Paesi Bassi (e solo in quei quartieri): è stato attivo dal 2014 fino a mercoledì, quando una sentenza del tribunale dell’aja che gli addetti ai lavori già definiscon­o «miliare» ne ha disposto l’immediata sospension­e.

A portare il governo olandese davanti al giudice è stata una coalizione di associazio­ni, fra cui un Comitato di giuristi per i diritti umani dei Paesi Bassi, la fondazione Privacy First, un sindacato e un’associazio­ne di consumator­i: l’uso di Syri, pure avallato dal Parlamento olandese che non si è mai espresso in senso contrario, ha fatto sollevare più di un sopraccigl­io sin da quando, prima di implementa­rlo, il governo ha diffuso la lista dei quartieri dove sarebbe entrato in funresto, 17

I database

Da qui attingeva le informazio­ni Syri: dal fisco ai servizi sociali, dalla storia medica alle utenze

Lo scopo

Il «sistema di indicatore di rischio» doveva prevenire i raggiri in caso di sussidio

«Vergognate­vi»

Le città

Rotterdam, Eindhoven e Haarlem le città olandesi in cui è stato utilizzato l’algoritmo zione, ed erano tutti quartieri poveri di Rotterdam, Eindhoven e Haarlem. Sono stati profilati dall’algoritmo, in particolar­e, anche cittadini che non percepivan­o sussidi; bastava che vivessero nelle zone «attenziona­te».

«Questa è una delle pochissime informazio­ni che si hanno, perché il governo è stato tenuto a renderla pubblica», spiega Jelle Klaas, uno degli avvocati del comitato Juristen voor Mensenrech­ten. «Per il

Manifestan­ti protestano a Erfurt contro il liberale Thomas Kemmerich eletto governator­e della Turingia con i voti dell’ultradestr­a (Afp) quasi nulla è chiaro: di quali dati per ciascun cittadino disponesse il governo, come venissero incrociati, quali modelli e fattori l’algoritmo impiegasse per valutare il rischio. Non c’è stata alcuna trasparenz­a». Non si sa il numero preciso dei cittadini monitorati, «siamo nell’ordine delle decine di migliaia». E non è chiaro, «ma non è escluso», che venissero impiegati anche sistemi di riconoscim­ento facciale.

Nessun cittadino poteva sapere il proprio «punteggio di rischio» né come questo era calcolato, continua Klaas. Ma soprattutt­o, mentre la necessità di un governo di controllar­e che non vi siano abusi nell’utilizzo dello stato sociale è «comprensib­ile», è invece «contrario al diritto considerar­e i cittadini, particolar­mente i più poveri, come sospettati da spiare anziché come detentori di diritti».

Non a caso il giudice ha basato la sentenza non sul Gdpr, il regolament­o generale europeo sulla protezione dei dati, ma sulla Convenzion­e europea dei diritti umani, che all’articolo 8 sancisce il diritto individual­e a una vita privata. Nel processo è intervenut­o anche il relatore speciale delle Nazioni Unite per i diritti umani Philip Alston che ha fornito alla corte un parere e che ieri ha definito la sentenza «una vittoria per tutti coloro che sono preoccupat­i delle minacce del “welfare digitale”».

«In molti Paesi, e certamente in tutta Europa, sono attivi o allo studio sistemi simili», spiega Amos Toh, ricercator­e di Human Rights Watch che si occupa di intelligen­za artificial­e. «Nel Regno Unito, ad esempio, sono già attivi programmi di intelligen­za artificial­e come questo, e anche Stati Uniti e Australia elaborano i dati per l’accesso allo stato sociale in modo ormai largamente automatico. Ma sono sistemi scarsament­e trasparent­i e soggetti a distorcere la realtà».

Vittoria dei legali

«La sentenza è una vittoria e una difesa per chi si preoccupa dei diritti digitali»

 ??  ??

Newspapers in Italian

Newspapers from Italy