“Siri” ti parla Ma soprattutto ti ascolta...
Ladenuncia Un ex appaltatore dell’azienda chiede alle autorità europee di indagare sulle conversazioni rubate: “Ho gli screenshot che lo provano. Ci metto la faccia”
Siete in macchina con una persona cara e state discutendo di questioni strettamente personali. Siete in camera da letto o magari siete in soggiorno a giocare con i bambini.
Siete in macchina con una persona cara e state discutendo di questioni strettamente personali. Siete in camera da letto o magari siete in soggiorno a giocare con i bambini. Siete un giornalista che incontra una fonte, un medico che visita un paziente, o un avvocato che incontra un cliente. Il rischio che le vostre conversazioni più intime o professionalmente sensibili possano essere ascoltate non è fantascienza, se avete vicino un iPhone, un Apple Watch o anche un iPad.
Sì, perché questi device elettronici hanno un assistente vocale: si chiama Siri. È quello a cui potete chiedere di trovare il ristorante più vicino, o di fare una ricerca su Internet per sapere di più su una certa malattia. In teoria, si dovrebbe attivare solo quando pronunciate le parole “Ehi Siri”, ma il rischio che possa attivarsi da solo, per errore, è una realtà.
QUANTI SONO STATI ascoltati in questo modo, a loro insaputa? È impossibile dare una risposta, in assenza di dati certi. Ora, però, le cose potrebbero cambiare: un giovane ex contractor della Apple ha appena presentato una richiesta ufficiale alle autorità europee di protezione dei dati, per chiedere di indagare sull’assistente vocale
Siri. Una vera e propria tegola in testa all’azienda della Silicon Valley che, dopo le rivelazioni di Edward Snowden, ha tanto investito sull’immagine di gigante con una cultura della privacy.
Il caso Siri è emerso per la prima volta nel luglio scorso, quando il Guardian rivelò il problema sulla base di testimonianze anonime. Ora, però, uno degli ex contractor della Apple ci mette la faccia e si espone personalmente con la richiesta di indagare presentata alle autorità europee, proprio a due anni dall’entrata in vigore del Regolamento generale sulla protezione dei dati (Gdpr). Il giovane si chiama Thomas Le Bonniec, è francese, ha una specializzazione in Sociologia e racconta di agire per ragioni etiche, dopo aver ascoltato conversazioni estremamente private e in alcuni casi inquietanti, come le fantasie di un pedofilo.
“Tra il 13 maggio 2019 e il 16 luglio 2019, sono stato assunto da Globe Technical Services, uno dei subappaltatori della Apple, con sede a Cork, in Irlanda. Ero assegnato al progetto di trascrizione di Siri, chiamato Bulk Data, scrive Le Bonniec nella sua lettera, “ho ascoltato centinaia di conversazioni ogni giorno”, racconta, precisando: “Queste registrazioni venivano spesso captate al di fuori di ogni attivazione di Siri, ovvero al di fuori di un contesto in cui l’utente lo attivava es pre ssa men te per una richiesta e senza che ne fosse consapevole e venivano raccolte in database per correggere le trascrizioni delle registrazioni fatte dal dispositivo”.
Le Bonniec scrive che “queste registrazioni non erano limitate agli utenti dei device della Apple, ma vedevano anche coinvolti parenti, bambini, amici, colleghi” e così “ho ascoltato gente che parlava del suo cancro, di persone care morte, di religione, sesso, politica, scuola, o droga, senza che qualcuno avesse l’intenzione di attivare Siri”.
L’intervento di operatori umani che ascoltano le istruzioni che l’utente dà a Siri si rende necessario per migliorare le prestazioni dell’assistente vocale, un processo che tecnicamente si chiama grading.
Secondo il racconto di Thomas Le Bonniec, senza l’intervento umano, tecnologie come Siri non potrebbero portare a termine i compiti richiesti. Questo, ovviamente, non significa che per ogni richiesta fatta all’assistente vocale c’è dietro un essere umano in ascolto pronto a eseguirla, ma che la capacità di capire le richieste viene affinata grazie al lavoro umano.
Il Fatto Quotidiano ha interpellato Apple, che alle nostre domande per sapere quante conversazioni sono state ascoltate in questo processo di grading, ha risposto: “Apple non fornisce questi numeri”. Dopo che il Guardian rivelò il caso nell’estate scorsa, l’azienda ha introdotto una serie di cambiamenti. Oggi sostiene che “di default, Apple non conserva le registrazioni audio di Siri: gli utenti possono scegliere di aiutare Siri ad apprendere dai campioni di audio delle loro richieste registrate. Questi campioni sono limitati agli utenti di Apple. Questi utenti hanno scelto di condividere porzioni delle loro interazioni per aiutarci a rendere Siri migliore”.
NELLA SUA LETTERA alle autorità europee, Thomas Le Bonniec sostiene che “nulla è stato fatto per verificare se Apple ha davvero chiuso il p r og r a mm a ” e offre la sua collaborazione alle autorità. Al Fatto ha spiegato di aver raccolto molti screenshot per documentare quello che afferma. “Il rischio che mi assumo avrà senso solo se a questa lettera seguirà un’inchiesta”, scrive alle autorità europee.
Cupertino nega Dopo l’inchiesta del “Guardian” ha apportato cambiamenti, ma non dà numeri sui dati sottratti