LINFA DIGITALE
Dallo shopping online alle fake news: gli algoritmi sono ovunque. E possono diventare pericolosi
A(A) STATE ASCOLTANDO LA VOSTRA PLAYLIST su YouTube o su un canale di Spotify? Musica degli U2, dei Coldplay... Rock, insomma, se siete nati come me negli Anni 60. E allora che ci fa nella scaletta una canzone del rapper J-Ax? E sulla vostra piattaforma musicale preferita c’è pure scritto “scelto in base a ciò che ascoltate di solito”… (B) APRO GOOGLE NEWS DALLO SMARTPHONE. Mi segnala subito articoli a proposito di: Corea del Nord, Inter, Catalogna, Berlusconi e M5S, smog a Milano. Perché? Ecco: per lavoro mi sono spesso occupato di esteri, sono un fan dei nerazzurri, ho scritto un libro sul leader di Forza Italia e seguo la politica, sono un cittadino del capoluogo lombardo preoccupato per l’aria che respiro. Il motore di ricerca mi conosce: in poche frazioni di secondo ha rielaborato le mie ricerche passate e ha selezionato le notizie che pensava avrei voluto leggere. Anche se così la mia visione del mondo sarà sempre più limitata solo a ciò che mi è familiare. (C) 126 MILIONI DI ELETTORI AMERICANI con un profilo Facebook hanno ricevuto post con contenuti falsi e aggressivi diffusi da siti riconducibili alla Russia. Quanta disinformazione è girata utilizzando (manipolando?) la formula matematica del social di Mark Zuckerberg? Quanto è stato aiutato Trump? E lui, The Donald, ne è stato complice? Cos’hanno in comune queste tre ipotesi? Lo strumento di base: l’algoritmo. Gli algoritmi sono tutt’intorno a noi. Il matematico arabo al-Khwarizmi, primo a inventare procedure complesse usando i numeri arabi nel IX secolo d.C., non avrebbe mai potuto immaginare che il suo nome, storpiato in latino, sarebbe diventato il mantra della civiltà occidentale del Duemila.
ALGORITMI, IN REALTÀ, sono gran parte delle formule usate, a partire da dati certi, per la soluzione di un problema: il calcolo che impariamo alle elementari per trovare il massimo comune divisore lo è. «Oggi che vanno di moda le trasmissioni culinarie, possiamo dire così: anche un buon piatto può essere visto come la realizzazione ben fatta di un algoritmo», esemplifica per 7 Carlo Toffalori, docente di Logica Matematica e autore del libro Algoritmi, edito da Il Mulino. Ovviamente, se questo concetto è diventato un totem del nostro tempo, lo è soprattutto per quei lunghi codici di numeri e lettere che stanno dentro ogni applicazione pratica della tecnologia: dalla formula segreta con cui il motore di ricerca Google risponde ogni giorno a nove miliardi di richieste, al meccanismo di selezione dei siti di dating per trovare il partner online. Facile vederlo come il primo sacramento dell’odierna fede (quasi) religiosa nella Dea Tecnologia che (quasi) tutto spiega e risolve. I numeri non sono opinioni, non mentono, ce l’insegnano fin da piccoli. Così ci affidiamo a loro per tantissime scelte quotidiane: selezionare l’hotel più conveniente, seguire i consigli di shopping personalizzato del sito di e-commerce, leggere un articolo di giornale suggerito dal social preferito. Lo sappiamo tutti, ormai, che è spesso il marketing a tempestarci di proposte rielaborando i nostri dati personali. Sembra non importarci più di tanto.
CONVINTO DALL’INFALLIBILITÀ DELLE MACCHINE, un risparmiatore italiano su cinque – gli americani sono già qualcuno in più – ha abbandonato il consulente in carne ed ossa e affida i propri soldi a un “robo-advisor”. La tv in streaming Netflix usa potenti formule matematiche per indirizzare gli abbonati verso determinati show in base alle loro abitudini: funziona al punto che perfino la compassata Bbc ha avviato un progetto per imitarla e, in collaborazione con otto università britanniche, intende sfruttare l’apprendimento automatico dei decoder per capire le scelte dei telespettatori e anticiparle. La Bbc!
Un motore di ricerca CONOSCE tutto di noi. Anche le curiosità più segrete
LL’idea imperante è che la mente artificiale possa accumulare e rielaborare dati in quantità ormai impossibili da gestire da mente umana. Ma se non fosse così? Se gli algoritmi sbagliassero? Se fossero ingannabili e ingannati?
IN EFFETTI, PENSIAMOCI: al di là degli effetti che potrebbe avere sul destino di Donald Trump e del mondo intero, l’inchiesta sulla regolarità del voto presidenziale Usa del novembre 2016 apre una prospettiva inquietante sugli algoritmi. Secondo l’accusa, siti riconducibili alla Russia avrebbero acquistato pubblicità personalizzata su Facebook puntando certi gruppi di elettori potenzialmente favorevoli a Trump. Soprattutto negli Stati in cui il voto era in bilico fra i due candidati: Maryland, Wisconsin e Michigan. Su Twitter, un esercito di profili fasulli e automatici (i cosiddetti “bot”) avrebbero lanciato fake news contro Hillary Clinton. Account russi avrebbero diffuso disinformazione anche attraverso Google e YouTube. «Sono atterrito dal vostro potere», ha detto il senatore repubblicano John Kennedy ai rappresentanti dei colossi del web comparsi davanti alle Commissioni di Senato e Congresso Usa che indagano sul cosiddetto Russiagate. Non è l’unico, diciamolo.
I VERTICI DELLE AZIENDE SAPEVANO? Cos’hanno fatto per impedire che accadesse? A queste contestazioni Zuckerberg e colleghi non hanno replicato. A dire il vero, hanno preferito evitare anche di comparire sul banco degli imputati mandando a testimoniare i general counsel, i capi dei servizi legali. L’inchiesta prosegue. Ma il punto che qui interessa non è la responsabilità delle persone quanto la risposta a questa domanda: potenze straniere ed estremisti interni sono davvero riusciti a usare questi siti come cavallo di Troia, utilizzando i loro algoritmi? In tal caso, interesse primario dell’America diventa la regolamentazione e il controllo della formula al cuore della loro attività: ne va di mezzo la sicurezza dei miliardi di dati personali che contengono e gestiscono, oltre che la tenuta di tutto il sistema democratico. Non ci sono solo le elezioni americane. Le aziende hitech condizionano le nostre scelte di tutti i giorni. Prendiamo Uber. Secondo una ricerca inglese, gli autisti del servizio di trasporto privato che fa concorrenza ai taxi avrebbero trovato un modo per gonfiare i prezzi delle corse. Come? Per far risultare che nel momento in cui un cliente sale su un’auto in una certa zona ci sia un numero di veicoli disponibili ridotto, i colleghi uscirebbero tutti insieme dalla app. Poi c’è Amazon: un’altra inchiesta, questa volta della tv inglese Channel 4 News, ha mostrato come, a chi acquista termite (una miscela incendiaria usata nella saldatura del ferro), il sito di e-commerce suggerisca automaticamente altri due materiali con cui costruire una bomba al modico prezzo di 26,39 euro. Qualche soldo in più e si può trovare il detonatore. I potenziali terroristi hanno davvero bisogno di aiuto, per quanto involontario?
DIRETE, MA CHI SE LA COMPRA la termite? Parliamo allora di voli aerei: quelli ormai li acquistiamo quasi sempre online. Ebbene, Rafi Mohammed ha appena raccontato sulla prestigiosa rivista Harvard Business Review di aver scoperto che app e siti di viaggio diversificano i prezzi di uno stesso volo a seconda dell’utente: «Per un pacchetto vacanza a New York, l’app di Orbitz mi dava un certo prezzo, ma quando ho deciso di acquistarlo dal computer, la cifra era più alta del 6,5 per cento». Colpa di chi? Ma dell’algoritmo, dice. E di chi l’ha disegnato. Le compagnie aeree hanno smentito, attribuendo le differenze alla fluttuazione della domanda e dell’offerta. Lui ha insistito: il meccanismo sarebbe così sofisticato da saper differenziare le tariffe per i vari clienti a seconda di dove si trovano in base alla geolocalizzazione (in centro o in periferia, in città o in provincia) e dalle fasce di reddito a cui appartengono, individuata attraverso il mezzo dal quale acquista – smartphone, pc o tablet – e addirittura del relativo sistema operativo: chi usa iOs
«Sono atterrito dal vostro POTERE », ha detto il senatore repubblicano Kennedy ai rappresentanti dei colossi del web
di Apple apparterrebbe a una fascia di reddito più alta, chi utilizza Android sarebbe meno abbiente. Quindi da conquistare con un prezzo più basso. Il collega Leonard Berberi ha ripetuto l’esperimento a Milano: lo stesso volo, comprato in centro o in periferia, dal telefonino o dal pc del lavoro, cambia di prezzo (9 per cento circa).
SOLO FALLE DA TAMPONARE? Facile che, vengano presentate così dai colossi del web che con questo sistema guadagnano. Ma forse non è così. »Sono dell’opinione che gli algoritmi debbano essere più trasparenti, in modo che ciascuno possa essere informato, in quanto cittadino, e rispondere alla domanda: “Che cosa influenza il mio comportamento e quello degli altri su internet?”». Chi lo chiedeva? Angela Merkel, un anno fa. Certo, la Cancelliera si preoccupava che nelle (allora future) elezioni tedesche non ci fossero ingerenze straniere (leggi: russe). Frau Merkel in settembre ha vinto. Ma la sfida su strapotere e trasparenza degli algoritmi dei grandi motori di ricerca, per esempio, e su chi li controlla, resta. Si guarda con attenzione all’entrata in vigore, a maggio 2018, del GDPR, il Regolamento Generale sulla Protezione dei dati, approvato nel 2016 dalla Commissione Ue.
UNA RISPOSTA VUOLE DARLA Qwant, nuovo motore nato in Francia nel 2011, appena approdato in Italia. Contro il gigante Google, agita la fionda del rispetto della privacy dell’utente e della neutralità. «Un motore di ricerca in posizione dominante conosce tutto delle nostre vite. Può recuperare ogni ricerca fatta tornando indietro di anni, capire che partito votiamo, i libri che leggiamo, le nostre curiosità più segrete», spiega il milanese Alberto Chalon, direttore generale e socio. «Il quoziente d’intelligenza umano arriva a 160. Quello dell’intelligenza artificiale è 10.000. È evidente: se la nutriamo dei nostri dati personali e gli permettiamo di tracciare ciò che facciamo online, mettiamo a rischio la nostra libertà». E che cosa s’intende per neutralità? «La risposta a ogni ricerca uguale deve essere uguale per tutti. Se il motore non sa chi fa una ricerca, inoltre, l’utente non può essere manipolato. Se non sa chi votiamo, nessuno può inviarci un messaggio politico personalizzato».
LA MATEMATICA CATHY O’NEIL, autrice del libro Weapons of math destruction, Armi di distruzione matematica (gioca sull’assonanza math/mass, massa), ad aprile ha dedicato al tema il suo intervento alla Ted Conference 2017 di Vancouver. Ecco la tesi, visualizzata da un milione di persone: «Gli algoritmi sono opinioni inserite in un codice. La gente pensa che gli algoritmi siano oggettivi. È un trucco del marketing». Gianpiero Lotito, fondatore (con Mariuccia Teroni) e amministratore delegato di FacilityLive, prima e unica azienda straniera ammessa all’ELITE programme della Borsa di Londra, non parla di trucchi ma insiste: «È importante smitizzare anche l’idea che l’algoritmo sia una forza del male. Dietro le formule ci sono sempre gli uomini, che fanno le stesse cose di un tempo con mezzi tecnologicamente più potenti. Che cos’era il dossier – fasullo – sulle armi nucleari di Saddam che ha dato il via alla guerra in Iraq nel 2003 se non fake news alla vecchia maniera?».
GIANPIERO LOTITO, CHE NELLA STARTUP di Pavia si avvia a superare i 100 dipendenti, ha messo a punto un motore di ricerca complesso con brevetti in 44 Paesi. La sua idea, in materia, è radicale. «Questo è il vero terreno di sfida fra Europa, Stati Uniti e Cina. Ricordate il Giappone negli Anni 80? Era una superpotenza dell’elettronica, dai televisori ai walkman. Perché ha perso quel predominio nel mondo digitale? Perché nel Paese non si parlava diffusamente l’inglese, che è la lingua di base della scrittura del codice del software. Allora si capisce perché i tedeschi sono così agguerriti. La Germania produce grandi auto, ma se nella Silicon Valley qualcuno inventa l’algoritmo perfetto con cui un’auto potrà guidare da sola, sarà l’America a comandare quell’industria. Il tema è politico, sociale, economico. L’Europa deve prendere l’iniziativa. Ci giochiamo questo secolo».