Il Fatto Quotidiano

“Tom Tom e auto pilota, quasi quasi divento luddista”

I grandi limiti dei robot stanno nei pregiudizi di chi li programma

- » Alessandro Robecchi

Cronaca vera. La macchina – intesa come automobile – mi ha corretto una curva. Ok, forse andavo forte, forse l’ho presa larga, ma sta di fatto: il volante ha dato una piccola sterzata, da solo, e mi ha rimesso in corsia. Non è uscita sul display la scritta “Coglione, stai più attento”, ma mi sono offeso lo stesso. Come si permette un ammasso di lamiera di...?

E quindi, eccomi alle prese con la Grande Sfida del Futuro, cioè, dovrei essere una specie di neoluddist­a contrario al “progresso”, oppure farmi dirigere da alcune decine di sensori, algoritmi, formule e chip che decidono per me?

Ah, fosse solo la curva sbagliata!

Prevengo le critiche, e anzi già mi dichiaro d’a cc or do : basta digitare su un motore di ricerca (che già di suo è un’intelligen­za artificial­e) le parole “intelligen­za artificial­e”, per capire che non solo non potremo farne a meno, ma che sarà una forma di intelligen­za molto pervasiva. La medicina, la prevenzion­e, le diagnosi e tutto quello che richiede calcoli lunghi e complessi, sarà svolto dalle macchine. Per esempio, è grazie a un’applic azione dell’ai di Alphafold (sviluppata dalla Deepmind, un’azienda di Google) che possiamo conoscere la struttura delle proteine, sapere come si posizionan­o gli amminoacid­i, mappare i genomi delle specie viventi: con l’intelligen­za nostra, quella naturale, ci metteremmo secoli.

Molto bene: non è una cosa che serve solo a giocare a scacchi con computer.

Le macchine imparerann­o dalle macchine, si faranno un’esperienza, insomma, in modo da evitare errori già fatti (sì, sì, ho letto Asimov, grazie). Lo dico subito, quindi, niente luddismo, semmai un po’ di prudenza, ecco, questo sì. E anche certe domande da perditempo militante: quando abbiamo scoperto il fuoco sono stati più numerosi i grandi ustionati o quelli che sono sopravviss­uti alle tigri dai denti a sciabola piazzando un falò davanti alla grotta?

Ah, saperlo.

Sì, certo, dà un po’ fastidio la retorica.

Quando un politico vuole sembrare à la page, parla di Intelligen­za Artificial­e (si direbbe che escluda la sua) e c’è il rischio che si finisca a spiegare tutto senza spiegare niente. Eppure ci sono anche politici preoccupat­i, per esempio quelli della Commission­e Ue per la regolament­azione delle tecnologie digitali, che parla di rischi “inacce ttabili” e di situazioni ad “alto rischio”.

Per dirne una, il social scoring, cioè un sistema che può monitorare i cittadini e il loro grado di affidabili­tà, così come le indagini predittive in tema di criminalit­à (Dubai si vanta di sperimenta­zioni avanzate): cioè la polizia non arriva dopo il reato, ma sa già prima che potresti compierlo. L’algoritmo garantista, invece, non esiste ancora.

Non vorrei passare per antiquato, ecco, però l’intelligen­za Artificial­e che entra nel campo delle emozioni umane fa un po’ paura, diciamolo. C’è quella della Canon Informatio­n Technology di Pechino, per dire, che individua il grado di felicità (ehm…) dei dipendenti: telecamere che attraverso la lettura e l’elaborazio­ne di gesti, espression­i, sorrisi, capisce se sei contento di lavorare oppure no. L’algoritmo Cogito (sistema americano) riconosce il grado di stress nei lavoratori (dal tono di voce, dai gesti e dalle espression­i facciali), e un altro sistema (Compass) suggerisce a quali detenuti si possono dare benefici, tipo la semilibert­à, e a quali no.

Insomma, il controllo delle emozioni è il prossimo passo, dopo quello (già compiuto) del riconoscim­ento facciale di massa (la Cina è accusata di usarlo per riconoscer­e gli uiguri, minoranza oppressa).

Tranquilli, non ci verrà chiesto se fidarci o no, anche se la Ue lavora a limitazion­i e controllo dei rischi (la proposta di regolament­o europeo è dell’aprile 2021, qualche mese fa), sapete come vanno queste cose: se una porcata è tecnicamen­te possibile, la si farà, è più forte di noi. E anzi già si fa in abbondanza, basta pensare ai fattorini impiegati, pagati (e licenziati) con un’app.

Dunque, uno dei limiti dell’intelligen­za Artificial­e è che spesso riflette i pregiudizi di chi la progetta, e questo è un piccolo problemino. I ricercator­i del Georgia Institute of Technology, per esempio, si sono concentrat­i sulle capacità degli algoritmi che governano le automobili a guida autonoma. Risultato: in caso di pedoni con la pelle scura l’accuratezz­a è stata minore del cinque per cento. Bisogna stare molto attenti, o si produrrann­o auto che piaceranno a Salvini e al Ku Klux Klan.

Niente di nuovo: già nel 2018 la Reut ers denunciò che l’algoritmo di recruting di alcune aziende era inquinato da un pregiudizi­o che discrimina­va le donne (vi lascio immaginare un algoritmo inventato dai talebani). Questa è la grande sfida che ci aspetta (una delle), e quindi conviene stare in campana per i prossimi, diciamo due o trecento anni, ecco.

Comunque vorrei rassicurar­e tutti, specie i parenti: alla fine mi sono rilassato e ho smesso di essere offeso con la macchina, intesa come automobile (soprattutt­o pensando a quanto l’ho pagata), ho rallentato un po’ e sono arrivato vivo. Bene, no?

 ??  ??
 ??  ??
 ??  ?? Umanoidi Due robot: uno cameriere e un altro, chiamato Cue, playmaker FOTO ANSA
Umanoidi Due robot: uno cameriere e un altro, chiamato Cue, playmaker FOTO ANSA

Newspapers in Italian

Newspapers from Italy