Corriere della Sera - Io Donna
Intelligente, ma piena di pregiudizi
L’intelligenza artificiale sta trasformando ogni aspetto della realtà. Nell’indifferenza dei moltissimi convinti ancora che si occupi di robot e alieni. E partendo dal modello sociale, economico e di potere dominante: maschile e bianco
di Paola Centomo
L’intelligenza artificiale è uomo? La domanda non è vacua. E la risposta è sì, l’intelligenza artificiale non è affatto neutrale come ci si può aspettare, ed è molto più facilmente uomo che donna. Lo è non solo perché gli informatici e i programmatori che le danno vita sono - in qualunque posto del pianeta - in grande maggioranza maschi.
L’intelligenza artificiale è maschio perché sta, in sostanza, ridisegnando il pianeta a partire dal modello economico, sociale, simbolico che domina, quello che, per l’appunto, continua con ordinato automatismo a favorire i maschi, a svantaggio dell’altra metà.
Le donne sono sempre poco presenti nella enorme mole di dati che alimenta l’intelligenza artificiale e ciò perpetua la diseguaglianza
L’unesco, allarmata SEGUITO dalla deriva discriminatoria sottesa a questa massiccia, dirompente rivoluzione, ha messo al tavolo i 193 Paesi membri per capire come reagire: «Gli algoritmi e i sistemi di intelligenza artificiale hanno il potere di diffondere e rafforzare stereotipi e pregiudizi di genere, che rischiano di emarginare le donne su scala globale. Considerando la crescente presenza dell’intelligenza artificiale nelle nostre società, questo potrebbe mettere le donne nella condizione di rimanere indietro nella sfera economica, politica e sociale» ha scritto l’organizzazione delle Nazioni Unite per l’educazione, la Scienza e la Cultura nel suo Report 2020 Artificial Intelligence and Gender Equality.
Le prove di quanto algoritmi per niente neutrali cristallizzino se non aumentino i tanti gap maschi-femmine fino a renderli irrecuperabili sono ormai tante e incalzanti. Tra i casi che hanno fatto scuola c’è quello della carta di credito Apple di Goldman Sachs, accusata al suo debutto di discriminare le donne perché i suoi algoritmi avrebbero fissato tetti di spesa più bassi per le donne, in quanto tali.
Celebri i twitter di famosi imprenditori tecnologici - come David Heinemeier Hansson, il programmatore del famosissimo framework di sviluppo web Ruby - che si chiedevano, stupefatti, come fosse possibile che le loro mogli, con cui vivevano in comunione dei beni o condividevano conti bancari, fossero giudicate meno affidabili di loro e dunque meritassero limiti di spesa considerevolmente inferiori. Non meno sessista si rivelò l’algoritmo che Amazon mise a punto per individuare potenziali candidati navigando sul web e che abbandonò subito non appena si rese conto che marginalizzava le donne per i lavori tecnici come, ad esempio, lo sviluppatore di software.
“Vizio” di umanità
«Il punto è che l’intelligenza artificiale cade, involontariamente, in pregiudizi e discriminazioni esattamente come fa la mente umana perché, alla fine, l’algoritmo è un artefatto umano» spiega Alessandra Sala, Director of Artificial Intelligence and Data Science della piattaforma americana Shutterstock e Global
Presidente di Women in AI, organismo non profit che agisce in 120 Paesi a favore di un’intelligenza Artificiale equa, etica, inclusiva.
L’ iniquità sta nel metodo
Ad Alessandra Sala chiediamo di esplicitare in modo facilmente comprensibile il meccanismo attraverso cui l’algoritmo confeziona una decisione iniqua.
«Prendiamo un programma di intelligenza artificiale messo a punto nell’area IT di una grande azienda per compiere, all’apertura di nuove posizioni lavorative, l’iniziale, grossolana scrematura tra centinaia di curricula disponibili. Poniamo il caso che la posizione vacante sia in area tecnologica. Affinché l’algoritmo individui il candidato o la candidata con le competenze e le abilità in assoluto migliori, occorre che lo specialista che lo programma identifichi innanzitutto le caratteristiche associabili al successo. Verosimilmente, il professionista andrà in primo luogo a riconoscere, nel grande bacino dei dipendenti presenti e passati del gruppo, quelli che nel tempo hanno costruito una valida carriera, quindi di ciascuno di questi estrapolerà dati come il sesso, il tipo di scuola superiore, la facoltà e l’università frequentate piuttosto che il voto di laurea o, magari, l’area geografica di provenienza e via dicendo» spiega Sala.
«Il programmatore, in sostanza, costruirà correlazioni tra il successo e una serie di dati storici che lui ha deciso di privilegiare e li insegnerà all’intelligenza artificiale. Questo è il punto: se, come frequentemente accade, le donne di successo in azienda in ambito tecnologico sono e sono sempre state in numero nettamente inferiore ai maschi, l’algoritmo finirà per sottostimare la correlazione donna-successo e, con ciò, favorire i candidati maschi» sottolinea la manager.
«Altrettanto vale se chi programma correla il successo alla provenienza da università di eccellenza, perché per tradizione i migliori sono venuti da lì: il risultato è che i processi di selezione continueranno a estromettere le provenienze diverse, con grave danno per moltissimi individui eccellentemente preparati, ma anche per le aziende stesse, che rischiano di perdere potenziali talenti. Se il mio curriculum fosse stato selezionato con un processo di intelligenza artificiale, probabilmente io ora non esisterei in questo posto» dichiara Alessandra Sala.
Racconta che lei da studentessa universitaria - giovanissima, donna, per giunta proveniente dal Sud e da un’università non tra le più note - sostenne un colloquio con un professore giunto in Italia dall’università della California di Santa Barbara. «Anche le mie pubblicazioni erano inferiori a quelle vantate da altri candidati, ma il docente non si fermò ai dati riportati nel curriculum vitae: nel corso di quel faccia a faccia, che fu vivace e articolato, intravvide evidentemente delle potenzialità, intravvide un futuro, quindi mi chiamò negli Stati Uniti. Mi cambiò la vita» ricorda.
Addestrate allo stereotipo
«Il punto vero, quello che brucia, è che le donne sono sempre sottorappresentate in quella mostruosa mole di dati che alimenta l’intelligenza artificiale: il machine learning - ovvero il sottoinsieme dell’intelligenza artificiale che apprende in modo automatico dai dati che gli si fornisce - perpetua in maniera sistematica questa disuguaglianza. Per giunta, oltre a essere sottorappresentate, sono frequentemente associate a concetti costruiti sul pregiudizio» conclude la presidente di Women in AI.
Giusto per portare un esempio, gli algoritmi delle applicazio