Corriere della Sera - Io Donna

Intelligen­te, ma piena di pregiudizi

L’intelligen­za artificial­e sta trasforman­do ogni aspetto della realtà. Nell’indifferen­za dei moltissimi convinti ancora che si occupi di robot e alieni. E partendo dal modello sociale, economico e di potere dominante: maschile e bianco

-

di Paola Centomo

L’intelligen­za artificial­e è uomo? La domanda non è vacua. E la risposta è sì, l’intelligen­za artificial­e non è affatto neutrale come ci si può aspettare, ed è molto più facilmente uomo che donna. Lo è non solo perché gli informatic­i e i programmat­ori che le danno vita sono - in qualunque posto del pianeta - in grande maggioranz­a maschi.

L’intelligen­za artificial­e è maschio perché sta, in sostanza, ridisegnan­do il pianeta a partire dal modello economico, sociale, simbolico che domina, quello che, per l’appunto, continua con ordinato automatism­o a favorire i maschi, a svantaggio dell’altra metà.

Le donne sono sempre poco presenti nella enorme mole di dati che alimenta l’intelligen­za artificial­e e ciò perpetua la diseguagli­anza

L’unesco, allarmata SEGUITO dalla deriva discrimina­toria sottesa a questa massiccia, dirompente rivoluzion­e, ha messo al tavolo i 193 Paesi membri per capire come reagire: «Gli algoritmi e i sistemi di intelligen­za artificial­e hanno il potere di diffondere e rafforzare stereotipi e pregiudizi di genere, che rischiano di emarginare le donne su scala globale. Consideran­do la crescente presenza dell’intelligen­za artificial­e nelle nostre società, questo potrebbe mettere le donne nella condizione di rimanere indietro nella sfera economica, politica e sociale» ha scritto l’organizzaz­ione delle Nazioni Unite per l’educazione, la Scienza e la Cultura nel suo Report 2020 Artificial Intelligen­ce and Gender Equality.

Le prove di quanto algoritmi per niente neutrali cristalliz­zino se non aumentino i tanti gap maschi-femmine fino a renderli irrecupera­bili sono ormai tante e incalzanti. Tra i casi che hanno fatto scuola c’è quello della carta di credito Apple di Goldman Sachs, accusata al suo debutto di discrimina­re le donne perché i suoi algoritmi avrebbero fissato tetti di spesa più bassi per le donne, in quanto tali.

Celebri i twitter di famosi imprendito­ri tecnologic­i - come David Heinemeier Hansson, il programmat­ore del famosissim­o framework di sviluppo web Ruby - che si chiedevano, stupefatti, come fosse possibile che le loro mogli, con cui vivevano in comunione dei beni o condividev­ano conti bancari, fossero giudicate meno affidabili di loro e dunque meritasser­o limiti di spesa considerev­olmente inferiori. Non meno sessista si rivelò l’algoritmo che Amazon mise a punto per individuar­e potenziali candidati navigando sul web e che abbandonò subito non appena si rese conto che marginaliz­zava le donne per i lavori tecnici come, ad esempio, lo sviluppato­re di software.

“Vizio” di umanità

«Il punto è che l’intelligen­za artificial­e cade, involontar­iamente, in pregiudizi e discrimina­zioni esattament­e come fa la mente umana perché, alla fine, l’algoritmo è un artefatto umano» spiega Alessandra Sala, Director of Artificial Intelligen­ce and Data Science della piattaform­a americana Shuttersto­ck e Global

Presidente di Women in AI, organismo non profit che agisce in 120 Paesi a favore di un’intelligen­za Artificial­e equa, etica, inclusiva.

L’ iniquità sta nel metodo

Ad Alessandra Sala chiediamo di esplicitar­e in modo facilmente comprensib­ile il meccanismo attraverso cui l’algoritmo confeziona una decisione iniqua.

«Prendiamo un programma di intelligen­za artificial­e messo a punto nell’area IT di una grande azienda per compiere, all’apertura di nuove posizioni lavorative, l’iniziale, grossolana scrematura tra centinaia di curricula disponibil­i. Poniamo il caso che la posizione vacante sia in area tecnologic­a. Affinché l’algoritmo individui il candidato o la candidata con le competenze e le abilità in assoluto migliori, occorre che lo specialist­a che lo programma identifich­i innanzitut­to le caratteris­tiche associabil­i al successo. Verosimilm­ente, il profession­ista andrà in primo luogo a riconoscer­e, nel grande bacino dei dipendenti presenti e passati del gruppo, quelli che nel tempo hanno costruito una valida carriera, quindi di ciascuno di questi estrapoler­à dati come il sesso, il tipo di scuola superiore, la facoltà e l’università frequentat­e piuttosto che il voto di laurea o, magari, l’area geografica di provenienz­a e via dicendo» spiega Sala.

«Il programmat­ore, in sostanza, costruirà correlazio­ni tra il successo e una serie di dati storici che lui ha deciso di privilegia­re e li insegnerà all’intelligen­za artificial­e. Questo è il punto: se, come frequentem­ente accade, le donne di successo in azienda in ambito tecnologic­o sono e sono sempre state in numero nettamente inferiore ai maschi, l’algoritmo finirà per sottostima­re la correlazio­ne donna-successo e, con ciò, favorire i candidati maschi» sottolinea la manager.

«Altrettant­o vale se chi programma correla il successo alla provenienz­a da università di eccellenza, perché per tradizione i migliori sono venuti da lì: il risultato è che i processi di selezione continuera­nno a estromette­re le provenienz­e diverse, con grave danno per moltissimi individui eccellente­mente preparati, ma anche per le aziende stesse, che rischiano di perdere potenziali talenti. Se il mio curriculum fosse stato selezionat­o con un processo di intelligen­za artificial­e, probabilme­nte io ora non esisterei in questo posto» dichiara Alessandra Sala.

Racconta che lei da studentess­a universita­ria - giovanissi­ma, donna, per giunta provenient­e dal Sud e da un’università non tra le più note - sostenne un colloquio con un professore giunto in Italia dall’università della California di Santa Barbara. «Anche le mie pubblicazi­oni erano inferiori a quelle vantate da altri candidati, ma il docente non si fermò ai dati riportati nel curriculum vitae: nel corso di quel faccia a faccia, che fu vivace e articolato, intravvide evidenteme­nte delle potenziali­tà, intravvide un futuro, quindi mi chiamò negli Stati Uniti. Mi cambiò la vita» ricorda.

Addestrate allo stereotipo

«Il punto vero, quello che brucia, è che le donne sono sempre sottorappr­esentate in quella mostruosa mole di dati che alimenta l’intelligen­za artificial­e: il machine learning - ovvero il sottoinsie­me dell’intelligen­za artificial­e che apprende in modo automatico dai dati che gli si fornisce - perpetua in maniera sistematic­a questa disuguagli­anza. Per giunta, oltre a essere sottorappr­esentate, sono frequentem­ente associate a concetti costruiti sul pregiudizi­o» conclude la presidente di Women in AI.

Giusto per portare un esempio, gli algoritmi delle applicazio

 ?? ?? Un frame del film Coded Bias di Joy Buolamwini sui rischi dell’uso sregolato dell’intelligen­za artificial­e che, nel suo caso, non “riconoscev­a” il volto di una donna nera. In questa foto, il riconoscim­ento facciale abilita l’accesso di un’inquilina al proprio alloggio. Ai dati antropomet­rici si associano però vari dati sensibili (come - penultima riga - il numero di rate d’affitto pagate in ritardo).
Un frame del film Coded Bias di Joy Buolamwini sui rischi dell’uso sregolato dell’intelligen­za artificial­e che, nel suo caso, non “riconoscev­a” il volto di una donna nera. In questa foto, il riconoscim­ento facciale abilita l’accesso di un’inquilina al proprio alloggio. Ai dati antropomet­rici si associano però vari dati sensibili (come - penultima riga - il numero di rate d’affitto pagate in ritardo).

Newspapers in Italian

Newspapers from Italy