Il Sole 24 Ore

Quella falsa neutralità che fa da paravento alla discrimina­zione

- Mario Mariniello Senior fellow, Bruegel © RIPRODUZIO­NE RISERVATA

L’illusione ottica di Müller- Lyer si basa su due linee di uguale lunghezza che differisco­no solo nella direzione delle punte di freccia alle loro estremità. Alla maggior parte degli osservator­i, la linea con le punte rivolte all’esterno sembra più lunga dell’altra. Se siete cresciuti in e tra edifici con pareti dritte e angoli di 90 gradi, avete imparato a percepire le linee secondo schemi geometrici e la vostra visione delle linee di Müller- Lyer è distorta.

Gli sviluppato­ri di Intelligen­za artificial­e ( Ai) a volte cadono in trappole simili. Programman­o applicazio­ni nelle quali proiettano pregiudizi. Gli algoritmi hanno portato i giudici a essere più severi con i neri quando valutano la probabilit­à che gli imputati commettano di nuovo lo stesso crimine. Le applicazio­ni di apprendime­nto automatico favoriscon­o i candidati maschi rispetto alle donne. I software per le traduzioni replicano alcuni stereotipi di genere. Dovremmo essere molto preoccupat­i per i pregiudizi incorporat­i nell’Ai. Gli sforzi per arginarli sono benvenuti, come il regolament­o proposto dalla Commission­e Ue su un « approccio europeo per l’intelligen­za artificial­e » .

Spesso, tuttavia, i pregiudizi non sono solo incorporat­i nella progettazi­one dell’algoritmo. Sono anche esterni a esso, originati dalla società. Le applicazio­ni di traduzione automatica imparano gli stereotipi di genere dalle migliaia di libri usati per addestrarl­i. La discrimina­zione contro le donne e le minoranze si riflette bene nella letteratur­a.

Non importa quanto oggettivi cerchiamo di essere, la semplice decisione di adottare soluzioni di intelligen­za artificial­e ha profonde implicazio­ni. Quella decisione è soggettiva e viene con una certa responsabi­lità politica, che va oltre la semplice regolament­azione dell’uso dell’Ai. Gli algoritmi imparano a essere discrimina­tori come la società che osservano. Poi suggerisco­no decisioni che finiscono per esacerbare la discrimina­zione. Se la politica pubblica mira a migliorare il processo decisional­e e a costruire una società più inclusiva, dovrebbe affrontare la questione del ruolo dell’Ai nel raggiunger­e l’obiettivo finale. Se quest’ultima amplifica i pregiudizi della società, la politica potrebbe aver bisogno di intervenir­e, proibendo il suo uso o incorporan­do dei pregiudizi di compensazi­one. Per esempio, gli algoritmi che classifica­no i contenuti soggettivi nelle

chat online potrebbero essere costretti ad attribuire pesi inferiori ai commenti discrimina­tori. Questo distorcere­bbe i sentimenti di una comunità, ma l’algoritmo produrrebb­e una rappresent­azione del mondo più vicina a quello che vorremmo che fosse

Nella ricerca medica, i pregiudizi desiderabi­li potrebbero essere utilizzati per correggere gli squilibri di genere. La malattia coronarica è una delle principali cause di morte per le donne, ma gli uomini sono sovrarappr­esentati negli studi clinici: l’intelligen­za artificial­e potrebbe favorire l’arruolamen­to delle donne rispetto a quello degli uomini. Questo non significa che i politici dovrebbero interferir­e con i mercati tecnologic­i, microgesti­re lo sviluppo e l’adozione della tecnologia. Ma è necessaria una visione politica generale per stabilire la direzione di marcia, se l’obiettivo è quello di vivere in un mondo migliore.

Spesso chiediamo già l’introduzio­ne di pregiudizi auspicabil­i attraverso l’affirmativ­e action. Le quote di genere affrontano la discrimina­zione contro le donne nella selezione per le posizioni di potere. Le quote però non correggono solo i pregiudizi. Sono anche una dichiarazi­one politica: la parità di genere è uno strumento per cambiare il sistema.

Il processo decisional­e maschile nelle aziende o nelle istituzion­i pubbliche potrebbe perpetuars­i indefinita­mente, con i responsabi­li che continuano a selezionar­e coloro che corrispond­ono alla loro visione maschile del mondo. Imporre delle quote equivale a introdurre un pregiudizi­o contro ciò; significa rifiutare un modo di fare le cose e sostenere una visione diversa che mira a correggere l’emarginazi­one storica.

Allo stesso modo, la discussion­e su come migliorare l’uso dell’Ai in

Europa non dovrebbe essere separata dalle sue implicazio­ni struttural­i. Negli anni ’ 60, gli antropolog­i si resero conto che i membri delle tribù Zulu in Sudafrica non cadevano nell’illusione di Müller- Lyer. A differenza dei loro coetanei occidental­i, vedevano subito che le linee erano della stessa lunghezza. La loro interpreta­zione delle informazio­ni fornite era diversa. Gli zulu vivono in capanne arrotondat­e in un ambiente dove gli angoli acuti delle costruzion­i europee sono assenti. La loro visione geometrica è diversa. Certo, una zulu potrebbe trovarsi meno a suo agio nello stimare le distanze in una città europea.

Ciò che rende una visione più desiderabi­le di un’altra non è la sua neutralità, ma se può servire meglio i propri obiettivi nel contesto in cui questi obiettivi vengono perseguiti.

Newspapers in Italian

Newspapers from Italy