Quella falsa neutralità che fa da paravento alla discriminazione
L’illusione ottica di Müller- Lyer si basa su due linee di uguale lunghezza che differiscono solo nella direzione delle punte di freccia alle loro estremità. Alla maggior parte degli osservatori, la linea con le punte rivolte all’esterno sembra più lunga dell’altra. Se siete cresciuti in e tra edifici con pareti dritte e angoli di 90 gradi, avete imparato a percepire le linee secondo schemi geometrici e la vostra visione delle linee di Müller- Lyer è distorta.
Gli sviluppatori di Intelligenza artificiale ( Ai) a volte cadono in trappole simili. Programmano applicazioni nelle quali proiettano pregiudizi. Gli algoritmi hanno portato i giudici a essere più severi con i neri quando valutano la probabilità che gli imputati commettano di nuovo lo stesso crimine. Le applicazioni di apprendimento automatico favoriscono i candidati maschi rispetto alle donne. I software per le traduzioni replicano alcuni stereotipi di genere. Dovremmo essere molto preoccupati per i pregiudizi incorporati nell’Ai. Gli sforzi per arginarli sono benvenuti, come il regolamento proposto dalla Commissione Ue su un « approccio europeo per l’intelligenza artificiale » .
Spesso, tuttavia, i pregiudizi non sono solo incorporati nella progettazione dell’algoritmo. Sono anche esterni a esso, originati dalla società. Le applicazioni di traduzione automatica imparano gli stereotipi di genere dalle migliaia di libri usati per addestrarli. La discriminazione contro le donne e le minoranze si riflette bene nella letteratura.
Non importa quanto oggettivi cerchiamo di essere, la semplice decisione di adottare soluzioni di intelligenza artificiale ha profonde implicazioni. Quella decisione è soggettiva e viene con una certa responsabilità politica, che va oltre la semplice regolamentazione dell’uso dell’Ai. Gli algoritmi imparano a essere discriminatori come la società che osservano. Poi suggeriscono decisioni che finiscono per esacerbare la discriminazione. Se la politica pubblica mira a migliorare il processo decisionale e a costruire una società più inclusiva, dovrebbe affrontare la questione del ruolo dell’Ai nel raggiungere l’obiettivo finale. Se quest’ultima amplifica i pregiudizi della società, la politica potrebbe aver bisogno di intervenire, proibendo il suo uso o incorporando dei pregiudizi di compensazione. Per esempio, gli algoritmi che classificano i contenuti soggettivi nelle
chat online potrebbero essere costretti ad attribuire pesi inferiori ai commenti discriminatori. Questo distorcerebbe i sentimenti di una comunità, ma l’algoritmo produrrebbe una rappresentazione del mondo più vicina a quello che vorremmo che fosse
Nella ricerca medica, i pregiudizi desiderabili potrebbero essere utilizzati per correggere gli squilibri di genere. La malattia coronarica è una delle principali cause di morte per le donne, ma gli uomini sono sovrarappresentati negli studi clinici: l’intelligenza artificiale potrebbe favorire l’arruolamento delle donne rispetto a quello degli uomini. Questo non significa che i politici dovrebbero interferire con i mercati tecnologici, microgestire lo sviluppo e l’adozione della tecnologia. Ma è necessaria una visione politica generale per stabilire la direzione di marcia, se l’obiettivo è quello di vivere in un mondo migliore.
Spesso chiediamo già l’introduzione di pregiudizi auspicabili attraverso l’affirmative action. Le quote di genere affrontano la discriminazione contro le donne nella selezione per le posizioni di potere. Le quote però non correggono solo i pregiudizi. Sono anche una dichiarazione politica: la parità di genere è uno strumento per cambiare il sistema.
Il processo decisionale maschile nelle aziende o nelle istituzioni pubbliche potrebbe perpetuarsi indefinitamente, con i responsabili che continuano a selezionare coloro che corrispondono alla loro visione maschile del mondo. Imporre delle quote equivale a introdurre un pregiudizio contro ciò; significa rifiutare un modo di fare le cose e sostenere una visione diversa che mira a correggere l’emarginazione storica.
Allo stesso modo, la discussione su come migliorare l’uso dell’Ai in
Europa non dovrebbe essere separata dalle sue implicazioni strutturali. Negli anni ’ 60, gli antropologi si resero conto che i membri delle tribù Zulu in Sudafrica non cadevano nell’illusione di Müller- Lyer. A differenza dei loro coetanei occidentali, vedevano subito che le linee erano della stessa lunghezza. La loro interpretazione delle informazioni fornite era diversa. Gli zulu vivono in capanne arrotondate in un ambiente dove gli angoli acuti delle costruzioni europee sono assenti. La loro visione geometrica è diversa. Certo, una zulu potrebbe trovarsi meno a suo agio nello stimare le distanze in una città europea.
Ciò che rende una visione più desiderabile di un’altra non è la sua neutralità, ma se può servire meglio i propri obiettivi nel contesto in cui questi obiettivi vengono perseguiti.