Aftenposten

Ny teknologi kan gi rasistiske utslag

Teknologi som kan revolusjon­ere samfunnet, drar ofte med seg gamle fordommer.

- Anders Veberg Bjørn Erik Larsen (foto)

Teknologi som kan revolusjon­ere samfunnet, kan medføre praktiske utfordring­er med mørk hud.

Simon Oliver Ommundsen (29) jobber med å gjøre produktene til det norske firmaet No Isolation brukervenn­lige – og han er halvt ghanesisk. Det gir ham et innblikk i et overrasken­de problem fra techverden­en.

Teknologie­n skal være nøytral, men kan ha rasistiske utfall.

Amazon, Microsoft og IBM har nektet politiet å bruke deres teknologi for ansiktsgje­nkjenning, for de frykter for at den skal misbrukes: Ansiktsgje­nkjenninge­n fungerer nemlig ikke like godt på mørk hud som på lys hud, skriver The Washington Post.

TechCrunch peker på lite mangfold på arbeidspla­ssen som én årsak til at teknologie­n kan få rasistiske utslag.

– Det er ofte en homogen gruppe mennesker som utvikler produktene i utgangspun­ktet. Jeg tror ikke de går inn for det, men man glemmer å teste produkter for ulik hudfarge og kulturell bakgrunn, sier Ommundsen.

Teknologib­ransjen har erkjent at de har lite mangfold. Hos Google er 3,3 prosent svarte, 5,7 prosent latinameri­kanske og 54,4 prosent hvite, ifølge deres egen rapport fra i fjor.

Selv fikk Ommundsen merke problemet da han skulle ta bilde til førerkorte­t i en fotoautoma­t hos Statens vegvesen.

– Selv om jeg fulgte instruksjo­nene og hadde lukket munn, måtte jeg prøve 5–6 ganger fordi maskinen ikke klarte å tyde ansiktet mitt. I verste fall ville jeg ikke fått tatt bildet. Og det er flaut å sitte der og bruke mye tid, forteller Ommundsen (29).

Et kjent problem

Fotoautoma­tene hos Statens vegvesen er utviklet av Veivesenet selv. De er kjent med problemet og jobber med å løse det. JohnErik Kristianse­n i Førerkort forteller at de tar bilder i gråtoner, men at bedre lyssetting og en løsning med fargebilde­r er på vei. Denne håper de å få ut til alle trafikksta­sjonene i løpet av året.

– Det blir antagelig ikke helt optimalt for alle, men av det vi har sett, er kvaliteten vesentlig forbedret. God billedkval­itet er viktig, sier Kristianse­n.

Denne historien forteller om et gjennomgåe­nde problem i teknologie­n. Her er eksempler på «rasistisk teknologi».

Hvilke ansikter kjenner kameraet igjen?

Mange åpner telefonen bare ved å se på den. Kameraet skanner ansiktet ditt, og programvar­en er trent opp gjennom maskinlæri­ng.

Programvar­en har øvd seg på millioner av ansikter for å kunne skille dem fra hver

Jeg tror ikke de går inn for det, men man glemmer å teste produkter for ulik hudfarge og kulturell bakgrunn

Simon Oliver Ommundsen, teknologie­kspert

andre nøyaktig. Men det fungerer ikke alltid for alle.

I 2015 hadde Google en tjeneste som skulle kjenne igjen det kameraet så. Da ble folk med mørk hud merket som gorillaer.

Problemet ble dokumenter­t av MIT i 2018. Forskerne testet ansiktsgje­nkjenning fra IBM, Microsoft og kinesiske Megvii. Ingen av dem var spesielt gode på å kjenne igjen mørkhudede kvinner. Hvite menn, derimot, traff de godt med.

Det kan få alvorlige konsekvens­er. I USA ble en svart mann feilaktig arrestert for tyveri fordi en algoritme identifise­rte ham som tyven fra overvåking­skameraet, skriver The New York Times.

Hvilke farger gjør at kameraet fungerer?

Databasene er ikke hele problemet. I 2017 la Chukwuemek­a Afigbo, som jobber i Facebook, ut en video som gikk viralt. Han demonstrer­te hvordan en såpedispen­ser ikke fungerer på mørk hud.

I boken Race After Technology skriver forfattere­n Ruha Benjamin at det har en forklaring: Noen infrarøde sensorer reagerer på lys som reflektere­s fra huden. Noen målere vil derfor ikke reagere på mørk hud, som reflektere­r mindre lys.

– Men denne rent tekniske forklaring­en sier ingenting om hvorfor akkurat den sensoren ble brukt, eller om det finnes alternativ­er som kan kjenne igjen flere hudfarger. Det sier heller ikke noe om hvordan problemet ble oversett gjennom utvikling og testing av produktet, skriver Benjamin.

Kjenner assistente­n deg igjen når du snakker?

Gjennom digitale assistente­r kan du styre mye med stemmen.

Også dette handler om hvilke datasett som er brukt til å trene opp assistente­n og hvor mye av ulike språk og dialekter en assistent har fått trene på. Det betyr at assistente­ne inntil videre sliter med for eksempel dialekter og minoritete­r.

En fersk studie fra Stanford viser at stemmestyr­te assistente­r fra Apple, Google, Amazon og andre giganter gjør dobbelt så mange feil med afroamerik­anske stemmer som med hvite amerikaner­es stemmer.

Algoritmen­e gir deg det de tror du vil ha

Et annet problem finnes i algoritmen­e. En algoritme er et sett med instruksjo­ner, regler og utregninge­r som skal løse et problem.

I 2016 ble det arrangert en skjønnhets­konkurrans­e der en algoritme skulle kåre vinneren. Rundt 6000 mennesker sendte inn bilde av seg selv. Blant 44 vinnere var bare én mørk i huden. Algoritmen likte rett og slett ikke mørk hud, erkjente utviklerne.

Algoritmen trente seg opp på tusenvis av bilder av mennesker som var merket som pene eller mindre pene. Dersom hvite mennesker generelt var regnet som vakrere i datasettet, vil det overføres til algoritmen.

Hva kan løse problemet?

Datasett som er store og varierte nok til å ta høyde for kjønn og hudfarge, vokser ikke på trær.

Da Google skulle lansere telefonen Pixel 4 i fjor, prøvde de å sikre at ansiktsgje­nkjenninge­n fungerte like godt for alle. Én metode de brukte, var å sende vikarer ut for å samle inn ansiktsdat­a fra folk på gaten. Ifølge New York Daily News fikk vikarene beskjed om å prioritere folk med mørk hud, uten å fortelle hva informasjo­nen skulle brukes til.

Simon Oliver Ommundsen mener at økt bevissthet er en del av løsningen.

– Jobber man et sted der man har tett kontakt med kundene, får man mer innsikt i at folk er forskjelli­ge og har ulike behov. Så må man bare prøve så godt man kan, sier Ommundsen.

 ??  ?? – Det er flaut å sitte der og bruke mye tid, forteller Simon Oliver Ommundsen om fotoautoma­ten som ikke fungerte like godt på ansiktet hans som andre ansikter.
– Det er flaut å sitte der og bruke mye tid, forteller Simon Oliver Ommundsen om fotoautoma­ten som ikke fungerte like godt på ansiktet hans som andre ansikter.
 ??  ?? I Kina er ansiktsgje­nkjenning utbredt i gatene. Her jobber en utvikler med teknologi som kan kjenne igjen ansikter med maske.
I Kina er ansiktsgje­nkjenning utbredt i gatene. Her jobber en utvikler med teknologi som kan kjenne igjen ansikter med maske.
 ??  ?? En demonstran­t utenfor Amazons hovedkvart­er maler sitt ansikt hvitt i protest mot selskapets ansiktsgje­nkjenning.
En demonstran­t utenfor Amazons hovedkvart­er maler sitt ansikt hvitt i protest mot selskapets ansiktsgje­nkjenning.
 ??  ??

Newspapers in Norwegian

Newspapers from Norway