Ny teknologi kan gi rasistiske utslag
Teknologi som kan revolusjonere samfunnet, drar ofte med seg gamle fordommer.
Teknologi som kan revolusjonere samfunnet, kan medføre praktiske utfordringer med mørk hud.
Simon Oliver Ommundsen (29) jobber med å gjøre produktene til det norske firmaet No Isolation brukervennlige – og han er halvt ghanesisk. Det gir ham et innblikk i et overraskende problem fra techverdenen.
Teknologien skal være nøytral, men kan ha rasistiske utfall.
Amazon, Microsoft og IBM har nektet politiet å bruke deres teknologi for ansiktsgjenkjenning, for de frykter for at den skal misbrukes: Ansiktsgjenkjenningen fungerer nemlig ikke like godt på mørk hud som på lys hud, skriver The Washington Post.
TechCrunch peker på lite mangfold på arbeidsplassen som én årsak til at teknologien kan få rasistiske utslag.
– Det er ofte en homogen gruppe mennesker som utvikler produktene i utgangspunktet. Jeg tror ikke de går inn for det, men man glemmer å teste produkter for ulik hudfarge og kulturell bakgrunn, sier Ommundsen.
Teknologibransjen har erkjent at de har lite mangfold. Hos Google er 3,3 prosent svarte, 5,7 prosent latinamerikanske og 54,4 prosent hvite, ifølge deres egen rapport fra i fjor.
Selv fikk Ommundsen merke problemet da han skulle ta bilde til førerkortet i en fotoautomat hos Statens vegvesen.
– Selv om jeg fulgte instruksjonene og hadde lukket munn, måtte jeg prøve 5–6 ganger fordi maskinen ikke klarte å tyde ansiktet mitt. I verste fall ville jeg ikke fått tatt bildet. Og det er flaut å sitte der og bruke mye tid, forteller Ommundsen (29).
Et kjent problem
Fotoautomatene hos Statens vegvesen er utviklet av Veivesenet selv. De er kjent med problemet og jobber med å løse det. JohnErik Kristiansen i Førerkort forteller at de tar bilder i gråtoner, men at bedre lyssetting og en løsning med fargebilder er på vei. Denne håper de å få ut til alle trafikkstasjonene i løpet av året.
– Det blir antagelig ikke helt optimalt for alle, men av det vi har sett, er kvaliteten vesentlig forbedret. God billedkvalitet er viktig, sier Kristiansen.
Denne historien forteller om et gjennomgående problem i teknologien. Her er eksempler på «rasistisk teknologi».
Hvilke ansikter kjenner kameraet igjen?
Mange åpner telefonen bare ved å se på den. Kameraet skanner ansiktet ditt, og programvaren er trent opp gjennom maskinlæring.
Programvaren har øvd seg på millioner av ansikter for å kunne skille dem fra hver
Jeg tror ikke de går inn for det, men man glemmer å teste produkter for ulik hudfarge og kulturell bakgrunn
Simon Oliver Ommundsen, teknologiekspert
andre nøyaktig. Men det fungerer ikke alltid for alle.
I 2015 hadde Google en tjeneste som skulle kjenne igjen det kameraet så. Da ble folk med mørk hud merket som gorillaer.
Problemet ble dokumentert av MIT i 2018. Forskerne testet ansiktsgjenkjenning fra IBM, Microsoft og kinesiske Megvii. Ingen av dem var spesielt gode på å kjenne igjen mørkhudede kvinner. Hvite menn, derimot, traff de godt med.
Det kan få alvorlige konsekvenser. I USA ble en svart mann feilaktig arrestert for tyveri fordi en algoritme identifiserte ham som tyven fra overvåkingskameraet, skriver The New York Times.
Hvilke farger gjør at kameraet fungerer?
Databasene er ikke hele problemet. I 2017 la Chukwuemeka Afigbo, som jobber i Facebook, ut en video som gikk viralt. Han demonstrerte hvordan en såpedispenser ikke fungerer på mørk hud.
I boken Race After Technology skriver forfatteren Ruha Benjamin at det har en forklaring: Noen infrarøde sensorer reagerer på lys som reflekteres fra huden. Noen målere vil derfor ikke reagere på mørk hud, som reflekterer mindre lys.
– Men denne rent tekniske forklaringen sier ingenting om hvorfor akkurat den sensoren ble brukt, eller om det finnes alternativer som kan kjenne igjen flere hudfarger. Det sier heller ikke noe om hvordan problemet ble oversett gjennom utvikling og testing av produktet, skriver Benjamin.
Kjenner assistenten deg igjen når du snakker?
Gjennom digitale assistenter kan du styre mye med stemmen.
Også dette handler om hvilke datasett som er brukt til å trene opp assistenten og hvor mye av ulike språk og dialekter en assistent har fått trene på. Det betyr at assistentene inntil videre sliter med for eksempel dialekter og minoriteter.
En fersk studie fra Stanford viser at stemmestyrte assistenter fra Apple, Google, Amazon og andre giganter gjør dobbelt så mange feil med afroamerikanske stemmer som med hvite amerikaneres stemmer.
Algoritmene gir deg det de tror du vil ha
Et annet problem finnes i algoritmene. En algoritme er et sett med instruksjoner, regler og utregninger som skal løse et problem.
I 2016 ble det arrangert en skjønnhetskonkurranse der en algoritme skulle kåre vinneren. Rundt 6000 mennesker sendte inn bilde av seg selv. Blant 44 vinnere var bare én mørk i huden. Algoritmen likte rett og slett ikke mørk hud, erkjente utviklerne.
Algoritmen trente seg opp på tusenvis av bilder av mennesker som var merket som pene eller mindre pene. Dersom hvite mennesker generelt var regnet som vakrere i datasettet, vil det overføres til algoritmen.
Hva kan løse problemet?
Datasett som er store og varierte nok til å ta høyde for kjønn og hudfarge, vokser ikke på trær.
Da Google skulle lansere telefonen Pixel 4 i fjor, prøvde de å sikre at ansiktsgjenkjenningen fungerte like godt for alle. Én metode de brukte, var å sende vikarer ut for å samle inn ansiktsdata fra folk på gaten. Ifølge New York Daily News fikk vikarene beskjed om å prioritere folk med mørk hud, uten å fortelle hva informasjonen skulle brukes til.
Simon Oliver Ommundsen mener at økt bevissthet er en del av løsningen.
– Jobber man et sted der man har tett kontakt med kundene, får man mer innsikt i at folk er forskjellige og har ulike behov. Så må man bare prøve så godt man kan, sier Ommundsen.