Datamaskin kan se hvem som er homofil
I flere land straffes homofili med døden. Disse landene kan allerede ha skaffet seg verktøy som er i stand til å kjenne igjen homofile ut ifra bilder.
En maskin kan nå se på bilder av en heterofil og en homo og si hvem som er hva – med 91 prosent sikkerhet. Kjønnsminoriteter er i harnisk.
Teknikker for kunstig intelligens gjør nå stadig nye fremskritt som gir maskinene opplagt overmenneskelige egenskaper. For eksempel kan vi mennesker bare med svaert liten grad av sannsynlighet si noe om et annet menneskes seksuelle legning etter å ha sett et foto av ansiktet.
Artikkelen til en gruppe forskere ved Stanford sier det hele: «Dype nevrale nett er mer nøyaktige enn mennesker på å detektere seksuell legning ved hjelp av ansiktsbilder.»
Forskningen er ikke gjort av hvem som helst. Førsteforfatter Michal Kosinski er kjent for å ha funnet opp en del av teknologien i det kontroversielle selskapet Cambridge Analytica. De hjalp til med å identifisere politiske standpunkter hos enkeltpersoner på en slik måte at de kunne utnyttes av både Trump-kampanjen i USA og brexit-kampanjen i Storbritannia.
Bare ved hjelp noen få, tilsynelatende harmløse datapunkter fra Facebook kunne de gjøre overraskende nøyaktige anslag av menneskers politiske tilhørighet.
Fritt tilgjengelig teknologi
Nå har Kosinski og hans medforfatter Yilun Wang brukt allerede eksisterende verktøy på en ny og for mange helt uventet måte. De lastet først ned offentlig tilgjengelige, gratis maskinlaeringsprogrammer.
Deretter hentet de inn 37.000 åpent tilgjengelige bilder fra et datingnettsted der folk selv identifiserer om de er streite eller skeive.
Bildene ble så brukt til å trene opp et såkalt dypt nevralt nett, en form for kunstig intelligens som så i ettertid ble forelagt ukjente ansiktsbilder. Nettverket ble bedt om å klassifisere ansiktene etter seksuell legning.
Fasiten var selvsagt bare kjent for forskerne.
Tester på mennesker som ble bedt om å vurdere de samme bildene, viste at de bare så vidt klarte å detektere seksuell legning bedre enn om man hadde brukt ren tilfeldighet.
Biologisk forklaring
Forskerne hevder i artikkelen at det nå er vitenskapelig konsensus rundt at homofili skyldes unormal eksponering for hormoner i mors liv, og at de samme hormonene bidrar til at fosteret utvikler maskuline eller feminine ansiktstrekk.
Dermed lurte forskerne på om det kun-
ne vaere mulig for en algoritme å skille disse trekkene fra hverandre, selv om det menneskelige øye knapt er i stand til det. Skal man tro forskningen deres, viste det seg å vaere tilfelle.
Funnet blir slått opp over hele førstesiden av siste utgave av tidsskriftet The Economist, men har ikke falt i god jord hos amerikanske kjønnsaktivister. Årsaken er at de vil definere sin seksuelle legning selv, og ikke få den «påført» av en datamaskin.
På Twitter sier en av dem at forskerne «burde bli brent levende» for å publisere resultatene.
I et eget tilsvar til aktivistene påpeker Kosinski at forskningen hans ikke har utviklet noe nytt verktøy for å fravriste noen deres seksuelle legning, men i stedet er studien gjort nettopp for å rope varsko om at disse verktøyene nå kan brukes av både selskaper og stater med tvilsomme hensikter.
Blant annet finnes det flere land der homofili straffes med døden, og disse verktøyene kan allerede vaere i bruk av slike regimer.
– Tvilsom forskning
Ingvild Endestad er leder i Foreningen Fri, som organiserer skeive nordmenn.
– Disse forskerne har lansert et spekulativt verktøy for å kartlegge seksuell legning, med høyst tvilsomme resultater. Det finnes ingen etablert enighet om at mennesker får sin seksuelle orientering i mors liv. Derfor vil det vaere helt meningsløst å bruke ansiktsgjenkjenning til en slik oppgave. Det finnes ingen andre metoder enn å spørre personen selv, mener hun.
Hun tror ikke metoden allerede er i bruk av selskaper og stater.
– Heldigvis har vi jo i Norge lover som beskytter oss mot å bli diskriminert i arbeidslivet, og som sier at arbeidsgiver ikke har lov til å stille spørsmål om seksuell orientering på et jobbintervju. Dessverre er dette informasjon som kan misbrukes på dramatiske måter, sier hun.
Avviser kritikken
Michal Kosinski beklager at han ikke rekker å svare på henvendelsene fra Aftenposten, men har publisert et omfattende svar til sine kritikere.
Flere av kritikerne har pekt på at algoritmen er trent på å identifisere åpne homofile som kan vaere enklere å skille ut enn de som ønsker å skjule identiteten sin. Kosinski påpeker at algoritmen er spesifikt trimmet for å se bort fra elementer man kan forandre, som hår og sminke. I stedet er det selve ansiktstrekkenes lengde i forhold til hverandre (se illustrasjon) som tillegges vekt.
Kosinski er også selvkritisk på tradisjonelt vitenskapelig vis, og påpeker at treffsikkerheten på 91 prosent bare er riktig dersom en av to menn som presenteres for maskinen er åpent homofil.
Siden bare få er homofile i virkeligheten, vil treffsikkerheten i praksis vaere mye lavere. Likevel: Da algoritmen ble spurt om å se på en gruppe på 1000 representative menn (der bare omtrent 7 prosent er homofile), og så skille ut de 10 den var sikrest på var homofile, viste hele ni av ti av disse seg å vaere blant de homofile.
Kosinski påpeker at det er så vanskelig å kontrollere hvem som har tilgang til et bilde av ansiktet ditt, at denne teknologien skaper et enormt problem for personvernet. Årsaken er blant annet at det tas så mange bilder av oss alle som så deles i sosiale medier.
I praksis vil det bety at det i fremtiden ikke vil vaere mulig å la seksuell legning vaere en privatsak, påpeker han. Uten personvern er den eneste farbare veien holdningsarbeid, mener han. «En verden der personvernet har brutt sammen vil vaere et mye tryggere og varmere sted dersom den består av velutdannede, tolerante mennesker som er opptatt av at alle har like rettigheter».
Problematisk i Norge
Det er ikke tilfeldig at Kosinski har gjort sin forskning i USA. I Europa er ansiktsgjenkjenning så strengt regulert at store selskaper som Facebook og Google har skrudd deler av funksjonene av for brukere på vårt kontinent. Likevel vil det vaere vanskelig å hindre at nordmenn får tilgang dersom noen finner på å lage en nettjeneste der de lar besøkende laste opp et tilfeldig bilde og få en vurdering av hvor sannsynlig det er at en de har i kikkerten er skeiv.
Fagdirektør Catharina Nese i Datatilsynet sier det ikke er mulig å gi et klart svar på om en slik tjeneste vil vaere lovlig eller ikke her i landet.
– Ansiktsgjenkjenning i seg selv er ikke nødvendigvis et onde. For eksempel kan det brukes som en ren nøkkel, som i den nye Iphone X. Men det vil vaere klart problematisk å sette opp en tjeneste som anslår menneskers seksuelle legning, fordi du må lagre svaert sensitive data, sier hun. Nese påpeker at du må ha konsesjon fra tilsynet for å behandle slike sensitive personopplysninger.
– Det ligger jo også et potensial for omfattende overvåking og profilering i dette. Det blir viktig å regulere dette slik at enkeltindividet beholder størst mulig kontroll, sier Nese.
«Da algoritmen ble spurt om å se på en gruppe på 1000 representative menn (der bare omtrent 7 prosent er homofile), og så skille ut de 10 den var sikrest på var homofile, viste hele ni av ti av disse seg å vaere blant de homofile»