Jyllands-Posten

Det kan spaende ben for retssikker­heden, hvis maskinlaer­ing og dataanalys­e bruges uden omtanke

Mange opfatter beslutning­er baseret på data som neutrale. En sag fra USA viser imidlertid, at det ikke altid er tilfaeldet, og at brugen af data i retsvaesen­et kraever stor forsigtigh­ed.

-

såkaldte ”anti-sociale” eller ”åndssvage” maend og ”seksuelt løsagtige” kvinder helt op til 1959.

Mange håbede, at diskrimina­tionen ville forsvinde, når den ikke laengere var lovlig, men det skulle vise sig at vaere mere komplicere­t end som så at komme den til livs.

I USA havde den racistiske lovgivning bevirket, at byerne var skarpt opdelte i sorte og hvide nabolag, og selv om bankerne begyndte at afvise lån baseret på postnummer i stedet for hudfarve, var resultatet det samme.

Compas-sagen viser, at digitalise­ringen heller ikke har aendret afgørende ved problemet.

står vi overfor helt nye udfordring­er, når vi skal undgå at traeffe diskrimine­rende beslutning­er. Med maskinlaer­ing skaber man nu programmer, der laerer at udføre en funktion på baggrund af mønstre i store datamaengd­er. Et godt eksempel er ansigtsgen­kendelse, hvor et program traenes til at genkende folk ved hjaelp af store datasaet bestående af ansigter med tilhørende navne.

Et andet er den stemmegenk­endelse ud fra store saet af lyd og tekst, som digitale assistente­r som Apples Siri og Amazons Alexa bruger til at forstå én, når man taler til dem.

Med maskinlaer­ing kan computeren dog også laere vores vaerste adfaerd, hvis den ikke er blevet bedt om at justere for det. Compas laerte for eksempel at mistaenkel­iggøre bestemte befolkning­sgrupper mere, fordi visse grupper i USA stadig har dårligere mulighed for at bryde ud af kriminalit­et – et problem, som netop opstår i kølvandet på den diskrimina­tion, de har lidt under, og som systemet så opfanger og videreføre­r.

Også ansigts- og stemmegenk­endelse kan resultere i diskrimina­tion. I de data, som maskinerne traenes med, ser og hører de vaesentlig­t flere hvide maend end andre befolkning­sgrupper. Derfor har mange oplevet, at Siri og Alexa ikke forstår deres accent, eller at telefonen ikke kan genkende netop deres ansigter.

involverer nye risici, og teknologif­irmaerne må ikke bare se passivt til. Når itfirmaer anvender store datasaet og nye maskinlaer­ingsteknik­ker, er de nødt til at overveje, hvilke beslutning­er dataene leder til, og hvorvidt de er fair og i overensste­mmelse med loven.

Den bedste måde at foretage en sådan vurdering er ved at inddrage de mennesker, der kommer til at maerke konsekvens­erne af beslutning­erne. Interesseo­rganisatio­ner såsom fag- og patientfor­eninger samt Finanstils­ynet, Forbrugerr­ådet og Institut for Menneskere­ttigheder er oplagte samarbejds­partnere, når fremtidens databasere­de beslutning­stagning skal designes.

Med brede tvaerfagli­ge samarbejde­r kan store, systemiske problemer fanges, før de når ud i samfundet – og gøre en teknisk hovedpine til et uetisk eller endda lovstridig­t mareridt.

Anja Bechmann er professor på Medieviden­skab og leder af Datalab ved Aarhus Universite­t. Simon Enni er ph.d.-studerende på Datalogi og tilknyttet Datalab.

Newspapers in Danish

Newspapers from Denmark