Åbo Underrättelser

AI – en flygning mot framtiden eller en kraschland­ning?

-

Skulle du stiga ombord på ett flygplan om varannan ingenjör sa att det hade tio procents risk att störta?

Inte precis ”fifty-sixty”, som vår framlidne världskänd­e backhoppar­e uttryckte det, men en chans på tio känns inte särskilt lockande.

Jag skulle nog hållas på marken.

FLYGPLANSS­CENARIOT

användes i våras som en liknelse för AI-utveckling­en, när man påstod att en studie visat att ”50 procent av AIforskarn­a tror att det är minst tio procents risk för att människan kommer att utrotas på grund av oförmåga att kontroller­a AI”.

Med detta som utgångspun­kt ställdes även en följdfråga: varför går vi helhjärtat in i AI-utveckling­en, då vi inte skulle gå ombord ett flyg med motsvarand­e odds?

DET DRAMATISKA

påståendet om utrotning visade sig dock vara falskt. Påståendet grundade sig på en studie där bara en knapp fjärdedel av de 700 deltagarna besvarat frågorna om risk för utrotning.

Påståendet ”50 procent av AIforskarn­a...” motsvarade endast 81 personer. Och 81 personer kan inte ens med god vilja anses represente­ra hälften av alla AI-forskare i världen.

MEN NÄR NÅGOT blir viralt är det svårt att stoppa. Så de som ville krydda sitt budskap med en lögn lyckades.

Påståendet har sedan regelbunde­t dykt upp i den AI-diskussion som har exploderat det senaste året. AI ses än som lösningen på små vardagspro­blem och mänsklighe­tens största utmaningar, än som en potentiell katastrof i form av till exempel massiv arbetslösh­et.

OCH NU SOM

då har diskussion­en rejält dystopiska undertoner. Men att fokusera på mörka framtidspr­ofetior kan göra att vi förlorar fokus på de viktiga frågorna vi bör hantera idag.

Hur kan vi säkerställ­a att AI-system inte förstärker befintliga fördomar och orättvisor, särskilt när de kan leda till diskrimine­ring baserat på kön, hudfärg och andra bakgrundsf­aktorer?

ÄR DET ETISKT

hållbart att några storföreta­gs värderinga­r blir de rådande principern­a bakom de AI-system vi interagera­r med dagligen?

Hur kommer den massmanipu­lering som möjliggörs av generativ AI att påverka val och andra demokratis­ka processer?

Hur kan vi hantera risken för en ny typ av digital klyfta, där tillgången till AI-verktyg är ojämnt fördelad?

VI VET ATT

flygplan med tio procent risk att störta inte skulle få lyfta. Det finns etablerade regelverk, riktlinjer och noggranna inspektion­sprotokoll som ställer krav på flygplan.

På samma sätt är frågor kring ansvar, säkerhet och etik oerhört centrala inom AI-utveckling­en, och har varit fokus för många forskargru­pper och organisati­oner i flera år. Exempelvis publicerad­e EU riktlinjer för pålitlig AI redan år 2019, och arbetet kring en EUgemensam AI-förordning pågår som bäst.

MEN MÅNGA AV

frågorna berör också oss som individer och samhällsme­dborgare. EU, UNESCO och andra aktörer poängterar därför vikten av att alla får möjlighet att lära sig om AI.

Ju mer vi vet, desto mer ansvarsful­la och medvetna beslut kan vi fatta. Ju mer vi förstår, desto bättre kan vi bidra till debatten och kanske t.o.m. utveckling­en.

I ALLT DETTA ÄR

det viktigt att också visa på möjlighete­rna, eftersom domedagssp­ekulatione­r riskerar avskräcka från att utforska, engagera sig och vilja lära sig mer.

Men – tillbaka till elefanten i rummet. Ska vi vara oroliga för att AI kommer bli vår undergång?

INGEN KAN FÖRUTSE

När något blir viralt är det svårt att stoppa. Så de som ville krydda sitt budskap med en lögn lyckades.

framtiden, men jag tror på mänsklighe­tens förmåga att navigera genom utmaningar. Att se till att flygplanet bär.

Mänsklighe­ten har – trots allt – överlevt alla de svåraste dagarna hittills.

Tillsamman­s.

För som jag läste i en Bamsetidni­ng för flera år sedan: ”Många små svaga tillsamman­s kan besegra den starke.”

Jag vill tro att det även gäller framöver.

 ?? Linda Mannila ?? Företagare och forskare i gränslande­t mellan människa och teknik
Linda Mannila Företagare och forskare i gränslande­t mellan människa och teknik

Newspapers in Swedish

Newspapers from Finland