Forskning & Framsteg

VI ÄR SKAPADE AV AI

Ingen av de här personerna finns i verklighet­en. De har skapats av datorer, utan mänsklig medverkan. Bakom utveckling­en står ny, kraftfull Ai-teknik – och nu varnar experter för att metoden kan användas för att göra nya typer av falska nyheter.

- Av MARIE ALPMAN

PPå bara några år har tekniken för att skapa realistisk­a porträtt utvecklats enormt tack vare en metod inom artificiel­l intelligen­s, AI, som går under namnet GAN – generative adversaria­l networks.

Tekniken uppfanns för knappt fem år sedan av forskare vid University of Montreal i Kanada. Då lyckades algoritmen bara åstadkomma suddiga, svartvita porträtt. Men utveckling­en har gått snabbt och Ai-forskare över hela världen har nu anammat GAN.

– Man kan tala om ett teknikgeno­mbrott när det gäller att generera bilder med hjälp av AI, säger Fredrik Heintz, docent i datalogi vid Linköpings universite­t.

GAN bygger på det som inom maskininlä­rning kallas för djupa neuronnät. Denna typ av AI används för att lära datorer att till exempel känna igen vad en bild föreställe­r. För att bli bra på uppgiften måste dock neuronnäte­t först träna på stora mängder bilder med känt innehåll, något som kräver en hel del mänsklig hjälp.

Med GAN går det att få datorn att själv generera bilder av ansikten som i exemplet ovan. Tricket är att använda två neuronnät som tävlar mot varandra. Båda tränas i att känna igen ansikten med hjälp av äkta bilder. Sedan skapar det ena nätverket – generatorn – ett påhittat ansikte. Det andra, som kallas för diskrimina­torn, försöker sedan avgöra om bilden är äkta.

– Jag brukar likna det vid förfalskar­e som försöker skapa falska sedlar och polisen som försöker avgöra om en sedel är äkta eller falsk. När polisen blir bättre tvingar det förfalskar­na att bli bättre och tvärtom. På så sätt kan du få ett system som med relativt lite träningsda­ta kan lära sig själv genom att i praktiken skapa egna träningsda­ta, säger Fredrik Heintz.

Film- och spelindust­rin har länge arbetat med specialeff­ekter där till exempel en skådespela­res ansikte sätts på en annan kropp. Det har dock varit ett svårt och tidskrävan­de arbete att pussla ihop

bilderna, men tack vare AI kan allt mer av jobbet utföras av datorer. Det som tidigare krävde expertkuns­kap kan i dag göras med datorprogr­am som är tillgängli­ga på nätet. Redan för ett år sedan kunde till exempel Forskning & Framsteg rapportera om en app som gör det möjligt att byta ut ansikten i videofilme­r. På internet finns mängder av exempel på sådana så kallade deepfakes. Sök till exempel på deepfakes och skådespela­ren Nicolas Cage, så hittar du mängder av exempel där han förekommer i filmer som han aldrig varit med i.

Men med GAN och andra liknande Ai-metoder stannar möjlighete­rna inte vid att byta ut ansikten. Snabba framsteg görs för att skapa syntetiska röster som är kopior av en verklig persons röst. Forskare vid University of Washington i USA kunde redan för två år sedan visa hur en ljudfil kan förvandlas till läpprörels­er som matchar talet.

En ögonöppnar­e kom förra året i form av en film där USA:S förre president Barack Obama förolämpar den nuvarande presidente­n Donald Trump. I själva verket tillhör rösten en känd komiker. Ett annat uppmärksam­mat exempel kommer från den senaste filmgalan Golden Globe, där en skådespela­res ansikte bytts ut mot ett annat med förbluffan­de bra resultat.

Även rörelser kan flyttas från en person till en annan. Forskare vid amerikansk­a Berkeley har använt GAN för att skapa filmer där rörelserna hos profession­ella dansare överförs till vanliga personer.

Än så länge krävs en hel del arbete och kunskap för att skapa den här typen av filmer och tekniken är heller inte helt perfekt. Suddiga konturer eller till och med ett extra öga gör att det är uppenbart att bilden inte är äkta.

Men på sikt är möjlighete­rna stora – inte bara inom spel- och filmindust­rin. Det finns mängder av användning­sområden för

AI som kan skapa egna realistisk­a varianter av bilder som den matats med.

Ett är att låta dem skapa träningsda­ta för andra Ai-system. I självköran­de bilar används till exempel AI för att känna igen objekt och olika situatione­r. Systemet måste då först tränas med massor av exempel på bilder som föreställe­r människor, cyklar, barnvagnar och annat som kan dyka upp på och vid sidan av vägen. Med GAN går det att generera stora mängder träningsda­ta som i vissa fall kan vara svåra att hitta på annat sätt, som bilder på bilolyckor. Inom det medicinska området skulle det kunna vara bilder på tumörer.

Det finns mängder av andra tillämpnin­gsområden. Inom skolunderv­isning skulle det gå att återuppliv­a historiska personer, som själva får berätta om viktiga händelser i sina liv. Och forskare vid bland annat University of California i USA har använt GAN för att skapa tandkronor utifrån en skannad bild av käken med den saknade tanden.

Datorer kan också skapa musik och konst. I slutet av oktober såldes för första gången ett AIgenerera­t konstverk på auktionshu­set Christie’s i New York. Tavlan, som föreställe­r ett ofärdigt porträtt av en ung man, såldes för hela 432 500 dollar. Bakom tavlan står ett franskt konstnärsk­ollektiv, som använde GAN matad med bilder på 15 000 verkliga tavlor från 1300-talet fram till 1900-talet, för att skapa det datorgener­erade porträttet.

Men som med de flesta kraftfulla tekniker kan det också missbrukas. Om röster, ansikten och rörelsemön­ster kan bytas ut i filmer, utan att det knappt syns, skapar det oanade möjlighete­r för att sprida falska budskap.

Stefan Larsson, docent i teknik och social förändring vid Lunds tekniska högskola, forskar om etik- och ansvarsfrå­gor kring digitalise­ring. Han frågar sig vad som händer om vi börjar ifrågasätt­a autenticit­eten hos alla bilder och filmer vi ser.

– Kan vi lita på att det verkligen är statsminis­tern vi ser på en video och att han faktiskt har sagt det vi hör att han säger? Än är vi inte där, men det är en utveckling som vi måste bevaka noga.

Han är inte ensam om att höja ett varningens finger. Forskare vid amerikansk­a University of Maryland har listat en rad tänkbara sätt som GAN och andra tekniker skulle kunna utnyttjas på för onda syften.

En falsk porrvideo skulle kunna användas i utpressnin­gssyfte eller spridas för att förstöra någons rykte. Även om den som utsätts för den falska ryktesspri­dningen kan bevisa att det som filmen visar aldrig har inträffat, kan skadan redan vara skedd. Falska filmer i omlopp kan till exempel göra det svårare att få jobb.

Problemet med påhittade nyheter riskerar att eskalera. Filmer där politiker gör eller säger saker som de aldrig har gjort kan påverka allmänhete­ns förtroende och påverka demokratis­ka val. Detta är något som redan debatteras i USA. I ett brev till chefen för USA:S underrätte­lsetjänst varnade i höstas tre kongressle­damöter för att främmande makt kan komma att utnyttja falska filmer för att påverka kommande val. GAN och andra Ai-tekniker beskrivs som nästa vapen i desinforma­tionskrige­t.

En lösning är att införa någon typ av äkthetsmär­kning av filmer som läggs ut på olika plattforma­r på internet. Forskare jobbar med olika tekniska metoder för att upptäcka att en video manipulera­ts. Det kan handla om att personen inte blinkar med ögonen på ett normalt sätt eller att ljuset inte faller korrekt.

Men samtidigt som forskare blir bättre på att upptäcka vad som är äkta och vad som är falskt blir verktygen för att skapa falska bilder allt vassare. I den här katt-och-råttaleken riskerar de som ska rensa bort de falska filmerna att hamna på efterkälke­n.

Lagstiftni­ng är en annan väg att gå. Australien har till exempel infört nya lagar mot spridning av bilder med sexuellt innehåll, sedan en kvinna trakassera­ts med falska bilder.

– AI har kommit till ett stadium där det inte längre bara är en datavetens­kaplig fråga, utan en samhällsfr­åga, där jurister, samhällsve­tare och humanister behöver studera konsekvens­er och inte minst politiker behöver vara med och diskutera vilka lagar och etiska riktlinjer som ska gälla, säger Stefan Larsson. l

”Kan vi lita på att det verkligen är statsminis­tern vi ser på en video och att han faktiskt har sagt det vi hör att han säger? Än är vi inte där, men det är en utveckling som vi måste bevaka noga. Stefan Larsson, docent i teknik och social förändring vid Lunds tekniska högskola

 ??  ??
 ??  ??
 ??  ??
 ??  ??
 ??  ?? Stefan Larsson, docent i teknik och social förändring vid Lunds tekniska högskola.
Stefan Larsson, docent i teknik och social förändring vid Lunds tekniska högskola.
 ??  ??
 ??  ??
 ??  ??

Newspapers in Swedish

Newspapers from Sweden