Ekstra Bladet

Kina overvåger borgere overalt

Virkede aegte: Obama strippede i falsk video DEEPFAKE: Kunstig intelligen­s kan narre dig til at tro, du ser video af kendte mennesker

- FOTO: MATT SAYLES/AP

Berømthede­r har i årevis måttet leve med at få deres ansigter digitalt klistret på billeder af nøgne kroppe eller det, der er vaerre.

Men en ny trend kaldet ’deepfaking’ tager falske billeder til et helt nyt niveau.

Med hjaelp fra en lynhurtig computer og et program, der bruger kunstig intelligen­s til at saette falske ansigter på sine ofre, kan man nu få videoer til at virke aegte.

Rent teknisk bruger man en raekke aegte billeder af den person, man vil overføre til en anden video.

Jo flere billeder og jo bedre kvalitet, de har, jo nemmere er det at skabe en video, som ligner virkelighe­den.

Har ingen skrupler

Tidligere praesident­frue Michelle Obama er en af dem, der har vaeret gennem programmet. Resultatet blev en ganske virkelighe­dstro strippervi­deo, hvor man ser Obama tage tøjet af:

– Der er reelt ingen graenser for, hvad du kan gøre, hvis du har lidt fantasi, siger den anonyme skaber af programmet FakeApp til New York Times.

Ifølge ham er FakeApp downloadet mere end 120.000 gange, siden det blev kendt tidligere i år. Og manden, der angivelig er en softwareud­vikler fra Maryland i USA, har ingen skrupler ved teknologie­n:

– Jeg har taenkt meget over det, og jeg mener ikke, at teknologie­n skal fordømmes. Den kan bruges til mange formål, både gode og dårlige.

Mere end porno

Det mest skraemmend­e ved ’deepfaking’ er dog ikke, at amatører klistrer Obamas ansigt på en stripper.

Det er, at kommende videoer bliver så virkelighe­dstro, at hele befolkning­er og måske regeringer tror på dem. Og det kan få fatale konsekvens­er:

– Det her bliver den naeste form for kommunikat­ion. Og jeg er bekymret for, at det bliver brugt til afpresning eller ting, der er vaerre, siger professor Hao Li fra University of Southern Califonia til avisen.

Udvikleren bag FakeApp mener ikke, at det er muligt at stoppe udviklinge­n:

– Algoritmer (til kunstig intelligen­s, red.) bliver meget vigtige i fremtiden. Og ikke kun i de enkelte programmer, men også som en del af mange gadgets.

Kan beskytte Trump

Hvis falske videoer, der ligner den aegte vare, spreder sig yderligere, kan en anden konsekvens blive, at det bliver nemmere at afvise aegte videoer som falske nyheder:

– Hvis den aegte video af praesident Trump, der angivelig har urinsex, dukker op, kan han haevde, at den er ’deepfake’, siger Benjamin Van Den Broeck, der er ekspert i videomanip­ulation, til The Verge. Kritikere af diktaturet i Kina skal ikke føle sig sikre, selv når de bruger medier, der ligger uden for det store land.

Ifølge New York Times går myndighede­rne i landet nemlig langt for at overvåge og indsamle data om borgernes kritik på vestlige beskedtjen­ester og hjemmeside­r. I flere tilfaelde har kritikken ført til forfølgels­e og faengsling­er i landet.

Jeg er bekymret for, at det bliver brugt til afpresning eller ting, der er vaerre

 ??  ?? Her ses det tidligere praesident­par i en mere aerbar udgave. Men begge har allerede vaeret udsat for ’deepfaking’, hvor falske videoer med deres ansigter er dukket op.
Her ses det tidligere praesident­par i en mere aerbar udgave. Men begge har allerede vaeret udsat for ’deepfaking’, hvor falske videoer med deres ansigter er dukket op.
 ??  ??

Newspapers in Danish

Newspapers from Denmark