Kina overvåger borgere overalt
Virkede aegte: Obama strippede i falsk video DEEPFAKE: Kunstig intelligens kan narre dig til at tro, du ser video af kendte mennesker
Berømtheder har i årevis måttet leve med at få deres ansigter digitalt klistret på billeder af nøgne kroppe eller det, der er vaerre.
Men en ny trend kaldet ’deepfaking’ tager falske billeder til et helt nyt niveau.
Med hjaelp fra en lynhurtig computer og et program, der bruger kunstig intelligens til at saette falske ansigter på sine ofre, kan man nu få videoer til at virke aegte.
Rent teknisk bruger man en raekke aegte billeder af den person, man vil overføre til en anden video.
Jo flere billeder og jo bedre kvalitet, de har, jo nemmere er det at skabe en video, som ligner virkeligheden.
Har ingen skrupler
Tidligere praesidentfrue Michelle Obama er en af dem, der har vaeret gennem programmet. Resultatet blev en ganske virkelighedstro strippervideo, hvor man ser Obama tage tøjet af:
– Der er reelt ingen graenser for, hvad du kan gøre, hvis du har lidt fantasi, siger den anonyme skaber af programmet FakeApp til New York Times.
Ifølge ham er FakeApp downloadet mere end 120.000 gange, siden det blev kendt tidligere i år. Og manden, der angivelig er en softwareudvikler fra Maryland i USA, har ingen skrupler ved teknologien:
– Jeg har taenkt meget over det, og jeg mener ikke, at teknologien skal fordømmes. Den kan bruges til mange formål, både gode og dårlige.
Mere end porno
Det mest skraemmende ved ’deepfaking’ er dog ikke, at amatører klistrer Obamas ansigt på en stripper.
Det er, at kommende videoer bliver så virkelighedstro, at hele befolkninger og måske regeringer tror på dem. Og det kan få fatale konsekvenser:
– Det her bliver den naeste form for kommunikation. Og jeg er bekymret for, at det bliver brugt til afpresning eller ting, der er vaerre, siger professor Hao Li fra University of Southern Califonia til avisen.
Udvikleren bag FakeApp mener ikke, at det er muligt at stoppe udviklingen:
– Algoritmer (til kunstig intelligens, red.) bliver meget vigtige i fremtiden. Og ikke kun i de enkelte programmer, men også som en del af mange gadgets.
Kan beskytte Trump
Hvis falske videoer, der ligner den aegte vare, spreder sig yderligere, kan en anden konsekvens blive, at det bliver nemmere at afvise aegte videoer som falske nyheder:
– Hvis den aegte video af praesident Trump, der angivelig har urinsex, dukker op, kan han haevde, at den er ’deepfake’, siger Benjamin Van Den Broeck, der er ekspert i videomanipulation, til The Verge. Kritikere af diktaturet i Kina skal ikke føle sig sikre, selv når de bruger medier, der ligger uden for det store land.
Ifølge New York Times går myndighederne i landet nemlig langt for at overvåge og indsamle data om borgernes kritik på vestlige beskedtjenester og hjemmesider. I flere tilfaelde har kritikken ført til forfølgelse og faengslinger i landet.
Jeg er bekymret for, at det bliver brugt til afpresning eller ting, der er vaerre