Vir­ke­lig­he­dens op­løs­ning

De­ep­fa­kes. ª'HQ G\VWRSLVNH YLVLRQ HU DW GHW EOLYHU XPXOLJW IRU DOPLQGHOLJH PHQQHVNHU DW NHQGH IRUVNHO Sn VDQGW RJ IDOVN © IW RJ VLNNHUKHGVHNVSHUWHU DGYDUHU PRG NRQVHNYHQVHUQH DI Q\ WHNQRORJL WLO YLGHRPDQLSXODWLRQ 'HQ NDQ IRUIDOVNH OHYHQGH ELOOHGHU Vn GHW

Weekendavisen - - Berlingske Tidende - Af NI­KO­LAJ AR­VE

il­le­der ly­ver ik­ke, sag­de man en­gang. Det gør man na­ep­pe la­en­ge­re. Slet ik­ke ef­ter frem­kom­sten af en ny tek­no­lo­gi, som vil gø­re det mu­ligt for en­hver at for­vand­le fan­ta­si til vir­ke­lig­hed ved no­get na­er et fin­ger­k­nips.

De­ep­fa­ke kal­des tek­no­lo­gi­en, som har ta­get ver­den med storm si­den den før­ste me­di­eom­ta­le i de­cem­ber sid­ste år. No­gen god over­sa­et­tel­se fin­des vist ik­ke, men »dyb for­falsk­ning« kom­mer vel na­er­mest. Og det er net­op, hvad de­ep­fa­kes er: for­fal­ske­de vi­deo­er skabt ved hja­elp af så­kaldt de­ep lear­ning, en sa­er­lig form for kun­stig in­tel­li­gens.

Med tek­no­lo­gi­en kra­e­ver det i prin­cip­pet ik­ke me­re end et par klik med mu­sen, en kraf­tig com­pu­ter og lidt tå­l­mo­dig­hed for at få en vir­ke­lig­heds­tro Lars Løk­ke Ras­mus­sen til at to­ne frem på ska­er­men og ud­skri­ve valg til af­hol­del­se om tre uger. El­ler hvad med at la­de Osama bin La­den genop­stå fra de dø­de og love øde­la­eg­gel­se på ny? Man kun­ne og­så fo­re­stil­le sig en ukrainsk of­fi­cer, der in­drøm­mer, at det var ham og ik­ke rus­ser­ne, der skød det ma­lay­si­ske fly MH17 ned for snart fi­re år si­den. Ud­vik­lin­gen går for­bløf­fen­de hur­tigt, og de så­kald­te de­ep­fa­kes ri­si­ke­rer i en na­er frem­tid at ven­de op og ned på vo­res for­hold til sandt og falsk. Ik­ke en­kelt­vis og fra den ene dag til den an­den, men som en grad­vis ud­visk­ning af gra­en­sen mel­lem vir­ke­lig­hed og fan­ta­si, som får os til at tviv­le på, hvad vi ser og hører. En slags fa­ke news på spe­ed.

Så al­vor­lig ly­der ad­vars­len fra fle­re it- og sik­ker­hed­s­eks­per­ter, som We­e­ken­da­vi­sen har talt med. En af dem er Wal­ter J. Schei­rer, som for­sker i di­gi­ta­le ef­ter­forsk­nings­me­to­der ved Uni­ver­si­ty of No­tre Da­me i USA. »De­ep­fa­kes er et enormt pro­blem,« slår han fast. »Isa­er for­di softwa­ren er så til­ga­en­ge­lig.« De se­ne­ste to år har Schei­rer va­e­ret til­knyt­tet et pro­jekt, fi­nan­si­e­ret af det ame­ri­kan­ske for­svars­mi­ni­ste­ri­um, som for­sø­ger at ud­vik­le me­to­der til at af­slø­re for­falsk­nin­ger­ne. Nøg­le­or­det er »for­sø­ger«, for det er ik­ke gi­vet, at be­stra­e­bel­ser­ne ba­e­rer frugt, selv­om han er for­sig­tig op­ti­mist. Lyk­kes det ik­ke, er skra­eks­ce­na­ri­et foru­ro­li­gen­de: »Den be­kym­ren­de, dy­sto­pi­ske vi­sion er, at det bli­ver umu­ligt for al­min­de­li­ge men­ne­sker at ken­de for­skel på sandt og falsk. I takt med at com­pu­ter­gra­fik og bil­led­be­hand­ling bli­ver bed­re, vil

Bgra­en­sen mel­lem vir­ke­lig­hed og fan­ta­si slø­res,« si­ger Schei­rer. På Lon­don School of Eco­no­mi­cs sid­der den tid­li­ge­re jour­na­list på den stats­li­ge, rus­si­ske tv-sta­tion TNT, Peter Po­me­rant­sev, og føl­ger med i den se­ne­ste ud­vik­ling in­den for pro­pa­gan­da og des­in­for­ma­tion. Og­så han fryg­ter kon­se­kven­ser­ne, hvis de­ep­fa­kes vin­der fod­fa­e­ste i den po­li­ti­ske sfa­e­re. Det hand­ler ik­ke nød­ven­dig­vis om, at folk rent fak­tisk hop­per på, at Løk­ke plud­se­lig har ud­skre­vet valg, el­ler at bin La­den sta­dig le­ver, men at der i det he­le ta­get bli­ver så­et tvivl om, hvad man kan sto­le på. »Jo me­re op­ma­er­k­som­me folk er på for­falsk­nin­ger, de­sto me­re mi­stroi­ske bli­ver de i det he­le ta­get,« som Po­me­rant­sev ud­tryk­ker det.

Det er Flem­m­ing Splids­bo­el enig i. Han er se­ni­o­r­for­sker i in­ter­na­tio­nal sik­ker­hed ved Dansk In­sti­tut for In­ter­na­tio­na­le Stu­di­er og fryg­ter, at de­ep­fa­kes og lig­nen­de tek­no­lo­gi­er på sigt vil sva­ek­ke vo­res ev­ne til at ta­le me­nings­fuldt om em­ner, der de­ler be­folk­nin­gen.

»Jeg er me­get pe­s­si­mi­stisk, når det ga­el­der frem­ti­den for den po­li­ti­ske sam­ta­le. Vi op­le­ver i sti­gen­de grad, at vi bli­ver slå­et til­ba­ge til ud­gangs­punk­tet på grund af des­in­for­ma­tion. Det be­ty­der, at vo­res sam­ta­ler får en helt an­den ka­rak­ter, og det ta­ger va­e­sent­lig la­en­ge­re tid, før vi når frem til en sub­stans, hvis vi over­ho­ve­det når frem til den,« si­ger han.

Por­no­in­du­stri­en har ba­net vej­en

Som så of­te før er det isa­er un­ge ma­ends li­der­lig­hed, der har ba­net vej­en for tek­no­lo­gi­ens po­pu­la­e­re gen­nem­brud. I in­ter­net­tets dunk­le kro­ge fin­der man i dag ad­skil­li­ge po­r­no­film, hvor sku­e­spil­le­re som Em­ma Wat­son og Scar­lett Jo­hans­son til­sy­ne­la­den­de stil­ler sig vel­vil­ligt til rå­dig­hed på sen­ge­kan­ten. I den min­dre lum­re en­de har det ame­ri­kan­ske me­die BuzzFe­ed skabt en vi­deo, hvor Ba­ra­ck Oba­ma til­sy­ne­la­den­de svi­ner sin ef­ter­føl­ger Do­nald Trump til i vold­som­me ven­din­ger.

Al­le fil­me­ne er skabt ved at fodre den kun­sti­ge in­tel­li­gens, som er til­ga­en­ge­lig gan­ske gra­tis på in­ter­net­tet, med bil­le­der og vi­deo af of­re­ne, så den bli­ver i stand til at ef­ter­lig­ne de­res mi­mik og ge­stik.

»Mo­del­len fin­der ud af, at når ek­sem­pel­vis Oba­ma smi­ler, er der nog­le be­stem­te de­le af hans mund, der be­va­e­ger sig på en be­stemt må­de, han dre­jer ho­ve­d­et på en be­stemt må­de, og han hol­der be­stem­te kunst­pau­ser. Det vil den så la­e­re, hvis den er tra­e­net på til­stra­ek­ke­lig me­get vi­deo,« for­kla­rer Ole Wint­her, pro­fes­sor på DTU Com­pu­te og eks­pert i kun­stig in­tel­li­gens. Og­så ud­vik­lin­gen in­den for stem­me­re­di­ge­ring går hur­tigt. I novem­ber 2016 pra­e­sen­te­re­de Ado­be en pro­to­ty­pe, der gjor­de det mu­ligt at ef­ter­lig­ne en stem­me, hvis ma­ski­nen blev fodret med ba­re 20 mi­nut­ters ta­le fra den på­ga­el­den­de. Og tid­li­ge­re i år pra­e­sen­te­re­de Goog­le sit ny­e­ste på­fund ved navn Dup­lex, en kun­stig in­tel­li­gens, der kan fø­re simp­le te­le­fon­sam­ta­ler på over­be­vi­sen­de ma­ner.

Tek­no­lo­gi­en kan så­le­des og­så bru­ges til me­re pro­duk­ti­ve for­mål, un­der­stre­ger Kim Ste­en­strup Pe­der­sen, lek­tor ved Da­ta­lo­gisk In­sti­tut på Kø­ben­havns Uni­ver­si­tet. Det ga­el­der ek­sem­pel­vis in­den for me­di­cin, hvor den kun­sti­ge in­tel­li­gens kan tra­e­nes til at ana­ly­se­re bil­le­der af tu­mo­rer.

»Det in­ter­es­san­te er at pres­se mo­del­ler­ne, så man kan kom­me ned i min­dre da­ta­sa­et og ik­ke bru­ge mil­li­o­ner af ek­semp­ler, som man skal nu. Vi skal va­e­re gla­de, hvis vi har 1000 bil­le­der af en el­ler an­den be­stemt ty­pe tu­mor,« si­ger han. Ud­for­drin­gen er, at for­bed­rin­ger af tek­no­lo­gi­en på ét om­rå­de lyn­hur­tigt vil kom­me an­dre om­rå­der til go­de. Kan den kun­sti­ge in­tel­li­gens ska­be over­be­vi­sen­de me­di­cin­ske re­sul­ta­ter med fa­er­re in­put, vil den for­ment­lig og­så bli­ve end­nu me­re po­tent, når det ga­el­der de­ep­fa­kes.

Fal­ske in­for­ma­tio­ner er sva­e­re at stand­se

I Bruxel­les hol­der man og­så skar­pt øje med, om Rusland og an­dre lan­de be­gyn­der at eks­pe­ri­men­te­re med de­ep­fa­kes. Det er ik­ke no­gen hem­me­lig­hed, at Rusland al­le­re­de »bru­ger be­ty­de­li­ge kra­ef­ter på at frem­me si­ne in­ter­es­se­rer i Ve­sten«, blandt an­det ved hja­elp af »på­virk­nings­kampag­ner«, som For­sva­rets Ef­ter­ret­ning­s­tje­ne­ste ud­tryk­ker det i sin se­ne­ste ri­si­ko­vur­de­ring. I EUs ma­skin­rum fryg­ter man der­for, at de­ep­fa­kes bli­ver end­nu et vå­ben i Ruslands sta­dig me­re po­ten­te cy­be­rar­se­nal.

»Den tek­no­lo­gi­ske ud­vik­ling gør dem al­le­re­de i stand til at ska­be fal­ske vi­deo­er og lyd­fi­ler, som er umu­li­ge at skel­ne fra ori­gi­na­len,« si­ger en cen­tralt pla­ce­ret EU-diplo­mat, som be­ska­ef­ti­ger sig med rus­sisk des­in­for­ma­tion, til We­e­ken­da­vi­sen. Man kun­ne ek­sem­pel­vis fo­re­stil­le sig tek­no­lo­gi­en brugt i en i for­vej­en op­he­det kon­flikt, hvor selv mi­li­ta­e­re en­he­der kun­ne bli­ve vild­ledt, ly­der ad­vars­len.

»Fo­re­stil dig, at Ukrai­ne ka­em­per i Don­bass mod rus­ser­ne og plud­se­lig duk­ker en vi­deo op, hvor pra­esi­dent Por­osjen­ko si­ger, at han i dag har un­der­skre­vet en freds­af­ta­le med Rusland, og at Ukrai­ne op­gi­ver Don­bass. Ef­ter nog­le ti­mer vil de selv­føl­ge­lig fin­de ud af, at vi­deo­en var for­fal­sket, men så er det må­ske al­le­re­de for sent,« si­ger han.

Iføl­ge Flem­m­ing Splids­bo­el fra DIIS kan ud­vik­lin­gen pu­ste yder­li­ge­re til den »vå­ben­lig­gø­rel­se af in­for­ma­tion«, vi al­le­re­de ser i igang­va­e­ren­de kon­flik­ter.

»Man kan bru­ge in­for­ma­tion me­get in­stru­men­telt til at op­nå nog­le re­sul­ta­ter. Det ga­el­der des­in­for­ma­tion, alt­så den in­ten­tio­nelt for­ker­te in­for­ma­tion, men det kan og­så va­e­re re­gu­la­er in­for­ma­tion, som man bru­ger of­fen­sivt,« si­ger han. I EUs så­kald­te East Stratcom Task For­ce for­sø­ger man net­op at bru­ge re­gu­la­er in­for­ma­tion of­fen­sivt ved at på­pe­ge og mod­be­vi­se fal­ske på­stan­de fra rus­sisk si­de. Det sam­me gør man i NATOs Stratcom Cen­tre of Ex­cel­len­ce og i fle­re na­tio­na­le en­he­der. Og­så i Dan­mark har vi få­et en tva­er­mi­ni­ste­ri­el ta­sk­for­ce, der skal ko­or­di­ne­re ind­sat­sen mod mi­s­in­for­ma­tions­kampag­ner.

Of­te er ska­den dog al­le­re­de sket, når fak­tatjek­ker­ne kom­mer på ba­nen. De fal­ske in­for­ma­tio­ner spre­der sig ha­stigt på in­ter­net­tet og er van­ske­li­ge at stand­se, når de først er slup­pet ud. Den ten­dens kan de­ep­fa­kes yder­li­ge­re pu­ste til.

Et tek­no­lo­gisk vå­ben­kapløb

Det ly­der il­de­vars­len­de. Men må­ske er der al­li­ge­vel håb for­u­de, hvis den sam­me tek­no­lo­gi, der bli­ver brugt til at ska­be de­ep­fa­kes, i sid­ste en­de og­så kan va­e­re med til at af­slø­re dem. Det er i hvert fald, hvad Wal­ter J. Schei­rer, for­ske­ren fra Uni­ver­si­ty of No­tre Da­me, og hans kol­le­ger på før­om­tal­te pro­jekt for det ame­ri­kan­ske for­svars­mi­ni­ste­ri­um ar­bej­der på. Am­bi­tio­nen er at ska­be en me­to­de, der au­to­ma­tisk af­slø­rer for­falsk­nin­ger. Schei­rer kal­der det et »me­get van­ske­ligt pro­blem«, men ik­ke umu­ligt:

»Jeg tror, at hvis et va­er­k­tøj til at ska­be fal­ske bil­le­der er kendt af for­ske­re in­den, vil det i man­ge til­fa­el­de va­e­re re­la­tivt nemt at fin­de ud af, om et bil­le­de kom­mer der­fra,« si­ger han. Iføl­ge Chri­stop­her Me­sero­le skal vi dog ik­ke va­e­re alt for op­ti­mi­sti­ske med hen­syn til tek­no­lo­gi­ske løs­nin­ger på pro­ble­ma­tik­ken. Me­sero­le er fel­low ved Brook­ings In­sti­tu­tion, hvor han blandt an­det be­ska­ef­ti­ger sig med de sik­ker­heds­po­li­ti­ske im­pli­ka­tio­ner af kun­stig in­tel­li­gens. Han tror ik­ke på, at Schei­rer og co. fin­der den gyld­ne løs­ning.

»Det er ik­ke sand­syn­ligt, at de vil ha­ve suc­ces med det på lang sigt,« skri­ver han i en mail til We­e­ken­da­vi­sen.

Han hen­vi­ser til, at den kun­sti­ge in­tel­li­gens, som ska­ber fal­ske vi­deo­er, i prin­cip­pet kan ta­ge høj­de for en­hver me­to­de, Wal­ter J. Schei­rer og hans kol­le­ger kom­mer op med. Det kal­des et ge­ne­re­ra­ti­ve ad­ver­s­a­ri­al net­work el­ler GAN og vir­ker ved at la­de to kun­sti­ge in­tel­li­gen­ser »ka­em­pe« mod hin­an­den: Den ene for­sø­ger at la­ve en for­falsk­ning, mens den an­den for­sø­ger at af­gø­re, om vi­deo­en er sand el­ler falsk. Bli­ver for­falsk­nin­gen gen­kendt, kan den før­ste kun­sti­ge in­tel­li­gens for­bed­re den, ind­til den ik­ke la­en­ge­re kan gen­ken­des. »Pro­ble­met er, at en­hver al­go­rit­me, vi ud­vik­ler til at de­tek­te­re for­falsk­nin­ger, vil bli­ve brugt til at la­ve bed­re og ik­ke-de­tek­ter­ba­re for­falsk­nin­ger,« ly­der det fra Me­sero­le. Wal­ter J. Schei­rer an­er­ken­der, at det er et vå­ben­kapløb, hvor de, der ska­ber va­er­k­tø­jer til at la­ve falsk ind­hold, al­tid vil va­e­re et skridt for­an. Men li­ge­som med al­le an­dre for­mer for com­pu­ter­sik­ker­hed hand­ler det om at re­du­ce­re ri­si­ko­en mest mu­ligt. »Du vil al­tid ha­ve fjen­der, så det bed­ste, du kan hå­be på, er at mind­ske ri­si­ko­en, ik­ke eli­mi­ne­re den,« si­ger han.

Newspapers in Danish

Newspapers from Denmark

© PressReader. All rights reserved.