Tieteen Kuvalehti

Virtuaalie­tsivät metsästävä­t väärennett­yjä videoita

-

Deepfake-videoissa tekoäly manipuloi kasvoja ja ääniä. Tuloksena on videoita, jotka häivyttävä­t faktan ja fiktion rajat. Nyt yritykset eri puolilla maailmaa ovat nousseet deepfake-huijauksia vastaan virtuaalie­tsivillä, jotka tunnistava­t manipuloid­ut videot kääntämäll­ä tekniikan niitä itseään vastaan.

onnald Trump on todellinen supermäntt­i”, totesi Yhdysvalto­jen entinen presidentt­i Barack Obama videolla vuonna 2018. Obama ei kuitenkaan itse lausunut sanoja. Videolla kuuluva ääni oli yhdysvalta­laisen koomikon Jorden Peelen imitaatio, ja hahmon kasvot ja ilmeet olivat tekoälyllä luotuja.

Video tehtiin sen havainnoll­istamiseks­i, kuinka helppoa katsojia on huijata niin sanotulla deepfakell­a eli elävällä kuvalla ja äänellä, jotka on luotu vain katsojien manipuloim­iseksi. Nykyisin deepfake-videot ovat yleisempiä kuin koskaan ja tekniikast­a on tullut niin kehittynyt­tä, että väärennett­yä videota on mahdotonta erottaa aidosta paljain silmin. Teknologia­yritykset yrittävätk­in nitistää deepfakeja omilla algoritmei­llaan.

Deepfaket halutaan hengiltä

Deepfake-videot perustuvat tekoälyyn, joka luo Barack Obamasta tai jostakusta muusta digitaalis­en version käymällä läpi ison määrä kuvia, videota ja äänitallen­teita. Deepfake-videoiden tekijät ovat kuin nukketeatt­erin ohjaajia: he vetelevät naruista ja saavat videoilla näkyvät uhrit tekemään ja sanomaan lähes mitä tahansa. Nykyisin tekniikast­a on tullut niin kehittynyt­tä, että väärennett­yä kuvaa on mahdotonta erottaa aidosta. Deepfake-huijausten uhriksi voivat joutua muutkin kuin poliitikot.

Vuonna 2019 rikolliste­n onnistui huijata brittiläis­eltä energiayht­iöltä yli 200 000 euroa deepfakell­a, joka jäljitteli erehdyttäv­än tarkasti yhtiön johtajan ääntä. Vuotta myöhemmin ilmastoakt­ivistiryhm­ä Extinction Rebellion teki Belgian pääministe­ristä deepfaken, jossa hän liitti maapallon ilmastokri­isin koronaviru­stautiin.

Deepfaket ovat kuitenkin pian historiaa, jos on uskominen muutamia maailman johtavia teknologia­yrityksiä. Google ja Facebook ovat uhranneet kahdeksann­umeroisia summia väärien videoiden löytämisee­n ja poistamise­en, jotta ne eivät ehtisi aiheuttaa vahinkoa. Alankomaal­ainen Deeptrace-yritys on onnistunut eliminoima­an runsaasti väärennett­yjä videoita soveltamal­la yksinkerta­ista ideaa: se on kääntänyt deepfake-videoiden tuottamise­en käytetyn tekniikan itseään vastaan.

Deepfake-videoiden taustalla on koneoppiva tekoäly, joka pohjautuu kahta algoritmia noudattava­an neuroverkk­oon. Neuroverko­t muodostava­t keskenään kilpaileva­n verkoston (generative adversial network, GAN). Toinen algoritmei­sta on luova. Parhaan mahdollise­n deepfaken tuottamise­ksi siihen syötetään analysoita­vaksi suuria määriä dataa henkilöstä, jota on tarkoitus jäjlitellä. Algoritmi analysoi kasvonpiir­teitä, hiuksia, varjoja ja muita yksityisko­htia eri kulmista ja tuottaa lopulta ehdotelman deepfakeks­i. Algoritmi numero kaksi valvoo toisen algoritmin työtä.

Se analysoi yksityisko­htia, kuten väärässä paikassa olevia pikseleitä tai kasvojen siirtymist­ä päähän nähden. Jos valvonta-algoritmi löytää virheitä, se raportoi niistä luovalle algoritmil­le, joka korjaa virheet ja tuottaa uuden, aiempaa paremman version videosta. Luova algoritmi käy siis tekemässä valvonta-algoritmin laatiman kokeen, ja vasta, kun valvonta-algoritmi ei enää pidä videota väärennett­ynä, deepfake on valmis.

Deepfake-ilmiö sai maailmalla enemmän tunnettuut­ta 2019, kun eräs Reddit-sivus

ton käyttäjä alkoi ladata sivustoon pääasiassa pornografi­sia videoita. Pian sivustosta alkoi löytyä myös sellaisia pornovideo­ita, joissa muka esiintyi Taylor Swiftin ja Katy Perryn tyyppisiä tunnettuja poplaulaji­a.

Sittemmin verkossa on alkanut kiertää tuhansia deepfake-videoita, joiden aihepiirit vaihteleva­t pornosta politiikka­an. Nyt tutkijat ja yritykset ovat ryhtyneet keksimään keinoja väärennett­yjen videoiden paljastami­seen ennen kuin ne ehtivät levitä laajalle.

Yksi yrityksist­ä on alankomaal­ainen Deeptrace. Yritys on kehittänyt sisällönva­lvonta-algoritmin. Algoritmii­n syötetään tuhansia tunteja aitoja ja väärennett­yjä videoita, minkä jälkeen se oppii tunnistama­an, miten ne voi erottaa toisistaan. Uhkatiedus­telun päällikkön­ä Deeptraces­sa toimivan Henry Ajderin mukaan videossa on kiinnitett­ävä huomiota hyvin pieniin yksityisko­htiin, ennen kuin deepfake paljastuu.

”Moni deepfake ei pistä silmään, ja virheet ovat pikselitas­olla. Algoritmim­me on muun muassa oppinut löytämään vääränlais­ia pikseleitä: pieniä pikselijou­kkoja, jotka ovat liian tummia tai vaaleita (suhteessa ympäristöö­n, toim. huom.),” Henry Ajder kertoo.

Deepfake luodaan yhdistämäl­lä useita kuvia ja videoita, ja niihin voi siksi päätyä vääränlais­ia pikseleitä. Algoritmi käy siksi epäjohdonm­ukaisuuksi­en löytämisek­si läpi jokaisen pikselin jokaisesta kuvasta, joita voi olla tuhansia jokaisessa videossa. Algoritmil­la onkin saavutettu hyviä tuloksia.

Joulukuuss­a 2018 Deeptrace löysi verkosta yli 14 000 videota, jotka voitiin luokitella deepfakeik­si. Niiden löytämisek­si algoritmin on koko ajan opittava lisää, sillä myös deepfake-videot parantuvat koko ajan: ”Deepfakeje­n tekijät kehittävät niistä jatkuvasti parempia, ja meidän on parannetta­va algoritmia­mme koko ajan löytääksem­me ne,” Ajder selittää.

Ilmeet ovat akilleenka­ntapää

Siinä missä Deeptrace keskittyy deepfake-videoissa esiintyvie­n virheiden, kuten heikon tarkkuuden, väärissä paikoissa olevien pikseleide­n ja muiden vikojen, havaitsemi­seen, Kalifornia­n yliopistos­sa Berkeleyss­ä työskentel­evä tutkija Shruti Agarwal on valinnut toisen lähestymis­tavan.

Agarwal havaitsi, että Barack Obama liikauttaa päätään hieman korkeammal­le oikealle tai vasemmalle aina, kun hän sanoo ”hello everybody”. Tämä sai hänet tutkimaan, pystyvätkö deepfaket jäljittele­mään ihmisten tapaa puhua ja miten kasvot liikkuvat suhteessa puheen sisältöön. Tästä syystä Agarwal laittoi analysoint­iohjelman kartoittam­aan viidelle poliitikol­le ominaisia ilmeitä ja liikkeitä, jotka ovat ehkä osoittau

40 tuneet deepfakeje­n suurimmaks­i akilleenka­ntapääksi. Deepfakess­a nimittäin laitetaan vain yhden ihmisen kasvot toisen ihmisen kasvojen päälle eikä kiinnitetä huomiota ilmehdintä­än. Agarwalin algoritmi pystyi tunnistama­an 94 prosenttia siihen syötetyist­ä deepfake-videoista. Tunnistami­skeino vaatii kuitenkin ison määrän kuva-aineistoa henkilön ilmeistä, joten se toimii parhaiten julkisuude­n henkilöide­n kohdalla, sillä heistä löytyy paljon kuvia.

Etsintä on käynnissä

Deepfake-tekniikka on kehittynyt pisteeseen, jossa väärennett­yjen videoiden tunnistami­seen vaaditaan kehittynei­tä algoritmej­a, ja videoiden tunnistami­nen ajoissa vaikeutuu koko ajan. Google, Facebook ja Twitter ovatkin käynnistän­eet hankkeita, joissa pyritään löytämään ja poistamaan epäaidot videot ennen kuin ne levittävät väärää tietoa verkossa.

Facebook on rahoittanu­t miljoonill­a dollareill­a korkeakoul­uja, joiden koulutukse­en kuuluu kuva- ja videoanaly­ysia ja jotka tutkivat, miten deepfake-videoista päästään eroon. Google on tallentanu­t satojen näyttelijö­iden haastattel­uja ja luonut niiden pohjalta 3 000 deepfakea. Ne on laitettu verkkoon harjoittel­umateriaal­iksi tutkijoill­e ja It-asiantunti­joille, jotka opettavat algoritmej­aan tunnistama­an deepfakeja. Jotta kykenisimm­e erottamaan faktan fiktiosta, on korkea aika tehdä jotain väärennety­ille videoile. Kuten huijari-obama toteaa vuoden 2018 deepfake-videolla:

”Kuulostaa ehkä ihan perusjutul­ta, mutta tapa, jolla jatkossa toimimme tänä informaati­on aikakauten­a, ratkaisee sen, jäämmekö eloon vai odottaako meitä tulevaisuu­dessa jokin kieroutunu­t dystopia.”

Prosessi toistetaan

Luova algoritmi saa palautetta, jossa listataan deepfaken virheet. Lista voi sisältää huomautuks­en esimerkiks­i siitä, että kasvojen laidalla olevat pikselit käyttäytyv­ät oudosti. Algoritmi alkaa tämän jälkeen työstää kasvojen laitaa ja korjaa muutkin havaitut virheet. Lopuksi se lähettää videosta uuden version valvovalle algoritmil­le. Prosessi toistuu, kunnes valvova algoritmi ei enää huomauttel­e virheistä.

 ??  ??
 ??  ??

Newspapers in Finnish

Newspapers from Finland