Virtuaalietsivät metsästävät väärennettyjä videoita
Deepfake-videoissa tekoäly manipuloi kasvoja ja ääniä. Tuloksena on videoita, jotka häivyttävät faktan ja fiktion rajat. Nyt yritykset eri puolilla maailmaa ovat nousseet deepfake-huijauksia vastaan virtuaalietsivillä, jotka tunnistavat manipuloidut videot kääntämällä tekniikan niitä itseään vastaan.
onnald Trump on todellinen supermäntti”, totesi Yhdysvaltojen entinen presidentti Barack Obama videolla vuonna 2018. Obama ei kuitenkaan itse lausunut sanoja. Videolla kuuluva ääni oli yhdysvaltalaisen koomikon Jorden Peelen imitaatio, ja hahmon kasvot ja ilmeet olivat tekoälyllä luotuja.
Video tehtiin sen havainnollistamiseksi, kuinka helppoa katsojia on huijata niin sanotulla deepfakella eli elävällä kuvalla ja äänellä, jotka on luotu vain katsojien manipuloimiseksi. Nykyisin deepfake-videot ovat yleisempiä kuin koskaan ja tekniikasta on tullut niin kehittynyttä, että väärennettyä videota on mahdotonta erottaa aidosta paljain silmin. Teknologiayritykset yrittävätkin nitistää deepfakeja omilla algoritmeillaan.
Deepfaket halutaan hengiltä
Deepfake-videot perustuvat tekoälyyn, joka luo Barack Obamasta tai jostakusta muusta digitaalisen version käymällä läpi ison määrä kuvia, videota ja äänitallenteita. Deepfake-videoiden tekijät ovat kuin nukketeatterin ohjaajia: he vetelevät naruista ja saavat videoilla näkyvät uhrit tekemään ja sanomaan lähes mitä tahansa. Nykyisin tekniikasta on tullut niin kehittynyttä, että väärennettyä kuvaa on mahdotonta erottaa aidosta. Deepfake-huijausten uhriksi voivat joutua muutkin kuin poliitikot.
Vuonna 2019 rikollisten onnistui huijata brittiläiseltä energiayhtiöltä yli 200 000 euroa deepfakella, joka jäljitteli erehdyttävän tarkasti yhtiön johtajan ääntä. Vuotta myöhemmin ilmastoaktivistiryhmä Extinction Rebellion teki Belgian pääministeristä deepfaken, jossa hän liitti maapallon ilmastokriisin koronavirustautiin.
Deepfaket ovat kuitenkin pian historiaa, jos on uskominen muutamia maailman johtavia teknologiayrityksiä. Google ja Facebook ovat uhranneet kahdeksannumeroisia summia väärien videoiden löytämiseen ja poistamiseen, jotta ne eivät ehtisi aiheuttaa vahinkoa. Alankomaalainen Deeptrace-yritys on onnistunut eliminoimaan runsaasti väärennettyjä videoita soveltamalla yksinkertaista ideaa: se on kääntänyt deepfake-videoiden tuottamiseen käytetyn tekniikan itseään vastaan.
Deepfake-videoiden taustalla on koneoppiva tekoäly, joka pohjautuu kahta algoritmia noudattavaan neuroverkkoon. Neuroverkot muodostavat keskenään kilpailevan verkoston (generative adversial network, GAN). Toinen algoritmeista on luova. Parhaan mahdollisen deepfaken tuottamiseksi siihen syötetään analysoitavaksi suuria määriä dataa henkilöstä, jota on tarkoitus jäjlitellä. Algoritmi analysoi kasvonpiirteitä, hiuksia, varjoja ja muita yksityiskohtia eri kulmista ja tuottaa lopulta ehdotelman deepfakeksi. Algoritmi numero kaksi valvoo toisen algoritmin työtä.
Se analysoi yksityiskohtia, kuten väärässä paikassa olevia pikseleitä tai kasvojen siirtymistä päähän nähden. Jos valvonta-algoritmi löytää virheitä, se raportoi niistä luovalle algoritmille, joka korjaa virheet ja tuottaa uuden, aiempaa paremman version videosta. Luova algoritmi käy siis tekemässä valvonta-algoritmin laatiman kokeen, ja vasta, kun valvonta-algoritmi ei enää pidä videota väärennettynä, deepfake on valmis.
Deepfake-ilmiö sai maailmalla enemmän tunnettuutta 2019, kun eräs Reddit-sivus
ton käyttäjä alkoi ladata sivustoon pääasiassa pornografisia videoita. Pian sivustosta alkoi löytyä myös sellaisia pornovideoita, joissa muka esiintyi Taylor Swiftin ja Katy Perryn tyyppisiä tunnettuja poplaulajia.
Sittemmin verkossa on alkanut kiertää tuhansia deepfake-videoita, joiden aihepiirit vaihtelevat pornosta politiikkaan. Nyt tutkijat ja yritykset ovat ryhtyneet keksimään keinoja väärennettyjen videoiden paljastamiseen ennen kuin ne ehtivät levitä laajalle.
Yksi yrityksistä on alankomaalainen Deeptrace. Yritys on kehittänyt sisällönvalvonta-algoritmin. Algoritmiin syötetään tuhansia tunteja aitoja ja väärennettyjä videoita, minkä jälkeen se oppii tunnistamaan, miten ne voi erottaa toisistaan. Uhkatiedustelun päällikkönä Deeptracessa toimivan Henry Ajderin mukaan videossa on kiinnitettävä huomiota hyvin pieniin yksityiskohtiin, ennen kuin deepfake paljastuu.
”Moni deepfake ei pistä silmään, ja virheet ovat pikselitasolla. Algoritmimme on muun muassa oppinut löytämään vääränlaisia pikseleitä: pieniä pikselijoukkoja, jotka ovat liian tummia tai vaaleita (suhteessa ympäristöön, toim. huom.),” Henry Ajder kertoo.
Deepfake luodaan yhdistämällä useita kuvia ja videoita, ja niihin voi siksi päätyä vääränlaisia pikseleitä. Algoritmi käy siksi epäjohdonmukaisuuksien löytämiseksi läpi jokaisen pikselin jokaisesta kuvasta, joita voi olla tuhansia jokaisessa videossa. Algoritmilla onkin saavutettu hyviä tuloksia.
Joulukuussa 2018 Deeptrace löysi verkosta yli 14 000 videota, jotka voitiin luokitella deepfakeiksi. Niiden löytämiseksi algoritmin on koko ajan opittava lisää, sillä myös deepfake-videot parantuvat koko ajan: ”Deepfakejen tekijät kehittävät niistä jatkuvasti parempia, ja meidän on parannettava algoritmiamme koko ajan löytääksemme ne,” Ajder selittää.
Ilmeet ovat akilleenkantapää
Siinä missä Deeptrace keskittyy deepfake-videoissa esiintyvien virheiden, kuten heikon tarkkuuden, väärissä paikoissa olevien pikseleiden ja muiden vikojen, havaitsemiseen, Kalifornian yliopistossa Berkeleyssä työskentelevä tutkija Shruti Agarwal on valinnut toisen lähestymistavan.
Agarwal havaitsi, että Barack Obama liikauttaa päätään hieman korkeammalle oikealle tai vasemmalle aina, kun hän sanoo ”hello everybody”. Tämä sai hänet tutkimaan, pystyvätkö deepfaket jäljittelemään ihmisten tapaa puhua ja miten kasvot liikkuvat suhteessa puheen sisältöön. Tästä syystä Agarwal laittoi analysointiohjelman kartoittamaan viidelle poliitikolle ominaisia ilmeitä ja liikkeitä, jotka ovat ehkä osoittau
40 tuneet deepfakejen suurimmaksi akilleenkantapääksi. Deepfakessa nimittäin laitetaan vain yhden ihmisen kasvot toisen ihmisen kasvojen päälle eikä kiinnitetä huomiota ilmehdintään. Agarwalin algoritmi pystyi tunnistamaan 94 prosenttia siihen syötetyistä deepfake-videoista. Tunnistamiskeino vaatii kuitenkin ison määrän kuva-aineistoa henkilön ilmeistä, joten se toimii parhaiten julkisuuden henkilöiden kohdalla, sillä heistä löytyy paljon kuvia.
Etsintä on käynnissä
Deepfake-tekniikka on kehittynyt pisteeseen, jossa väärennettyjen videoiden tunnistamiseen vaaditaan kehittyneitä algoritmeja, ja videoiden tunnistaminen ajoissa vaikeutuu koko ajan. Google, Facebook ja Twitter ovatkin käynnistäneet hankkeita, joissa pyritään löytämään ja poistamaan epäaidot videot ennen kuin ne levittävät väärää tietoa verkossa.
Facebook on rahoittanut miljoonilla dollareilla korkeakouluja, joiden koulutukseen kuuluu kuva- ja videoanalyysia ja jotka tutkivat, miten deepfake-videoista päästään eroon. Google on tallentanut satojen näyttelijöiden haastatteluja ja luonut niiden pohjalta 3 000 deepfakea. Ne on laitettu verkkoon harjoittelumateriaaliksi tutkijoille ja It-asiantuntijoille, jotka opettavat algoritmejaan tunnistamaan deepfakeja. Jotta kykenisimme erottamaan faktan fiktiosta, on korkea aika tehdä jotain väärennetyille videoile. Kuten huijari-obama toteaa vuoden 2018 deepfake-videolla:
”Kuulostaa ehkä ihan perusjutulta, mutta tapa, jolla jatkossa toimimme tänä informaation aikakautena, ratkaisee sen, jäämmekö eloon vai odottaako meitä tulevaisuudessa jokin kieroutunut dystopia.”
Prosessi toistetaan
Luova algoritmi saa palautetta, jossa listataan deepfaken virheet. Lista voi sisältää huomautuksen esimerkiksi siitä, että kasvojen laidalla olevat pikselit käyttäytyvät oudosti. Algoritmi alkaa tämän jälkeen työstää kasvojen laitaa ja korjaa muutkin havaitut virheet. Lopuksi se lähettää videosta uuden version valvovalle algoritmille. Prosessi toistuu, kunnes valvova algoritmi ei enää huomauttele virheistä.