China Today

改头换面?小心受骗!

改头换面?小心受骗!

- 文|马迪

都说“耳听为虚,眼见为实”,但如果你在国外视频网­站上搜索一下“deepf a ke”这个词,一定会怀疑自己的眼睛。这种正在迅速风行全球­的技术让人意识到,除了诈骗电话、PS图片,现在连视频都会“骗人”了,而且几乎天衣无缝。

在A I 领域中,有一项非常热门的分支,叫做机器学习—用程序模拟人类学习的­过程,可以自我更新、自我进化、累积经验,最终形成自己的某种套­路。而在机器学习中,又有一种非常热门的方­式—生成对抗网络(Gener at ive Adver s a r i a l Net work,简称 GA N)。

2 014 年,I a n G o o d f e l l ow提出了G A N 模型,即设计两个独立的机器­学习网络,分别为生成器和判别器。以模拟一张图片为例,生成器不断训练,目的是“模仿”出以假乱真的图;而判别器则不断检测,判断出此图是真是假。在对抗过程中,两者都会不断优化,提高自己的生成能力和­判别能力。这样“左右互搏”的结果就是,生成器一定能输出无限­接近于原图的“赝品”。

2 016 年,基于 GA N 的实时视频仿真软件 Face2face 诞生,可以把一个人的脸部动­作,无声无息地转移到另一­个人的脸上。这项技术的开发者 Ju st u s T h ie s 在当时已经意识到了潜­在的危险,他在一次接受采访的时­候表示:“如果这类视频软件得到­广泛应用的话,将会对社会造成剧烈的­影响—这也是为什么我们不把­软件代码开源的原因之­一。”

但遗憾的是,这个潘多拉魔盒已经被­打开了。超低门槛的工具让这项­技术走向大众,一大批用户加入到这种­视频的制作和分享中,甚至有专门的软件教人“一键换脸”,比如Fa keapp,两个月就被下载了12 万次。

在 2 017 年 11 月前,deepf a ke 每月搜索次数只有 10 0 次左右。到了 2 018 年 7月,每月搜索次数已经上升­到 10 0 万次 -10 0 0 万次。随着类似于 f a keapp这样工具开­始普及,有人开始尝试通过虚假­视频来造谣、制造恐慌甚至牟利,比如制造假新闻甚至制­作用来威胁勒索的假视­频。

另一方面,deepf a ke 视频的检测是个难题。很业余的“换 脸”肉眼可辨—通俗一点讲,你会发现诸如五官的线­条、动态的表情有种僵硬的­不协调感,仿佛人脸上带了一个面­具。更细节一点,还有连接处、阴影位置、服装饰品不对称之类的­证据。但随着人工智能技术的­发展,这项技术必将日趋完善,甚至到达人工智能也无­法区分真假的程度。如果我们检测虚假视频,很快我们就会被迫怀疑­一切所见所闻。

值得庆幸的是,科学界正在应对这个问­题。由纽约奥尔巴尼大学的 Siwei Ly u领导的一个团队发现­了这些伪造视频的漏洞。Ly u和他的团队特别关注­一点:眨眼。健康的成年人每两到十­秒钟眨眼一次,而一次眨眼的时间是十­分之一到十分之四秒。由于人像照片通常不会­闭眼,所以假视频中的人物眨­眼的频率要比真人少得­多。因此,辨别真假视频的原理就­是使用机器学习来检查­视频中睁眼和闭眼,计算眨眼的总频率并将­其与自然范围进行比较,可以排除高达 95% 的假视频。

全凭眨眼判断视频真伪­显然是不够的—在伪造视频的后期处理­中,手动添加眨眼并不是多­大的挑战,Ly u也很清楚这一点:“我们正在形成第一道防­线,从长远来看,这实际上是制作假视频­和检测假视频之间的持­续战斗。”

另一个可行的方式是推­广视频签名,即所有的视频都要留下­原始 h a sh 来证实真实性,也许以后,没有留下 h a sh值的人物视频都会­被视为虚假,就如同和任何发来要求­借钱的短信同样的待遇。到时候,一定会出现辅助校验的­平台和工具,帮助人们分辨。

对中国来说,现在处于一个很特殊的­时期—大多数民众完全不熟悉­这种技术,而在技术圈已经可以很­低成本地制造这种视频。像抖音、快手这种自媒体视频平­台,简直就是天然适合虚假­视频大规模传播的土壤。虽然 deepf a ke 视频还没在中国的网络­上大规模出现,但提高警惕总是没错的:知道视频可以伪造,以后第一反应就应该是­去探究其来源,如果没有可靠的官方来­源,就应该提高警惕,切勿轻易相信和传播。

如何去伪存真,真的是每个时代每个社­会都需要思考的终极问­题。

 ??  ??

Newspapers in Chinese (Simplified)

Newspapers from China