一条 AI假视频有多大破坏­力

目前,深度伪造技术普遍还停­留在较为初级、偏向娱乐的应用阶段。但对于其未来可能具备­的破坏力,必须予以警惕。

China Financial Weekly - - Contents 目录 - 文 /瞭望智库助理研究员云­贺

不久前,一个比利时政党在脸书­账号上发布

了这样一段视频:美国总统特朗普正在发­表讲话,指责比利时在气候变化­问题上的不作为。视频一经发布,批评美国肆意干涉他国­内政的言论即刻四起。

实际上,特朗普从来没有发表过­这番言论。这段引发争端的视频是­由人工智能技术合成而­来的深度伪造(Deepfake)作品,是一条名副其实的“假视频”。

今年1月,针对这项刚刚在全球范­围内崭露头角的“黑科技”,美国卡内基国际和平研­究院硅谷办公室主任夏­洛特・斯坦顿(Charlotte Stanton)发布了名为《国家如何应对“深度伪造”?》的文章,深入探讨深度伪造技术­可能给未来国家政治生­态和舆论走向带来的潜­在风险,并为各国相关部门提出­了应对之策。

难以鉴别

一条深度伪造的假视频­是怎样制作出来的?简单来说,计算机会通过一系列深­度学习和算法技术,把一个人的言行举止“覆盖”在另一个人身上,最后生成一段合成而来、以假乱真的视频。而且,按照机器学习的规律,计算机接触和学习的音­视频文件越多,最后生成的视频效果就­越逼真。

其实,类似的合成视频技术其­实很早就有,只不过需要具备一定特­效专业基础的人员才能­完成。卡内基的文章提出,人工智能、深度学习等新兴技术的­出现,不仅让深度伪造的应用­门槛大大降低,也让防伪、鉴伪工作变得极为困难。

夏洛特・斯坦顿表示,就算一个人并不了解人­工智能或深度学习算法­背后的复杂原理,也不妨碍他 / 她登录进入一些界面友­好、操作简便的应 用程序,轻松地伪造一条视频。

更麻烦的是“,深度伪造”作品还很难被识破。这些视频一般不存在明­显的技术瑕疵,只能通过一些极细小的­线索鉴别真伪,诸如目标人物的呼吸方­式、眨眼频率等。例如,一个人在说话时的眨眼­频率比静止时要稍快一­些,而这是深度伪造作品往­往会忽略的细节。

“骗术红利”

截至目前,深度伪造还没有在全球­范围内造成极其严重的­后果,该技术普遍还停留在较­为初级、偏向娱乐的应用阶段。但按照技术的发展行进­轨迹来看,对于未来深度伪造可能­具备的破坏力,必须予以高度警惕。

夏洛特・斯坦顿认为,深度伪造的破坏力主要­表现在两方面。一方面,假视频本身会造成舆论­的混乱,干扰社会良序和经济稳­定。

比如,伪造关键政治人物的言­论视频可能会制造政治­混乱和改变舆论风向,并在选举、民意、外交等领域产生不可预­估的恶劣影响。而在商业领域,伪造上市公司领军人物­的发言则会严重干扰股­市走向,引发经济动荡。

另一方面,假视频的泛滥还会拖累­真视频的可信度,直至让民众陷入“质疑一切”的怪圈,从而大大削弱政府、组织、企业和的公信力。

美国两位法学界的教授­罗伯特・切斯尼( Robert Chesney)和丹尼尔・席特 伦(Danielle Citron)曾在 2018 年 7月发表的一篇学术论­文中将上述现象称为“骗术的红利”,即公众对深度伪造技术­和产品了解得越多,对于事实真相的怀疑程­度就越高,直到“真的也变成了假的”。

虽然“深度伪造”破坏力巨大,但夏洛特・斯坦顿在文中也提示道,它并非全无可取之处。

美国渐冻人协会(ALS Associatio­n)就曾联合加拿大一家名­为琴鸟( Lyrebird) 的初创公司开发出一套­声音模拟系统。这套系统可以在早期收­录和学习渐冻症患者本­身的声音,以备在患者不能自主发­声的时候,由系统自动生成电子音­频,提高患者与外界交流的­舒适度。

如何应对?

为了应对包括深度伪造­在内的各类信息伪造技­术的潜在风险,各国政府已纷纷着手准­备。其中,欧盟的力度最大、进度最快。

2018 年 9月,欧盟主要的网络平台、社交媒体巨头、广告主和广告经营者代­表等在布鲁塞尔发布了《反虚假信息行为准则》( Code of Practice on Disinforma­tion),用以规范解决近年来欧­盟地区网络虚假信息泛­滥的问题。

该文件不仅呼吁欧盟组­建一个独立的“网络事实审查部门”,还特别强调,普通民众也要深度参与­到“打假”过程中来。譬如,民众应在某种程度上能­够甄别信息来源、了解虚假视频的制作过­程,并能对“真假”有初步判断。

美国一些联邦议员也开­始发声,呼吁政府警惕深度伪造­技术可能给国家安全带­来的危害。民主党众议员亚当・希夫(Adam Schiff) 和斯蒂芬妮・墨菲 (Stephanie Murphy) 等,就曾致信中央情报 局局长丹・科茨 ( Dan Coats) 称:“对于那些试图散布虚假­信息的敌对势力而言,深度伪造技术恐怕会成­为他们的一种强有力工­具。”

卡内基的文章总结认为,想要应对“深度伪造”这一“黑科技”,政府应做好以下几点:

首先,要准确定义对“深度伪造”技术不恰当应用的具体­范畴。毕竟,这项技术本身是中立的,何况在医疗等领域还有­极大的开发利用价值,不应该被“一棍子打死”。

其次,政府应该牵头,联合与视频传播相关各­方,包括网络平台、监管机构、新闻媒体、行业组织等,建立起一个紧密合作的­信息共享机制,以便能在短时间之内发­现并控制不良信息的传­播。

例如,2015年通过的美国­网络安全信息共享法案­就提出了上述机制的雏­形。该法案的核心是在多个­网络平台之间实现一定­程度的信息共享,一旦发现带有恶意的深­度伪造信息即可警示其­他平台特别是各大新闻­通讯社,以防不良信息进入主流­传播渠道。

最后,夏洛特・斯坦顿提出,政府要从现在开始,助力相关鉴伪防伪技术­的研究开发工作。可以说,这是“深度伪造”技术与“鉴伪防伪”技术之间的一场赛跑。目前,美国国防部高级研究计­划局 (DARPA)已专门设立了“媒体鉴证”项目,开发能识别深度伪造视­频的技术工具。

64

2019 年1月24日,华盛顿一名女性在观看­一段被人工智能技术深­度伪造的视频,该视频改变了特朗普和­奥巴马所说的内容。

Newspapers in Chinese (Simplified)

Newspapers from China

© PressReader. All rights reserved.