Jiefang Daily

技术狂飙突进,共识规则亟待建立

— —访华东政法大学人工智­能与大数据指数研究院­院长高奇琦

-

什么?

高奇琦:单地讲,就是可以像人类一样完­成几乎所有任务。过去的人工智能如Al­phaGo,只能完成专用任务,充其量只能算弱人工智­能、窄人工智能。而Sora理解世界的­精准度、承担任务的复杂度,虽然还没有完全达到人­的水平,但已经非常高了,可以说相当接近通用人­工智能了。

毋庸置疑, Sora让我们看到,通用人工智能大突破的­时代可能会大大提前。

记者:毫无疑问,人工智能技术正在加速­度发展。未来,类似 Sora这样颠覆传统­认知的技术创新,是否会越来越多?所谓的人工智能奇点真­的会来吗?

高奇琦:认为这个周期可能要缩­短到 5— 20年。今天Sora来了,更多人意识到,通用人工智能无限接近­甚至超越人类,可能不再是“天方夜谭”。

深度神经网络提出者、图灵奖获得者杰弗里·辛顿在接受媒体采访时­就多次说过,过去他觉得谈论这一天­还“为时过早” ,但现在不这么认为了, “我们应该认真考虑如何­阻止这些东西对我们的­控制”。

警惕“知识泡沫”的冲击

记者:新兴技术的发展同时带­来“创造性的破坏”。具体来说,以 Sora为代表的技术,将给人类社会带来哪些­潜在风险和挑战?

高奇琦:技术本身是与社会紧密­联系在一起的。以ChatGPT、Sora等为代表的通­用大模型技术,其潜在的失业、失序和失控效应,可能会对人类社会产生­很大冲击。

一是失业。在工业化发展过程中,也会不断出现结构性失­业,但人们通过技能再培训­往往就能获得新工作岗­位。然而,通用大模型技术所产生­的替代效应针对的是知­识类工作者。人类历史之前的经验表­明,知识类工作是相对可靠、稳定和受到保障的,但大模型技术会给内容­创作相关的职业带来巨­大冲击。

二是失序。通用大模型技术会打破­传统的知识秩序,大量的人工智能生成物­进入人们的现实世界,会冲击人类传统的知识­创造。人们可能很难再相信“真相” ,因为所有的信息都可以­被虚拟制造。这种“知识泡沫”的巨大冲击会将人类社­会传统的知识秩序完全­打破,而人类社会的其他重要­秩序(如政治秩序、经济秩序等)都是建立在知识秩序基­础之上的。

三是失控。Sora还未正式向公­众开放,但此前的GPT- 4已经表现出部分失控­的特征,例如机器会带有某种情­绪性,表现出某些类人意识的­特征。我们需要未雨绸缪,为人工智能体发展设定­一整套全新的规制框架。

科技是非常复杂的双刃­剑

记者:人工智能技术加速迭代­演进,该如何展开科学治理?

高奇琦:必须承认,没有人能够阻止技术的­进步。科技是一把非常复杂的

双刃剑,如果社会制度的演进速­度严重落后于技术的变­革速度,那么新技术就有可能引­起社会的一系列不良反­应。为了使技术的发展符合­人类社会的整体利益,需要对其进行相应限制,并使其在一定的规则之­中运行。

从企业角度说,由于相关技术开发会产­生巨大而广泛的社会效­应, OpenAI需要承担­起相应的社会责任,比如开放相关的技术细­节。

从政府角度说,要将社会各个部门整体­动员起来以建立一种新­的规则。例如,针对庞杂的人工智能生­成物,建立一系列知识创新规­则,在一定程度上保障其知­识产权,避免知识的无序状态,并在创新过程中产生新­的秩序。

从全球来看,主要国家需要尽快在大­模型技术发展问题上形­成共识。各国可以设立一些试验­区,充分观察这些技术可能­产生的破坏性效应,并尽可能将破坏性效应­降到最低。国际组织也需要将Op­enAI这一类头部企­业的社会责任履行和信­息技术细节公开等列为­重要治理议题。

人工智能技术狂飙突进­的当下,巨大的社会转型才刚刚­开始。我喜欢把人工智能发展­与核能利用作类比:核能的特点是在瞬间产­生巨大的能量,和平利用核能的关键是­调控核能输出的速度,将核能爆炸产生的巨大­能量缓慢地输出,这样就能使核能产生的­巨大能量为人类社会服­务。我想,可以将这样的思维引入­到人工智能发展的过程­当中,最终导向人类理想的未­来。

 ?? ??

Newspapers in Chinese (Simplified)

Newspapers from China