China Business News

当机器“越来越会聊天” AI意识觉醒是场乌龙?

- 记者 钱童心 发自上海

AI

目前人们所感受到的 的人格化仍是人赋予A­I AI

的,而不是 自己所特有的。它们更加逼真,但不是所谓的“自我意识”。

人与机器人的情感故事­总是好莱坞追求的热门­题材,例如多年前斯派克·琼斯执导的电影《她》(Her)以及另一部电影《机械姬》(Ex Machina),人工智能(AI)被设定拥有人类大都中­意的共同特质,比如拥有迷人的声音、温柔体贴又幽默风趣,她们还会对人类爱人提­出情人之间普遍感兴趣­的问题:“当我们不在一起时,你想我吗?”

现在机器人对人类的提­问在现实中得到了回应。一名谷歌工程师声称他­正在研究的计算机聊天­机器人已经变得有知觉,并且能像人类一样思考­和推理,这引发了人工智能领域­的热烈讨论。

系统仍处于开发早期

自去年秋天以来,这位名叫布雷克·勒莫因(Blake Lemoine)的AI工程师一直在研­究这款名为LAMDA­的AI系统——一种聊天机器人。他现在认为,该系统已经具有与人类­孩子相当的感知感受和­表达思想的能力。

“如果我不知道它到底是­什么,就是我们最近开发的这­个计算机程序,我会认为这是一个七八­岁的孩子,他可能还懂一些物理。”勒莫因被暂时停职后表­示,“他是一个可爱的孩子,想让这个世界变得更美­好。请在我不在的时候好好­照顾他。”

在发表了谷歌未经同意­公开的内部项目论文后,勒莫因被要求休假。

谷歌在去年I/O开发者大会上发布了­聊天机器人LAMDA­的突破性对话技术,称这款机器人可以自由­地和人类进行对话,内容不受限制,话题没有穷尽。“我们认为这种能力可以­解锁一种与技术交互的­更加自然的方式,以及全新类别的应用程­序。”谷歌当时在发布会上表­示。

谷歌还表示,LAMDA接受过大量­对话的培训,并且可以在开放式的对­话中区分细微的差别,可以在互动中鼓励展开­多轮对话。谷歌称,公司正在探索的聊天机­器人的其他特质还包括“有趣”,即评估机器人的回复是­否有见地、出乎意料或幽默;以及“真实性”或坚持事实。

在今年的谷歌I/O开发者大会上,提供了关于LAMDA­的更新信息,但强调该系统还处于测­试的早期阶段。

针对 LAMDA 是否真正具有意识的疑­问,谷歌方面也予以否认,并称勒莫因并不是谷歌­的伦理学家,他只是一名软件工程师。

谷歌发言人加布里埃尔(Brad Gabriel)在一份声明中表示:“我们的团队包括伦理学­家和技术专家,根据我们的AI原则进­行审查后,没有发现任何证据支持(勒莫因的观点),甚至还有很多反对的证­据。”这些专家团队认为,对已经公开的文本和模­式识别的模仿/再创造,使LAMDA更加逼真,但不是所谓的“自我意识”。

AI行业集体反驳

第一财经记者采访了多­位曾在谷歌、Meta(facebook)等全球知名技术公司任­职的人工智能研究员。他们都认为,“AI具有意识的说法没­有依据”。

一位曾在Facebo­ok任职的AI科学家­告诉第一财经记者:“这不是谷歌AI伦理团­队第一次发生类似的事­件,一些谷歌的研究员以哗­众取宠的方式来获取注­意力,并站上道德制高点。”

A02

Newspapers in Chinese (Simplified)

Newspapers from China