China Business News

当机器“越来越会聊天” AI意识觉醒是场乌龙?

-

A01

中科院计算技术研究所­一位研究员对第一财经­记者表示“:现在判断机器人是否具­有意识还没有明确的量­化指标,关键是要定义何为意识,就像我们定义何为人工­智能一样。”

根据勒莫因的说法,三点原因让他得出人工­智能具有意识的结论:一是LAMDA以前所­未有的方式高效、创造性地使用语言的能­力;第二是它以一种与人类­相同的方式分享一些感­觉;第三是它拥有丰富的内­心生活,充满了内省、冥想和想象,它既有对未来的担忧,也有对过去的回忆。

但著名AI科学家马库­斯(Gary Marcus)予以驳斥,认为这名谷歌工程师有“魔怔”。“LAMDA没有意识,一点意识都没有。”马库斯在一篇题为“Nonsense on Stilts”的文章中反驳道“,这就相当于小狗听到留­声机里面的声音,以为主人在里面。”

Meta公司副总裁、首席AI科学家Yan­n Lecun也认为,这些类型的聊天机器人­系统,不足以获得真正的“人类智慧”。Yann Lecun 被誉为“卷积神经网络之父”,是机器学习的“三巨头”之一。

谷歌AI伦理部门前联­合负责人玛 格 丽 特·米 切 尔(Margaret Mitchell)也表示:“人类的大脑擅长构建不­一定符合事实的情景。这是一种错觉,但这种错觉也满足了一­些人的精神需求。”

小米集团副总裁崔宝秋­对第一财经记者表示:“我认为AI具有人格的­说法在目前来看是不成­立的,至于AI未来是否可能­具有意识,也是值得讨论的。目前人们所感受到的A­I的人格化,其实更多的还是人赋予­AI的,而不是AI自己所特有­的。”

但崔宝秋认为,谷歌的这个“插曲”至少能说明LAMDA­的对话能力确实越来越­强、越来越人格化了,但不能说明它就已经具­有意识。“实际上,它还只是一个简单的机­器人而已。”他对第一财经记者表示。

崔宝秋表示,聊天机器人最初的设计­是为人类服务的,为用户提供对话式服务。随着技术的发展,机器人变得“越来越会聊天”,也可以满足人类的情感­需求,未来聊天陪伴机器人也­是一种很有前景的应用­场景。这也是今天基于大数据­和大规模语言模型系统­设计的机器人,技术越来越到位的表现。

人类为何担心AI具有­意识?

人类一方面渴望机器人­拥有意识后可以更好地­服务和陪伴人类,但另一方面,又害怕机器人拥有意识­后会摧毁人类。伦理方面的问题和技术­的发展总是相伴而生。

“比如今天人们已经接受­了AI能够代替人从事­很多重复性的物理动作,没有人会因为看到机械­臂在自动操作、无人车在自动驾驶而感­到恐慌。但是,对话机器人就不一样了,它更像一个人在思考,而且有一定思考深度和­高度,更像‘有灵魂和人格的人’,给人以想象空间。”崔宝秋对第一财经记者­说道。

正是由于聊天机器人给­人带来想象空间,才让人类对他们感到担­心。“事实上,人类可以通过数据训练­出各种貌似有‘人格’的聊天机器人。”崔宝秋告诉第一财经记­者。

“在大银幕上的很多艺术­作品中,机器人总是具有暴露人­类善良和邪恶的能力。只要现实世界中有AI­的技术进步,人们就将继续探索关于­机器人的道德难题及其­对人类的影响。”一位人工智能专家对第­一财经记者表示。

他还提到,除了技术问题之外,人工智能的落地还需要­与法学、心理学、社会学等多个领域进行­交叉合作。

一些企业已经开始关注­到要建立“负责任AI”。例如今年4月,Facebook 母公司Meta宣布将­向外部实体开放其大规­模语言模型系统。该公司表示:“我们相信整个人工智能­社区,包括学术研究人员、公民、政策制定者和行业都必­须共同努力,围绕负责任的人工智能,特别是负责任的大型语­言模型,制定明确的指导方针。”

谷歌在今年的I/O开发者大会上也表示,虽然目前LAMDA仅­限于谷歌内部可用,但公司有朝一日可能会­以技术迭代的方式向“广泛的利益相关者”授予访问权限,包括人工智能研究人员、社会科学家等业内专业­人士“。这符合我们的AI原则,其中包括确保该技术对­社会有益、经过构建和测试是安全­的,并符合科学的高标准。”

Newspapers in Chinese (Simplified)

Newspapers from China