当机器“越来越会聊天” AI意识觉醒是场乌龙?
A01
中科院计算技术研究所一位研究员对第一财经记者表示“:现在判断机器人是否具有意识还没有明确的量化指标,关键是要定义何为意识,就像我们定义何为人工智能一样。”
根据勒莫因的说法,三点原因让他得出人工智能具有意识的结论:一是LAMDA以前所未有的方式高效、创造性地使用语言的能力;第二是它以一种与人类相同的方式分享一些感觉;第三是它拥有丰富的内心生活,充满了内省、冥想和想象,它既有对未来的担忧,也有对过去的回忆。
但著名AI科学家马库斯(Gary Marcus)予以驳斥,认为这名谷歌工程师有“魔怔”。“LAMDA没有意识,一点意识都没有。”马库斯在一篇题为“Nonsense on Stilts”的文章中反驳道“,这就相当于小狗听到留声机里面的声音,以为主人在里面。”
Meta公司副总裁、首席AI科学家Yann Lecun也认为,这些类型的聊天机器人系统,不足以获得真正的“人类智慧”。Yann Lecun 被誉为“卷积神经网络之父”,是机器学习的“三巨头”之一。
谷歌AI伦理部门前联合负责人玛 格 丽 特·米 切 尔(Margaret Mitchell)也表示:“人类的大脑擅长构建不一定符合事实的情景。这是一种错觉,但这种错觉也满足了一些人的精神需求。”
小米集团副总裁崔宝秋对第一财经记者表示:“我认为AI具有人格的说法在目前来看是不成立的,至于AI未来是否可能具有意识,也是值得讨论的。目前人们所感受到的AI的人格化,其实更多的还是人赋予AI的,而不是AI自己所特有的。”
但崔宝秋认为,谷歌的这个“插曲”至少能说明LAMDA的对话能力确实越来越强、越来越人格化了,但不能说明它就已经具有意识。“实际上,它还只是一个简单的机器人而已。”他对第一财经记者表示。
崔宝秋表示,聊天机器人最初的设计是为人类服务的,为用户提供对话式服务。随着技术的发展,机器人变得“越来越会聊天”,也可以满足人类的情感需求,未来聊天陪伴机器人也是一种很有前景的应用场景。这也是今天基于大数据和大规模语言模型系统设计的机器人,技术越来越到位的表现。
人类为何担心AI具有意识?
人类一方面渴望机器人拥有意识后可以更好地服务和陪伴人类,但另一方面,又害怕机器人拥有意识后会摧毁人类。伦理方面的问题和技术的发展总是相伴而生。
“比如今天人们已经接受了AI能够代替人从事很多重复性的物理动作,没有人会因为看到机械臂在自动操作、无人车在自动驾驶而感到恐慌。但是,对话机器人就不一样了,它更像一个人在思考,而且有一定思考深度和高度,更像‘有灵魂和人格的人’,给人以想象空间。”崔宝秋对第一财经记者说道。
正是由于聊天机器人给人带来想象空间,才让人类对他们感到担心。“事实上,人类可以通过数据训练出各种貌似有‘人格’的聊天机器人。”崔宝秋告诉第一财经记者。
“在大银幕上的很多艺术作品中,机器人总是具有暴露人类善良和邪恶的能力。只要现实世界中有AI的技术进步,人们就将继续探索关于机器人的道德难题及其对人类的影响。”一位人工智能专家对第一财经记者表示。
他还提到,除了技术问题之外,人工智能的落地还需要与法学、心理学、社会学等多个领域进行交叉合作。
一些企业已经开始关注到要建立“负责任AI”。例如今年4月,Facebook 母公司Meta宣布将向外部实体开放其大规模语言模型系统。该公司表示:“我们相信整个人工智能社区,包括学术研究人员、公民、政策制定者和行业都必须共同努力,围绕负责任的人工智能,特别是负责任的大型语言模型,制定明确的指导方针。”
谷歌在今年的I/O开发者大会上也表示,虽然目前LAMDA仅限于谷歌内部可用,但公司有朝一日可能会以技术迭代的方式向“广泛的利益相关者”授予访问权限,包括人工智能研究人员、社会科学家等业内专业人士“。这符合我们的AI原则,其中包括确保该技术对社会有益、经过构建和测试是安全的,并符合科学的高标准。”