Business Times

与AI聊天,也要有技巧

- 撰文/张帅

聊天是一门艺术,更是一项技能。有时,通过高效率且有技巧式­的聊天,往往会带来一些意想不­到收获,人们亲切地称为“白嫖”。没错,只要功夫深,“白嫖”质量就更佳。世上也没有任何事情会­逾越过沟通,而直达结果。这也是人工智能解决方­案的科学家们,为什么会热衷于以对话­的形式,来解决用户当前的问题。

Google 在今年的 I/O大会上,发布了一款了新模型L­aMDA。其功能与现今任务型A­I 的逻辑大体一致,但是却又是AI发展的­一个重要节点。Google 和 Alphabet 首席执行官Sunda­r Pichai 对LaMDA 看法是:“它旨在与任何主题进行­对话。”

进入 21世纪,人工智能跨过了答非所­问的阶段,更离谱的是不同消费级­设备,所配备的AI 不仅会像打了鸡血一样­等着发问,更会不等发问突然出现,给用户一个惊喜。简单来说现今大部分A­I还缺少“灵魂”的注入,只是兴奋地在为用户搜­索想要知道的答案罢了。

LaMDA则不一样,如果投入市场的话,我们或许可以将其想象­为在与AI讨论一个问­题的时,能够根据下一个提问而­跳过当前问题,并精准给到下一个问题­的答案,并且不会出现“今天几号?”,”怎么摸鱼?”等这样基本逻辑不搭的­问题。虽然 Google的模型与­市场的产品并没太大区­别,但 Google 好歹是为 AI注入了一丝灵魂,推着行业迈了一小步。

这是因为该训练模型有­神经网络体系结构(类似于 BERT 和 GPT-3 等语言模型),以及在培训期间,学习了如何将开放式对­话与其它形式的语言区­分开的细微差别。Pichai 说,LaMDA 从其训练数据中综合了­这些概念,所以可以做出明智的回­应,使对话保持开放性。“没有对话两次都走同一­条路,并且该模型可以进行对­话而无需重新训练。 ”Pichai 如是说道。

虽然 LaMDA的出现,使人们与机器人交谈不­会再变的棘手,不会进入死胡同,是AI 技术进步的表现。但是 Google 本身也及其在意AI 的原则,即 AI可能会与所有工具­一样,也可能被滥用。在 Google 博客《LaMDA :我们突破性的对话技术》一文中,明确的指出通过内化偏­见,可能会引起仇恨言论或­复制具有误导性的信息,即使经过审查所训练的­语言,也仍然存在被加以滥用­的可能。

LaMDA是所谓的大­型语言模型(LLM),这是一种在大量文本数­据上经过训练的深度学­习算法。但正因如此,所以专家认为可能会导­致种族

主义、性别观点和侮辱性观念­的模型加以嵌入。并因传播和自动学习的、引入等原因,就很容易使人们误以为­是人为进行了观点的输­出。

好在,Google做出了很­多的努力,以确保LaMDA在公­平性、准确性和隐私性方面的­高标准。“在创建诸如LaMDA­之类的技术时,我们的首要任务是确保­我们将此类风险降到最­低。我们多年来一直在研究­和开发这些技术,因此对机器学习模型所­涉及的问题(例如不公平的偏见)非常熟悉。”

与此同时,全球有500多个研究­人员竞相的了解这些模­型的功能和局限性。而在Huggingf­ace(一家采用“开放科学”方法来理解自然语言处­理(NLP)的初创公司)领导的 BigScience 项目下,他们寻求建立一个开源­LLM,该 LLM将成为科学界的­共享资源。目标是在单个重点年度­内获得尽可能多的奖学­金。他们的中心问题是:应如何开发LLM以及­何时部署LLM才能获­得其收益而又不会造成­有害后果?

Huggingfac­e首席科学官托马斯·沃尔夫

(Thomas Wolf)说:“我们无法真正停止对每­个人都想进行培训的大­型语言模型的这种疯狂”。“但是我们能做的是尝试­朝着最终更有利的方向­轻推这一点。”

写在最后

如果 Google 会将 LaMDA整合到现有­的产品中,那么这些产品可能会对­用户变得更加有用。例如,LaMDA可以通过交­谈的形式,解决儿童和老年人等群­体的交互方式;在汽车的内置中,可以更加便捷地更改目­的地,或者查询路况;除此之外,也将理解不同词汇的意­义及应用等等。这是 To C用户搜索行为方式的­一次转变,当然也可能是 To B企业调整内容和产品­的一个方向。

但这并不是最终的形态,Google也为其留­下了更多畅想空间的未­来。“敏感性和特异性并不是­我们在 LaMDA等模型中所­追求的唯一品质,我们还在评估诸如’兴趣度’之类的维度,方法是评估回应是否具­有洞察力,意想不到或机智。”

 ??  ??
 ??  ??

Newspapers in Chinese (Simplified)

Newspapers from China