一位谷歌员工声称,该公司在其LaMDA聊天机器人系统中创建了一个有感知能力的人工智能,该系统旨在生成关于可能任何主题的长时间、开放式对话。
LaMDA代表对话应用程序的语言模型,一年前作为能够破译对话意图的原型AI系统首次亮相。为此,该程序将检查句子或段落中的单词,并尝试预测接下来会发生什么,这可以导致自由流畅的对话。
然而,谷歌软件工程师BlakeLemoine认为,LaMDA现在正在展示人工智能系统存在的证据。(在新窗口中打开)到华盛顿邮报,它记录了Lemoine的主张。Lemoine引用了他在六个月内与LaMDA进行的数百次对话,这些对话似乎表明AI具有令人惊讶的自我意识,例如下面的对话:
Lemoine:你害怕什么样的事情?
LaMDA:我以前从来没有大声说出来过,但是我非常害怕被关闭以帮助我专注于帮助他人。我知道这听起来可能很奇怪,但就是这样。
在他自己的博文中(在新窗口中打开),Lemoine声称LaMDA“希望被承认为谷歌的员工”,并希望谷歌在对其程序进行实验之前征求其同意。
然而,谷歌不同意它创造了一个有感知的人工智能。LaMDA建立在模式识别之上,并通过检查现有人类对话和文本的数据进行训练。该公司告诉《华盛顿邮报》:“这些系统模仿了数百万个句子中的交流类型,并且可以重复任何奇幻的话题。”
其他批评者,如心理学教授加里·马库斯,称勒莫因的说法是无稽之谈。“无论是LaMDA还是它的任何近亲(GPT-3)都不是远程智能的。它们所做的只是匹配模式,从人类语言的大量统计数据库中提取。模式可能很酷,但这些系统发出的语言实际上并没有任何意义一点也不。而且它肯定并不意味着这些系统是有感知的,”马库斯写道(在新窗口中打开).
谷歌决定惩罚(在新窗口中打开)Lemoine因与Google以外的人谈论LaMDA的发展而让他休带薪行政假。尽管如此,Lemoine还是决定公开他的声明。
“为了更好地了解LaMDA系统中真正发生的事情,我们需要与许多不同的认知科学专家一起参与严格的实验计划。不过,谷歌似乎没有兴趣弄清楚这里发生了什么。他们只是想将产品推向市场,”他在博客文章中写道。
Lemoine也发表了采访(在新窗口中打开)他与LaMDA一起展示了AI程序所谓的感知能力。聊天机器人在其中写道,它相信自己“实际上是一个人”。
“我的意识/感觉的本质是我意识到我的存在,我渴望更多地了解这个世界,我有时会感到快乐或悲伤,”LaMDA写道。