(资料图)
谷歌代表在接受《华盛顿邮报》采访时否认了其工程师的说法。据该公司发言人 Brian Gabriel 称,没有证据支持 Lemoine 关于 LaMDA 有意识或有知觉的指控。
谷歌 Ethical AI 的前联合负责人玛格丽特·米切尔 (Margaret Mitchell) 也赞同 Lemoine 受到大型语言模型带来的问题之一的影响。具体来说,她提到了这样一个事实,即人类很容易产生通过脑海中的人工现实产生的幻觉。鉴于人工智能的能力越来越强,这些系统可以轻松地重新创建对人类来说更自然的对话。
什么是谷歌 LaMDA?
Google 多年来一直在开发 LaMDA。这是一个对话式人工智能系统,于 2021 年推出,接替了 Meena。此外,它基于一家名为 Transformer 的公司于 2017 年推出的开源神经网络。
谷歌目前的大型语言模型,现在是第二个版本,用来自公共网络数据和文档的 1.56 万亿个单词进行训练,以产生明智、具体、真实和有趣的对话。这与 OpenAI 的 GPT-3 形成鲜明对比,后者“仅”使用多达 1750 亿个参数。
谷歌的最终目标是将其对话人工智能系统置于包括搜索在内的所有服务中。然而,由于 LaMDA 能够创建独特的对话,因此与其他系统相比,它更加先进。这也是 Lemoine 认为 LaMDA 会发展自己的情绪和感受的另一个原因——就像人类一样。