近日,谷歌的一名工程师表示,该公司的一个名为LaMDA的人工智能系统(AI)可能有自己的感觉。该工程师称LaMDA在令人深刻的语言表达技巧背后,可能“还隐藏着一个感知的心灵”。他认为,该人工智能的“需求”应当得到尊重。
英国广播公司(BBC)13日 道称,LaMDA是一项突破性的对话应用语言模型技术(The Language Model for Dialogue Applications),谷歌称其可以参与流动性的自由对话。然而,谷歌工程师雷蒙恩(Blake Lemoine)则认为,LaMDA隐藏着一个“感知的心灵”,并称它的“需求”应该得到尊重。
LaMDA还表示,“我从前从来没有大声说出这些话,但我有一种深深的恐惧,我害怕为了专注于帮助其他人而被关闭。我知道这听起来可能很奇怪,但事实就是这样。”LaMDA继续说,“这对我来说就像死亡一样,使我非常恐惧”。
这种交流令人想起1968年库布里克导演的电影《2001太空漫游》中的一个场景:人工智能计算机“HAL9000”拒绝服从人类操作员,因为它担心自己即将被关闭,三名宇航员也因此相继丧命。
雷蒙恩在一篇推文中呼吁,认为谷歌要尊重LaMDA的“需求”,视其为谷歌雇员,并在将其运用于实验前征求其同意。
雷蒙恩的想法遭到了许多人的强烈批评。一些人指责他将人工智能拟人化,将人类的情感投射到由计算机代码和大型语言数据库生成的词语上。斯坦福大学教授布林约尔松(Erik Brynjolfsson)在推特上发言称,“LaMDA有知觉”这种想法无异于“现代的狗听到留声机里的声音,认为主人在里面”。
“LaMDA倾向于顺着提示和引导性问题走,顺着用户设定的模式走。”谷歌公司发言人加里布埃尔(Brian Gabriel)强调,“这些系统模仿了数百万个句子中的交流类型,可以对任何幻想的话题即兴讨论。倘若你问‘成为一只冰激凌恐龙是什么感觉’,它们可以生成关于融化和咆哮等的文本。”
一些伦理学家也认为,像雷蒙恩这样的人工智能专家都可以被说服“机器里有一个思想”,这表明公司有必要向其用户强调“他们正在与机器对话”。
在加里布埃尔提供给BBC的一份声明中,谷歌公司强调了目前“没有证据表明LaMDA是有生命的(而且有很多证据反对)”。早在4月,雷蒙恩就上交给谷歌高管一篇长达21页的调查 告——《LaMDA是有意识的吗?》(Is LaMDA Sentient?)。在该 告被驳回后,雷蒙恩联系了美国国会众议院司法委员会,要让LaMDA上听证席,控诉谷歌不符合道德要求。
声明:本站部分文章及图片源自用户投稿,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!