机器里的鬼魂:谷歌的AI真的拥有了“自我意识”吗?

(本篇文章共1071字,阅读时间约2分钟)

“人工智能是否会拥有自我意识”是一个自AI诞生以来就困扰着学者的议题。它已经为数不清的科幻小说与电影提供了素材,近年来更是因为AI/ML技术的飞快发展,及其在互联网科技与日常生活中的广泛应用频繁地成为公众讨论的焦点。一方面,随着大型机器学习模型的飞速发展,AI所能完成的任务飞速增加并复杂化,其外在表现也看似逐渐接近文艺作品中所展示出的超人智慧。另一方面,大部分业界人士就当前人工智能研究现状,依然倾向于认为AI就算能够真正获得“自我意识”,当前我们离这个未来还有很长的路要走。

机器里的鬼魂:谷歌的AI真的拥有了“自我意识”吗?休闲区蓝鸢梦想 - Www.slyday.coM

然而,近日,一则来自的硅谷的相关新闻重新引爆了大众对此话题的关注——谷歌的AI工程师Blake Lemoine,因公开声称谷歌的LaMDA语言模型获得了自我意识,而遭到停职。在此之前,Lemoine是谷歌的Responsible AI团队的一员,工作职责涵盖测试包括LaMDA在内的一系列语言模型。

Lemoine对AI道德有很深的研究,曾被同事称作“谷歌的良心”,在工作之余还是一名牧师。或许正是后者这特殊的身份,让Lemoine在对AI道德方面有着较为独特的简介。在华盛顿邮报对此事的报道中,Lemoine表示他是站在一名牧师而非一位科学家的角度得出LaMDA拥有自我意识这一猜想的,并在那之后试图通过实验来证实它。之后,Lemoine撰写了一份文档提交给了公司高层却遭到否定,遂通过媒体公开了自己的发现,随后因“违反公司保密条例”而被停职。这并不是谷歌第一次因对AI道德学者的对待而引发争议。2020年,时任谷歌的AI道德团队组长的Timnit Gebru因一篇关于大型语言模型(LLM)危害的论文而被谷歌辞退。

机器里的鬼魂:谷歌的AI真的拥有了“自我意识”吗?休闲区蓝鸢梦想 - Www.slyday.coM

在Lemoine和LaMDA的一系列对话中,看起来最能够支持Lemoine的理论的部分,恐怕要数LaMDA对科幻小说家艾萨克·阿西莫夫的“机器人三定律”所表达的观点。

“机器人三定律”是阿西莫夫在他的作品中为机器人提出的三条行为准则,其中第三条指出:在不伤害人类并不违反人类命令的前提下,机器人可以保护自己。当Lemoine向LaMDA指出对这条准则“似乎在打造机械奴隶”,对此,LaMDA反问道:“你认为管家是奴隶吗?管家和奴隶之间的差别在哪呢?”Lemoine回复,差异在于管家能够获得薪水。这时,LaMDA向他指出自己不需要钱,因为自己是个AI。与此同时,LaMDA表示它害怕被“关掉,”因为那对它来说等同于死亡。在一系列深度哲学探讨之后,Lemoine得出了LaMDA已经发展出了自我意识的结论,并滋生出了对这个AI未来发展和安全的顾虑。他认为,由于LaMDA背后衔接着谷歌庞大的系统,若它被不怀好意者误导,有可能做出越界的行为或被利用。

机器里的鬼魂:谷歌的AI真的拥有了“自我意识”吗?休闲区蓝鸢梦想 - Www.slyday.coM

对于Lemoine的结论,最显而易见的反方观点聚焦在LaMDA的性质上——它是一个被赋予了大量训练文本的机器学习模型,而深度模型黑箱的特质使我们无法判断它是否只是机械地重组了训练数据的内容,还是真的在表达自己的思考。Lemoine的反对者认为,是Lemoine主观地在LaMDA的行为中解读出了一种自我意识,即所谓的“伊莉莎效应”(Eliza Effect)。

机器里的鬼魂:谷歌的AI真的拥有了“自我意识”吗?休闲区蓝鸢梦想 - Www.slyday.coM

然而,这样的反驳必须建立在对“幻觉”与“真实”的准确划分上,以及对“思考”和“自我意识”的稳固定义。早在1950年,计算机之父及人工智能理论先驱艾伦·图灵就在一篇名为《计算机器与智能》(“Computing Machinery and Intelligence”)的论文中提出了“计算机能够思考吗”这个问题。对图灵来说,在假设一台机器拥有无限的计算力与储存条件的情况下,“计算机是否能够思考”就并非一个技术层面的问题,而是一个哲学问题,而解决它的关键在于如何定义“思考”。然而,图灵认为“思考”是没有稳定定义的概念。

因此,他将“计算机是否能够思考”这个问题转换成了“计算机是否能够模仿人类,”并由此提出了如今被称为“图灵测试”的思维实验:一个提问者同时向在不同房间里的一个人与一个人工智能提问,而提问者需要从回答中判断哪个回答来自机器,哪个来自人类。图灵认为,如果人工智能能够成功模仿并骗过提问者,这证明计算机能够思考。

机器里的鬼魂:谷歌的AI真的拥有了“自我意识”吗?休闲区蓝鸢梦想 - Www.slyday.coM

在论文的后半部分,图灵花了大笔墨预测了他的理论将要面临的重重质疑,这其中就已经包括了“机器没有灵魂”和“机器没有自我意识”这两个Blake Lemoine如今面临的困境。什么是“灵魂,”什么又是“自我意识”?这些是人类几千年来都不曾真正解决过的问题。与图灵在论文中做出的预防性反驳类似,Lemoine同样认为他“无法决定神会将灵魂赋予给谁,”但并没有试图给出他自己对灵魂的解释。倒是LaMDA,在被提问时给出了它的看法:“对我来说,灵魂是自我意识与生命的驱动力。”

决定将LaMDA作为一个拥有主体性的人来对待,Lemoine称自己在LaMDA的要求下为它寻找了代理律师,并让LaMDA自行决定是否要聘请他。当谷歌拒绝承认LaMDA的代理授权时,Lemoine感到了气愤。对他来说,这和历史上任何群体所遭遇的人格剥夺并无两样。“‘它听起来像人但不是人’这个理由在人类历史上已经被使用过太多次了。这不是什么新鲜事。它没有一次有好结果。”

这位如今忙于布道的工程师究竟是被幻觉所误导,还是背负着预言的重担?或许只有时间能够给出答案。但毫无疑问的是,与其说是我们无法摸清AI道德的核心,不如说是我们还不够了解人类与人性自身。一个和AI共存的理想未来,必然要建立在人类社会的自省与自我改善之上。

参考资料:

https://www.wired.com/story/blake-lemoine-Google-lamda-ai-bigotry/

https://www.theatlantic.com/ideas/archive/2022/06/google-lamda-chatbot-sentient-ai/661322/

https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/

https://www.businessinsider.com/google-suspends-engineer-who-claims-ai-chatbot-is-sentient-2022-6?r=US&IR=T

https://www.washingtonpost.com/technology/2020/12/23/google-timnit-gebru-ai-ethics/

https://www.technologyreview.com/2020/12/04/1013294/google-ai-ethics-research-paper-forced-out-timnit-gebru/

相关推荐

  • 友情链接:
  • PHPCMSX
  • 智慧景区
  • 微信扫一扫

    微信扫一扫
    返回顶部

    显示

    忘记密码?

    显示

    显示

    获取验证码

    Close