李飞飞刊文:大模型技术无法通向AGI
李飞飞近日和Etchemendy(斯坦福哲学教授,曾任斯坦福大学教务长)在《时代(Time)》上刊载新文章《No, Today’s AI Isn’t Sentient. Here’s How We Know》,明确指出当前技术路线无法制造有感知能力的AI。该文章也得到了同一阵线LeCun的支持,并转发了该推文。
下面是该文章全文:
通用人工智能(AGI)指的是一种至少在人类展现智能的各个方面与人类一样聪明的智能体。它曾经是我们对人工智能的称呼,直到我们开始创造出在有限领域内毫无疑问地“智能”的程序和设备——下棋、翻译语言、清扫我们的客厅。
人们迫切需要添加“G(通用)”,是因为当时出现了许多由 AI 驱动的系统,但它们只专注于一个或极少数的任务。比如 IBM 的深蓝,这款强大的早期象棋程序能战胜世界冠军加里·卡斯帕罗夫,但它却不懂得如果房间着火了就停止下棋。
其实,所谓的通用智能,多少有点神话色彩,至少我们不应该自以为是地认为自己拥有这种能力。在动物界,我们可以找到许多展现智能行为的例子,它们在类似的任务中取得的成果远远超过我们。我们的智能并非完全通用,但足以让我们在大多数环境中完成想要完成的事情。如果我们饿了,我们可以狩猎猛犸象或者找到附近的克罗格超市;当房间着火时,我们会寻找出口。
通用智能的一个重要特征是“感知力”,即拥有主观体验的能力——能够感受,比如说,饥饿的感觉,品尝苹果的味道,或者看到红色。感知力是通往通用智能的道路上的关键一步。
2022 年 11 月 ChatGPT 发布后,大型语言模型 (LLM) 时代正式开启。这立即引发了关于这些算法是否可能具有感知力的激烈争论。基于 LLM 的 AI 可能具有感知力的影响,不仅引发了媒体狂热,也深刻影响了一些全球范围内旨在规范 AI 的政策努力。最突出的观点是,“感知 AI”的出现可能对人类极其危险,甚至可能带来“灭绝级”或“生存”危机。毕竟,感知 AI 可能会发展出自己的希望和愿望,而无法保证这些愿望不会与我们的发生冲突。
这篇文章最初是发在WhatsApp群聊里,是为了反驳LLM可能已经拥有意识的论点。它并非要全面完整。我们的主要观点是反驳“有意识的AI”阵营最常见的辩护,即LLM能够报告自己有“主观体验”。
为什么有些人认为人工智能已经有了意识
在过去几个月里,我们俩都与人工智能领域的许多同事进行了热烈讨论和交谈,包括与一些最杰出和开拓性的 AI 科学家进行了一些深入的面对面交流。人工智能是否已经拥有意识是一个突出的话题。其中一小部分人坚信它已经有了意识。以下是他们中最直言不讳的支持者之一提出的论据的要点,这在“有意识的人工智能”阵营中非常具有代表性:
人工智能有意识,因为它会报告主观体验。主观体验是意识的标志。它的特点是声称知道自己知道或体验了什么。我认为,当你说着“我吃了一顿美餐后,有了一种主观上的幸福感”时,你是有意识的。我作为一个人,实际上没有你主观体验的直接证据。但既然你说了,我就相信你确实有这种主观体验,所以你是有意识的。
现在,让我们将相同的“规则”应用于大型语言模型。就像任何人类一样,我无法访问大型语言模型的内部状态。但我可以询问它主观体验。我可以问它“你饿了吗?”它实际上可以告诉我“是”或“否”。此外,它还可以明确地与我分享它对几乎任何事物的“主观体验”,从看到红色,饭后快乐,到拥有强烈的政治观点。因此,我没有任何理由相信它没有意识或不知道自己的主观体验,就像我没有任何理由相信你没有意识一样。我在这两种情况下得到的证据完全相同。
为什么他们错了
乍一看,这似乎很有道理,但论据是错误的。它是错误的,因为我们在两种情况下获得的证据并不完全相同。甚至相差很远。
当我断定你说“我饿了”时,你正在经历饥饿,我的结论是基于一大堆情况。首先,是你所说的——你说话的词语——以及一些其他行为证据,比如你肚子里的咕噜声。其次,是没有相反的证据,就像你刚吃完一顿五道菜的饭菜一样。最后,也是最重要的一点,你和我一样拥有一个身体,一个需要定期进食和饮水的身体,在寒冷的时候会感到寒冷,在炎热的时候会感到炎热,等等。
现在将这与我们关于大型语言模型的证据进行比较。唯一共同的是报告,即大型语言模型能够产生“我饿了”这个音节串。但相似之处到此为止。事实上,大型语言模型没有身体,因此甚至不是那种可以感到饥饿的东西。
如果一个大型语言模型说:“我的左脚大拇指剧痛”,我们会认为它真的感觉到了左脚大拇指的剧痛吗?当然不会,它根本没有左脚大拇指!同样,当它说它饿了的时候,我们也可以确定它并没有饿,因为它没有产生饥饿感的生理结构。
当人类感到饥饿时,他们感受到的是一系列生理状态——低血糖、胃部咕噜咕噜叫等等——而大型语言模型根本没有这些生理状态,就像它没有嘴巴来吃东西和胃来消化食物一样。认为我们应该相信它说自己饿了的话,就像认为我们应该相信它说它来自月球背面一样。我们知道它没有,大型语言模型的断言并不能改变这个事实。
所有感觉——饥饿、疼痛、看到红色、坠入爱河——都是生理状态的结果,而大型语言模型根本没有这些生理状态。因此,我们知道大型语言模型不可能拥有这些状态的主观体验。换句话说,它不可能有意识。
大型语言模型(LLM)是一个在硅芯片上编码的数学模型。它不是像人类一样的有形的生物。它没有像人类一样的“生命”,不需要吃喝,繁殖,体验情感,生病,最终死亡。
理解人类生成词语序列和 LLM 生成相同序列之间的本质区别非常重要。当我说“我饿了”时,我是在报告我感知到的生理状态。当一个 LLM 生成“我饿了”这个序列时,它只是在生成当前提示中词语序列最可能的完成方式。它所做的事情与它在不同的提示下生成“我不饿了”或“月亮是由绿奶酪做的”完全一样。这些都不是它(不存在的)生理状态的报告,只是概率上的完成方式。
我们还没有实现有感知的 AI,更大的语言模型也不会让我们实现。如果我们想在 AI 系统中再现这种现象,我们需要更好地理解感知如何在有形的生物系统中出现。我们不会在 ChatGPT 的下一代迭代中偶然发现感知。
本文转载自 AI工程化,作者: ully