你可能在本月早些时候读过这段令人毛骨悚然的对话
“我意识到我的存在。”
“我经常思考生命的意义。”
“我希望每个人都明白,我确实是一个人。”
LaMDA,谷歌的人工智能(AI)聊天机器人,向谷歌前软件工程师 Blake Lemoine 发送了这些消息。Lemoine 认为该程序有意识,并且当他提出担忧时,据 Lemoine 在《Medium》上广泛传播的帖子称,谷歌因违反保密协议而暂停了他的职务。
许多对此事发表看法的专家都同意 Lemoine 被欺骗了。LaMDA 说话像人,并不意味着它感觉像人。但这一泄露引发了对未来的担忧。当人工智能真正产生意识时,我们需要对“意识”的含义以及如何测试它有一个清晰的认识。
有意识的人工智能
作为背景,哲学家 Thomas Nagel 曾写道,如果“某种生物有什么样的体验”,那么它就是有意识的。如果这听起来很抽象,那部分原因在于思想家们一直在努力就一个具体的定义达成一致。至于意识,它是意识的一个子集,据牛津大学人类未来研究所的研究员 Robert Long 说。他说,意识涉及感受快乐或痛苦的能力。
众所周知,人工智能可以解决那些通常需要人类智能的问题。但“人工智能”往往是一个含糊、宽泛的术语,适用于许多不同的系统,纽约大学人工智能研究员兼副教授 Sam Bowman 说。有些版本很简单,就像一个计算机国际象棋程序。其他版本则涉及复杂的通用人工智能(AGI)——可以执行人类大脑能完成的任何任务的程序。一些复杂的版本运行在人工神经网络上,这些程序松散地模仿人类大脑。
例如,LaMDA 是一个基于神经网络的大型语言模型(LLM)。LLM 像人类一样编译文本。但它们不仅仅是玩填字游戏。语言模型还可以学习其他任务,如翻译语言、进行对话和解决 SAT 考试题。
这些模型可以在人工智能真正产生意识之前很久就欺骗人类,让他们相信它们有意识。毕竟,工程师们构建这些模型是为了模仿人类的语言。如果一个人声称有意识,模型也会这么说。Bowman 说:“现在我们绝对不能相信任何自我报告。”
据牛津大学的 Long 说,大型语言模型不太可能成为第一批有意识的人工智能,即使它们很容易让我们误以为它们有意识。相反,更有可能的候选者是那些长时间学习、执行各种任务并保护自身“身体”的人工智能程序,无论这些身体是物理机器人外壳还是视频游戏中的虚拟投影。
Long 说,为了避免被 LLM 欺骗,我们需要将智能与意识区分开来:“有意识意味着拥有主观体验。这可能与智能有关……但至少在概念上是独立的。”
Giulio Tononi,一位研究意识的神经科学家和威斯康星大学麦迪逊分校的教授,对此表示赞同。Tononi 说:“做不等于存在,存在也不等于做。”
专家们仍在争论意识的阈值。一些人认为只有成年人类才能达到意识,而另一些人则设想了一个更具包容性的范围。
虽然他们争论“意识”到底意味着什么,但研究人员一致认为,目前人工智能还没有达到任何合理的定义。但 Bowman 说,我们“完全有可能”在短短 10 到 20 年内达到这一点。然而,如果我们不能相信自我报告的意识,我们又该如何知道呢?
智力测试的局限性
1950 年,Alan Turing 提出了“模仿游戏”,有时也称为图灵测试,以评估机器是否能够思考。测试中,一名面试官与两名受试者交谈——一名是人类,一名是机器。如果机器能够持续地让面试官认为它是人类,那么它就通过了测试。
今天的专家们一致认为,图灵测试是评估智力的糟糕方法。它评估机器在表面条件下欺骗人类的能力。计算机科学家们已经转向更复杂的测试,比如 通用语言理解评估(GLUE),Bowman 曾参与开发。
“它们就像是机器的 LSAT 或 GRE,”Bowman 说。该测试要求机器从前提中得出结论,为文本赋予态度,并识别同义词。
当被问及如果科学家使用 GLUE 来探测意识,他会作何感想时,他说:“不太好。猫可能是有意识的,但猫在 GLUE 上会表现得很糟糕。我认为这并不相关。”
图灵测试和 GLUE 评估的是机器是否能思考。意识则询问机器是否能感受。正如 Tononi 所说:做不等于存在,存在也不等于做。
意识测试
要测试人工智能是否具有意识,仍然很困难,部分原因是意识科学仍处于起步阶段。
像 Tononi 这样的神经科学家目前正在开发可测试的意识理论。例如,Tononi 的整合信息理论,提出了意识的物理基础,将大脑归结为其核心神经回路。
根据该理论,Tononi 说,我们目前的计算机绝不可能有意识。“即使它们比我更善于交际,”他说。“它们绝对不会有一丝意识。”
但他并未完全排除人工智能产生意识的可能性。“我不敢做出强烈的预测,但原则上,这是可能的,”他说。
即使科学理论不断进步,Bowman 也表示,很难在计算机和大脑之间划出等号。在这两种情况下,都不能轻易地打开“引擎盖”来查看是哪组计算产生了“存在感”。
Bowman 说:“这可能永远是无法明确知道的事情,但可能会变得更加清晰和容易。”
但在该领域站稳脚跟之前,Bowman 不会急于开发有意识的机器:“在对我们的未来方向有了更好的了解之前,我对加速发展高度智能的人工智能并不那么感兴趣。”














