互联的大脑
Christof Koch 利用视觉意识研究打开了一扇窗,让我们了解大脑如何感知周围世界。两年前,计算机视觉专家 Koch 与诺贝尔奖获得者、DNA 结构共同发现者 Francis Crick 合作,共同提出了一个关于意识的神经生物学理论。这并非涉及主观疼痛或愉悦感的意识;尽管 Koch 认为这是意识不可或缺的一部分,但他认为其不适合进行严谨的测试和科学分析。相反,他和 Crick 关注了其他研究人员观察到的一种现象:当大脑不同区域的神经元受到共同刺激时,它们会大致同时放电。Koch 和 Crick 认为,这种放电是暂时统一大脑不同区域信息的一种方式,正是这种同步性产生了大脑的意识。DISCOVER 杂志在加州理工学院 Koch 位于地下室的办公室和实验室见到了这位 36 岁的科学家,他周围摆满了各种电脑工作站和一台卡布奇诺咖啡机。
DISCOVER:您在论文中提到意识研究的障碍,例如行为主义和计算机范式。您所指的是什么?
KOCH:行为主义的兴起,部分是对德国格式塔心理学派的反应,也普遍是对 19 世纪末关于人类内在驱动力的理论的反应。行为主义者摒弃了对内在状态的任何提及。他们认为唯一重要的事情是了解人类行为和人类行动。实际上,这些科学家是在说:“我不知道你想要什么,我也不知道你是否有意识。我只知道,如果我以这种方式刺激你,你就会以那种方式回应。”
当然,你可以用刺激和反应来描述一些人类现象;但像你为什么玩游戏,或者诸如此类非常复杂的能力,无法用这样的术语来解释。尽管如此,这种思想流派在这个国家,特别是在医学院里,确实蓬勃发展。这就是为什么今天很难与坚定的科学家谈论意识。有一种感觉是,一旦你开始谈论意识,接下来你就会谈论宗教。
行为主义者之后是认知科学家,他们说他们会对意识更加严谨。他们所做的是复制数字计算机的模型。所以他们有一个叫做输入缓冲区的盒子,一个叫做输出缓冲区的盒子,还有一个叫做 CPU 的盒子——所有这些术语都来自计算机科学。这些想法是有害的。是的,在某种程度上我们像计算机一样运作。我们在某个地方存储东西,我们为短期技能和长期技能存储东西,所以你可以把它想象成随机存取存储器,或者像磁盘存储器。但是人们接着构建这些模型,却从不担心神经细胞。我的意思是,输入缓冲区在哪里?这些东西在大脑的什么地方?据我们所知,大脑中的一切都是相互连接的:你有神经细胞,它们同时进行信息处理和信息存储。所以,例如,我们没有 CPU 和内存之间的区别。
DISCOVER:那么您,或者任何人,应该如何研究意识呢?
KOCH:弗朗西斯·克里克有个比喻。他说,人们在 20 世纪 40 年代和 50 年代对基因提出了复杂的理论,但直到他和詹姆斯·沃森说:“让我们忘掉这些高层次的功能模型吧;让我们深入到分子层面。”那时他们甚至没有基因的精确定义。但他们说:“让我们忘掉这些。让我们不要担心功能、确切定义——让我们深入到分子层面。”然后一切开始变得非常清晰,今天我们有了整个人类基因组计划。对于意识,克里克说,也是一样:“让我们忘掉这些高层次的模型;首先让我们深入到神经细胞层面,因为意识最终必须在那里。”
DISCOVER:但是,您是如何定义意识的呢?
KOCH:嗯,我们先暂时抛开那些真正困难的方面,比如主观感受,因为它们可能没有科学上的解决方案。玩耍、疼痛、愉悦、看到蓝色、闻到玫瑰香气等主观状态,似乎在解释分子和神经元的唯物主义层面与主观层面之间存在着巨大的鸿沟。让我们关注那些更容易研究的事物——比如视觉意识。你现在正在和我说话,但你没有看我,你在看卡布奇诺咖啡,所以你意识到了它。你可以说:“那是一个杯子,里面有一些液体。”如果我把它递给你,你会伸出手去拿它——你会以一种有意义的方式回应。这就是我所说的意识。我们知道有些病人没有这种能力。
DISCOVER:您指的是神经系统疾病患者。
KOCH:是的。有些患有“盲视”的人。他们是一个相当有名的群体。他们通常一只眼睛失明,因为大脑出了问题;他们中风了。假设一个男人右侧大脑皮层受损,导致他左侧看不到东西。他去诊所看医生,医生问:“你能看到这只手吗?”他说:“不。我的意思是,你为什么要那样做?你知道我失明了。”医生说:“嗯,告诉我,它在哪里?”病人说:“我失明了!你为什么要这样对我?”医生说:“嗯,别管它了——随便猜。”病人说:“好吧,我不知道,但我只是随便猜一下。”
结果他猜对了。当然,这样的人并不能做所有的事情。例如,他们无法区分圆形、三角形或正方形。但他们可以在一定程度上区分颜色、运动和位置。事实证明,这是一个意识(或觉知)与无意识知识分离的美妙例子。病人的系统中的某些东西知道医生手的位置,因为他可以做出有意义的反应模式,但他的思维并不知道它——没有意识层面。
这在日常生活中也会发生——你每天都开着同样的路下班回家。你坐在方向盘前,却沉浸在工作中的某个问题中,然后你到达车库,突然意识到:“哦,我到家了。”然而你必须转向,必须在红灯时刹车,必须加速;我的意思是,你必须进行大量的繁重信息处理。那么,发生了什么?你为什么没有意识到?
DISCOVER:您和克里克曾提出,大脑有一种您称之为“注意聚光灯”的东西,它会突出我们环境中的特定部分,只有那时我们才能意识到它们。没有聚光灯,我们就如同盲视患者:我们的大脑以某种方式处理着这些信息,但我们却没有意识到。
KOCH:你可以把它想象成一个比喻:你身处一间黑暗的房间,手里拿着一支手电筒。你只能处理光线照到的地方的信息。你也可以随意改变手电筒的光束范围,并移动光线。
我们认为,大脑中的工作方式是通过神经元的振荡或半同步放电来实现的。例如,我看着你,你动了;我大脑中负责处理运动的区域 MT 的神经元就会放电。你和我说话,我大脑中负责处理听觉的区域 A-1 的神经元就会放电。现在假设我们在外面吃午饭,你身后还有其他人也在说话。他们也会移动头部,所以他们的影像也会投射到我的视网膜上,也会触发我大脑中 MT 区域的神经元放电。所以,我必须将所有与你的脸和声音相对应的神经元活动结合起来;此外,我还必须将这些活动与同时对你周围发生的一切做出反应的其他所有神经元活动区分开来。如果我能用红色标记所有对你做出反应的神经元,用蓝色标记所有其他神经元,那么我就只需要追踪红色的神经元。实现这一点的一种方法就是振荡。想象一下一棵挂着十亿盏灯的圣诞树;每盏灯偶尔才闪烁一次。现在,有一小部分灯——非常小的一部分,比如说只有一万盏——它们同时闪烁。如果你只是想象一下,你就会发现它会非常容易地脱颖而出。
当然,有一个问题。有一个“你”;也就是说,有一个观察者。而大脑中没有这样的观察者。我们不想回到“小矮人”的概念,去审视这一切。
DISCOVER:那将是回到大脑中有一个小人的想法。
KOCH:没错。但是如果我是一个神经细胞,并且我接收到输入,比如说,来自那 10,000 个其他神经元的输入——如果它们同时放电,它们对我的活动产生的影响将远远大于如果它们的放电在时间上分散开来。
换句话说,所有当前关注你和你的脸以及你的声音的某些方面的神经元都以半同步的方式放电,大致在同一时间。所有对我的视网膜上发现的任何其他事物做出反应的神经元也会放电,但它们是随机放电的。这种同步活动会释放某种物质,某种化学物质,它会停留,比如说,十秒钟、两秒钟或五秒钟——这就是短期记忆。每当我意识到某事,每当我关注某事时,我都会把它放入短期记忆。这是一个非常紧密的联系。
DISCOVER:那种物质有什么作用?
KOCH:它可能有两种作用:要么它只是让这些神经元持续放电五秒钟——这就是我的记忆痕迹——要么它能强化突触,使得这些突触在接下来的十秒内变得更强;那样我就只需要更小的输入就能再次激发这些细胞放电。这 10,000 个神经元会短时间内同步,然后它们又会去同步并开始随机放电,然后另一组神经元又会同步——这种模式一直非常非常迅速地在大脑中移动。
DISCOVER:这种神经元放电的科学证据是什么?
KOCH:人们很久以前就知道,大约在 40 年前,兔子的嗅觉皮层,也就是大脑的嗅觉部分,神经元就是这样活动的。当受到刺激时,这些神经元似乎以大约 40 赫兹的频率放电。1988 年,研究人员在麻醉但清醒的猫的视觉皮层中发现了类似的振荡。不过,频率范围更大,介于 30 到 60 至 70 赫兹之间。在猴子身上,一些人在进行寻找这些振荡的实验时看到了它们,但另一些人则没有。这争议更大。
DISCOVER:那么这些放电所释放的假设物质,没有人见过吗?
KOCH:不,那只是我们目前的假设。但我们认为,这两者共同构成了意识的神经元层面,即物理基础。
我确实认为这是一个非常棘手的话题,很难进行科学探讨,我们最近才开始尝试。当然,克里克名声显赫,他可以做任何他想做的事情。但我 95% 的时间都在做计算机视觉方面公认的工作。你知道,那些基础的、面包黄油式的工作。我们会获得资助,会发表论文,诸如此类。这当然更有趣,但也更具推测性。
DISCOVER:那么是什么促使您在这项研究中如此冒险呢?
KOCH:你知道,在物理学中,你会觉得那些大的事情都已经被解决了——除了天体物理学——然后你工作,你和另外十个人在一个加速器上花五年时间做你的博士学位,来测试小数点后面第三位,把某个常数测量到千分之一的位置。这并不是特别令人兴奋。但在这里,它仍然是令人难以置信的全新领域,任何事情都可能发生——这也常常让它变得更加疯狂。
谈论思考
如果你想找人为你制造一台有意识的机器,特里·维诺格拉德不是你要找的人。这位 46 岁的斯坦福大学计算机科学家认为,意识是一种狡猾的野兽,由内而外产生。然而,机器制造商却坚持试图由外而内地建造它。他们认为,我们移动手臂,就意味着我们脑海中存在着与某些编程代码行等价的东西,它说:“移动那只手臂。”但维诺格拉德认为,你不能仅仅观察外部行为,就假设存在与之为等价的内部表征。看看语言,他说:任何一个词都有多种含义,并能产生不同的动作。然而,计算机只能用一个词只有一个含义的语言进行编程。人工智能研究人员可能梦想在不久的将来建造有意识的机器。但维诺格拉德说,那一天,充其量也还很遥远。
DISCOVER:人工智能领域的人以他们的热情而闻名。这些人愿意说,40 年后,机器在它们所能做的事情上将与人类无法区分。当您刚开始使用计算机时,您是否也抱有这种热情?
WINOGRAD:1967年,当我作为研究生去麻省理工学院时,我分享了对未探索可能性的热情。我并不是说,“哦,是的,我知道这会在接下来的十年里发生,或者诸如此类。”但我当然充满热情地说,“看,这是新事物,我们不知道会发生什么,出去尝试一下真的很有趣。”
DISCOVER:您的观点是如何改变的?
WINOGRAD:嗯,我想简单的回答是,在研究语言理解问题大约十年之后,很明显存在巨大的问题,这不仅仅是“好吧,我们已经掌握了大部分,现在只需要解决细节”的问题。
很明显,我们使用普通语言的方式与用于处理计算机的语言之间存在多大的差异。在计算机语言中,语言中的项目与其含义之间存在固定的关系。因此,在编程语言中的 if 和 then 在编译器的上下文中具有特定的含义,而算术中的 plus 在算术的上下文中具有非常特定的含义。当你观察普通语言时,你会意识到,几乎你使用的任何一个词,都有一种从你可能认为是真实含义到我们认为是隐喻和类比以及非常开放式用法的逐渐过渡。
例如,我编写的语言理解程序是在这个玩具积木的小世界里工作的。就拿“block”这个词来说,好吧?现在,你首先注意到,在尝试设计一个程序时,这个词有多种含义。假设你说:“我要绕着街区散步。”机器怎么知道你是指绕着这个小物体散步,还是要去远足?当然,“block”还有很多其他含义。有人可能会说:“你能在千斤顶顶起车之前,在车轮下面垫一块木头吗?”他们指的是一块石头或一块木头或其他东西。他们指的不是任何与特定形状有关的东西——它与车不动有关。而且“block”也不必指代一个物体。你可能会说:“嗯,我正在写这篇论文,但就是有一种障碍我无法克服。”我们总是以这样的方式使用词语,如果你看它们的纯粹定义,它们并不完全正确,但我们都理解它们,并且都那样使用它们。
当你编写计算机程序时,这会变得非常令人沮丧。你会遇到一个你碰壁的时刻,然后你开始说,“是不是墙有点硬,我需要更用力地撞?”或者“是不是我的头不够硬?”但你也可能会说,“嗯,等等,也许这不是正确的路线。”这就是我在 20 世纪 70 年代末和 80 年代初的几年里发生的事情。
DISCOVER:您是如何重新审视计算机与语言和智能与意识的问题的?
WINOGRAD:我认为连接它们的是关注行动(或存在于世)与认知(或表征)之间的关系。如果我移动手臂,然后停下来思考我正在做什么,我可以说:“好吧,我在移动我的手臂。”然后人们可以推断,我脑海中一定有一个想法说:“移动我的手臂”,而这个想法以某种方式控制了手臂,使它移动了。当你构建计算机时,正是这样做的。你放入一段数据结构或一个命令,它会调用一系列特定的操作。你可以指向特定的程序片段,说:“这些代码行就是执行该动作的原因。”这种类比,一个非常强大的类比,让你去寻找我们观察到的任何人类行为都与他们脑海中“代码行”的本质相关联的方式。
但你作为一个观察者能够描述和阐明所发生的事情,并不意味着在你的意识甚至你的神经系统中,存在与“现在执行步骤 A”相关联的东西。对我来说,关键的转变是说,我们作为观察者所描述的事情可能根本不是那样发生的。因此,那个声称“如果我们能描述它,我们就能建造它,并且我们可以用形式规则来描述它”的目标,不一定能成功。
DISCOVER:考虑到这个限制,我们能否建造出具有智能或意识的计算机?
WINOGRAD:当然,这是一个非常难以回答的问题,因为首先,我们不知道“智能”的含义,其次,我们不知道“计算机”的含义。如果你说的计算机是指人类可以制造的设备,那么,这当然是一个非常开放的问题。如果你真的能逐个神经元地复制一个神经系统,但用硅而非原生质来制造它呢?它会思考吗?它会有意识吗?嗯,我最终是一个唯物主义者,所以我肯定会说会。如果你真的能逐个部件地复制它,它就会是所有相同的部件;没有虚无缥缈的灵魂让我拥有意识——它存在于我大脑和神经系统的物理特性中。所以,如果你采取这种非常宽泛的计算机概念,那么它就变成了你是否是唯物主义者的问题。
现在,这与我们现在理解和知道如何制造的计算机是否能做到这一点,是一个非常不同的问题。我认为,人们在不自觉地跳跃——当你与人工智能专家交流时,你会发现——他们认为这两个问题是同一个问题。
真正的问题是:为了拥有意识或智能,或诸如此类,你实际需要构建的东西的本质是什么?我认为,假设你会构建像数字计算机程序这样的东西,值得质疑。特别是,质疑当你看到一个生物体所做事情的某些品质时,你可以通过编写一段代表它们的代码来复制这些品质的假设。
DISCOVER:普通人可能会认为意识是一种对自身和周围环境的感知。我认为,这个定义会涉及对这些事物的表征。我想这与您刚才所说的可能不太符合?
WINOGRAD:是的。你看,我主张的是“意识”这个词本身就像“block”或其他任何词一样,具有非常不同的含义。意识的一种概念是这种反思性的表达。如果我能对你说:“嗯,我正在做 X、Y、Z”,那么我就意识到我正在做什么。虽然我在说话时无意识地以某种方式移动我的手,但我意识到我正在努力解释一些事情。
这不同于那种指代你早上醒来偶尔会困惑的根本性体验的意识,比如:“这里是浩瀚的宇宙——你知道,万亿颗星星——而在这个星球上,数十亿人,但从我的角度来看,它看起来就像一个电视节目。”当我睁开眼睛时,我在这里,我是我,就是现在,就是这里,这在整个宇宙中拥有一个特殊的特权地位。那就是你的意识,对吗?这不是你思考自己在这里,你思考任何特定的事情,而仅仅是纯粹的存在于世界中。我不相信我的计算机有那种体验。它没有“我在这里,在这个世界上”的感觉;它只是在运行电信号。
我认为定义意识的问题在于,“存在感”并非任何直接的外部关联。也就是说,你可能会有一个生化人或机器人或其他什么,从外部来看,它做的事情与拥有那种意识的人相同,然而这个生化人却没有它。当然,如果你这样说,那么你就是在真正地远离经验主义、唯物主义传统。因为如果没有外部可观察的差异,那么根据经验主义者,它就是一个毫无意义的建构。但另一方面,这些是深刻的问题,比如“我为什么在这里?”我的意思是,我们所有人都有这种感觉,即存在一些不是外部的东西,而是与我们此刻在这里思考的事实有关。我可以制造一个机器人说:“我思故我在”,但这并不意味着机器人拥有那种感觉。
我认为人们直觉上倾向于过度类比。当一个电脑声音说:“你今天好吗?”时,人们会立刻假设:“里面发生的事情很像我对某人说‘你今天好吗?’时的情景。”事实上,它只是一个简单地播放一段录音的程序,这一点我必须停下来思考。
DISCOVER:但我一直听到人们说,看,我们手头有这么多处理能力,并且正在以这种速度增长,而人脑拥有这种处理能力——每秒这么多操作——所以 40 年后,我们将拥有能够完成人类所有事情的计算机,并且它们会像人类一样有意识。
WINOGRAD:我认为这是一种量质谬误。它假设——这纯粹是一种假设,对吧?——我们所拥有的东西是正确的那种东西,只是我们拥有的不够多。MIPs 越多,MFLOPs 越多,我们会得到更多。存储越大,这个那个也越大。这很有吸引力,因为在技术上,仅仅获得更多比做一些完全不同的事情当然更容易。所以很明显为什么它对计算机公司或那些想销售更多算力、更多处理器的人很有吸引力。它有半真半假的部分,事实上,它确实需要更多的处理能力。我不是说,“哦,不,如果我们有正确的理解,它会是一个简单的机器。”我认为人类神经系统之所以是这样,部分是因为它有 10¹¹ 个神经元,或者说不管有多少,部分是因为它们以我们不理解的方式工作。但我认为,其半真半假的部分是说,拥有更多的处理能力就足够了,而不是根据需要进行调整。
DISCOVER:更深入地研究大脑组织能否带来更深刻的理解?
WINOGRAD:是的。这需要更多的研究;当然,研究神经系统的动态变化很困难,但它正在发生。他们现在有核磁共振扫描,可以在动态变化发生时实际观察到它们。如果你能想象有一个探针,每时每刻测量神经系统中每一个点的电压和化学浓度,你可能会学到很多东西。
当然,我们现在还没有任何类似的东西。那将需要大量的物理学和生物学知识,而不是人工智能。
具有移动性的思维
对汉斯·莫拉维克来说,意识是在运动中产生的。这很恰当,因为莫拉维克是卡内基梅隆大学移动机器人实验室的主任。莫拉维克,现年 43 岁,在斯坦福大学接受计算机科学家培训后,毕生致力于推动机器应对不同情况并做出智能选择。他开始相信这两者之间存在内在联系。他认为,意识就像我们生存的监视器——我们检查自己的位置、正在做什么以及感受如何——我们需要这样做,因为我们不断遇到新的情况,需要理解这些遭遇。迄今为止,机器人基本上是久坐不动的生物,是专门设计用于在特定地点和特定方式下行动的机器。莫拉维克说,一旦机器人被设计成能在不同环境中移动并在不同情况下工作,它们就能开始获得一种基本的意识形式。DISCOVER 杂志在马萨诸塞州剑桥采访了这位四处游历的莫拉维克,他正在一家领先的超级计算机公司 Thinking Machines 休假。
DISCOVER:在您 1988 年的著作《心灵之子》的第一句话中,您写道:我相信具有人类智能的机器人将在五十年内普及。
MORAVEC:这不再是一个——至少在我的圈子里——那么有争议的声明了。
DISCOVER:但在 20 世纪 50 年代,人们预测我们将在 20 年内拥有智能机器。
MORAVEC:嗯,最初设计用于使计算机执行除算术以外任务的人工智能程序取得了显著成功,令人惊讶地出色,这使得人们过于自信。但现在人们普遍接受,他们所解决的问题实际上是简单的。高级推理是人类做得非常糟糕的事情,所以计算机在该领域与我们做得一样好很容易。
对我们来说,思考基本上是一种技巧,就像狗用两条腿走路一样。我们能做到这一点已经很了不起了,但你不能期望太多,除了我们能做到这一点的事实!所以,如果你想制造一台像狗用后腿走路一样好的行走机器,那并不太难。但如果你想制造一台像瞪羚一样好的行走机器,我想你是在一个不同的领域。高级推理是狗的版本。感知,以及任何利用感知来帮助我们思考的地方,是瞪羚的部分。
DISCOVER:您认为 20 世纪 50 年代最初的兴奋之后发生了什么?
MORAVEC:嗯,然后他们就遇到了难题。在麻省理工学院,马文·明斯基开始给计算机安装手臂和摄像头。结果发现,编程这些机器来做最简单的事情,比如拿起东西,比证明几何定理要困难得多。这是因为我们设定了标准。我们练习拿起东西——看到物体并拿起它们——的时间比我们练习证明定理的时间长得多。
你知道,我们的知觉运动回路效率确实很高。5亿年来,它一直是生死攸关的事情。它高度优化,规模庞大,根据我的计算,它相当于每秒大约 10 万亿次有效计算;而高级推理——基于对现有计算机的比较——似乎是每秒大约 100 万次计算。如果你看更极端的例子——比如我们做算术的能力——那么我们每秒只执行指令的极小一部分。所以我们有些事情做得真的很糟糕,比如正常的推理。我们可能只是练习了一小段时间,可能只有几十万年。
DISCOVER:您是如何得出我们神经系统具有 10 万亿次计算能力这个数字的?
MORAVEC:我做了一个关于复制人类视觉需要什么样能力的计算,主要基于所涉及的神经组织数量以及视网膜所显示的效率。我得出的数字大约是每秒一万亿次计算。相比之下,对于国际象棋,每秒十亿次计算似乎就足够了。这大约是当今最好的超级计算机的水平。因此,对于执行运动测试的机器,比如打网球,你可能需要一台每秒至少能进行大约——嗯,对于整个神经系统来说——10 万亿次计算的计算机。所以,在你达到每秒那么多计算来处理所有感官数据和其他事情之前,你可能不会有一个真正好的机器人网球运动员。
然而,通过使用视网膜,我可能高估了,因为在像海蛞蝓这样的无脊椎动物的案例中,看起来几乎每个神经元都有一个功能和一个位置。这意味着它的神经系统是高度优化的。每个神经元都准确地做着它应该做的事情,没有其他。现在,这在人类神经系统中是不可能的,因为我们有大约 1000 亿个神经元和数万亿个连接,而我们的基因组只有大约 10 亿位。所以基因组中没有足够的信息来精确地连接每个神经元。当然,你可以编码一些通用规则,但这意味着你不再能够通过非常特定的方式连接每个神经元来最大程度地利用它。所以你可能会期望在脊椎动物神经系统中,神经元的使用效率会低一些。事实上,哺乳动物必须学习大量行为的观察表明我们浪费了很多神经元,因为那里有所有这些通用学习的东西,它们以特定的方式连接。据推测,如果你只想要那种特定的方式,你可以用十分之一的神经元来完成,因为你不需要通用学习结构。无论如何,视网膜似乎被非常仔细地连接起来。
DISCOVER:但是一旦你拥有了原始的计算能力,你如何将其转化为智能或意识?在你的书中你说移动性是关键。
MORAVEC:移动能力让你置身于各种各样的环境中,需要通用的解决方案——这排除了解决问题的专业化方案。移动性是一个驱动因素。我设想的通用机器人,是一种像个人电脑一样的机器,只是它在物理世界中运行。它能移动,能操作物体,并拥有一个传感器系统。要协调所有这些,我认为我们需要至少千倍的计算能力增长。
DISCOVER:这样的机器人能有意识吗?
MORAVEC:嗯,也许这并不是一个真正正确的问题,因为它可能不是一个简单的“是”或“否”的问题。你可以想象,例如,在一个机器人内部有多个角色模型,它们偶尔会弹出并产生影响,如果你以正确的方式询问或检查其中任何一个,它似乎都是意识的焦点。
想象一个带有一些基本传感器的简单机器人。现在想象你有一个从传感器进来的处理漏斗。在漏斗的颈部,所有重要的事情都会通过,而所有不重要的事情都不会通过。漏斗颈部的每个信号都对机器人来说意味着重要的东西。比如,“有燃料可用”可能是其中之一,“附近有一个挥舞斧头的卢德分子”可能是另一个。这基本上是机器人用非常以机器人为中心的方式描述世界。机器人通常不需要响应的事情根本不会出现在那里,因为神经系统将其过滤掉了。
一个自然的例子,至少在半打自然纪录片中出现过,是长臂胡蜂。这种黄蜂会挖一个小洞,捕获一只毛毛虫,把它带回洞里,检查洞,然后把毛毛虫带进去产卵。但是,如果有人在黄蜂检查洞的时候把毛毛虫稍微移开一点,那么当黄蜂出来的时候,它就必须重新启动整个程序。它会寻找毛毛虫,找到它,把它带回洞口,然后再次检查洞口,把毛毛虫晾在那里。然后你再把它移开。你可以一遍又一遍地这样做,而黄蜂似乎永远也学不会。所以有充分的理由相信黄蜂没有意识——它没有监测过程来检测这种循环,因为在它的生活中,这通常不是问题。没有那么多疯狂的自然主义者会一直把毛毛虫拿走。
但对于一个更复杂的生物体,你可能会想象类似的情况会相当频繁地出现,即一件事导致另一件事,然后导致另一件事,最终又回到最初的情况。一个复杂的生物体总是在做不同的事情,迟早会陷入这些困境之一。所以,生物体拥有某种困境检测器是有道理的。
那么,把这样的探测器放在哪里比较好呢?放在漏斗口处,那里的情况很有可能几乎完全重复,因为重要的事情以相同的顺序发生。所以对于黄蜂来说,如果存在这样一个漏斗,漏斗口的探测器会说,“好吧,我们现在处于检查洞穴模式”,另一个可能会说,“哎呀,毛毛虫可能消失了。”作为机器人程序员,我会说,这绝对是我想把我的卡放在那里,因为需要检查的地方更少,并且所有的数据缩减都已完成。所以我可以在那里放置一个小的看门狗电路,如果它检测到重复循环行为,就会采取措施中断它。
在我看来,这似乎是关于意识萌芽的一个相当 plausible 的故事。当然,拥有一个小的循环检测器与人类意识完全不同——然而,它是一个独立的进程,正在监测生物体及其周围环境的行为。这也是你可能希望机器中拥有的东西。如果你的迷宫机器人有任何方法可以发现它只是在重复自己的动作,那么你就有办法摆脱那个循环。
DISCOVER:机器人内心体验的疼痛或恐惧,会和我们一样吗?
MORAVEC:它的行为肯定会一样。第三代机器人——比如说,40 年后的先进机器人——会模拟世界。所以,如果它遇到一个差点从楼梯上摔下来的情况,它不会仅仅通过条件反射来避免导致这种情况的任何行为。它会模拟一切,如果它摔下去会发生什么。它的模拟会产生一个内部图像,它自己蜷缩成一团,躺在楼梯底部。那看起来会非常糟糕。如果机器人的内部问题检测器有任何感知能力,它会有一个信号说:“蜷缩在楼梯底部真糟糕,真糟糕。”所以不管你做了什么——真的,别再那样做了!如果机器人能够回溯前一天的场景,寻找改进之处,那么它会反复模拟这个场景,以及这个可怕的潜在后果。它会寻找各种方法来避免它。所以现在这种恐惧,你可能会说,变得更加丰富了。它开始类似于人类的恐惧。如果你问机器人它的感受,它可能会说:“是的,我想我害怕了,因为我所有的生理状态类比都模仿了我所知道的在类似情况下人类会发生的事情。”
DISCOVER:设计这样的机器人是否需要一项重大工程,类似于人类基因组计划?
MORAVEC:可能更大。人类基因组计划毕竟只关注获取不到 20 亿个碱基对的过程,与——嗯,这取决于你如何衡量,但你头脑中可能有 100 万亿个突触——相比,这是一个非常小的数字。这个项目不必获取每个突触的数据,而是通过试错法,将大量关于世界的微观事实缓慢地教授给机器人。所以我认为在很多方面,这会比基因组计划更困难。但我认为这是火炬传递给一种新生命形式的重大事件。














