• 精选
  • 会员

第14章 想象意识

2025年1月24日  来源:意识的解释 作者:(美)丹尼尔·丹尼特 提供人:zhanbai93......

1.想象一个有意识的机器人

在前面的章节中,我们从“虚拟机器”运行的角度来解释人类意识现象,所谓虚拟机器,是一种经过演化的(和正在演化的)计算机程序,它塑造大脑的活动。笛卡儿剧场并不存在,存在的只是一些由内容固定过程所组成的多重草稿,它们在控制人体生命历程的较大的大脑组织中,扮演着各种半独立的角色。坚信笛卡儿剧场存在的信念,令人惊讶地持久存在,它其实是各式各样认知幻觉的产物,这些幻觉现在已经得到揭露和解释。“感质”被大脑复杂的倾向状态取代,而自我(其他名字还有:笛卡儿剧场中的观众、核心赋义者或证人)也不过是一种有价值的抽象概念,是理论家的虚构而不是内在的观察者或老板。

如果自我“只是”叙事重心,如果全部人类意识现象都被解释为“只是”在人脑的调适能力惊人的连接中实现的虚拟机器的活动,那么原则上一个经过适当“编程”(用基于硅片组装的电脑)的机器人就应该有意识,就应该有自我。更贴切的说法是,会存在一个有意识的自我,它的身体是机器人,它的大脑是计算机。我的理论的这一寓意,在一些人看来,是显而易见而且无可辩驳的。“我们当然是机器!我们只不过是非常非常复杂、已经得到演化的机器,由有机分子而非金属和硅组成,而且我们是有意识的,因此可以存在有意识的机器——我们。”对这些读者来说,这一寓意是预料之中的结论。我希望,引起他们兴趣的是在这条路上所遇到的各种不太明显的寓意,尤其是有些寓意表明,当我们更多地了解现实的大脑机制时,常识的笛卡儿式图景会在多大程度上被取代。

然而,另外一些人却觉得,原则上有意识的机器人能够存在这一寓意太不可信,在他们看来,这就等于是对我的理论的归谬反驳。一位朋友曾经这样回应我的理论,他坦承:“但是,丹,我完全不能想象一个有意识的机器人!”一些读者也许倾向于赞同他的主张。他们应该抵制这种倾向,因为他说错了。他的错误很简单,但它引起了人们对一种妨碍我们理解意识的基本混淆的关注。我回答说:“你知道那是错误的,你经常想象有意识的机器人。不是你无法想象一个有意识的机器人,而是你无法想象一个机器人如何能有意识。”

任何一个看过《星球大战》中的R2D2和C3PO[1],或是听过《2001:太空漫游》中的哈尔(Hal)讲话的人,都想象到了一个有意识的机器人(或有意识的计算机——这个系统是能够如R2D2那样行走,还是像哈尔那样卧床不起,对我们的想象任务来说并不重要)。毫不夸张地说,儿童的娱乐就是想象一种“无生命”之物的意识流。孩子们整天就做这事。不仅玩具熊有内在的生命,勇敢的小火车头[2]也有。香脂树静静矗立在丛林中,担心伐木者的斧头,却又期盼变成温暖小屋中的一棵圣诞树,被一群幸福的小孩团团包围。儿童读物中(更不用说在电视中)到处都在想象这类物体有意识的生活。展现奇思妙想的艺术家,往往通过给虚构的行动者画上生动的表情帮助孩子想象,但表情也不是必不可少的。在缺乏生动表情的时候,说话——就像哈尔那样——同样可以很好地确保幻觉出现:有个人在那里;哈尔或玩具熊或哐当哐当的火车,都有点儿人的意思。

问题来了:这些都是幻觉——或者看来如此。它们之间存在差别。显然没有哪只玩具熊有意识,但机器人不可能有意识则不是那么显然。显而易见的只是我们难以想象它们如何能有意识。我的朋友因为觉得难以想象一个机器人如何能有意识,所以就不愿意想象一个机器人意识——虽然他本来能轻易做到。这两种想象技巧有实质的差别,但人们往往混淆它们。我们确实非常难以想象机器人的计算机式的大脑如何能够支持意识。一组硅片中大量的信息处理过程,如何能够构成有意识的经验?但我们同样难以想象一个有机的人脑如何能够支持意识。数以十亿计的神经元之间大量的电化学交互作用,如何能够构成有意识的经验?但是,我们还是轻而易举地想象到人类有意识,即使我们仍旧不能想象这是如何可能的。

不过,大脑如何能够成为意识的所在地?哲学家们往往把这当作一个无须回答的问题,认为对它的回答完全超出了人类的理解力。本书的一个首要目标是清除这一假定。我已经论证,你能够想象大脑中大量复杂的活动如何构成有意识的经验。我的论证直截了当:我已经向你表明如何做到这一点。想象它的途径就是把大脑想象成一台普普通通的计算机。如果我们碰巧发现,在我们从“内省”得知的现象与科学向我们揭示的大脑之间存在未知领域(terraincognita),那么,计算机科学的概念就为我们的想象提供了必要的支撑。通过把大脑想象为信息处理系统,我们就能逐渐驱散迷雾,小心翼翼地跨越巨大的鸿沟,发现我们的大脑如何能够产生所有那些现象。我们需要避开许多危险的陷阱——比如引向死胡同的核心赋义者、“填充”和“感质”,而且在我提供的概述中,无疑仍然有一些残留的混淆和彻底的错误,但我们现在至少能够看到,出路会是怎样的。

然而,有些哲学家声称,严格地说,跨越这种鸿沟是不可能的。托马斯·内格尔(ThomasNagel, 1974, 1986)认为,从生理学的客观层面无法过渡到现象学的主观层面。科林·麦金近来也主张,意识具有一种“隐藏结构”,它处在现象学和生理学之下,虽然这个隐藏结构能够填平两者之间的鸿沟,但我们很可能永远把握不到它。

我所设想的这种隐藏结构不会处于内格尔所认为的那两个层面:它大概位于两者之间。这个中间层既非现象学的,也非物理性的,(从它的定义来看)它不会按照这一鸿沟的任何一侧的模型来塑造,因此也就不会发现自己无法通达另一边。它的刻画要求概念的彻底革新(我已经论证过,这很可能超出我们的能力)。(McGinn,1991, pp. 102-103)

我在本书中所探讨的“软件”或“虚拟机器”描述层,正是麦金描述的这种中间层:一方面,它不是明确的生理层或机械层,但它能够提供连通大脑机制的必要桥梁;另一方面,它不是明确的现象学层,但它能够提供连通内容世界,也就是(异)现象学世界的必要桥梁。我们做到了!我们已经想象到大脑如何能够产生有意识的经验。为什么麦金认为我们无力做出这种“概念的彻底革新”呢?他对心智的各种软件做过能证明其无效性的严格而详细的分析吗?没有。他没有对它们做过全面的考察。他甚至没有尽力去想象他所设定的中间层,他只是指出,在他看来,从这方面着手显然没有任何希望。

这种欺骗性的“显然”,对于我们要在理解意识方面取得进展而言,是巨大的障碍。世界上最自然的事,莫过于认为意识发生在笛卡儿剧场中,并认为这种想法没有实质的错误。这看起来是显然的,直到你仔细观察我们对大脑的活动可能有何了解,并试图详细地想象一种替代模型。这样一来,所发生的事就很像了解舞台魔术师如何表演一场魔术。一旦仔细查看后台,我们就会发现,我们并没有真的看到自己以为在台上看到的东西。现象学与生理学之间的巨大鸿沟缩小了一点点,我们看到,某些“显然的”现象学因素完全是不真实的:不存在虚构物的填充,不存在内在的感质,不存在意义和行为的核心源头,不存在理解发生的奇妙场所。事实上,不存在笛卡儿剧场;舞台上的经验和后台的过程之间的区别没有了吸引力。我们还有大量令人惊异的现象需要解释,但少数让人想都不敢想的特殊效应根本不存在,因此也无须解释。

一旦我们在困难的任务(想象大脑如何产生意识现象)方面取得某些进展,我们就会在简单的任务(想象某人或某事有意识)方面做出一些细微调整。我们可以通过设想意识流一样的东西,继续这个方面的思考,但我们不再把意识流的所有传统性质都赋予它。既然意识流被重新构想为在大脑中实现的虚拟机器的运作,下面这一点就不再是“显然的”:当我们想象在机器人的计算机大脑中出现这样一种意识流时,我们是在屈从一种幻觉。

麦金邀请他的读者同他一道放弃:我们不可能想象软件如何能使机器人有意识。他说,甚至不用试着去想了。其他哲学家也助长这种态度,他们设计了一些思想实验,而实验之所以“发挥作用”,完全是因为它们劝告读者,不要试图详细地想象软件如何能够使机器人有意识。奇怪的是,两个最著名的思想实验都涉及中国:内德·布洛克(NedBlock, 1978)的中国人和约翰·塞尔(John Searle, 1980, 1982, 1984, 1988)的中文屋。[3]这两个思想实验都依赖同样的想象误导,而由于塞尔的实验得到了更为广泛的讨论,因此我将集中考察它。塞尔邀请我们想象,他被锁在屋里,手动模拟一个大型的人工智能程序,这个程序按照假定可以理解中文。他讲明,该程序通过了图灵测试,能成功地应对问话者为了区别它与真正理解中文的人而提的问题。他说,我们不能只因为它们在行为上不可区分,就推断在中文屋中存在对于中文的真正理解或存在中国人的意识。塞尔只是被锁在屋里,按程序忙碌地处理程序的符号串,他没有获得任何对中文的理解,屋里同样没有任何其他理解中文的东西(弗兰克·杰克逊会说,这是“显然的”)。

这个思想实验据说就证明了塞尔所谓的“强人工智能”是不可能的,“强人工智能”认为,“经过恰当编程的数码计算机,只要有了正确的输入和输出,就会具有人类意义上的心智”(Searle,1988a)。过去十年涌现出大量文章回应塞尔这一思想实验的许多版本。虽然哲学家和其他人早就知道,如果把这个思想实验当作一种逻辑论证[4],它是有缺陷的,但无可否认,它的“结论”在现在的许多人看来还是“显然的”。为什么?因为人们没有按照这个实验的要求,去真正详细地想象它。

这里有一个非正式的实验,可以帮助大家看出我的诊断是否正确。首先,让我们想象一段对话,它来自图灵测试时中文屋顺利通过裁判测试的对话。

裁判:你听说过那个发现神灯的爱尔兰人吗?当他擦拭神灯时,一个精灵出现了,并许诺实现他三个愿望。“我想要一杯健力士黑啤酒!”爱尔兰人回应道。黑啤酒马上就出现了。爱尔兰人急切地抿了一口,然后大口喝了起来,但杯里的黑啤酒总是神奇地复原。过了一会儿,精灵不耐烦了。“好了,你第二个愿望是什么?”他问道。爱尔兰人边喝边说:“哦,我想再要一杯!”

中文屋:很有趣。我还没听说过——但你知道,我觉得民间笑话品位很差。我忍不住发笑,但实际上,我认为你应该找些其他话题来探讨。

裁判:好,但我告诉你这个笑话,是因为我想让你对它做个解释。

中文屋:烦不烦啊。你永远不用解释笑话。

裁判:但这是我的测试题。你能给我解释一下,这个笑话如何以及为何能够“产生作用”吗?

中文屋:如果你坚持的话,那好吧。你看,它依赖如下假设:这个能神奇续杯的杯子会反复续杯,因此爱尔兰人就总会有黑啤酒可喝。这样他就很难有理由再要一杯,但他真的很蠢(这就是我要反驳的部分),或者是被酒精弄糊涂了,居然没有认识到这一点,因此,他沉浸在第一个愿望实现的喜悦中,要了第二杯。这些背景假设当然是错误的,但它们是讲笑话的传说氛围的一部分,在这种氛围下我们暂时搁置对魔法的不信任,等等。顺便说一下,我们可以想象随后发生的比较费神的一幕:爱尔兰人的第二个愿望最终还是“对的”-也许他正打算举办一个大型聚会,而一个杯子重装的速度还不够快,不能满足所有饥渴的客人(事先储存是没用的-我们都知道陈啤酒没味道)。我们不容易想到这种复杂情况,它是关于笑话为何发挥作用的解释的一部分。够了吗?

这段对话没什么好大惊小怪的,不过且让我们假设,它很好地骗过了裁判。现在我们来想象塞尔努力模仿的这个大型人工智能程序所构成的中文屋里的所有谈话。难以想象?当然,但是,既然塞尔假定这个程序通过了图灵测试,而且这种复杂层次的谈话无疑在它的能力范围之内,那么,除非我们尽力想象一种复杂的程序能够产生这类对话,否则我们就没有遵循其中的指令。当然,我们同样应该想象到,对他在中文屋里做了什么,塞尔没有给出任何暗示;他只是看到了他按程序在处理的0和1。顺便提一句,重要的是,塞尔引导我们想象他处理的是无法理解的汉字符号,而不是0和1,因为这可能哄骗我们接受一种(没有理由的)假设,认为这个巨大的人工智能程序的工作就是以某种方式“匹配”一些输入的汉字符号与一些输出的汉字符号。当然没有哪个程序会这样工作——中文屋用塞尔的母语英语所讲的话,与裁判的问题“匹配”吗?

如果一个程序能够针对裁判的问题实际地生成中文屋的语词,那么,它也许在行为上看起来就有点儿像这样(从虚拟机器层面去看,而不是从塞尔所谓的底层去看)。在对第一批语词“你听说过……”进行语法分析时,这个程序的某些探测笑话的小妖得到激活,它们召唤大量的策略来处理虚构、“第二意向”的语言等诸如此类的东西,因此,当词语“神灯”开始得到语法分析时,这个程序就已经给一些抱怨不存在神灯这种东西的反应赋予低级别的优先性。各类标准的神怪笑话的叙述框架(Minsky,1975)或脚本(Schank and Abelson, 1977)得到激活,产生对于下文的各种预期,但这些预期其实会因笑话的笑点而短路,笑点于是又引起更平庸的脚本(“要第二杯”的脚本),对此始料不及的感觉就在这个程序上产生……同时,对民间笑话的负面含义保持敏感的小妖也得到警示,最终产生中文屋第一反应的第二个主题……如此下去,其细节比我在这里试图概述的更为具体。

事实是,任何真正能够在刚才描述的对话中控制其结果的程序,必定是一种反应异常灵活、复杂精深的多层次系统,内部装满关于它的反应、它的对话者的可能反应、它自己的“脚本”和对话者的脚本等多之又多事项的“世界知识”、元知识和元元知识。塞尔并不否认,人工智能程序完全能够具备这种结构。他只是不鼓励我们关注它而已。但是,如果我们好好想象这种情况,我们就不只能够而且还不得不想象,塞尔模拟的程序完全具有这种结构——此外,只要我们能想象它,我们就会发现它的更多东西。但这么一来,我相信如下这一点就不再是显然的:并不存在对这个笑话的真正理解。也许,所有这些高度结构化的部分的无数行为,终究能够在系统中产生真正的理解。如果你对此假说的反应是,你完全不知道在这样一个复杂的系统中是否有真正的理解,那么这就足以表明,塞尔的思想实验不正当地依赖于,你只想象一种过分简单的情况,一种不相关的情况,并从中得出“显然的”结论。

误导就是这样出现的。我们足够清楚地看到,即使这样一个巨大的系统中存在理解,它也不会是塞尔的理解(因为他只是这个机制中的一个齿轮,不清楚他所做事情的背景)。我们同样清楚地看到,在任何小到容易想象的程序中,不存在一丁点儿的真正理解——无论它是什么,它都只是没有心智的机械程序,按照某种机械规则或句法规则,把一些符号串转换成其他符号串。这样就有了一个被压制的前提:同样的东西当然可以增加,但无论增加多少,都不会变成真正的理解。但是,为什么每个人都认为这种说法是对的?笛卡儿主义的二元论者会这么看,因为他们认为,即便是人类大脑也无法自行实现理解;按照笛卡儿主义的观点,要产生理解的奇迹,就必须依靠非物质性的灵魂。此外,如果我们是物质论者,确信我们的大脑不需要神奇的辅助物,可以自行产生我们的理解,那么我们必须承认,真正的理解是以某种方式从大量子系统之间的交互作用过程中获得的,其中每个子系统都不能自行产生理解。如果论证的起点是,“这个小规模的大脑活动不理解中文,所以规模更大一点儿的大脑活动也不理解中文”,它就会导向一个有害的结论:即便是整个大脑的活动,也不足以产生对中文的理解。很难想象“同样的东西增加”为什么可以构成理解,但我们有很好的理由相信它可以,因此,在这个例子中,我们应该更加努力,而不是放弃。

我们如何能做到更加努力呢?利用手边的某些概念——中间层次的软件概念,这些软件由计算机科学家设计,正好帮助我们追踪大型系统中原本无法想象的复杂情况。在中间层,我们看到许多在更微观的层次上完全不可见的实体,比如上面提到的“小妖”,我们对它们只能获得少量的准理解。这么一来,我们不再那么难以想象“同样的东西增加”如何能够构成真正的理解。所有这些小妖和其他实体都被组织成一个巨大的系统,该系统的活动就是把它们沿着它自己的叙事重心组织起来。在中文屋中辛苦打拼的塞尔并不理解中文,但他在屋里并不孤独。还有中文屋这个系统,我们应该把对笑话的任何理解都赋予这个自我。

这种关于塞尔例子的回应,就是他所谓的系统回应(the Systems Reply)。自十多年前塞尔提出他的思想实验以来,这已成为人工智能领域对它的标准回答,但在人工智能领域以外,这种回答却很少有人赞同。为什么?也许是因为他们没有学会如何想象这样一个系统。他们完全无法想象,“理解”如何能够成为从一个大系统的许多分散的准理解中产生的一种性质。如果他们不尝试,那么他们肯定无法想象,但我们如何能够帮助他们做这个困难的练习呢?把软件看成由那些具有准理解能力的小人组成,这是一种“欺骗”,还是帮助想象力理解巨大的复杂性的正确方法?塞尔回避了问题的实质。他引导我们想象,这个巨型的人工智能程序是由某种简单的查表架构所组成的,该架构直接匹配一些中文符号串与其他符号串,好像这样一个程序能够代替任何其他程序。我们没有道理去想象这样一个简单的程序,设想它就是塞尔所模拟的程序,因为任何这样的程序都不可能产生据说可以通过图灵测试的结果。(类似的论证和反驳,见Block,1982;Dennett, 1985。)

复杂性确实重要。如果不重要的话,反驳强人工智能的论证就会简短得多:“嗨,看看这个手持计算器。它不理解中文,而任何可以想象出的计算机都只是巨型的手持计算器,因此没有哪台计算机能够理解中文。证毕。”当我们考虑复杂性的因素时(我们必须如此),我们就要真的把它考虑进来,而不只是做做样子。这很难做到,但在做到之前,我们对任何现今“显然”不存在的东西的直觉,都是不可信的。像弗兰克·杰克逊笔下的色彩科学家玛丽一样,塞尔的思想实验只有在我们没能遵照指令的情况下才会产生一种强烈而清晰的信念。这些直觉泵存在缺陷,它们没有提升我们的想象力,而是误导了我们的想象。

但我自己的直觉泵又如何呢?机器人沙克、II型CADBLIND或是受过生物反馈训练的盲视患者,又是如何呢?它们不也同样可疑,同样可能会误导读者吗?我当然已经尽我所能讲好这些故事,沿着一定的路径引导你们的想象,使你们免于陷入我认为对我试图陈述的观点来说并不必要的复杂情况。但是,这里存在某种不对称:我的直觉泵旨在帮助你们想象新的可能性,而不是使你们确信某些特定的前景是不可能的。当然,也有一些例外。在本书开头,我提出了缸中之脑的一种变形,它旨在提醒你某些种类的欺骗是不可能的,而第5章中的某些思想实验则旨在表明,除非存在笛卡儿剧场,否则不可能存在一些能够区分奥威尔式的内容修正与斯大林式的内容修正的事态。但是,这些思想实验是通过增强“对立面”的生动效果来进行的,例如,聚会上戴帽子的女人以及戴眼镜的长发女人的例子,就旨在突出我当时力求通过论证来证伪的那种直觉。

不过,读者仍然需要注意:我的直觉泵,同任何其他人的一样,并非它们所看起来的那样是直接的证明;它们更像艺术而不是科学。(关于哲学家的思想实验的进一步警告,参见Wilkes,1988。)如果它们有助于我们构想新的可能性,从而使我们可以通过更系统的方法证实这些可能性,那么这是一种成就;如果它们诱惑我们走上危险的安逸之路,那么这是一种遗憾。即使好的工具也会被误用,而且,就像任何其他工作者一样,如果我们能够理解我们的工具是如何工作的,我们就会做得更好。

如涉及版权,请著作权人与本网站联系,删除或支付费用事宜。

0000