• 精选
  • 会员

3.巨型机器人

2021年10月25日  来源:直觉泵和其他思考工具 作者:[美] 丹尼尔·丹尼特 提供人:zhaotou97......

假设你想过25世纪的生活。已知的唯一办法是将你的身体保存在某种冷冻装置中,你会静静地、缓慢地进入沉睡,愿意待多久就待多久。你会在冷冻舱进入睡眠,直到2401年被自动唤醒。

设计冷冻舱并不是你面临的唯一工程难题,你还必须保护冷冻舱并提供必要的能量用来制冷或满足其他所需,使其可以运行400年。你不能指望你的儿孙负责日常管理,因为他们很可能活不到2401年,同样你也不大可能指望未来的后裔对你的生活计划感兴趣,你甚至可能根本没有后裔。因此,你必须设计出一个超级系统来保护你的冷冻舱并给它供应运行400年所需的能量。

有两种基本策略可供参考。第一种,你应该找一个你所能想到的最佳场所,在那里固定装置会很好地提供水、阳光和任何冷冻舱以及该超级系统本身所需之物。这样一套装置,或“设备”的一个主要缺点是,当有危害来临时它不能移动。比如,有人碰巧想在此处修一条高速公路。第二种策略更加复杂,但它回避了这一缺陷:为你的冷冻舱设计一个可移动的装置,配有所需的传感器和预警装置,使它可以避开可能的危害并寻找所需的能量。简言之,就是造一个巨型机器人并将冷冻舱安置其中。

显然,这两种基本策略均来自大自然,它们的区别大致相应于植物和动物的分野。第三种策略同样来自大自然:孢子或种子能够待在它坚硬的护甲里几乎无限期地存活下去,但这并不适合你,因为你的生命支持系统需要高能量,而孢子处在尽可能低能耗的惰性状态。由于动物的策略与我们的目的颇为相合,我们假定你决意造一个机器人安置你的冷冻舱。你应该试着将它设计为可以“自主决定”有助于实现你的最佳利益的行动。笨拙的行动或错误的转弯会使它不适合保护你到2401年,而这是它存在的唯一理由。毫无疑问,这是一个工程方面的老大难问题:这需要通过顶级的专门技术设计出一个“视觉”系统和其他一些“知觉”系统来保障运动。还有,在整个冷冻期间,你处于沉睡状态,因此你不能提供指导,并为它的策略做计划,所以你只能将其设计为可以自发制订计划以应对环境的变化。它必须“知道”如何“找到”并“识别出”可用的能量源、如何移动到更安全的区域,以及如何“预见”并“避开”危险。既然有这么多工作要做,而且还要做得快,那你最好想方设法精打细算:切勿赋予你的机器人超凡的识别能力,它只要能识别在这个世界上需要识别的东西就够了。

再次注意,我将所有意向词或“心智”词,例如“知觉”“找到”以及“预见”,都加上了双引号,用来表示这是一种特定的近似意向性:派生意向性。这种意向性完全取决于人类的目的。这是你制作的东西,无论它具有什么样的意向性,它都属于你——它的制作者。若去掉了双引号,我就会被指责为在鬼鬼祟祟地搞某种意识形态,因为工程师等人往往因循守旧,会不加双引号地使用这类言语谈论某个信息处理装置的规格,例如升降电梯控制器。我有意没有这么做。为论证方便起见,我承认,使用意向语言对人造物功能进行的任何描述或规定都是隐喻。同样需要注意的是,像双币机一样,机器人的机制服从经济上的考虑:它需要“检测”或“识别”许多东西,但它的“识别器”并非完美无瑕。它可以出错,但什么算作错误归根到底取决于制作者的需要和欲求。假使制作者想造一个在“认不清”东西的世界里四处瞎撞的、滑稽的机器小丑,那么,这些“错误”中就会有一些是弄对了的,是小丑控制器的巨大胜利。

现在让我们回到直觉泵。由于你不能指望你的机器人是唯一执行该任务的机器人,你的任务将变得愈发困难。如果你的奇想流行开来:你的机器人很可能发现自己在与其他机器人,以及你的人类子孙争夺有限的能源供应、新鲜的水、润滑油等(见67章关于其他行动者的重要性的简短讨论)。那么,毫无疑问,你必须将机器人的控制系统设计得足够精密,允许它能计算与其他机器人合作或者结成互惠互利联盟的利益及风险。但是,再提醒一下,这种计算一定是“马马虎虎”的近似,是迫于时间压力的任意简化。

这一设计方案的结果将是一个能够表现出某种自我控制能力的机器人,因为你本人一旦进入睡眠状态,就不得不放弃对机器人的精细控制和实时操纵。因此,它能够评估当前状态与始终保护你的终极目标,并从中得到它自己的附加目标。这些次级目标可能要上百年的时间才能实现,尽管你在设计阶段尽了最大的努力,但其中一些目标可能仍不明智。也许,在被其他机器人“说服”去保护他人之后,你的机器人一行动就与你的目的背道而驰,甚至是自杀式的。

注意,在这个时候,即便机器人所有的意识状态和行为都源自你的目的,它们也会开始变得有点脱离你的目标了。因为你设计的机器人在某种程度上是“自主思考”的,它的“思考”可能超出你的预期。

考虑现实世界中一个非虚构的例子,比如一台国际象棋计算机,它可以击败它的创造者。我们说计算机正在“琢磨”车的行动,“决定”不去王车易位,这么说的唯一理由是因为人类设计者设计它做那种事。但是,由于设计者的目标是造出一台优秀的国际象棋计算机,所以,对于计算机的状态(派生性地)应当关于什么的许多决策,其实是在倒逼自己:既然国际象棋程序需要游戏规则和游戏状态的准确信息,就一定存在着诸多涉及每个象、每个兵的状态,还有在电脑的“后”吃掉了对手的“马”时对整个棋局进行评估的状态,等等。如果计算机的状态没有恰当地关联到棋盘上每一个兵的位置,无论设计者怎么做,这个状态都不会(派生性地)关涉存活在棋盘上的兵的数量。一旦确定了设计者的最大目标,比如制作国际象棋程序、巨型机器人或飓风模拟器,暴虐的大自然就会接管过来,并决定什么可行,什么不可行,哪个系统中的哪些状态是错误的或不准确的。

诗人可以通过一首看上去关于马但其实是关于教授的诗来表达自己的观点,比如威廉·布莱克(William Blake)告诉我们“愤怒的老虎比听从教导的马更有智慧”,然而计算机工程师却不能将自己的意图强加给他们的造物。

接下来让我们稍加盘点。巨型机器人精神状态的模造(simulacrum)只是这样:它并非在真的做决策、看、思考、规划,它不过是好像在做决策、思考和规划罢了。我们应该停下来想想这种说法包含了什么。我们设想的机器人肯定比不起眼的双币机复杂得多;我们赋予它“规划”新的行动方案、“从过去的错误中学习”、“养成忠诚”以及与其竞争对手“沟通”等能力。此外,为了能让它“规划”“学习”和“沟通”,我们不得不为它提供复杂的控制结构,赋予它自我反思或自我监控的能力。换句话说,它像人一样,可以通达自己的内部状态,当它“决定”不“想”向我们“撒谎”时,能够“报告”“坦承”以及“评论”其内部状态“需要”输入什么。它对这些状态的含义有“意见”,无疑,我们应该严肃地将那些“意见”视为充足的证据(这大概是我们能轻松拿到的最好证据),来证明这些状态在隐喻的意义上“意味着”什么。

切记,它不过是件人工制品,没有原初意向性;我们正在考察的是其派生意向性,对于观察者而言,其派生意向性与我们这些“真正”的行动者的意向性同样不明显。双币机没有能力动摇我们的解释性判断,因为它无法提供确定无疑的“声明”,表明它不知道自己现在身处巴拿马,或者看到巴波亚硬币让它感到意外。

对于这一直觉泵,可以有若干回应,我们将对它们略加检视。不过,我首先想引出我们在做出初始假设时所持立场的最显著含义:不管多少神奇的人工智能妙法植入其中,人工制品都不会有什么派生意向性。若坚持这一观点,我们就不得不接受,我们自己的意向性和机器人的意向性完全一样,因为我讲的科幻故事并不新鲜,它是理查德·道金斯(Dawkins, 1976)看法的另一种形式:我们和其他所有生物都是“生存机器”,其目的是延续我们自私的基因。我们是被造物,是历经亿万年设计而成的用来保障基因的生存机器,因为基因无法出于其利益迅速地、知情地行动。我们设想的自身利益和基因的“利益”很可能相悖,即便我们存在的目的就为了基因的“利益”。基因的保存是我们的原初存在理由,虽然我们学会了无视这个目标,并仰赖基因业已安放在我们身上的智力、学习能力,设计出自己的至善(summum bonum)。因此,我们的意向性源自“自私”基因的意向性。它们是无意的赋义者,而非我们!

当然,在任何意义上,我们基因的意向性都不是内在的;基因的“意义”首先取决于蛋白质的合成、发育,也就是说,取决于进化而来的、由ACGT密码子构成的“字母表”系统。原初只是说它是许许多多进化而来的表征系统(representational system)中的第一个。后来的所有系统都有行动者,即意向系统,行动者的表征从其推进的目标中获得意向性,就像巨型机器人的意向性那样。(49)

虽然这一图景为我们自身的意向性从何而来提供了一个满意的答案,但它似乎让人有点尴尬:我们自身的意向性派生自基因实体,而基因的意向性仅仅是类意向性。字面上的东西如何依赖于隐喻层面的东西?此外,在我的科幻小说和道金斯的故事之间显然有许多不同:在我的故事里,我假定,制造巨型机器人所涉及的工程是一个有意识的、慎思的、有远见的过程。即使如道金斯所言,我们是设计过程的结果,在此过程中,我们的基因是主要的受益者,那也是一个完全不存在有意识、慎思、有远见的工程师的设计过程。不过,我们马上就会看到,这不是一个好的反对意见。

自然选择理论的美妙之处在于,它告诉我们如何在关于种种起源的解释中将智能造物主排除出去。自然选择过程理应对这种非凡的、机巧的设计负责。基因不是设计者,它们本身再愚蠢不过了,它们不能推理、表达或理解任何东西。基因不能设计自己,它们仅仅是设计过程中的受益者,你可能会说,它们只是客户。在我们的故事里,基因可比作非常愚蠢、非常有钱的客户,他们雇佣最优秀的工程师为其建造生存机器。若不是他们,工程师就无钱可用,而且他们的存活正是其造物的代价。是谁或什么东西做的设计?当然是大自然母亲,或更直白地说,是自然选择压力下漫长而缓慢的进化过程。

在我看来,进化过程最令人着迷之处在于,它以其不可思议的能力映射出人类心灵(智能设计者)的某些性质。第五部分我们将更多地讨论如何思考进化,眼下,我想澄清一下可接受的意义理论和进化论之间强有力的联系。自然选择既无前瞻性,亦无目的性,虽然这怎么强调都不为过,但我们也不应无视这一事实:在对许多微妙关系做出无数有识别力的“选择”“辨别”和“鉴赏”之际,自然选择过程已然表明它对基本原理有着近乎完美的敏感。更挑衅地说,当自然做出选择时,它可以出于特定的理由来“挑选”特定的设计,却从不曾有意或无意地“表现出”选择或理由。自然“选择”心脏作为血液循环泵是出于其优越之处,并非出于它们跳动时迷人的节奏,尽管后者也可能是自然“挑选”其他东西时的理由之一。

巴拿马百事可乐的特许经营人可以因识别巴波亚硬币的功能选择双币机,把它用作一部巴波亚硬币检测器,同样的道理,进化也可以因为血液供氧的能力选择某个器官,将其作为肺。只有相对于这类设计“选择”或进化“认可”的目的,我们才能确认行为、动作、感知、信念或常识心理的其他范畴。(50)

我们是自然选择设计出的造物,这一想法既熟悉又引人入胜;但有些人可能会说,这种想法超出了严肃论争的范围。(51)然而,为什么不仅是创造论者、“智能设计”理论家,就连塞尔、福多尔及其拥护者也有点儿下意识地抵制它呢?

我觉得,这一想法有两个相当不明显的含义让一些人难以接受。首先,如果我们“仅仅”是造物,那么,我们这些拥有思想的思考者就没有任何特别的权威来确认我们内心深处的思想意味着什么,甚至不能确认它们是否在根本上无所意味。用不着改变任何内在性质,双币机就可以变成q巴波机;过去常常用来指一种物事的状态现在意味着另一物事。所以,原则上,如果仅仅是造物,如果我们自己的意向性因此是派生的而不是原初的,同样的事就会发生在我们身上。例如,琼斯没有权威可以来认定他是在考虑马还是犸。其次,如果我们是这样的造物,我们非但不能保证有权通达深层事实来确定我们思想的意义,而且根本就不存在所谓的深层事实。功能解释有时是显而易见的,比如,心脏显然是一台泵,眼睛显然是用来看东西的。但是,当它并非显而易见时,比如当我们试图理解大自然母亲的心智时,那里并不存在任何可供解释的文本。当有关功能的“真相”(the fact of the matter)有争议时,也就是说,当多个解释都讲得通时,那里就不存在任何真相。

如涉及版权,请著作权人与本网站联系,删除或支付费用事宜。

0000