• 精选
  • 会员

还原论方法无法解开意识之谜,理解意识需要整体考虑

2019年1月1日  来源:机器之心 作者: 提供人:haddipa......

引言

Alva No? 目前是加州大学伯克利分校的哲学教授。他的研究领域集中在认知科学、分析哲学的起源、现象学、心智哲学、艺术理论、感知理论和维特根斯坦。

思想和评论

在科学领域,还原论(reductionism)的意思是发现复杂现象之下的机制,一种可能的方法是将其约简成更简单的组分。这种方法是很多已经发展成熟的研究领域的基础,比如经典力学、化学等。比如在认知科学背景中,我们可以通过研究神经元的生物学机制来发现认知的奥秘。在工程领域,当前最佳的深度学习也受到了神经科学发现的启发。

但是,No? 提出目前使用还原论方法来进行的神经科学研究远远不能理解我们意识背后的原理。在我看来,还原论也远不足以构建出真正的人工意识机器。

他对意识的起源持有一种“行为性(enactive)”的看法,他也特别讨论了视觉意识,几十年来他一直都在积极研究这一主题。他的书 [1] 中谈到,视觉意识应当源自与周围环境的交互,而不是某种直接在我们的大脑中发生的作为单向视觉流的东西。因为它无法解决主观视觉意识从客观的电子和化学信号中产生的方式,所以我们必须将人脑和身体的不同部分视为一个整体,因为它们一起才能让人拥有视觉体验。类似地,当前最佳的深度学习方法也不足以解决视觉意识的奥秘,更不要说发展出人工意识了。

还原论方法无法解开意识之谜,理解意识需要整体考虑

大脑的模块化理论已经被大众广为接受,该理论宣称大脑的不同部分负责不同的任务。比如,视觉系统负责视觉感知,运动区域负责动作。我们在日常生活中也常常无意识地提到这一思想,比如某人可能会说“那家伙脑子里负责看东西的地方坏掉了吧?”在这个句子中,人们假设大脑里有一个区域是负责看东西的,而不会做其它事。但是,正如 No? 提到的 Hubel 和 Wiesel 案例(这是他们的一项后续研究),研究者发现“两个视觉流”中的背流(dorsal stream)实际上提供的是与视觉输入协调的动作的转换。另一方面,视觉系统(以及其它的感知)不可能是独立的,还依赖于身体的运动和指引 [2]。

还原论方法无法解开意识之谜,理解意识需要整体考虑

但是,回头看看当前的 AI 应用,比如自动驾驶汽车、Facebook 自动推荐或图像识别,它们都遵循简单的输入输出映射模式;即 AI 算法会学习并尝试寻找输入和最优输出之间的最佳映射函数。在深度卷积神经网络中,分类和感知都是作为同一网络的一部分而训练的。当训练足够时,这些网络能够将(准)符号表征(目标类别)与相机感知到的图像像素链接起来。如果我们使用 CNN 构建一个人工智能体(比如机器人),那么符号表征就永远不会为该人工智能体本身提供任何意义。“番茄”或“篮球”究竟是什么?它们有相似的外形,但它们能为人工智能体做什么?所以 CNN 网络也是一种单一的模块网络,只能处理视觉信息。如果我们想要构建对这两个目标的视觉意识,No? 的观点是:只有当人工智能体理解视觉目标所处的真实世界的形境(context)时,这些符号表征才具有意义。

另外,还出现了 AlphaGo,尽管它没有实际的身体,但它还是击败了世界冠军。尽管强化学习本身是一种通过物理交互探索外部世界的出色方法,但不幸的是 AlphaGo 中的深度强化学习仅被用于探索围棋的最优下法。因此,根据 No? 的观点(本文作者也同意),这不过就是一个桌面计算器。强化学习算法是一种优良的工具,让我们可以通过我们的行为探索世界,并由此发展出感知意识。AlphaGo 本身只是先进强化学习算法的一个优良测试平台,但却没有身体,无法通过感知和动作来探索世界,它永远无法理解围棋的每一步的意义。

根据 No? 的感觉运动偶然性理论(sensorimotor contingency theory),我们应该从整体角度理解我们的大脑,而不是将其理解成分离的。比如,感知和动作有类似定律的规律,不能被分开。我们的运动动作的影响会导致感知世界发生改变,而且我们的这些行动也能帮助我们真正了解我们感知的是什么物体。简而言之,我们会通过采取行动来为自己提供更好的感知,这能提升我们对世界的理解,然后提升我们采取行动的能力。通过构建这些感觉运动技能,我们得到了理解世界中的事物和规律的智能。然而,目前当前最佳的 AI 还缺乏这样的能力。

因此,在理想情况下,也许我们可以构建一个尝试接住飞来的篮球和测试番茄柔软度的机器人,以便其真正理解(即有视觉意识地理解)番茄和篮球之间究竟有何不同。

Alva No? 的原始文章

如果你停下来思考一下,你能通过一个复杂系统中某些部分的详细描述来理解该系统,这个想法实际上是很不切实际的。

如果你只关注单个鸟的内部情况,你不太可能非常了解鸟群行为组织的原则。而且你也不太可能通过研究羽毛的性质来搞清楚鸟飞行的方式。

第二个例子来自视觉科学先驱 David Marr,并且他也在拒绝视觉理论的神经还原论的背景中推进了它。为了理解我们观看事物的方式,他相信需要思考动物在观察事物时所采取的行动。视觉的任务是什么?视觉是为了什么?只有在那时,有了在动物及其需求和兴趣层面的现象的描述,我们才能问:我们(或自然)可能怎样构建出能够执行或实现这一功能的机器或动物?而且只有到那时候我们才能去了解:单个的脑细胞有怎样的贡献来实现这样的整体成果?它们会不会无法做出这样的贡献?

有意思的是,Marr 的著作发表之时,David Hubel 和 Thorsten Wiesel 刚好也因他们在哺乳动物视觉系统中的信息处理的研究成果获得了诺贝尔奖。基于几代科学家的研究成果,他们发现了猫和猴的细胞的感受野(receptive field)。用非专业术语说,他们发现不同细胞会被调整到对单一一种刺激的响应更好(比如线、条纹、运动)。他们没有提出也没有回答一个隐约显现的问题:单个神经元构成的回路何以创造出有意识的视觉体验?这个问题有一个答案——某种版本的还原论思想;可能不仅 Hubel 和 Wiesel 想当然地采用这一思想,而且那些评估他们的研究是否值得科学领域最高奖项的科学家也想当然地采纳了这一思想。

事实上,我们仍然不了解大脑中的视觉意识是如何产生的。而且我们可以回到 Marr 的书,了解一下可能的原因是什么。我们根本就不能通过了解单个细胞的运作来理解整体(不只是大脑,而是整个生物体)的情况。在将感受野用于理解或解释任何事情之前,还有许多概念性的工作要做。

我和其他人已经探讨过这个问题一段时间了,但对大众的认知还没有产生什么明显影响。现在有“大脑年”、“大脑的十年”、“连接组计划”、“脑计划”等等。所以出现了一个值得提及的事件——也许是一个真正具有历史意义的事件:一组来自世界各地的顶尖神经科学家聚首一处在《Neuron》期刊上发表了一篇意见文章(doi: 10.1016/j.neuron.2016.12.041):呼吁神经科学“纠正还原论的偏错”并拥抱“更多元化的神经科学”。

记得吗?Hubel 和 Wiesel 因在猫和猴大脑上的单细胞电极研究而获得了诺贝尔奖。那时候可用的仅有的另一种研究大脑的工具是尸检。自那以后,研究活着的人类和其它动物的大脑的技术和方法经过了爆炸式的发展,出现了 fMRI、PET 和其它成像工具,甚至还有更新的基因操作技术和个体发生回路控制(ontogenetic circuit control)。将这些新的发现技术与大数据和越来越高的计算能力结合起来,却让研究进入了理论或解释性的死胡同。更多信息并不意味着更多知识。无法被理解的数据就只是噪声而已。实际上,这比噪声还糟糕。这是伪装成见解的噪声。

每个人都知道无法在单个细胞中找到意识。但现在我们有工具可以从时间和空间上建模分布式的细胞群。我们当然可以在这些更大的集群中找到心智的核心!在我们知道问题是什么之前,我们不太可能发现任何东西。(或者我们会发现某些东西,但毫无头绪那是什么,就像哥伦布到达美洲时,他认为他到了印度。我举这个例子是因为 Hubel 在 1981 年的诺贝尔奖获奖辞中将他与 Wiesel 的研究比作是哥伦布的探索。)

在《Neuron》上发表那篇文章的 John Krakauer 等人并不是悲观主义者——并不比 Marr 更悲观。他们提到,要理解人类心智或非人类动物的心智,我们需要研究大脑之外的情况,去了解动物的行为,也就是动物生活和行为的方式、面临的问题、所处的环境等。这不仅仅是分子生物学的问题,而是整个生物学的问题;这不仅仅涉及神经活动,也关乎认知和意识。在我们仔细研究行为之前,我们将无法理解大脑实现心智的方式。

哲学不是也从未成为过哲学家的认知属性。科学需要哲学,不仅是科学家应该关注哲学家的工作,而且甚至更重要的是至少有些时候(也许是出现危机的时候)需要科学家来研究哲学。他们需要自己去质疑他们的预设前提以及做困难的概念塑造工作,以为他们自己设定更可靠的基础。我很赞赏这些科学家对价值的理解——为了他们的科学研究,他们需要设定框架以及为他们的研究方法设定更好的背景。

科学从来都不只是信息或数据。科学的目标是理解,是知识。通过呼吁拒绝想法简单的还原论以及鼓励脑科学家思考理解生物体与其周遭环境和生物体内部情况之间的关系,这些神经科学家能在建立适当的认知和意识神经科学方面迈出重要的一步。

神经科学 / 机器学习 / 人工智能 / 意识 / 还原论

如涉及版权,请著作权人与本网站联系,删除或支付费用事宜。

0000
相关核心文章
haddipa...... ————最新文章