1700245629
1700245630
如果对行为的观察(比如估计动物的疼痛)不够可靠,那么科学能够提供更适当的方法吗?美国新泽西州的神经科学家克雷格·约翰逊(Craig Johnson)对此持肯定态度。2009年,他报告称“大脑信号已经显示在被屠宰时,小牛确实表现出感到了疼痛”。约翰逊使用脑电图做出预测并因为这项研究而获了奖。以前对人类和其他哺乳类动物的研究显示,当被试受到疼痛刺激时会表现出特定的脑电图模式。为了避免动物感到任何不适,在切开小牛的喉咙前,约翰逊对它们实施了麻醉。正如他推测的,当小牛的喉咙被切开时,它们出现了典型的“疼痛电信号”。他得出结论:如果小牛是清醒的,它们会感受到疼痛。
1700245631
1700245632
基于脑电图研究的发现以及清醒的人类被试对临床疼痛的描述,约翰逊推测脑电图模式代表了疼痛的心理状态。但是把被麻醉动物的脑电图模式作为疼痛的无意识临床表现,显然毫无意义。因为疼痛是一种有意识的体验。想象两个人都同样磕到了脚趾头。其中一个人刚刚失了业,妻子也离开了他,他疼得大叫。另一个人刚听说自己中了超级大乐透,他甚至没有注意到自己磕了脚趾。信息输入是同样的,疼痛的神经也是相同的,但心理体验非常不同。约翰逊的研究是将大脑与心智相混淆的一个完美实例。知道在神经功能层面发生了什么并不等于我们知道动物正在感受到什么。
1700245633
1700245634
这项研究具有悲剧性的花絮之一是,研究者令人敬佩地试图用脑电图模式来让宗教领袖相信动物能够感受到疼痛。根据约翰逊的说法,研究结果并不令人吃惊,但“宗教界固执地认为动物感受不到任何疼痛,因此对他们来说,这个结果可能是令人吃惊的”。宗教屠宰场的发言人对该研究进行反驳时引用了德国汉诺威大学(University of Hannover)之前的一项研究。这项基于脑电图模式的研究得出结论,认为一种屠宰技术比另一种更人道。
1700245635
1700245636
认为通过解读脑电图模式便可以决定宰杀动物的方式是否人道的想法,无疑是信仰的巨大飞跃,是对动物内在生活的极大简化。
1700245637
1700245638
行为观察是不客观的,同时科学无法弥合心智与大脑的隔阂,这两种状况之间的冲突无助于找到合乎逻辑的解答。神经科学家可以进行更多的生理研究,哲学家也可以提供无穷无尽的假想实验,但没有任何无懈可击的方法能够解决主观性试图让自己变得客观的问题。
1700245639
1700245640
心智工具箱
1700245641
1700245642
有意识心理状态的神经相关物正是造成神经科学领域中一些误解的关键,这些误解包括对意识的评估、对某些疼痛综合征原因的判定,以及认为能够对道德进行科学判定的主张。
1700245643
1700245645
叫板人工智能
1700245646
1700245647
如果轻视动物心智能力的历史是误解其他生物方面的一个教训,那么让我们看一看这个教训可以扩展到多远。从逻辑上来说,其极限可以达到对机器智能的思考,这是在对心智的程度进行概念化时不可避免的一步。为此,我选择探讨现代人所关注的一个有趣问题:人类与计算机的关系。电影《2001:太空漫游》(2001:A Space Odyssey)中的机器人哈尔(HAL)成了人类与机器不断发展的关系的代表。一些超级乐观主义者相信机器智能最终将远远超越人类的智能。而另一些人认为真正的智能机器人是对人类最独特性质的威胁,这一独特性质即人类的心智。
1700245648
1700245649
为了看一看我们与计算机有什么不同,每个人都需要确定如果计算机真的能够理解的话,那么它能够理解什么。第一步是就理解的操作性定义达成一致意见。任何认知过程都包含两个部分:真实的计算和感觉体验。感觉体验指的是一种理解感,它来自那些计算。这种关系并不像我们希望的那样简单直接。正确的计算不一定与理解感联系在一起。我们都曾有过这样的体验:在填写复杂的纳税申报单或重新配置并重启有故障的调制解调器时,我们付出了心智上的努力,但并不觉得我们理解自己正在做的事。不正确的计算往往会伴随着毫无根据的理解感,正如我们在邓宁-克鲁格效应中看到的。理解和智能思维并不是同义词,它们代表了截然不同的概念和机制。即使你的大脑找到了一个古老问题的最聪明绝顶的答案,但在神经元层面上,它依然只是一种计算。无意识的理解感是你感受大脑计算的方式。这种理解存在各种形式,有日常恍然大悟的“啊哈”时刻,也有一生一次的顿悟。
1700245650
1700245651
神经科学的“知”与“不知”
1700245652
1700245653
哲学家约翰·瑟尔(John Searle)在1980年发表了广受争议的假想实验——中文房间实验。通过这个实验,他解释了为什么人工智能并不代表理解。瑟尔想象一个只会说英语的人被锁在一个房间里。这个人会看到一套指导手册,手册告诉他如何加工中文输入信息,然后以中文输出回应。由于他完全不懂中文,因此他的反应只是在照着指导手册去做(指导手册是英文的)。他既不理解输入,也不理解输出,但他能够恰当地完成任务。对于能够看懂中文的人来说,输出的反应很有意义,但对被锁在房间里的人来说,它们毫无意义。瑟尔的论点是,无论一个人能够多么准确地照着指令去做,产生看似有意义的反应,但如果他不理解反应的意义和语义,那么我们便不能说他理解了。在接下来的30多年里,哲学家提出了许多支持或反对瑟尔立场的论点。
1700245654
1700245655
如果你认可理解是依赖于心理感觉系统的心智体验,那么计算机是否能够理解的谜题便会彻底消失。由于计算机没有人类的感觉系统,因此它们不应该存在理解,提出这个问题便完全是没有意义的。同时,计算机不能理解行为的意义,并没有解决机器的计算是否能够被算作智能思维的一种形式的问题。大多数人会赞同,在一点不懂调制解调器工作原理的情况下让出问题的调制解调器恢复工作,应该是利用智能解决问题的一个例子。而这个过程与恍然大悟或深切的理解感几乎没什么关系。
1700245656
1700245657
计算机有它自己的智能类型,这种智能的基础是它们积累的数据和反馈。我们想当然地认为它们的计算能力远远超过人类的计算能力,而且这些计算能力还将继续呈几何级数增长。我们没有经过足够多的讨论便认可了计算机能够打败最棒的象棋和西洋双陆棋选手,还能在电视智力竞赛节目《危险边缘》中获胜,并且能够通过建模对各种主题产生引人注目的洞见,比如关于游戏理论、气候改变和生态学。不同之处在于这些计算的本质。
1700245658
1700245659
如果没有感觉能力和相应的心理感觉系统,那么配备着最尖端人工智能程序的先进计算机也无法拥有构成人类智慧的许多要素,无法把这些要素纳入决策过程,这些要素包括同情、幽默、讽刺、公正感等。尽管计算机能生成令人叹为观止的星系图像以及宇宙的早期图像,但它无法感受到美和敬畏,也无法基于这些情感做出未来的决策。正是计算能力和人类独特的无意识心理感觉体验的结合使我们不同于计算机。
1700245660
1700245662
思维简图
1700245663
1700245664
为了总结本章内容,我把人在思考过程中涉及的心智相互作用的各个部分,即一个想法背后的隐藏层和潜意识因素画在了一幅简图中(见下图6-1)。这个简单的示意图并不是最终的结论,它只是组织我们对心智的看法的一种方式。我希望这幅图能够帮助我们综览那些思维构成元素,以确定哪些适合用科学方法进行探究,哪些最好通过其他学科来研究,哪些是不确定的。
1700245665
1700245666
1700245667
图6-1 神经网络传输简图
1700245668
1700245669
局限与突破
1700245670
1700245671
在此对心理感觉作以下简要总结:
1700245672
1700245673
1.自我的身体意识:感觉自我的范围、第一人称视角、心智位于什么地方以及自我周围的个人空间。
1700245674
1700245675
2.自我与心智的心理特性:努力感、选择感、“我正在做……”的感觉、思考或推理的感觉、能动感、因果关系感、美感和知道感。每一种感觉都是一系列紧密相关的感觉的集合。例如,知道感包括确定感、确信感、正确感,以及那些提升知道感的感觉,如似曾相识感、熟悉感和真实感,还包括那些减弱知道感的感觉,比如陌生感、奇怪感、不真实感和不熟悉感。
1700245676
1700245677
有些感觉似乎就位于人脑中,很容易通过直接刺激脑区来激发,比如似曾相识感。有些感觉很复杂,很难定义,比如对美、优雅和对称的审美感觉。这些感觉更有可能广泛地分布在大脑中,甚至它们会是一些基本感觉的混合和匹配,如推理感来自能动感、自我意识和因果关系感。
1700245678
[
上一页 ]
[ :1.700245629e+09 ]
[
下一页 ]