1701743076
1701743077
问题可以是,“巨无霸”[4]是不是一种汉堡包(从故事本身看不出来;除非你以前知道,否则答不出来),也可以问,这则故事是否令你发疯(故事中没出现“疯”这个汉字)。问题可能是,要求你指出令你发笑的句子,或者要求你利用同样的字符写出另一则故事。这个算法处理故事的方式必须和人类的处理方式很相似。如果这个算法是用LisP或Prolog之类的计算机语言写出来的,它必须能够通过图灵检验。塞尔避免了假定黑箱里的一台计算机运行一个复杂算法,他把这个任务交给了一个人。
1701743078
1701743079
塞尔认为,图灵检验也许并不像人们所声称的那样关键。如果一台计算机的行为和人一模一样,这是很了不起的,但是这并不足以说明它有“意识”。这个问题其实还是“他人心灵”问题,只不过采取了更为尖锐的形式。即使怀疑论者在哲学思辨以外也不怀疑他人心灵的存在,但是机器是否有可能具备与我们相似的意识,对此我们通常表示怀疑。
1701743080
1701743081
塞尔对这个问题的看法令人惊讶。他相信,人脑确实是某种机器,但是意识与人脑的生化结构和神经学结构有关。一台由导线和集成电路构成的计算机即使完全再现了人脑的全部神经元的功能,它仍然是没有意识的。(虽然它与人脑的功能相同,而且通过了图灵检验。)相反,一颗弗兰肯斯坦式[5]的大脑却可能有意识,虽然这种大脑也是人工制品,但是组成其的化学物质与人脑的相同。
1701743082
1701743083
塞尔把人工智能类比于计算机模拟光合作用的发生。利用计算机程序可以很好地模拟光合作用的全部细节。(例如,在显示屏上设计出栩栩如生的叶绿素原子和光子,以这种方法模拟。)虽然全部的相关信息都囊括在程序中,但是它永远不能像真正有生命的植物那样生产出真正的糖。塞尔认为,意识是一种类似于糖和牛奶的生物制品,而且属于副产品。
1701743084
1701743085
在这一点上很少有哲学家赞同塞尔,但是他的思想实验引起了广泛的讨论,其他思想实验则极少如此引人注目。我们来看一下大家对塞尔的回应。
1701743086
1701743088
回应
1701743089
1701743090
一种观点是,这个实验是完全不可能实现的。《如果有人从门缝塞进来一张写有中文的纸怎么办?》这本书不可能存在。我们解释语言和进行思考的方式不可能表达为按部就班的操作步骤,永远无法充分了解并写进一本书中。(也许可以借用贝里悖论和普特南的孪生地球来说明。)因此,这个算法是行不通的。从屋里送出的“答案”应当是无意义的胡话或者不知所云的喋喋不休。它们骗不了任何人。
1701743091
1701743092
在我们确实找到这样一种算法以前(假如这种算法确实存在),以上论证都是稳固而不可反驳的。需要注意的是,只有塞尔本人乐于承认这种算法存在的可能性。严格说来,我们不一定非得做出这一假设:只有在我们发现大脑的全部工作机理之后,才可能进行这个实验(或类似实验)。我们可以按戴维斯设计的办公大楼进行模拟试验。人脑大约包含1 000亿个神经元。据我们所知,单个神经元的功能相对比较简单。设想我们完全确定了某个人大脑的状态:所有神经元的状态、神经元之间的联系以及每个神经元如何工作。然后,我们动员全世界的所有人参与实验,模拟这个人的大脑运转。全球50亿人,其中每个人负责处理大约20个神经元的动作。对于神经元之间的每一个联系,相应地在代表这些神经元的人之间连上一条线。神经元之间每传递一次冲动,就拉一下这根绳子来表示。每个人都来操纵一些这样的绳子,以模拟他们所扮演的那些神经元之间的联系。然而,无论这个模拟工作完成得多么完美,对于他们所模拟的“思想”是什么,所有人都一无所知。
1701743093
1701743094
还有一种观点支持塞尔的结论:这种算法是有可能的,但是这并不意味着具备了与懂中文的人相同的意识。塞尔的支持者援引了句法性理解和语义性理解之间的区别来说明。[6]实际上,书中给出的规则提供了对中文的句法性理解,但是没有提供语义性理解,屋子里的人不知道某个词的含义是“房子”而另一个词的含义是“水”。显然,对于意识来说,语义性理解是至关重要的,而计算机之类的东西永远不会具备这种能力。
1701743095
1701743096
几乎每个反对塞尔的人都主张,在中文屋周围游荡着某种类似于意识的东西。也许这种东西是潜在的、原始的,也许它表现得迟钝、幼稚,但是它确实存在。
1701743097
1701743099
笨法学中文
1701743100
1701743101
在所有支持“在中文屋中有关于中文的意识”的观点中,最简单的一种认为,屋子里的人实际上学会了中文。在句法性理解和语义性理解之间并不存在绝对的分野。在此人遵循规则操作了很多次以后,也许会逐渐形成本能。也许此人根据操作这些符号的方式可以猜到符号的含义。
1701743102
1701743103
这种论点的关键在于,是否必须明确地告诉此人,这是“水”、那是“房子”,此后,此人才理解了文字符号的意义。换个说法,我们是否有可能通过观察词的用法掌握所有词的意义?即使你从未见过斑马,你依然可以获得对“斑马”这个词的语义性理解。你当然没见过独角兽,但是你对这个词有语义性理解。
1701743104
1701743105
如果你从来没见过马,你依然能获得这种语义性理解吗?再推进一步,如果你从来没见过任何动物(甚至没见过人),你能获得这种语义性理解吗?如果你在一定程度上与要认知的对象隔绝,那么将连理解本身是否存在都成问题。
1701743106
1701743107
假定今天是上算术课的第一天,你因为生病缺课了。就在这次课上,老师讲了什么是数。你回学校以后,不好意思问什么是数,因为别人好像都知道。你加倍努力地学习以后的课程,如加法表、分数等。你非常用功,最后成为算术最棒的学生。但是你心里面觉得自己是个冒牌的好学生,因为你连“什么是数”都不知道。你只知道数如何运用,数如何相互作用以及数如何与世界上的所有其他东西相互作用。
1701743108
1701743109
有人认为,我们对于“数”的全部理解不过如此(虽然在这方面,“斑马”和“数”可能不尽相同)。一个类似的例子是欧几里得几何学。在几何学研究之初,通常不对“点”、“线”等概念做出如此的定义,只有通过关于这些概念的公理和定理,我们才获得了对它们的理解。[7]
1701743110
1701743111
对于以上观点的一个反驳是,在屋里的人记住规则、猜出字符的含义以前,就可以给出中文答案——他一开始就能做到。在屋里的人学会以前的很长一段时间里,出题者一直可以问一些需要使用“生词”回答的问题,这些生词是屋里人以前从未用过的。(“人们放在汉堡包里的、用腌菜水加工出来的东西是什么?”面对此题,塞尔的实验对象能否推断出“泡菜”这个词的意义呢?)
1701743112
1701743114
杰基尔博士和海德先生
1701743115
1701743116
有人主张,中文屋里的模拟者懂中文,但是他不知道自己懂中文。戴维·科尔把塞尔的实验对象比作一个病人,他懂两种语言,但是因为患了一种奇怪的大脑疾病,他不会在两种语言之间做翻译。他可能有多重性格,患有人格分裂症或是失忆症。(具体属于哪种情况,由你决定。)
1701743117
1701743118
杰基尔医生[8]走进中文屋,他只会说英语。通过执行算法,创造出会说汉语的海德先生。杰基尔医生不知道海德先生,反之亦然。因而,实验对象不会在英语和汉语之间互译。他不知道自己的汉语能力,甚至否认有这种能力。
1701743119
1701743120
我们的头脑中有许多自己没意识到的功能。此刻,你的小脑正在调节你的呼吸、眨眼以及其他自动实现的功能。通常,这些功能无须大脑干预。你可以有意识地控制这些功能,如果你愿意的话。另外一些功能(例如脉搏)则自动化程度更高,只能在一定程度上通过生物反馈技术加以控制。还有一些功能的自动化程度更加彻底,根本不可控制。所有这些功能都在你的大脑的监控之下。
1701743121
1701743122
既然如此,分别掌握一种语言的两种人格为什么会处于如此分裂的状态?也许是因为,汉语能力是以一种怪异的方式被移植到实验对象头脑中的。
1701743123
1701743125
系统观点回应
[
上一页 ]
[ :1.701743076e+09 ]
[
下一页 ]