打字猴:1.701743048e+09
1701743048
1701743049 推理的迷宫:悖论、谜题及知识的脆弱性 [:1701739756]
1701743050 中文屋
1701743051
1701743052 设想你被锁在一个房间里。房间里除了有一本厚厚的书之外,空空如也,书名令人泄气:《如果有人从门缝塞进来一张写有中文的纸怎么办?》。
1701743053
1701743054 一天,一张纸从上了锁的门底下被塞进来,纸上写着汉字。你不认识汉字,对于你来说,这些字不过是些无意义的符号。你正在急于找一件事做来打发时间,于是你求助于手头这本《如果有人从门缝塞进来一张写有中文的纸怎么办?》这本书。书中不厌其烦、细致周密地介绍了如何“处置”纸上的这些汉字,你把这个工作当作消磨时间的扑克游戏。书中介绍了复杂的规则,你需要做的是依照这些规则在文本中搜索特定的汉语字符,确定它出现过。这个工作毫无意义,但是你别无他事,只有遵循这些规则行事,消磨时间。
1701743055
1701743056 第二天,你又收到一张纸,上面写着更多的汉字。奇怪的是,对于如何处理这些汉字,书中也有介绍。书中有进一步的指示,告诉你如何对第二张纸上的汉字字符进行关联和加工,以及如何把这些信息和你从第一张纸上取得的成果结合起来。书的最后介绍了如何把一些特定的符号(有些符号在纸上,有些在书上)抄到一张空白纸上。把哪些符号抄上去,这取决于你此前的工作,并且会受一种复杂的规则制约。最后,这本书告诉你,把写好符号的纸从你的囚室门底下塞出去。
1701743057
1701743058 但是你不知道,第一张纸上的汉字是一个简短的汉语故事,而第二张纸是基于这个故事提出的问题,就像在阅读测验中提出的问题一样。你按照指示抄在纸上的那些符号就是这些问题的答案(对此你也不知情)。你所做的是,按照一个复杂的算法处理一些字符,算法是用英语写就的。这个算法模拟了一个说汉语的人的思维方式,或者说,至少模拟了一个说汉语的人在读到这些材料时进行阅读、理解和回答的方式。这个算法非常完美,以至于你给出的“答案”与那些母语是汉语的人读完这些材料后给出的回答没有差别。
1701743059
1701743060 建造这间屋子的人们宣称,屋里有一头受过训练的猪,可以理解汉语。他们把这间屋子搬到了国家展览会会场,让大家在外面提交用中文写的一则故事和针对故事的一组问题。屋外的人不相信屋里是一头懂中文的猪。从屋里传出的答案太“人性化”了,每个人都猜想,里面是一个懂中文的真人。由于屋子始终是锁着的,没什么办法能打消屋外人的这种怀疑。[3]
1701743061
1701743062 塞尔的要点是:你理解中文吗?你当然不懂!有能力执行复杂的英语指令不等于有能力理解中文。你连一个汉字都不认识,你没有从汉字里读出一丁点儿含义。你有一本书指示你的行动,需要强调的是,这本书不是枯燥的中文教程,他并没有教给你任何东西。你只是在生搬硬套书中的规定,至于为什么这样规定,某个字符的含义如何,书中只字不提。
1701743063
1701743064 对于你来说,你所做的不过是消磨时间。你按照规则把纸上的中文字符抄到一张空白纸上。你的工作就像一个人玩扑克牌,按照游戏规则拿起一张红色的J,把它接在一张黑色的Q之下。如果有人在你玩牌时问你,一张扑克牌的含义是什么,你会回答,它没有含义。当然,扑克牌作为符号曾经有过含义,但是你会坚持说,在你玩牌时这些含义不起作用。我们把某张牌称为“方块七”,只是为了与其他牌区分开,以简化应用规则的过程。
1701743065
1701743066 即使你有能力执行针对中文的算法,也不能说你理解中文(汉语意识就更谈不上了)。如果对于人,我们得出以上结论,那么对于机器也是如此:单凭一台机器可以执行算法就说它有意识,会显得非常荒唐。因此塞尔得出结论:意识并非算法。
1701743067
1701743068 推理的迷宫:悖论、谜题及知识的脆弱性 [:1701739757]
1701743069 大脑和牛奶
1701743070
1701743071 与许多怀疑计算机具备思想的可能性的其他人相比,塞尔的怀疑已经相当温和了。他的思想实验假定有一个行得通的人工智能算法。这个算法是针对汉语字符的一系列操作指令。显然,这个算法要比汉语语法简洁得多。它接近于对人类思维过程的全面模拟,必须比较简单,从而使任何人都能执行。
1701743072
1701743073 向屋里提供的故事可以是任何故事,提出的问题可以针对任何相关的事实、推论、解释和观点。这些问题不是(至少不必是)选择题、复述题和划线题的题型。塞尔给了一个例子。故事可以体现为这样的简短形式:“一个男人走进一家餐馆,要了一个汉堡包。汉堡包送上来了,但是烤得很脆。这个人怒气冲冲地离开餐馆,既没有付账,也没有给小费。”问题是:
1701743074
1701743075 “这个男人吃汉堡包了吗?”当然,故事中没提这个人吃没吃,而且,连“吃”这个汉字在故事中都没出现。但是每一个理解这个故事的人都会猜想,此人没吃汉堡包。
1701743076
1701743077 问题可以是,“巨无霸”[4]是不是一种汉堡包(从故事本身看不出来;除非你以前知道,否则答不出来),也可以问,这则故事是否令你发疯(故事中没出现“疯”这个汉字)。问题可能是,要求你指出令你发笑的句子,或者要求你利用同样的字符写出另一则故事。这个算法处理故事的方式必须和人类的处理方式很相似。如果这个算法是用LisP或Prolog之类的计算机语言写出来的,它必须能够通过图灵检验。塞尔避免了假定黑箱里的一台计算机运行一个复杂算法,他把这个任务交给了一个人。
1701743078
1701743079 塞尔认为,图灵检验也许并不像人们所声称的那样关键。如果一台计算机的行为和人一模一样,这是很了不起的,但是这并不足以说明它有“意识”。这个问题其实还是“他人心灵”问题,只不过采取了更为尖锐的形式。即使怀疑论者在哲学思辨以外也不怀疑他人心灵的存在,但是机器是否有可能具备与我们相似的意识,对此我们通常表示怀疑。
1701743080
1701743081 塞尔对这个问题的看法令人惊讶。他相信,人脑确实是某种机器,但是意识与人脑的生化结构和神经学结构有关。一台由导线和集成电路构成的计算机即使完全再现了人脑的全部神经元的功能,它仍然是没有意识的。(虽然它与人脑的功能相同,而且通过了图灵检验。)相反,一颗弗兰肯斯坦式[5]的大脑却可能有意识,虽然这种大脑也是人工制品,但是组成其的化学物质与人脑的相同。
1701743082
1701743083 塞尔把人工智能类比于计算机模拟光合作用的发生。利用计算机程序可以很好地模拟光合作用的全部细节。(例如,在显示屏上设计出栩栩如生的叶绿素原子和光子,以这种方法模拟。)虽然全部的相关信息都囊括在程序中,但是它永远不能像真正有生命的植物那样生产出真正的糖。塞尔认为,意识是一种类似于糖和牛奶的生物制品,而且属于副产品。
1701743084
1701743085 在这一点上很少有哲学家赞同塞尔,但是他的思想实验引起了广泛的讨论,其他思想实验则极少如此引人注目。我们来看一下大家对塞尔的回应。
1701743086
1701743087 推理的迷宫:悖论、谜题及知识的脆弱性 [:1701739758]
1701743088 回应
1701743089
1701743090 一种观点是,这个实验是完全不可能实现的。《如果有人从门缝塞进来一张写有中文的纸怎么办?》这本书不可能存在。我们解释语言和进行思考的方式不可能表达为按部就班的操作步骤,永远无法充分了解并写进一本书中。(也许可以借用贝里悖论和普特南的孪生地球来说明。)因此,这个算法是行不通的。从屋里送出的“答案”应当是无意义的胡话或者不知所云的喋喋不休。它们骗不了任何人。
1701743091
1701743092 在我们确实找到这样一种算法以前(假如这种算法确实存在),以上论证都是稳固而不可反驳的。需要注意的是,只有塞尔本人乐于承认这种算法存在的可能性。严格说来,我们不一定非得做出这一假设:只有在我们发现大脑的全部工作机理之后,才可能进行这个实验(或类似实验)。我们可以按戴维斯设计的办公大楼进行模拟试验。人脑大约包含1 000亿个神经元。据我们所知,单个神经元的功能相对比较简单。设想我们完全确定了某个人大脑的状态:所有神经元的状态、神经元之间的联系以及每个神经元如何工作。然后,我们动员全世界的所有人参与实验,模拟这个人的大脑运转。全球50亿人,其中每个人负责处理大约20个神经元的动作。对于神经元之间的每一个联系,相应地在代表这些神经元的人之间连上一条线。神经元之间每传递一次冲动,就拉一下这根绳子来表示。每个人都来操纵一些这样的绳子,以模拟他们所扮演的那些神经元之间的联系。然而,无论这个模拟工作完成得多么完美,对于他们所模拟的“思想”是什么,所有人都一无所知。
1701743093
1701743094 还有一种观点支持塞尔的结论:这种算法是有可能的,但是这并不意味着具备了与懂中文的人相同的意识。塞尔的支持者援引了句法性理解和语义性理解之间的区别来说明。[6]实际上,书中给出的规则提供了对中文的句法性理解,但是没有提供语义性理解,屋子里的人不知道某个词的含义是“房子”而另一个词的含义是“水”。显然,对于意识来说,语义性理解是至关重要的,而计算机之类的东西永远不会具备这种能力。
1701743095
1701743096 几乎每个反对塞尔的人都主张,在中文屋周围游荡着某种类似于意识的东西。也许这种东西是潜在的、原始的,也许它表现得迟钝、幼稚,但是它确实存在。
1701743097
[ 上一页 ]  [ :1.701743048e+09 ]  [ 下一页 ]