打字猴:1.701743068e+09
1701743068 推理的迷宫:悖论、谜题及知识的脆弱性 [:1701739757]
1701743069 大脑和牛奶
1701743070
1701743071 与许多怀疑计算机具备思想的可能性的其他人相比,塞尔的怀疑已经相当温和了。他的思想实验假定有一个行得通的人工智能算法。这个算法是针对汉语字符的一系列操作指令。显然,这个算法要比汉语语法简洁得多。它接近于对人类思维过程的全面模拟,必须比较简单,从而使任何人都能执行。
1701743072
1701743073 向屋里提供的故事可以是任何故事,提出的问题可以针对任何相关的事实、推论、解释和观点。这些问题不是(至少不必是)选择题、复述题和划线题的题型。塞尔给了一个例子。故事可以体现为这样的简短形式:“一个男人走进一家餐馆,要了一个汉堡包。汉堡包送上来了,但是烤得很脆。这个人怒气冲冲地离开餐馆,既没有付账,也没有给小费。”问题是:
1701743074
1701743075 “这个男人吃汉堡包了吗?”当然,故事中没提这个人吃没吃,而且,连“吃”这个汉字在故事中都没出现。但是每一个理解这个故事的人都会猜想,此人没吃汉堡包。
1701743076
1701743077 问题可以是,“巨无霸”[4]是不是一种汉堡包(从故事本身看不出来;除非你以前知道,否则答不出来),也可以问,这则故事是否令你发疯(故事中没出现“疯”这个汉字)。问题可能是,要求你指出令你发笑的句子,或者要求你利用同样的字符写出另一则故事。这个算法处理故事的方式必须和人类的处理方式很相似。如果这个算法是用LisP或Prolog之类的计算机语言写出来的,它必须能够通过图灵检验。塞尔避免了假定黑箱里的一台计算机运行一个复杂算法,他把这个任务交给了一个人。
1701743078
1701743079 塞尔认为,图灵检验也许并不像人们所声称的那样关键。如果一台计算机的行为和人一模一样,这是很了不起的,但是这并不足以说明它有“意识”。这个问题其实还是“他人心灵”问题,只不过采取了更为尖锐的形式。即使怀疑论者在哲学思辨以外也不怀疑他人心灵的存在,但是机器是否有可能具备与我们相似的意识,对此我们通常表示怀疑。
1701743080
1701743081 塞尔对这个问题的看法令人惊讶。他相信,人脑确实是某种机器,但是意识与人脑的生化结构和神经学结构有关。一台由导线和集成电路构成的计算机即使完全再现了人脑的全部神经元的功能,它仍然是没有意识的。(虽然它与人脑的功能相同,而且通过了图灵检验。)相反,一颗弗兰肯斯坦式[5]的大脑却可能有意识,虽然这种大脑也是人工制品,但是组成其的化学物质与人脑的相同。
1701743082
1701743083 塞尔把人工智能类比于计算机模拟光合作用的发生。利用计算机程序可以很好地模拟光合作用的全部细节。(例如,在显示屏上设计出栩栩如生的叶绿素原子和光子,以这种方法模拟。)虽然全部的相关信息都囊括在程序中,但是它永远不能像真正有生命的植物那样生产出真正的糖。塞尔认为,意识是一种类似于糖和牛奶的生物制品,而且属于副产品。
1701743084
1701743085 在这一点上很少有哲学家赞同塞尔,但是他的思想实验引起了广泛的讨论,其他思想实验则极少如此引人注目。我们来看一下大家对塞尔的回应。
1701743086
1701743087 推理的迷宫:悖论、谜题及知识的脆弱性 [:1701739758]
1701743088 回应
1701743089
1701743090 一种观点是,这个实验是完全不可能实现的。《如果有人从门缝塞进来一张写有中文的纸怎么办?》这本书不可能存在。我们解释语言和进行思考的方式不可能表达为按部就班的操作步骤,永远无法充分了解并写进一本书中。(也许可以借用贝里悖论和普特南的孪生地球来说明。)因此,这个算法是行不通的。从屋里送出的“答案”应当是无意义的胡话或者不知所云的喋喋不休。它们骗不了任何人。
1701743091
1701743092 在我们确实找到这样一种算法以前(假如这种算法确实存在),以上论证都是稳固而不可反驳的。需要注意的是,只有塞尔本人乐于承认这种算法存在的可能性。严格说来,我们不一定非得做出这一假设:只有在我们发现大脑的全部工作机理之后,才可能进行这个实验(或类似实验)。我们可以按戴维斯设计的办公大楼进行模拟试验。人脑大约包含1 000亿个神经元。据我们所知,单个神经元的功能相对比较简单。设想我们完全确定了某个人大脑的状态:所有神经元的状态、神经元之间的联系以及每个神经元如何工作。然后,我们动员全世界的所有人参与实验,模拟这个人的大脑运转。全球50亿人,其中每个人负责处理大约20个神经元的动作。对于神经元之间的每一个联系,相应地在代表这些神经元的人之间连上一条线。神经元之间每传递一次冲动,就拉一下这根绳子来表示。每个人都来操纵一些这样的绳子,以模拟他们所扮演的那些神经元之间的联系。然而,无论这个模拟工作完成得多么完美,对于他们所模拟的“思想”是什么,所有人都一无所知。
1701743093
1701743094 还有一种观点支持塞尔的结论:这种算法是有可能的,但是这并不意味着具备了与懂中文的人相同的意识。塞尔的支持者援引了句法性理解和语义性理解之间的区别来说明。[6]实际上,书中给出的规则提供了对中文的句法性理解,但是没有提供语义性理解,屋子里的人不知道某个词的含义是“房子”而另一个词的含义是“水”。显然,对于意识来说,语义性理解是至关重要的,而计算机之类的东西永远不会具备这种能力。
1701743095
1701743096 几乎每个反对塞尔的人都主张,在中文屋周围游荡着某种类似于意识的东西。也许这种东西是潜在的、原始的,也许它表现得迟钝、幼稚,但是它确实存在。
1701743097
1701743098 推理的迷宫:悖论、谜题及知识的脆弱性 [:1701739759]
1701743099 笨法学中文
1701743100
1701743101 在所有支持“在中文屋中有关于中文的意识”的观点中,最简单的一种认为,屋子里的人实际上学会了中文。在句法性理解和语义性理解之间并不存在绝对的分野。在此人遵循规则操作了很多次以后,也许会逐渐形成本能。也许此人根据操作这些符号的方式可以猜到符号的含义。
1701743102
1701743103 这种论点的关键在于,是否必须明确地告诉此人,这是“水”、那是“房子”,此后,此人才理解了文字符号的意义。换个说法,我们是否有可能通过观察词的用法掌握所有词的意义?即使你从未见过斑马,你依然可以获得对“斑马”这个词的语义性理解。你当然没见过独角兽,但是你对这个词有语义性理解。
1701743104
1701743105 如果你从来没见过马,你依然能获得这种语义性理解吗?再推进一步,如果你从来没见过任何动物(甚至没见过人),你能获得这种语义性理解吗?如果你在一定程度上与要认知的对象隔绝,那么将连理解本身是否存在都成问题。
1701743106
1701743107 假定今天是上算术课的第一天,你因为生病缺课了。就在这次课上,老师讲了什么是数。你回学校以后,不好意思问什么是数,因为别人好像都知道。你加倍努力地学习以后的课程,如加法表、分数等。你非常用功,最后成为算术最棒的学生。但是你心里面觉得自己是个冒牌的好学生,因为你连“什么是数”都不知道。你只知道数如何运用,数如何相互作用以及数如何与世界上的所有其他东西相互作用。
1701743108
1701743109 有人认为,我们对于“数”的全部理解不过如此(虽然在这方面,“斑马”和“数”可能不尽相同)。一个类似的例子是欧几里得几何学。在几何学研究之初,通常不对“点”、“线”等概念做出如此的定义,只有通过关于这些概念的公理和定理,我们才获得了对它们的理解。[7]
1701743110
1701743111 对于以上观点的一个反驳是,在屋里的人记住规则、猜出字符的含义以前,就可以给出中文答案——他一开始就能做到。在屋里的人学会以前的很长一段时间里,出题者一直可以问一些需要使用“生词”回答的问题,这些生词是屋里人以前从未用过的。(“人们放在汉堡包里的、用腌菜水加工出来的东西是什么?”面对此题,塞尔的实验对象能否推断出“泡菜”这个词的意义呢?)
1701743112
1701743113 推理的迷宫:悖论、谜题及知识的脆弱性 [:1701739760]
1701743114 杰基尔博士和海德先生
1701743115
1701743116 有人主张,中文屋里的模拟者懂中文,但是他不知道自己懂中文。戴维·科尔把塞尔的实验对象比作一个病人,他懂两种语言,但是因为患了一种奇怪的大脑疾病,他不会在两种语言之间做翻译。他可能有多重性格,患有人格分裂症或是失忆症。(具体属于哪种情况,由你决定。)
1701743117
[ 上一页 ]  [ :1.701743068e+09 ]  [ 下一页 ]