打字猴:1.701743026e+09
1701743026 推理的迷宫:悖论、谜题及知识的脆弱性 [:1701739755]
1701743027 图灵检验
1701743028
1701743029 我们稍后再讨论戴维斯的悖论,下面介绍一个与之密切相关的思想实验——约翰·塞尔(John Searle)的“中文屋”。关于中文屋,我们先介绍一点儿必要的背景。
1701743030
1701743031 中文屋基于艾伦·图灵的“图灵检验”。图灵在1950年的一篇论文中提出一个问题:计算机有没有思想?图灵论证说,除非我们指定某件事,这件事是有思想的对象会做而没思想的对象不会做的,否则,这个问题就是无意义的。什么事才能把有思想者和无思想者区分开呢?
1701743032
1701743033 计算机已经掌握了计算能力,在此之前,计算只能由具备专注力而且有智力的人类完成。图灵意识到,检验必须非常严格,例如,标准至少要比下一手漂亮的象棋更高。计算机很快就能掌握下棋的技能,但是这距离有思想还差很远。[2]图灵提出了一种检验方法,他称之为“冒充游戏”。
1701743034
1701743035 一个人坐在计算机终端前,向两个对象——A和B——提问,A和B隐藏在另一间屋子里。在A和B中,有一个是人,另一个是号称有思维能力的精密的计算机程序。提问者的目标是分辨出哪一个是人,哪一个是计算机。另一方面,人和计算机都竭尽全力令提问者相信自己是人。这很像一种电视竞猜节目——目标是把一个你不认识的人和冒充者区分开。
1701743036
1701743037 提问者只能通过计算机终端进行交流,这个事实使得他只能利用两个对象的实际回答判断,除此之外没有任何依据。他不能指望借助于机械合成的说话声音或是其他线索。隐藏在另一间屋子里的人可以说:“嗨!我是人!”但是这样做恐怕没什么用,因为计算机也可以说同样的话。计算机不必坦率地承认自己是计算机,即使提问者直截了当地提问。A和B都可以撒谎,只要他们认为撒谎符合自己的目的。如果提问者问一些私人信息,例如A的妈妈的闺名,或是B的鞋子尺码,计算机可以捏造答案。
1701743038
1701743039 计算机程序必须做出人类才会做出的反应,从而使得提问者在半数的检验中把计算机误认为人,这样才算是通过检验。图灵认为,如果把智力定义为外部的行动和反应,那么,一台通过了这种检验的计算机应被视为确实展现了智能。这是一个非同寻常的要求。
1701743040
1701743041 这样说来,计算机是否有思想?图灵的结论是,“计算机是否有思想”
1701743042
1701743043 这个最初的问题是“一个缺乏明确意义的问题,不值得讨论。尽管如此,我相信,到20世纪末语言的用法和受过教育的大众的观点会发生很大的变化,我们将可以谈论‘机器的思想’而不用担心措辞本身有矛盾。”
1701743044
1701743045 自图灵的论文发表以后,这些年来人们把心理过程和算法相提并论已变得稀松平常。如果你按照一个确定的算法计算圆周率的各位小数,而一台计算机利用同样的算法也进行计算,那么你的思想过程将有一小部分与计算机的运行直接对应。一种被广泛接受的观点是,智力乃至于意识同计算机程序一样,可以在不同类型的“硬件”上运行,人脑是其中的一种生物性的硬件。从理论上说,你的大脑的神经元功能、神经元的状态和神经元之间的联系可以被复杂得惊人的计算机程序丝毫不差地模拟。如果这个程序运行起来(即使是在由微型芯片和导线组成的计算机上运行的),它也可以展现与你相同的智力甚至意识。
1701743046
1701743047 长期以来,心灵被当作灵魂、生命冲动以及笛卡儿二元论中的一元。知识界大体上已经放弃这些有机械论倾向的意识理论。约翰·塞尔1980年的思想实验设计了一个竞猜游戏,直观地展现了微妙的心灵问题。如果意识无非是算法,那么意识是从哪儿来的?塞尔只给我们留下一个候选项,而这个备选项也是成问题的。
1701743048
1701743049 推理的迷宫:悖论、谜题及知识的脆弱性 [:1701739756]
1701743050 中文屋
1701743051
1701743052 设想你被锁在一个房间里。房间里除了有一本厚厚的书之外,空空如也,书名令人泄气:《如果有人从门缝塞进来一张写有中文的纸怎么办?》。
1701743053
1701743054 一天,一张纸从上了锁的门底下被塞进来,纸上写着汉字。你不认识汉字,对于你来说,这些字不过是些无意义的符号。你正在急于找一件事做来打发时间,于是你求助于手头这本《如果有人从门缝塞进来一张写有中文的纸怎么办?》这本书。书中不厌其烦、细致周密地介绍了如何“处置”纸上的这些汉字,你把这个工作当作消磨时间的扑克游戏。书中介绍了复杂的规则,你需要做的是依照这些规则在文本中搜索特定的汉语字符,确定它出现过。这个工作毫无意义,但是你别无他事,只有遵循这些规则行事,消磨时间。
1701743055
1701743056 第二天,你又收到一张纸,上面写着更多的汉字。奇怪的是,对于如何处理这些汉字,书中也有介绍。书中有进一步的指示,告诉你如何对第二张纸上的汉字字符进行关联和加工,以及如何把这些信息和你从第一张纸上取得的成果结合起来。书的最后介绍了如何把一些特定的符号(有些符号在纸上,有些在书上)抄到一张空白纸上。把哪些符号抄上去,这取决于你此前的工作,并且会受一种复杂的规则制约。最后,这本书告诉你,把写好符号的纸从你的囚室门底下塞出去。
1701743057
1701743058 但是你不知道,第一张纸上的汉字是一个简短的汉语故事,而第二张纸是基于这个故事提出的问题,就像在阅读测验中提出的问题一样。你按照指示抄在纸上的那些符号就是这些问题的答案(对此你也不知情)。你所做的是,按照一个复杂的算法处理一些字符,算法是用英语写就的。这个算法模拟了一个说汉语的人的思维方式,或者说,至少模拟了一个说汉语的人在读到这些材料时进行阅读、理解和回答的方式。这个算法非常完美,以至于你给出的“答案”与那些母语是汉语的人读完这些材料后给出的回答没有差别。
1701743059
1701743060 建造这间屋子的人们宣称,屋里有一头受过训练的猪,可以理解汉语。他们把这间屋子搬到了国家展览会会场,让大家在外面提交用中文写的一则故事和针对故事的一组问题。屋外的人不相信屋里是一头懂中文的猪。从屋里传出的答案太“人性化”了,每个人都猜想,里面是一个懂中文的真人。由于屋子始终是锁着的,没什么办法能打消屋外人的这种怀疑。[3]
1701743061
1701743062 塞尔的要点是:你理解中文吗?你当然不懂!有能力执行复杂的英语指令不等于有能力理解中文。你连一个汉字都不认识,你没有从汉字里读出一丁点儿含义。你有一本书指示你的行动,需要强调的是,这本书不是枯燥的中文教程,他并没有教给你任何东西。你只是在生搬硬套书中的规定,至于为什么这样规定,某个字符的含义如何,书中只字不提。
1701743063
1701743064 对于你来说,你所做的不过是消磨时间。你按照规则把纸上的中文字符抄到一张空白纸上。你的工作就像一个人玩扑克牌,按照游戏规则拿起一张红色的J,把它接在一张黑色的Q之下。如果有人在你玩牌时问你,一张扑克牌的含义是什么,你会回答,它没有含义。当然,扑克牌作为符号曾经有过含义,但是你会坚持说,在你玩牌时这些含义不起作用。我们把某张牌称为“方块七”,只是为了与其他牌区分开,以简化应用规则的过程。
1701743065
1701743066 即使你有能力执行针对中文的算法,也不能说你理解中文(汉语意识就更谈不上了)。如果对于人,我们得出以上结论,那么对于机器也是如此:单凭一台机器可以执行算法就说它有意识,会显得非常荒唐。因此塞尔得出结论:意识并非算法。
1701743067
1701743068 推理的迷宫:悖论、谜题及知识的脆弱性 [:1701739757]
1701743069 大脑和牛奶
1701743070
1701743071 与许多怀疑计算机具备思想的可能性的其他人相比,塞尔的怀疑已经相当温和了。他的思想实验假定有一个行得通的人工智能算法。这个算法是针对汉语字符的一系列操作指令。显然,这个算法要比汉语语法简洁得多。它接近于对人类思维过程的全面模拟,必须比较简单,从而使任何人都能执行。
1701743072
1701743073 向屋里提供的故事可以是任何故事,提出的问题可以针对任何相关的事实、推论、解释和观点。这些问题不是(至少不必是)选择题、复述题和划线题的题型。塞尔给了一个例子。故事可以体现为这样的简短形式:“一个男人走进一家餐馆,要了一个汉堡包。汉堡包送上来了,但是烤得很脆。这个人怒气冲冲地离开餐馆,既没有付账,也没有给小费。”问题是:
1701743074
1701743075 “这个男人吃汉堡包了吗?”当然,故事中没提这个人吃没吃,而且,连“吃”这个汉字在故事中都没出现。但是每一个理解这个故事的人都会猜想,此人没吃汉堡包。
[ 上一页 ]  [ :1.701743026e+09 ]  [ 下一页 ]