1701743014
功能主义悖论
1701743015
1701743016
挑战机械论模型的其他思想实验则很难反驳。劳伦斯·戴维斯(Lawrence Davis)的“功能主义悖论”即为一例。
1701743017
1701743018
功能主义认为,如果一台计算机能够实现和人脑一样的功能,那么就应当承认,它在其他重要方面都与人脑平等,它也有意识。人脑可以被当作一个“黑箱”,从神经细胞接收输入信号,以某种方式对信息进行加工,然后向肌肉发送信号。(每一间缸中之脑实验室都有两条电缆,一条输入,一条输出。)如果有一台计算机,接收与人脑相同的信号,总是产生与人脑相同的反馈,我们该如何评价呢?这台计算机有意识吗?这个问题就像爱因斯坦和因费尔德的密封手表的例子(见第1章),我们永远无法确知。然而功能主义认为,我们有最充分的理由相信:如果“意识”这个词有某种客观性的含义的话,那么这台计算机是有意识的。功能主义主张,基于同样的理由我们应当相信他人有心灵,其根据是他人的行动方式。
1701743019
1701743020
戴维斯在一篇未发表的论文中提出了这个悖论,这篇论文曾被提交给1974年的一次会议。这篇论文值得关注,虽然它未受到应有的重视。戴维斯说,假定我们已经了解了关于疼痛的全部细节。如果功能主义是正确的,那么我们可以造一个可以感受疼痛的机器人。这个机器人非常巨大,我们可以走进它的内部——就像莱布尼茨的思维机器一样。机器人的脑袋里面就像一座巨大的办公楼。里面不是集成电路,而是穿着西装、坐在办公桌后面的职员们。每张桌子上有一部电话,电话连着几条线,电话网模拟大脑的神经连接,可以感受疼痛。这些职员受过训练,每个职员的任务是模拟一个神经元的功能。这个工作很无聊,但是工资和红包非常诱人。
1701743021
1701743022
假定就在此刻,这个办公系统中的一组电话工作起来了,这种工作状态对应一种非常剧烈的疼痛。根据功能主义的观点,机器人处于剧痛之中。但是疼痛在哪里呢?在办公大楼里转一圈,你看不到疼痛。你看到的只是一群平静、冷漠的中层经理,喝着咖啡煲电话粥。
1701743023
1701743024
下一次,机器人感到无法忍受的疼痛,你进入大楼参观,发现这些职员正在举办圣诞联欢,每个人都非常尽兴。[1]
1701743025
1701743027
图灵检验
1701743028
1701743029
我们稍后再讨论戴维斯的悖论,下面介绍一个与之密切相关的思想实验——约翰·塞尔(John Searle)的“中文屋”。关于中文屋,我们先介绍一点儿必要的背景。
1701743030
1701743031
中文屋基于艾伦·图灵的“图灵检验”。图灵在1950年的一篇论文中提出一个问题:计算机有没有思想?图灵论证说,除非我们指定某件事,这件事是有思想的对象会做而没思想的对象不会做的,否则,这个问题就是无意义的。什么事才能把有思想者和无思想者区分开呢?
1701743032
1701743033
计算机已经掌握了计算能力,在此之前,计算只能由具备专注力而且有智力的人类完成。图灵意识到,检验必须非常严格,例如,标准至少要比下一手漂亮的象棋更高。计算机很快就能掌握下棋的技能,但是这距离有思想还差很远。[2]图灵提出了一种检验方法,他称之为“冒充游戏”。
1701743034
1701743035
一个人坐在计算机终端前,向两个对象——A和B——提问,A和B隐藏在另一间屋子里。在A和B中,有一个是人,另一个是号称有思维能力的精密的计算机程序。提问者的目标是分辨出哪一个是人,哪一个是计算机。另一方面,人和计算机都竭尽全力令提问者相信自己是人。这很像一种电视竞猜节目——目标是把一个你不认识的人和冒充者区分开。
1701743036
1701743037
提问者只能通过计算机终端进行交流,这个事实使得他只能利用两个对象的实际回答判断,除此之外没有任何依据。他不能指望借助于机械合成的说话声音或是其他线索。隐藏在另一间屋子里的人可以说:“嗨!我是人!”但是这样做恐怕没什么用,因为计算机也可以说同样的话。计算机不必坦率地承认自己是计算机,即使提问者直截了当地提问。A和B都可以撒谎,只要他们认为撒谎符合自己的目的。如果提问者问一些私人信息,例如A的妈妈的闺名,或是B的鞋子尺码,计算机可以捏造答案。
1701743038
1701743039
计算机程序必须做出人类才会做出的反应,从而使得提问者在半数的检验中把计算机误认为人,这样才算是通过检验。图灵认为,如果把智力定义为外部的行动和反应,那么,一台通过了这种检验的计算机应被视为确实展现了智能。这是一个非同寻常的要求。
1701743040
1701743041
这样说来,计算机是否有思想?图灵的结论是,“计算机是否有思想”
1701743042
1701743043
这个最初的问题是“一个缺乏明确意义的问题,不值得讨论。尽管如此,我相信,到20世纪末语言的用法和受过教育的大众的观点会发生很大的变化,我们将可以谈论‘机器的思想’而不用担心措辞本身有矛盾。”
1701743044
1701743045
自图灵的论文发表以后,这些年来人们把心理过程和算法相提并论已变得稀松平常。如果你按照一个确定的算法计算圆周率的各位小数,而一台计算机利用同样的算法也进行计算,那么你的思想过程将有一小部分与计算机的运行直接对应。一种被广泛接受的观点是,智力乃至于意识同计算机程序一样,可以在不同类型的“硬件”上运行,人脑是其中的一种生物性的硬件。从理论上说,你的大脑的神经元功能、神经元的状态和神经元之间的联系可以被复杂得惊人的计算机程序丝毫不差地模拟。如果这个程序运行起来(即使是在由微型芯片和导线组成的计算机上运行的),它也可以展现与你相同的智力甚至意识。
1701743046
1701743047
长期以来,心灵被当作灵魂、生命冲动以及笛卡儿二元论中的一元。知识界大体上已经放弃这些有机械论倾向的意识理论。约翰·塞尔1980年的思想实验设计了一个竞猜游戏,直观地展现了微妙的心灵问题。如果意识无非是算法,那么意识是从哪儿来的?塞尔只给我们留下一个候选项,而这个备选项也是成问题的。
1701743048
1701743050
中文屋
1701743051
1701743052
设想你被锁在一个房间里。房间里除了有一本厚厚的书之外,空空如也,书名令人泄气:《如果有人从门缝塞进来一张写有中文的纸怎么办?》。
1701743053
1701743054
一天,一张纸从上了锁的门底下被塞进来,纸上写着汉字。你不认识汉字,对于你来说,这些字不过是些无意义的符号。你正在急于找一件事做来打发时间,于是你求助于手头这本《如果有人从门缝塞进来一张写有中文的纸怎么办?》这本书。书中不厌其烦、细致周密地介绍了如何“处置”纸上的这些汉字,你把这个工作当作消磨时间的扑克游戏。书中介绍了复杂的规则,你需要做的是依照这些规则在文本中搜索特定的汉语字符,确定它出现过。这个工作毫无意义,但是你别无他事,只有遵循这些规则行事,消磨时间。
1701743055
1701743056
第二天,你又收到一张纸,上面写着更多的汉字。奇怪的是,对于如何处理这些汉字,书中也有介绍。书中有进一步的指示,告诉你如何对第二张纸上的汉字字符进行关联和加工,以及如何把这些信息和你从第一张纸上取得的成果结合起来。书的最后介绍了如何把一些特定的符号(有些符号在纸上,有些在书上)抄到一张空白纸上。把哪些符号抄上去,这取决于你此前的工作,并且会受一种复杂的规则制约。最后,这本书告诉你,把写好符号的纸从你的囚室门底下塞出去。
1701743057
1701743058
但是你不知道,第一张纸上的汉字是一个简短的汉语故事,而第二张纸是基于这个故事提出的问题,就像在阅读测验中提出的问题一样。你按照指示抄在纸上的那些符号就是这些问题的答案(对此你也不知情)。你所做的是,按照一个复杂的算法处理一些字符,算法是用英语写就的。这个算法模拟了一个说汉语的人的思维方式,或者说,至少模拟了一个说汉语的人在读到这些材料时进行阅读、理解和回答的方式。这个算法非常完美,以至于你给出的“答案”与那些母语是汉语的人读完这些材料后给出的回答没有差别。
1701743059
1701743060
建造这间屋子的人们宣称,屋里有一头受过训练的猪,可以理解汉语。他们把这间屋子搬到了国家展览会会场,让大家在外面提交用中文写的一则故事和针对故事的一组问题。屋外的人不相信屋里是一头懂中文的猪。从屋里传出的答案太“人性化”了,每个人都猜想,里面是一个懂中文的真人。由于屋子始终是锁着的,没什么办法能打消屋外人的这种怀疑。[3]
1701743061
1701743062
塞尔的要点是:你理解中文吗?你当然不懂!有能力执行复杂的英语指令不等于有能力理解中文。你连一个汉字都不认识,你没有从汉字里读出一丁点儿含义。你有一本书指示你的行动,需要强调的是,这本书不是枯燥的中文教程,他并没有教给你任何东西。你只是在生搬硬套书中的规定,至于为什么这样规定,某个字符的含义如何,书中只字不提。
[
上一页 ]
[ :1.701743013e+09 ]
[
下一页 ]