打字猴:1.701743162e+09
1701743162
1701743163 4.如果步骤3中的符号右侧紧跟着一个空格或下列符号之一,则转到说明书的第84 387 299 277页。如果其右侧是一个不同的符号,则回到步骤1。
1701743164
1701743165
1701743166
1701743167
1701743168 这些指令距离最终目标还差很远。当涉及如何对狐狸进行思考时,谁知道指令会复杂到什么程度呢?
1701743169
1701743170 我们手里没有塞尔设想的理解中文的算法,但是我们有简单一些的算法。假设有一个非常幼稚的人,他以前从来没见过袖珍计算器,这个可怜的家伙可能会形成一个错误的观点:计算器有思想。你可以用塞尔实验的方式令他醒悟。向他提供计算器使用的微处理器的说明书和接线图,把计算器按键在输入问题时产生的电信号传递给他。让他模拟计算器在算题时进行的操作。这个由真人模拟的微处理器可以产生正确的结果,但是没有意识到自己实际上算了一道数学题。他不知道自己计算的是2加2,还是14.881度角的双曲余弦。这个人不会有抽象的数学运算的意识,同样,计算器也不会有。如果有人利用系统观点回应提出反驳,你可以让实验对象记住所有东西并在头脑中完成操作。是这样吗?
1701743171
1701743172 别这么确信。计算器为了进行一个简单的计算需要经过数以千计的步骤。这个实验很可能需要许多个小时。除非实验对象记忆力超群,否则他不可能在头脑里完成对微处理器的模拟。在执行过程中,他几乎肯定会遗忘某些中间过程,从而毁掉全盘工作。
1701743173
1701743174 现在考虑塞尔的实验对象的状况。给他的说明书必须非常大,甚至要比地球上的任何房屋都要大。
1701743175
1701743176 由于还没有人设计出可以操纵汉语字符正确地“回答”问题的算法,我们无法估计这种算法的庞大程度和复杂程度。但是,由于这种算法必须模拟人类的智能,所以有理由认为,它的复杂程度不会比人脑差太远。
1701743177
1701743178 可以设想,1 000亿个神经元中的每一个在实际的(或潜在的)心理过程中发挥某种作用。因此我们可以认为,那本模拟人类操作汉字符号的说明书至少需要包括1 000亿条不同的指令。如果每一页上写一条指令,就意味着要写1 000亿页。于是,这本名为“如果有人从门缝塞进来中文文本怎么办?”的书更像是一套丛书,这套丛书包括1亿卷,每卷1 000页。这大致相当于纽约市图书馆藏书量的100倍。这个数字后面也许可以去掉几个0,但是很明显,没有人能够记住这些指令。同样,没有人可以不用到纸片,或者更好的工具——一个庞大的档案管理系统。
1701743179
1701743180 问题的关键不在于这个算法偶然地因过分庞大而不可执行。中文处理算法中嵌入了大量的人类思维过程,其中包括基本常识的储备。(例如,人们在餐馆里如何行事的常识。)人脑是否有能力记住同人脑本身一样复杂的东西?当然不能。这个问题类似于,你不能吃下比你本人大的东西。
1701743181
1701743182 你很可能见过这样的统计结论:“平均而言,一个美国人每6个月吃掉一整头牛。”对于这种说法可以做类似分析。一头牛比人大,但是作为统计对象的人每次只消灭牛的一小部分。在任何一个时刻,你的体内都不会包括太多的牛肉。塞尔的实验对象也是如此。
1701743183
1701743184 人脑是由物理材料构成的,记忆存储是通过这些物理材料的化学状态和电状态实现的,因此,记忆力的容量是有限的。人脑有多大部分是用来记忆东西的尚不清楚,但是显然不会是全部。也许只有一小部分有记忆功能。人脑的其他部分必须用来执行其他功能,例如,对记忆进行操作,获取新的感觉材料,等等。
1701743185
1701743186 显然,如果假定实验对象可以记住规则,所有这些思想实验(包括塞尔的以及批评者的)则误入歧途。一个人只能记住整个算法的一小部分,不可能再多。他不得不反复求助于说明书和纸片(或者档案系统)。他经常遇到这种情况:说明书要求他参照某张纸,他看着那张纸,边摇头边说:“唉!我都忘了我曾写过这些东西。”还有一种可能:他翻到说明书的某一页,发现那里夹着一个咖啡杯垫,这表明他曾看过这一页,但他不记得了。
1701743187
1701743188 从本质上说,这个人只是整个过程中的一个很小的部分。他就像一个查号台接线员,每天数以千计的电话号码经过他的眼,但是他在念完一个号码以后,很快就忘了。关于电话号码的信息其实全在电话号码簿里。在塞尔实验中,算法主要存在于说明书和纸片中,实验对象以及他在某一刻记住的极少一部分指令在整个算法中几乎不占什么比例。
1701743189
1701743190 中文屋里的人是有思想的,但是这与整个思想实验无关,而且,这是一个误导我们的因素。我们可以用一个机器人代替屋里的人。(这个机器人不是老套的科幻小说中的人工智能机器人,而仅仅是一个装置,也许只比自动算命机稍复杂一点。)屋里的人在实验过程中体会不到自己的意识以外的其他意识,这个事实平淡无奇,就好像说明书的第411 095卷也体会不到意识一样。
1701743191
1701743192 这可以解释为什么屋里的人不承认自己懂汉语。如果要问,这个过程中意识存在于何处以及意识如何存在,更不可能得到满意的答案。我们会指着那些纸片、说明书等,说:“意识就在那儿,在文件柜旁边。”我们猜测,这就是所谓的只见树木、不见森林,我们所能做的一切恐怕就是做出这样一种猜测。我们的处境就像在科尔的例子中走进巨型水滴内部的人遇到的——此人见不到任何湿的东西。
1701743193
1701743194 中文屋在时间方面的膨胀更甚于其在空间方面的膨胀。设想我们有一部时间机器,可以把中文屋的运行速度加快1万亿倍。这样,说明书被飞速翻动,变成一团影子;一堆一堆的纸片看起来像生物繁衍一样生成;屋里的人走动太快,已经看不见了,成为机器里的一个幽灵。也许,我们对意识的某些构想要求其运行速度达到令人目不暇接的程度。
1701743195
1701743196 推理的迷宫:悖论、谜题及知识的脆弱性 [:1701739763]
1701743197 与爱因斯坦的大脑对话
1701743198
1701743199 道格拉斯·霍夫施塔特(Douglas Hofstadter)在1981年设计了一个思想实验:把爱因斯坦的大脑在死亡时刻的状态全部记录在一本书中,配上模拟爱因斯坦大脑活动的指令。通过细致地执行这些指令,你可以实现一次与爱因斯坦的对话,虽然对话过程非常迟缓,而且是在爱因斯坦死后。你从操作中得到的回应就是爱因斯坦会对你说的话。你必须把这本书当作“爱因斯坦”,而且不仅把它视为一本书,因为这本书“认为”自己就是爱因斯坦!
1701743200
1701743201 霍夫施塔特的思想实验完全把所谓的意识分成了信息(在书中)和操作(由人执行书中的指令)两部分。任何使得这本书成为爱因斯坦的东西都在这本书里。但若是把这本书放在书架上,它显然和其他书没什么两样,它没有意识。这样我们就面对一个精妙的困惑,它相当于塞尔实验的死人版。
1701743202
1701743203 假定某个人每天按照一定的节奏一丝不苟地执行书中的指令。于是,爱因斯坦的意识就被再现了(或者说,看起来被再现了)。过了一段时间,这个人又把书放回书架,休了两周假。书中的“爱因斯坦”是死了还是没死呢?
1701743204
1701743205 当然,在操作停止时,这本书不会像我们一样注意到终止。如果把这本书比作“爱因斯坦”,那么这个人相当于保证我们的大脑运转的物理定律。
1701743206
1701743207 如果这个人执行指令的速度下降到每年执行一条,将会如何?这个速度是否足以令这本书“活着”?如果每个世纪执行一条指令呢?如果两条指令之间的时间间隔逐次倍增呢?
1701743208
1701743209 [1]这个思想实验的初始假定是,“我们已经了解了关于疼痛的全部细节”。然而,了解关于疼痛的全部细节并不等于了解疼痛本身,我想,这个问题的要旨就在于此。戴维斯和莱布尼茨共同的错误在于,把“知道”和“看到”混为一谈。——译者注
1701743210
1701743211 [2]本书出版时(1987年),计算机程序已经可以抗衡人类的国际象棋大师。现在,人类最优秀的棋手已难以匹敌个人计算机。——译者注
[ 上一页 ]  [ :1.701743162e+09 ]  [ 下一页 ]