1700216990
心灵的未来 机器人会理解或感觉吗?
1700216991
1700216992
几个世纪以来,关于机器人是否能够思考、是否能够感觉,涌现了大量的理论。我自己的哲学是“建构主义”(constructivism),即不要没完没了地、无意义地争论这个问题,我们应该将精力投入到机器人制造中,看看我们能够达到什么样的水平。否则,我们就陷入了无休止的哲学思辨,问题无法得到最终解决。科学的优势在于,一旦所有事情都弄清做好后,我们可以进行实验来准确地解决问题。
1700216993
1700216994
所以,要解决机器人是否能够思考的问题,最终的方法是制造一个机器人出来。不过有些人认为,机器永远不可能像人一样思考。他们最有力的论据是,虽然机器人对于事实的处理要快过人类,但它并不能“理解”自己在处理的是什么。虽然它对感觉(如颜色和声音)的处理要好过人类,但它并不是真正地“感觉”或了解“经历”这些感觉的内涵。
1700216995
1700216996
例如,哲学家戴维·查默斯(David Chalmers)把人工智能的问题分为两类:简单问题和复杂问题。对他而言,简单问题是制造越来越会模仿人类能力的机器,如下棋、数字计算、识别某些图形等。复杂问题涉及制造可以理解感情和主观感觉的机器,这些被称为“可感受性”(qualia)
1700216997
1700216998
他们认为,这种情况与向盲人传达红色的意义一样,机器人永远不可能了解红色的主观感觉。或者,一台计算机可以很流利地将汉语翻译为英语,但它无法理解它翻译的是什么。在这个图景中,机器人就像光彩夺目的录音机或计算器,在准确记忆信息、处理信息方面的表现令人吃惊,但却没有任何理解。
1700216999
1700217000
应该严肃地对待这些论据,但看待可感受性和主观感觉问题还有另一种方法。未来,机器很可能会比人类更好地处理感觉,如红色。它将能够比人类更好地描述红色的物理属性,甚至是更好地把它用在文学性的句子中。机器人是“感觉”到红色吗?由于“感觉”这个词并没准确定义,所以这个问题并不重要。将来的某个时刻,机器人对红色的描写可能超过人类,然后机器人会不无道理地问:人类真正懂得红色吗?也许人类无法真正理解机器人能够理解的关于红色的细微信息。
1700217001
1700217002
行为主义者伯尔赫斯·弗雷德里克·斯金纳(B.F.Skinner)曾经说过:“真正的问题并不是机器人能否思考,而是人类能否思考。”
1700217003
1700217004
同样,机器人将能够定义汉语字词并比任何人用得都好,这只是时间问题。到那时,机器人是否“懂得”汉语的问题就不重要了。对于所有实际问题而言,机器人对汉语的掌握要好于人类。换句话说,“懂得”这个单词也没有被准确定义。
1700217005
1700217006
随着机器人使用单词和操控感觉的能力超过我们,有一天机器人是否“懂得”或“感到”单词和感觉都将不重要。这个问题不再具有任何重要性。
1700217007
1700217008
数学家约翰·冯·诺依曼(John von Neumann)说:“在数学中,你不是理解事物。你只是习惯它们。”
1700217009
1700217010
所以,问题并不在于硬件,而在于人类语言的本质,其中的字词并没有准确的界定,对不同人会有不同解释。有人曾经问伟大的量子物理学家尼尔斯·玻尔(Niels Bohr),怎样理解量子理论中的深刻的悖论。他的回答是,答案在于你怎样界定“理解”一词。
1700217011
1700217012
塔夫斯大学的哲学家丹尼尔·丹内特(Daniel Dennett)博士写道:“没有什么客观的实验可以把一个聪明的机器人与一个有意识的人区分开。现在你面临一个选择:要么执着于这个复杂问题,要么在惊叹中摇摇头忽略它。就这样吧。”
1700217013
1700217014
换句话说,所谓的复杂问题并不存在。
1700217015
1700217016
就建构主义哲学而言,问题不在于辩论一台机器能不能感觉到红色,而在于建造这台机器。在这个图景中,描述“理解”和“感觉”这两个单词会有连续的各种级别。(这意味着,也许甚至可能给不同程度的理解和感觉标定不同数值。)在这个体系的一端,我们看到的是今天笨重的机器人,它们只能操作几个符号,仅此而已。在另一端就是我们人类,我们为自己能够感觉到“可感受性”而自豪。但随着时间的推移,机器人描写感觉的能力最终会在所有层次上超过我们。那么很明显它们能够“理解”。
1700217017
1700217018
这就是艾伦·图灵(Alan Turing)著名的图灵测验背后的思想。他预言,有一天我们将制造出能够回答所有问题的机器人,它与人类将没什么不同。他说:“如果一台计算机能够欺骗一个人,让他相信自己是人类,那么这台计算机就堪称智能。”
1700217019
1700217020
物理学家、诺贝尔奖得主弗朗西斯·克里克(Francis Crick)表述得最为精准。在20世纪,他注意到生物学家在激烈地辩论“什么是生命”这个问题。现在,我们有了关于DNA的知识,科学家们意识到这个问题并不清晰。这个简单的问题背后有着很多变化、层次和复杂性。“什么是生命”的问题就这么渐渐消失了。相同的情况也可能最终出现在感觉和理解上。
1700217021
1700217022
1700217023
1700217024
1700217026
心灵的未来 有自我意识的机器人
1700217027
1700217028
要使沃森那样的计算机具有自我意识需要采取什么步骤呢?要回答这个问题,我们必须回到我们对自我意识的定义:这是一种能力,能将自己置于一个环境模型中,然后在未来模拟这个环境模型以达到某个目的。完成第一步需要很高的常识水平,这样才能预见未来事件。然后,机器人需要把自己置于这个模型中,这要求机器人对自己可能采取的各种行为有所理解。
1700217029
1700217030
明治大学的科学家们已经开始了制造具有自我意识的机器人的第一步。这是一项非常困难的任务,但他们认为用心灵理论制造一个机器人可以实现它。他们先制造了两个机器人。在第一个机器人中编入完成某些动作的程序,第二个机器人编入观察第一个机器人后予以模仿的程序。他们能够制造出完全靠观察第一个机器人就能系统地模仿它的行为的机器人。专门制造具有某种自我意识的机器人,这在历史上是首次。第二个机器人具有一种心灵理论,即它可以通过观察另外一个机器人模仿它的行为。
1700217031
1700217032
2012年,耶鲁大学的科学家们进行了第二步,他们制造出了可以通过镜像测试的机器人。把动物放到镜子前,它们中的大多数都会认为镜子里的影像是另外一个动物。在我们的记忆中,只有少数动物通过了镜像测试。耶鲁大学制造出的机器人尼克(Nico)造型类似一副瘦长的导线骨架,具有机械手臂,顶部有凸出的双眼。把尼克放到镜子前,它不仅会认出自己,而且可以通过观察镜子中其他物体的镜像推测出它们的位置。这与我们开车时看后视镜,推测出我们后方物体的位置十分相似。
1700217033
1700217034
尼克的程序设计员贾斯汀·哈特(Justin Hart)说:“就我们所知,这是第一个能够这样使用镜子的机器人系统,是迈向一种机器人通过自我观察来自了解自身和长相的严密架构的重要一步,这是通过镜像测试所需要的非常重要的能力。”
1700217035
1700217036
由于明治大学和耶鲁大学的机器人代表了制造自我意识机器人的最先进技术,我们很容易看出科学家们距离制造出具有人类一样的自我意识的机器人还有很长的路要走。
1700217037
1700217038
他们的工作仅仅是一个开始,因为我们对自我意识的定义是要求机器人能够利用这种信息对未来进行模拟。这大大超出了尼克和其他机器人的能力。
[
上一页 ]
[ :1.700216989e+09 ]
[
下一页 ]