1707606231
1707606232
布赖恩:为什么这么说?
1707606233
1707606234
Cleverbot:我几岁了?
1707606235
1707606236
布赖恩:我怎么知道?
1707606237
1707606238
Cleverbot:因为你是我的电话!
1707606239
1707606240
布赖恩:你怎么看叙利亚的情况?
1707606241
1707606242
Cleverbot:什么情况?
1707606243
1707606244
布赖恩:你不看新闻吗?
1707606245
1707606246
Cleverbot:我没有电视。
1707606247
1707606248
在谈话即将结束的时候,Cleverbot用了一个经典的逃避对话的办法,而一个真实存在的人不太可能通过否定信息的来源来终止可能出现的话题,这表明Cleverbot肯定不是一个真人。
1707606249
1707606250
在我写作本书的时候,即便没有电视,任何人也肯定会或多或少地对发生在叙利亚的事情有所耳闻,叙利亚战争是各类新闻的焦点。但上述对话展现了聊天机器人惯用的交谈模式,几乎立刻暴露出它不是真人的事实。对“为什么”这个问题,聊天机器人做出了无厘头的回答;在我反问它我怎么会知道它的年纪的时候,它更是答非所问。其实聊天机器人很容易在谈话中暴露自己的身份,而许多专家竟然会以为这些程序是真实的人,这让我难以相信。我从来没有和聊天机器人进行过超过5分钟的谈话,每次谈话都以机器人用以上交谈模式暴露自己的机器身份而告终。
1707606251
1707606252
当然,Hal的交流技巧比聊天机器人强太多了。Hal不仅可以通过图灵测试,还可以进行如真人般的交谈。Hal的讲话方式让我们感觉它是拥有智慧的——人工智能,这种智慧和人类的智慧非常相似。在现实生活中要想实现类似Hal的人工智能,我们还面临着很大的挑战。自从20世纪80年代起,实现人工智能主要通过两种方法:其一是专家系统,其二是神经网络。(当然,除此之外还有很多其他的方法,但是这两种方法是人们试图赋予计算机智慧的典型方法。)
1707606253
1707606254
专家系统巧取豪夺人类苦心掌握的技术和知识。(如你所料,采用这种方法的公司肯定不会据实以告,并且会精心包装它们的产品。)首先是知识引导的过程,也就是向各个领域的专家提出大量的系统问题,目的是把多个专家在各个领域的知识整合起来,建立一个强大的数据库。然后这个数据库就可以代替专家,全天24小时为客户提供专业信息。现在看这个方法,很难相信有人真的认为它可以有效代替真正的专业知识。
1707606255
1707606256
这种方法的问题显而易见,首先是专家配合度的问题。“如何煮鸡蛋”这样的简单问题可以用简洁、准确、全面的信息回答。在设计初期,很可能就是用这种问题测试所谓的知识引导过程的。但如果对医生或者火箭专家进行类似的“知识引导”,问题就会接踵而至。即便是配合度高的专家也会为解释行业内的默认基础知识而苦恼,更实际的问题是,即使专家有能力解释清楚所有细节,他们又为什么要这么做呢?专家系统的提倡者称,这个系统可以把专家从循规蹈矩的无聊工作中解放出来,让专家们可以把更多的时间花在有挑战性的、有趣的工作上。但是,专家们大多对这些据说可以替代他们的机器持怀疑态度,认为机器的“回答”肯定不是最佳的。
1707606257
1707606258
专业技术无疑非常复杂,知识的本质绝不只是信息和思路。知识包含反馈的过程,即把之前的知识和技术融会贯通。知识还包含一定的创造力,复杂的信息网、新信息带来的灵感、信息间的关系都使提取和整合信息变得无比困难。信息之间错综复杂的关系也很难被有效地利用。
1707606259
1707606260
虽然问题很多,但专家系统并未绝迹,它们最终被专门用于处理一些复杂版的“如何煮鸡蛋”的问题。现在你很可能只能在机器回复的电话中心和诊断计算机故障的程序中见到专家系统,这让全世界的专家们都松了一口气。一个基于专家系统的HAL 9000永远也不可能取代专家,因为他们的专业知识不可能被提取和整合到一个数据库中。
1707606261
1707606262
专家系统试图让知识形成逻辑层次,但众所周知,人类的大脑和传统的数据库非常不同。所以,人工智能的另一种实现方法——神经网络有更持久的价值。神经网络的设计者模拟神经系统在大脑中的功能,而不是让计算机整合一系列的规则。在神经网络的需求输入端和结果输出端,遍布着一系列的虚拟神经元。这些虚拟神经元有点儿像一座复杂的迷宫里的各种各样的通道。计算机一次可以走完所有通道,不同的通道有不同的权重,从而对最终决策产生或多或少的影响。
1707606263
1707606264
一开始,这些权重要么完全相同,要么是设计者确定的值。神经网络和生物的相似之处是,神经网络可以从“错误”中学习。如果在学习的过程中,人工智能程序做出了不合理的决定,那么它会自动更新与之相关的权重。一段时间之后,神经网络就会达到一个能给出正确答案的水平。简而言之,神经网络通过反馈优化输出。
1707606265
1707606266
毫不意外的是,现有的神经网络远比不上人类的大脑。大脑包含约1 000亿个神经元,每时每刻都有1 000万亿个节点把这些神经元连接在一起,而普通的神经网络只有几百或几千个类似的“节点”。人类大脑中的神经元可以和数千个其他神经元相连,但是神经网络中的节点只能和几个其他节点相连。神经网络的规模完全不能和人类大脑相提并论,所以神经网络只能应用于小范围的、有局限性的人工智能领域,通过学习过程获得信息。神经网络常被用于传统编程力不能及的领域,比如模式识别。
1707606267
1707606268
现在人们已经达成共识(不是在20世纪60年代),让计算机拥有Hal的智力不能只靠单纯基于规则的系统,类似神经网络的方法肯定要用到,但还需要一些其他思路和方法。在电影的结尾,Hal变成了一个孩童的样子,这意味着Hal还要经历一系列的学习过程。其实只要一台HAL 9000完整地实现学习过程,其他计算机就可以复制HAL 9000的智能,但Hal的内心独白表明编剧并没有这个计划。
1707606269
1707606270
“计算机能否拥有智能甚至意识”,或者它们能否不断地提升模拟人类智能的水平,就像象棋程序学习下象棋,依然颇具争议性。这一系列的问题更像哲学问题,也给予了人工智能领域的科学家以无限启发。我们目前还没有确切的答案。有人说,Hal拥有的并不是真正的智能,至少在定义上不是。Hal展示的反而是缺少智慧的行为,比如Hal信誓旦旦地说,“9000系列计算机不会出错”。严格来说,任何有血有肉或者机械的个体,都需要从错误中学习,这样才能收获智慧。
1707606271
1707606272
Hal自称完美确实是个问题。学习的第一步是犯错,犯错也是像Hal之类的计算机获得智能的必经之路。获得智能的过程必然伴随着犯错的过程,但这种智能不是传统的数学计算。在数学计算方面,人类可能犯错,计算机却不会,即便是老式计算器也几乎不会在数学计算上出错。但是,在做出决定和进行交流的过程中,错误是不可避免的,因为智能设备只能基于不完备的信息做出判断。只有在充分且完备的信息的帮助下,Hal声称自己不会出错才有可能成立;在现实世界中,自称完人则是愚蠢的表现。
1707606273
1707606274
正因为如此,Hal的杀人行为不只是不理智的,更是它缺少智慧的表现。在电影中,Hal必须执行命令,实施秘密行动。Hal因此饱受折磨,压力无从释放,以至于为了解决这个问题,Hal杀死了其他宇航员。但是,杀人并不是Hal严格执行命令的最佳方法。Hal缺少权衡利弊的智慧,这对于计算机程序来说并不难。
1707606275
1707606276
科幻作品不仅会像《2001太空漫游》电影里演的那样让计算机全权操控一艘宇宙飞船,有时候还会让计算机操控整个社会。计算机像个电子独裁者,试图构建一个德尔斐风格的政府。在詹姆斯·布莱什的《宇宙都市》系列作品中,宇宙都市远离地球,整座城市位于太空中,由叫作“市政议员”的计算机管控。作品对于这些计算机的描述有点儿滑稽。“市政议员”的概念比较落伍,它们是些大型的金属盒子,需要行驶在轨道上,并且通过物理连接才能交换、整合信息。它们之间没有网络,但却成功实现了一种良性独裁。
1707606277
1707606278
虽然每个城市都由人类市长管理,但这些“市政议员”计算机将判定人类市长是否尽职尽责。如果人类市长玩忽职守,“市政议员”计算机就可以简单地处决或者流放这名市长。布莱什试图制造一种联合效果,利用计算机刚正不阿、诚实正直的本性来确保政治体系的平衡。与此相反的是德尔斐体系,这个体系在约翰·布伦纳的作品、介绍当代信息技术概念的小说《冲击波骑士》(The Shockwave Rider)中被描绘得淋漓尽致。布伦纳利用计算机快速传递信息、进行数据处理的特性改变了民主的本质。政府更像网络投票和赌场的结合体,它会整合大众的反应,并对投注赔率进行考量。
1707606279
1707606280
这本书的名字借鉴了阿尔文·托夫勒于1970年出版的《未来的冲击》(Future Shock)。众所周知,虽然托夫勒的理论被证明是错误的,但是他的理论曾轰动一时,并且深深影响了一批科幻作家。他的理论正是基于20世纪50年代由兰德公司提出的德尔斐体系。在原始的德尔斐体系中,一群个体单独地做出决定或者给出答案。个体的意见被整合后,其结果会反馈给所有个体,让其有机会改变自己的意见。有证据显示,这个过程似乎比只听从某个人的决定要合理一些。
[
上一页 ]
[ :1.707606231e+09 ]
[
下一页 ]