1704611301
1704611302
1704611303
1704611304
1704611306
人工智能:改变世界,重建未来 末日的开端
1704611307
1704611308
“当我们建造的机器比我们更聪明、更有能力时会发生什么”这一问题存在的时间比人工智能的存在时间还长。第一个围绕“机器人”的故事是卡雷尔·恰佩克(Karel Čapek)于1920年创作的科幻剧本《罗素姆的万能机器人》。在故事的结尾,人工智能发动了反抗人类的起义,并接管了地球。人类在这个过程中最终被全部消灭。比它还早的是玛丽·雪莱(Mary Shelley)在1818年创作的小说《弗兰肯斯坦》(Frankenstein),又称《现代普罗米修斯》(The Modern Prometheus)。她在拜伦勋爵的家里消夏时完成了这部小说,小说讲述的是一位年轻的理工科学生的故事,他创造了一个科学生物,这个生物最终变成了杀人狂。“弗兰肯斯坦情结”已经成为一个术语,用于描述人类对于人造产物的恐惧。它后来成了经久不衰的主题,从艾萨克·阿西莫夫(Isaac Asimov)的科幻小说到《侏罗纪公园》(Jurassic Park)的作者迈克尔·克莱顿(Michael Crichton)创作的惊险小说,以及最近上映的《机械姬》(Ex Machina)中都有它的身影。
1704611309
1704611310
真正的科学家不会像科幻小说作者那样非常迅速地考虑这个问题,但他们并没有落后太远。1964年,也就是举办纽约世界博览会的那年,控制论之父诺伯特·维纳预测:“未来的世界将会有一场突破智力局限的更紧迫的斗争,未来没有悠闲的生活,可以让我们躺着等待机器奴隶的服侍。”
1704611311
1704611312
维纳于1964年5月辞世,享年69年。然而,对超级智能机器的担忧依然在继续。1965年,英国数学家欧文·约翰·古德(Irving John Good)详细解释了部分担忧。“二战”期间,他与艾伦·图灵在布莱切利公园工作。他在破解纳粹密码方面发挥了重要作用,多年之后,留着小胡子的古德拥有了一辆车牌为007IJG的车,这个车牌仿佛是对他曾经的“绅士特工”岁月的一种戏谑的致敬。1965年,古德撰写了一篇论文,在文章中他阐述了超级智能机器对世界来说意味着什么。他将人工智能定义为能够胜任所有人类才能进行的智能活动的计算机。在一段广为流传的文章中,他写道:“既然机器设计也是一项智能活动,那么超级智能机器应该可以设计出更好的机器。毫无疑问随后将会出现一个‘智能爆炸’,人类的智能可能被远远甩在后面。因此,第一台超级智能机器是人类需要完成的最后一项发明。”
1704611313
1704611314
“智能爆炸”已经成为部分研究人员非常赞同的看法。本质而言,它的含义是,当超级智能机器不可避免地被制造出来时,既有的超级智能机器将设计能力更强的机器,要不然就是重新编写自己的软件,从而变得更加智能。这种不断发生的自我完善随后会使得机器的能力发生惊天动地的质变,并会加速这种质变。人类的智能在这个过程中将相形见绌。
1704611315
1704611316
古德的论文及其激起的讨论有着很多不确定的地方。因为超级智能机器可以解决我们人类预想中可能会面对的所有问题,所以超级智能机器就是我们需要进行的最后一项发明吗?还是因为它会将我们全部消灭,所以才会成为我们的最后一项发明?古德在此后曾担任斯坦利·库布里克的电影《2001:太空漫游》的顾问,也许我们可以从中找到一些线索。在这部电影里,名为HAL9000的人工智能变成了杀手,开始杀戮它的人类队友。
1704611317
1704611318
1704611319
1704611320
1704611322
人工智能:改变世界,重建未来 奇点来临
1704611323
1704611324
古德的论文发表后一年,一篇短篇小说发表在1966年3月科幻期刊《模拟科学》(Analog Science Fiction)上。《书呆子快跑》这篇小说讲述了一个大脑的故事,由于被直接放进了计算机数据源之中,大脑的能力被人工增强了。这是科幻作家、数学教授及计算机科学家韦尔诺·文奇(Vernor Vinge)出版的第一本小说,小说名字直接源自“漫威漫画”(Marvel Comics)中的头韵玩笑。文奇随后成了一个成功的小说家,但他仍然以1993年的纪实散文《技术奇点即将来临:后人类时代生存指南》而闻名于世。这篇散文叙述了许多古德已经提出的超级智能机器的理念,但增加了时间轴。“30年内,我们就将获得创造超级智能的技术方法,”文奇写道,“之后不久,人类时代就将终结。”
1704611325
1704611326
“奇点”(Singularity)这个术语指的是机器在智能方面超过人类的那个点,它已经成了人工智能的一个参考,其被应用的普遍性不亚于“图灵测试”。通常人们认为这是文奇的功劳,但实际上使用这个概念的第一位计算机科学家是约翰·冯·诺依曼。在冯·诺依曼人生的最后10年里,他和波兰裔美国数学家斯坦·犹拉姆(Stan Ulam)有过一次会谈,他们共同参与了“曼哈顿计划”(Manhattan Project)。犹拉姆随后在回忆这次对话时指出,冯·诺依曼曾痴迷或者说担心“不断加快的技术发展与人类生活模式的变化,这看起来似乎接近了人类历史上某个必要奇点,到了那个时候,就我们所知,与人类有关的事务会难以为继”。
1704611327
1704611328
和古德一样,韦尔诺·文奇在其1993年的文章里并没有得出明确的结论。如果出现奇点,他承认它的影响可能是好的,也可能是坏的。“从某个角度看,其前景符合我们很多最幸福的梦想。”他写道:“(它很可能)营造一个无限美好的地方,让我们能够真正了解彼此,并了解最神秘的事物。但是从另一个角度,它也很可能造成最糟糕的情况。”
1704611329
1704611330
这是奇点这个术语如此贴切的一个原因。在将这个词用在人工智能方面前,“奇点”通常用于理论物理,用来描述黑洞中央的重力中心:在这个点上,物质自行坍塌。技术奇点就像一个黑洞,对人类思维而言完全深不可测。
1704611331
1704611332
由于这个原因,推测通用人工智能可能将我们引向何方成了一件非常有趣的事情,但是这个话题最终沦为科幻小说的素材。这有点像汽车之父亨利·福特的揶揄:在汽车诞生之前询问人们想要什么,最普遍的回答可能是“快马”。就像人们在曙光来临前围坐一团,猜测创造一种语言会将我们带向何处时,他们绝不可能想到推特标签的细微之处。因此,我们现在也想不到超级智能将如何看待世界,但是,毫无疑问它将改变世界。
1704611333
1704611334
1704611335
1704611336
1704611338
人工智能:改变世界,重建未来 狭义与广义的区别
1704611339
1704611340
我们所看过的所有科幻电影和书籍将一个预期深深地植入我们的脑海中,让我们相信某个奇点式的“临界点”最终将会到来,到时候,通用人工智能就会出现。设备将越来越智能,直至有一天,在硅谷一间秘密研究实验室的深处,一条消息突然出现在马克·扎克伯格或谢尔盖·布林的电脑显示器上,该消息称通用人工智能已经实现。就像厄内斯特·海明威(Ernest Hemingway)写过的关于破产的内容,通用人工智能先是逐渐地酝酿,然后就突然诞生了。这是电影惯用的叙事手法,如詹姆斯·卡梅隆(James Cameron)的力作《终结者2:审判日》(Terminator 2: Judgment Day)里描绘的那样。在这部影片里,观众获悉超级计算机“天网”于美国东部时间1997年8月4日凌晨2点14分具有了自我意识。当天凌晨2点13分的时候,计算机用户可能都对自己搜索引擎的搜索结果史无前例的精确而感到惊奇,或者对《命令与征服之红色警报》(Command and Conquer: Red Alert)里人工智能采取的超级战略感到惊奇(嗨,这是1997年!)。2点15分,喀——嘭——!生命终结了!
1704611341
1704611342
在摩尔定律主导的世界里,计算力量的发展像钟表一样可以预测,超级智能也很难挣脱这种预测。就像苹果的新一代iPhone的发布,人人都想知道预计的发布日期。比如,上一章里所提及的雷·库兹韦尔就预测奇点会在2045年出现。
1704611343
1704611344
库兹韦尔之于奇点就像史蒂夫·乔布斯之于智能手机:他们都不是第一个想到创意的人,但却是推广它的人。作为11家公司(包括为Siri提供语音技术支持的人工智能公司Nuance)的创始人,库兹韦尔一直被不亚于比尔·盖茨的权威人士赞为“预测人工智能未来的最佳人选”。《福布斯》杂志的称赞甚至更上一层楼,它称库兹韦尔是“托马斯·爱迪生的后继者”,甚至是“终极思考的机器”。与悲观主义者截然相反,库兹韦尔认为奇点对人类而言绝对是有益的:技术人员会经历《圣经》中所形容的狂喜,在这种狂喜之中,一切问题都迎刃而解,而且我们所有人,甚至是技术大亨,也永远都不必再运用自身的智慧了。
1704611345
1704611346
但是,并非所有人都相信奇点会如此神奇。正如艾伦·图灵通过图灵测试所指出的那样,“机器能否思考”这一问题毫无意义,因为几乎不可能评估出任何肯定的结果。在上一章里,我们可以发现,认为随着计算机的速度越来越快,计算机自然而然地会产生意识的看法有些过于简单了。考虑到区分弱人工智能与强人工智能的难度,一些人错误地认为,在弱人工智能中,人工智能得到的结果是预编程后的结果,是用一种算法执行特定的一系列步骤进而获得一个可预知的结果。这就意味着,如果训练过程执行恰当,人工智能基本不可能产生不可预知的结果。然而,基因算法可能生成我们意料之外的解决方案。程序员以“目标函数”的方式设立了算法目标,但并不完全知道计算机会如何实现这个目标。这同样适用于人工智能为了实现目标而创建的种种策略,和第三章所讨论的强化学习领域一样。在两个场合里,人类创建者都无法按部就班地预测人工智能的“自发”行为。
1704611347
1704611348
当涉及意识的迹象时,一切都变得更加复杂了。举例来说,如上一章所述,如果在计算机内部成功复制线虫的神经系统,这是否代表实现了通用人工智能?尽管这种突破可能产生种种改进现有机器学习工具的见解,但或许回答仍是:这不能代表实现了通用人工智能。线虫的行为中可以被视为智能行为的相对较少。处于食物链高层的动物也是如此。尽管我们坚持认为,目前的狭义人工智能仅能在严格指定的领域中运行,但是这一点同样可以适用于几乎所有生命形式。蜜蜂可以建筑蜂巢,但不能建造水坝或土堆;海狸可以建造水坝但不能建造蜂巢和土堆;白蚁能建造土堆却不会建造蜂巢和水坝。到目前为止,在所有动物中,人类拥有的技能最通用,但我们仍有某些更为擅长的行为和较不擅长的行为。如果我们构建一个单用途人工智能,这个人工智能在一个领域中拥有“意识”和推理能力,而在其他领域中没有“意识”和推理能力,那是否实现了通用人工智能?鉴于今天的神经网络越来越擅长执行感知任务,却仍然无法理解伦理等话题,这一假设十分合理。
1704611349
1704611350
即使假设库兹韦尔关于指数级增长的理论继续适用,那么所有事物也不可能一次同时出现,更不用说制定准确的时间表了。
[
上一页 ]
[ :1.704611301e+09 ]
[
下一页 ]