打字猴:1.70461134e+09
1704611340 我们所看过的所有科幻电影和书籍将一个预期深深地植入我们的脑海中,让我们相信某个奇点式的“临界点”最终将会到来,到时候,通用人工智能就会出现。设备将越来越智能,直至有一天,在硅谷一间秘密研究实验室的深处,一条消息突然出现在马克·扎克伯格或谢尔盖·布林的电脑显示器上,该消息称通用人工智能已经实现。就像厄内斯特·海明威(Ernest Hemingway)写过的关于破产的内容,通用人工智能先是逐渐地酝酿,然后就突然诞生了。这是电影惯用的叙事手法,如詹姆斯·卡梅隆(James Cameron)的力作《终结者2:审判日》(Terminator 2: Judgment Day)里描绘的那样。在这部影片里,观众获悉超级计算机“天网”于美国东部时间1997年8月4日凌晨2点14分具有了自我意识。当天凌晨2点13分的时候,计算机用户可能都对自己搜索引擎的搜索结果史无前例的精确而感到惊奇,或者对《命令与征服之红色警报》(Command and Conquer: Red Alert)里人工智能采取的超级战略感到惊奇(嗨,这是1997年!)。2点15分,喀——嘭——!生命终结了!
1704611341
1704611342 在摩尔定律主导的世界里,计算力量的发展像钟表一样可以预测,超级智能也很难挣脱这种预测。就像苹果的新一代iPhone的发布,人人都想知道预计的发布日期。比如,上一章里所提及的雷·库兹韦尔就预测奇点会在2045年出现。
1704611343
1704611344 库兹韦尔之于奇点就像史蒂夫·乔布斯之于智能手机:他们都不是第一个想到创意的人,但却是推广它的人。作为11家公司(包括为Siri提供语音技术支持的人工智能公司Nuance)的创始人,库兹韦尔一直被不亚于比尔·盖茨的权威人士赞为“预测人工智能未来的最佳人选”。《福布斯》杂志的称赞甚至更上一层楼,它称库兹韦尔是“托马斯·爱迪生的后继者”,甚至是“终极思考的机器”。与悲观主义者截然相反,库兹韦尔认为奇点对人类而言绝对是有益的:技术人员会经历《圣经》中所形容的狂喜,在这种狂喜之中,一切问题都迎刃而解,而且我们所有人,甚至是技术大亨,也永远都不必再运用自身的智慧了。
1704611345
1704611346 但是,并非所有人都相信奇点会如此神奇。正如艾伦·图灵通过图灵测试所指出的那样,“机器能否思考”这一问题毫无意义,因为几乎不可能评估出任何肯定的结果。在上一章里,我们可以发现,认为随着计算机的速度越来越快,计算机自然而然地会产生意识的看法有些过于简单了。考虑到区分弱人工智能与强人工智能的难度,一些人错误地认为,在弱人工智能中,人工智能得到的结果是预编程后的结果,是用一种算法执行特定的一系列步骤进而获得一个可预知的结果。这就意味着,如果训练过程执行恰当,人工智能基本不可能产生不可预知的结果。然而,基因算法可能生成我们意料之外的解决方案。程序员以“目标函数”的方式设立了算法目标,但并不完全知道计算机会如何实现这个目标。这同样适用于人工智能为了实现目标而创建的种种策略,和第三章所讨论的强化学习领域一样。在两个场合里,人类创建者都无法按部就班地预测人工智能的“自发”行为。
1704611347
1704611348 当涉及意识的迹象时,一切都变得更加复杂了。举例来说,如上一章所述,如果在计算机内部成功复制线虫的神经系统,这是否代表实现了通用人工智能?尽管这种突破可能产生种种改进现有机器学习工具的见解,但或许回答仍是:这不能代表实现了通用人工智能。线虫的行为中可以被视为智能行为的相对较少。处于食物链高层的动物也是如此。尽管我们坚持认为,目前的狭义人工智能仅能在严格指定的领域中运行,但是这一点同样可以适用于几乎所有生命形式。蜜蜂可以建筑蜂巢,但不能建造水坝或土堆;海狸可以建造水坝但不能建造蜂巢和土堆;白蚁能建造土堆却不会建造蜂巢和水坝。到目前为止,在所有动物中,人类拥有的技能最通用,但我们仍有某些更为擅长的行为和较不擅长的行为。如果我们构建一个单用途人工智能,这个人工智能在一个领域中拥有“意识”和推理能力,而在其他领域中没有“意识”和推理能力,那是否实现了通用人工智能?鉴于今天的神经网络越来越擅长执行感知任务,却仍然无法理解伦理等话题,这一假设十分合理。
1704611349
1704611350 即使假设库兹韦尔关于指数级增长的理论继续适用,那么所有事物也不可能一次同时出现,更不用说制定准确的时间表了。
1704611351
1704611352 “他对最近几年发展情况的预测能力令我大为震惊。”当我向杰夫·辛顿问及他对库兹韦尔的奇点理论的看法时,他略微迟疑了一下,随后说:“这是个讽刺。”
1704611353
1704611354 “看透未来就像看穿迷雾,”辛顿继续说道,“当你置身迷雾中,咫尺距离可能看得非常清楚。如果你看向稍远的地方,就会有些模糊。但如果你再将目光放得更远,你根本什么都看不到。这是因为看透迷雾的难度呈指数级增长。每穿透一段距离的迷雾都将失去一定比例的光线。”那么,这就意味着我们完全找错目标了吗?并不全是。“我们的技术将越来越好。”他说,“我看不到有任何理由表明生物大脑必须成为终极的思考机器。我认为,最终他们能够设计出比自身好的东西。那么,问题就成了:政策是什么以及人们决定要用技术去做什么。如果国家掌权人希望建造入侵小国家的机器人杀手,从而不牺牲任何美国人,那么这就是我们要面对的结果。”
1704611355
1704611356 但这不只是人工智能在遥远未来的应用,或者通用人工智能的发展,它现在就带来了挑战。
1704611357
1704611358
1704611359
1704611360
1704611361 人工智能:改变世界,重建未来 [:1704609623]
1704611362 人工智能:改变世界,重建未来 人工智能带来的风险
1704611363
1704611364 2012年4月,罗科·迪乔治(Rocco DiGiorgio)下班回家后发现他房子里的味道非常难闻。屋里到处都是狗屎,摊得很薄,但均匀地就像恐怖的蛋糕表面涂层。虽然迪乔治最初还不知道如何解释这一现象,但是他突然想到了原因。就在他的清洁机器真空吸尘器准备开始当天的例行打扫工作之前,他的宠物狗把屋里搞得一团糟。按照指令,机器人Roomba检测到了狗屎,并来回打扫多次,试图将它清理掉,然后在机器人打扫整个屋子时,把狗屎拖得满屋都是。“那时我一点都高兴不起来。”在YouTube视频上迪乔治痛苦地说,这段视频引起了著名社交网站Reddit用户的关注之后,就像病毒一样传开了。
1704611365
1704611366 迪乔治的故事难以代表我们在本章一直讲述的这种潜在的人工智能风险。这与人工智能获取全球核武器控制权(如电影《终结者》)或将我们的大脑封锁在巨大的模拟环境中(如电影《黑客帝国》)的情景相去甚远。然而,它证明了人工智能的另一个侧面:人工愚蠢(“人工智能”的反义词,指显得自己不那么聪明的电脑程序)带来的风险可能与真正的人工智能带来的一样大。简而言之,我们有时渐渐心安理得地希望让人工智能系统做决策,而它们却不一定有相应的智能。
1704611367
1704611368 有些人认为高级人工智能的出现可能意味着人类的灭亡,他们所热衷的一个思维实验即所谓的“回形针最多化”(paperclip maximiser)情景。这个思维实验由瑞典哲学家和计算神经科学家尼克·博斯特罗姆(Nick Bostrom)提出,在这个情景中,人工智能被要求实现一个看似无害的目标:经营一家生产回形针的工厂。这个人工智能可以利用纳米技术在分子层面上重构事物,它接到以最大效率生产回形针的任务后,悲剧性地首先将地球变成了回形针,然后将大部分可见的宇宙也变成了回形针。
1704611369
1704611370 “回形针最多化”情景非常普通,尽管对于我来说,它看起来更像是人工愚蠢而不是人工智能带来的问题。对“已经没有纸了,为什么还要生产回形针”或者“首先提出回形针需要的人已经被变成回形针了,为什么还在生产回形针”这类问题无能为力的情形,不太可能发生在高级的超级智能上,除非回形针有什么我不知道的极端重要的性质。恰恰相反,威胁来自人工智能,人工智能足够聪明,可以与其他联网设备共事,但还不足以对自己的工作动机提出质疑。
1704611371
1704611372 事实上,像把狗狗大便抹得到处都是的机器人Roomba一样,基于规则的简单人工智能有着大量失败的例子。2011年4月初,亚马逊上一本不再发行的图书《苍蝇的成长》出乎意料地与自己打起了价格战。这本书有两个版本上市,售价通常为35—40美元。然而,突然有一天,它们突然开始分别以1 730 045和2 198 177美元销售。仅仅数小时后,它们的售价已经分别达到了2 194 443和2 788 233美元,随后又涨至2 783 493和3 536 675美元。两周以后,价格达到创纪录的23 698 655.93美元,含运费。为什么会这样?因为算法规定这本书的售价要略高于其竞争对手的售价,于是引发了一场价格战,并最终将自己的价格提升至一个荒谬的程度,尽管事实上没有人会支付这样的价格。幸运的是,除了给亚马逊带来了些负面宣传,这种情况没有造成任何伤害。
1704611373
1704611374 一个更值得注意的人工智能造成破坏的案例发生在2010年5月6日,这本应是平平常常的一天,但这天,将近1万亿美元的财富消失在数字苍穹之中。美国东海岸时间下午2点42分,道琼斯工业平均指数三分钟之内下跌了将近1 000点,创下历史上最大的单日跌幅。一些股票从平时的30—40美元的交易区间暴跌至0.01美元,不过随即反弹。苹果公司股票每股从250美元激增至100 000美元。所幸,这种罕见的“闪电崩盘”没有再度上演过,但它几乎肯定是基于规则的简单人工智能的反馈回路被锁定的后果。事实就是人工愚蠢合法地从所有人的口袋中成功“偷走”的钱比历史上预谋最周详的人抢走的最多的钱还要多。
1704611375
1704611376
1704611377
1704611378
1704611379 人工智能:改变世界,重建未来 [:1704609624]
1704611380 人工智能:改变世界,重建未来 “黑箱”风险
1704611381
1704611382 无论是超级智能还是人工愚蠢,都有许多因素导致在出现流氓人工智能的情况下难以进行人为干预。首先是它们的运行速度。已经有用于自动执行股票交易等指令的人工智能系统,执行时间以纳秒为单位。由于这些交易的发生速度很快,一旦出现问题,人类根本不可能进行实时干预。
1704611383
1704611384 更重要的是,当今许多人工智能工具中都存在“黑箱”般的不透明性。至于先进神经网络与基因算法的情况,它们的人类操作者很久以前就不再试图理解其有效执行复杂任务的能力。这为仔细检查人工智能增加了难度。尼克·博斯特罗姆与其研究员同事埃利泽·尤德考斯基(Eliezer Yudkowsky)此前曾阐述一个假设情景,使用机器学习算法提供是接受还是拒绝房屋抵押贷款申请的建议。他们建议,如果申请人的抵押贷款被拒绝,申请人可以向银行申诉,声称人工智能因种族而歧视部分申请人。而银行则告知申请人,情况并非如此,且算法无法知道特定申请人的种族。但无论如何,在审查神经网络决策制定流程的结果时,人们发现黑人申请的批准率大大低于白人申请的批准率。
1704611385
1704611386 有许多原因可以解释这一现象,但是博斯特罗姆和尤德考斯基认为,很难确定具体原因。如果任务采用的是一种简单专家系统,可能很容易就能说明这个情况,比如,抵押贷款顾问人工智能的部分决策取决于申请人的当前地址,住在贫困地区的申请人的贷款违约率较高。
1704611387
1704611388 人工智能执行大量工作的具体方法加剧了这一问题。在21世纪的第二个10年里,技术公司的影响不再与其规模成比例。2012年4月Facebook花10亿美元收购的Instagram,其员工名单上仅有13人。与之相比,摄影巨头柯达在前数码时代其地位与Instagram旗鼓相当,其全盛时期员工人数超过14万。20世纪工业巨头的规模使它们更易于被监管。这同样适用于20世纪威胁公众的风险源,如核技术。这样的研究领域需要实体场址,建筑大规模设施以及大量资金。然而,时下人工智能的最大投资者:谷歌、Facebook和苹果可能会雇用数千人才,并在硅谷拥有大量大学式园区,但这已经不再是必要条件。当今计算设备的能力意味着,只要拥有必需的编程技术、一台个人电脑、笔记本甚至是智能手机,任何人都可以在构建人工智能的项目中发挥重要作用。完全不需要去与飞机库一样大的大型公司总部,任何有好想法的人都可以在自己学校的寝室,甚至是在苹果和谷歌创始人创业的改造车库里,构建人工智能系统。
1704611389
[ 上一页 ]  [ :1.70461134e+09 ]  [ 下一页 ]