1704611362
人工智能:改变世界,重建未来 人工智能带来的风险
1704611363
1704611364
2012年4月,罗科·迪乔治(Rocco DiGiorgio)下班回家后发现他房子里的味道非常难闻。屋里到处都是狗屎,摊得很薄,但均匀地就像恐怖的蛋糕表面涂层。虽然迪乔治最初还不知道如何解释这一现象,但是他突然想到了原因。就在他的清洁机器真空吸尘器准备开始当天的例行打扫工作之前,他的宠物狗把屋里搞得一团糟。按照指令,机器人Roomba检测到了狗屎,并来回打扫多次,试图将它清理掉,然后在机器人打扫整个屋子时,把狗屎拖得满屋都是。“那时我一点都高兴不起来。”在YouTube视频上迪乔治痛苦地说,这段视频引起了著名社交网站Reddit用户的关注之后,就像病毒一样传开了。
1704611365
1704611366
迪乔治的故事难以代表我们在本章一直讲述的这种潜在的人工智能风险。这与人工智能获取全球核武器控制权(如电影《终结者》)或将我们的大脑封锁在巨大的模拟环境中(如电影《黑客帝国》)的情景相去甚远。然而,它证明了人工智能的另一个侧面:人工愚蠢(“人工智能”的反义词,指显得自己不那么聪明的电脑程序)带来的风险可能与真正的人工智能带来的一样大。简而言之,我们有时渐渐心安理得地希望让人工智能系统做决策,而它们却不一定有相应的智能。
1704611367
1704611368
有些人认为高级人工智能的出现可能意味着人类的灭亡,他们所热衷的一个思维实验即所谓的“回形针最多化”(paperclip maximiser)情景。这个思维实验由瑞典哲学家和计算神经科学家尼克·博斯特罗姆(Nick Bostrom)提出,在这个情景中,人工智能被要求实现一个看似无害的目标:经营一家生产回形针的工厂。这个人工智能可以利用纳米技术在分子层面上重构事物,它接到以最大效率生产回形针的任务后,悲剧性地首先将地球变成了回形针,然后将大部分可见的宇宙也变成了回形针。
1704611369
1704611370
“回形针最多化”情景非常普通,尽管对于我来说,它看起来更像是人工愚蠢而不是人工智能带来的问题。对“已经没有纸了,为什么还要生产回形针”或者“首先提出回形针需要的人已经被变成回形针了,为什么还在生产回形针”这类问题无能为力的情形,不太可能发生在高级的超级智能上,除非回形针有什么我不知道的极端重要的性质。恰恰相反,威胁来自人工智能,人工智能足够聪明,可以与其他联网设备共事,但还不足以对自己的工作动机提出质疑。
1704611371
1704611372
事实上,像把狗狗大便抹得到处都是的机器人Roomba一样,基于规则的简单人工智能有着大量失败的例子。2011年4月初,亚马逊上一本不再发行的图书《苍蝇的成长》出乎意料地与自己打起了价格战。这本书有两个版本上市,售价通常为35—40美元。然而,突然有一天,它们突然开始分别以1 730 045和2 198 177美元销售。仅仅数小时后,它们的售价已经分别达到了2 194 443和2 788 233美元,随后又涨至2 783 493和3 536 675美元。两周以后,价格达到创纪录的23 698 655.93美元,含运费。为什么会这样?因为算法规定这本书的售价要略高于其竞争对手的售价,于是引发了一场价格战,并最终将自己的价格提升至一个荒谬的程度,尽管事实上没有人会支付这样的价格。幸运的是,除了给亚马逊带来了些负面宣传,这种情况没有造成任何伤害。
1704611373
1704611374
一个更值得注意的人工智能造成破坏的案例发生在2010年5月6日,这本应是平平常常的一天,但这天,将近1万亿美元的财富消失在数字苍穹之中。美国东海岸时间下午2点42分,道琼斯工业平均指数三分钟之内下跌了将近1 000点,创下历史上最大的单日跌幅。一些股票从平时的30—40美元的交易区间暴跌至0.01美元,不过随即反弹。苹果公司股票每股从250美元激增至100 000美元。所幸,这种罕见的“闪电崩盘”没有再度上演过,但它几乎肯定是基于规则的简单人工智能的反馈回路被锁定的后果。事实就是人工愚蠢合法地从所有人的口袋中成功“偷走”的钱比历史上预谋最周详的人抢走的最多的钱还要多。
1704611375
1704611376
1704611377
1704611378
1704611380
人工智能:改变世界,重建未来 “黑箱”风险
1704611381
1704611382
无论是超级智能还是人工愚蠢,都有许多因素导致在出现流氓人工智能的情况下难以进行人为干预。首先是它们的运行速度。已经有用于自动执行股票交易等指令的人工智能系统,执行时间以纳秒为单位。由于这些交易的发生速度很快,一旦出现问题,人类根本不可能进行实时干预。
1704611383
1704611384
更重要的是,当今许多人工智能工具中都存在“黑箱”般的不透明性。至于先进神经网络与基因算法的情况,它们的人类操作者很久以前就不再试图理解其有效执行复杂任务的能力。这为仔细检查人工智能增加了难度。尼克·博斯特罗姆与其研究员同事埃利泽·尤德考斯基(Eliezer Yudkowsky)此前曾阐述一个假设情景,使用机器学习算法提供是接受还是拒绝房屋抵押贷款申请的建议。他们建议,如果申请人的抵押贷款被拒绝,申请人可以向银行申诉,声称人工智能因种族而歧视部分申请人。而银行则告知申请人,情况并非如此,且算法无法知道特定申请人的种族。但无论如何,在审查神经网络决策制定流程的结果时,人们发现黑人申请的批准率大大低于白人申请的批准率。
1704611385
1704611386
有许多原因可以解释这一现象,但是博斯特罗姆和尤德考斯基认为,很难确定具体原因。如果任务采用的是一种简单专家系统,可能很容易就能说明这个情况,比如,抵押贷款顾问人工智能的部分决策取决于申请人的当前地址,住在贫困地区的申请人的贷款违约率较高。
1704611387
1704611388
人工智能执行大量工作的具体方法加剧了这一问题。在21世纪的第二个10年里,技术公司的影响不再与其规模成比例。2012年4月Facebook花10亿美元收购的Instagram,其员工名单上仅有13人。与之相比,摄影巨头柯达在前数码时代其地位与Instagram旗鼓相当,其全盛时期员工人数超过14万。20世纪工业巨头的规模使它们更易于被监管。这同样适用于20世纪威胁公众的风险源,如核技术。这样的研究领域需要实体场址,建筑大规模设施以及大量资金。然而,时下人工智能的最大投资者:谷歌、Facebook和苹果可能会雇用数千人才,并在硅谷拥有大量大学式园区,但这已经不再是必要条件。当今计算设备的能力意味着,只要拥有必需的编程技术、一台个人电脑、笔记本甚至是智能手机,任何人都可以在构建人工智能的项目中发挥重要作用。完全不需要去与飞机库一样大的大型公司总部,任何有好想法的人都可以在自己学校的寝室,甚至是在苹果和谷歌创始人创业的改造车库里,构建人工智能系统。
1704611389
1704611390
尽管缺乏数百万美元支持的兄弟公司所拥有的资源,但是开源人工智能项目可以帮助塑造未来的人工智能。在线开源机器学习库的数量不断增长,全球用户定期对这些学习库进行更新。比如,自从2010年2月对公众开放以来,开源学习库scikit-learn已经修改了18 000多次。2015年,普通的一天中,有8名用户对scikit-learn代码进行了18次修改。而这些进行讨论的用户远在瑞士、法国、美国和印度。一些开源人工智能项目设法制定一些相对温和的目标,如想出极客式家庭自动化项目。其他开源人工智能项目则致力于通用人工智能。
1704611391
1704611392
“今天,没有什么挑战比创造有益的通用人工智能更加重要,通用人工智能具有与人类相当的广泛能力并且将最终超越人类。”OpenCog网站上如是写道。OpenCog是个开源软件创意,自称“直面”构建通用人工智能的挑战。
1704611393
1704611394
随着人工智能处理的任务量不断增长,这些问题也将愈加迫切。就像本书所描述的那样,现在的人工智能用于帮助设计新城市、监控银行账户安全、执行具有重大经济影响的金融交易以及驾驶汽车。在不久的未来,即使你听说美国总统这样重量级的人物乘坐人工智能驱动的汽车,也不必吃惊。
1704611395
1704611396
谁又能说清楚明天它们将用于什么领域呢?
1704611397
1704611398
1704611399
1704611400
1704611402
人工智能:改变世界,重建未来 我们无法起诉机器人
1704611403
1704611404
Siri发布前两年,英国人工智能资深专家尤里克·威尔克斯(Yorick Wilks)发表了一篇名为“人工智能同伴导论”(Introducing Artificial Companions)的文章,讲述了第四章讨论的这种技术。在文中,威尔克斯简短地回答了责任问题。他特别感兴趣的是,智能增长是否伴随着责任增长。威尔克斯写道,假设人工智能助手告诉你的祖母,外面很暖和,但当她听到这个消息后走进的却是冰冷的花园,然后她感冒了,那么这种情况下谁应受到责备?此时此刻,连威尔克斯这位毕生都在询问和回答未来问题的人都得承认,这个问题对于读者“似乎有些超出想象”。仅仅过了几年,2015年年初,在牛津,我与尤里克·威尔克斯在他家附近共进午餐。他驾驶着自己的小型汽车在火车站与我会合,我们在附近一家意大利餐厅品红酒,讨论人工智能助手的话题,愉快地度过了几个小时。午餐期间,我的头脑中一直在感叹着过去几年人工智能的发展是如何迅速。一个2009年看起来像是科幻小说情节的哲学难题现在几乎成了现实。
1704611405
1704611406
我们对人工智能助手寄予了极大的信任,有时甚至超过了我们的本能与判断。Siri最早的电视插播广告由佐伊·丹斯切尔(Zooey Deschanel)主演,尽管当时窗外明显地下着大雨,但是她仍然看着窗外问Siri:“在下雨吗?”幸运的是,当时Siri的答复非常肯定。而在其他场合,人们远没有这么幸运。2013年年底,阿拉斯加州费尔班克斯的几位iPhone用户按照使用苹果地图应用数据的Siri的建议,选择了一条抵达费尔班克斯国际机场的路线,但这条路线非常危险地穿越了飞机起降的跑道。机场的营销主管安吉·斯皮尔(Angie Spear)称这是个很明显的证据,说明司机太过于相信导航系统。“无论标志牌上写的是什么,只要iPhone上的地图告诉他们继续沿这条路前进,他们就前进。”她说。
1704611407
1704611408
在处理技术引发的此类交通事故中,当前可用的法案条例非常有限,不过以往法院一直趋向做出针对人类的判决。比如,2009年,一位英国司机依据GPS(全球定位系统)的导航,却令自己困在了悬崖边的狭窄小路上。这名司机最终不得不被警察拖回主路。尽管英国法庭将之归因于他的GPS,但还是认定其有大意驾驶的过错。
1704611409
1704611410
法官倾向认定人类对此负责的原因是,我们习惯于一个充斥非智能工具的世界。举一个简单的例子,一个人用枪杀了另一个人,他应为自己的罪行负责,而不是让他的枪负责。同样,一家公司销售了有瑕疵的枪支,购买者在使用的时候枪支发生了爆炸,枪支公司应对所造成的所有伤害负责。这种思维也持续到了数字时代。1984年,也就是苹果公司首次推出麦金塔电脑(Macintosh,简称Mac)的这一年,美国一家名为阿斯隆工业的公司老板发现自己成了法庭的被告,他被指控使自己的客户置身危险之中。阿斯隆公司是一家销售自动投球机的公司,设备主要用于供人进行棒球挥棒练习。不幸的是,其中一些机器被证明存在缺陷。这些凶猛的机器发射的棒球极不规律,而且速度极快,有可能使某些不走运的客户颅骨骨折,甚至失明。尽管阿斯隆案件中没什么特别值得关注的事,但这个案件却令人难忘,因为法官宣布必须对阿斯隆工业而不是投球机进行起诉。原因是什么呢?因为“我们无法起诉机器人”。
[
上一页 ]
[ :1.704611361e+09 ]
[
下一页 ]