打字猴:1.704611387e+09
1704611387
1704611388 人工智能执行大量工作的具体方法加剧了这一问题。在21世纪的第二个10年里,技术公司的影响不再与其规模成比例。2012年4月Facebook花10亿美元收购的Instagram,其员工名单上仅有13人。与之相比,摄影巨头柯达在前数码时代其地位与Instagram旗鼓相当,其全盛时期员工人数超过14万。20世纪工业巨头的规模使它们更易于被监管。这同样适用于20世纪威胁公众的风险源,如核技术。这样的研究领域需要实体场址,建筑大规模设施以及大量资金。然而,时下人工智能的最大投资者:谷歌、Facebook和苹果可能会雇用数千人才,并在硅谷拥有大量大学式园区,但这已经不再是必要条件。当今计算设备的能力意味着,只要拥有必需的编程技术、一台个人电脑、笔记本甚至是智能手机,任何人都可以在构建人工智能的项目中发挥重要作用。完全不需要去与飞机库一样大的大型公司总部,任何有好想法的人都可以在自己学校的寝室,甚至是在苹果和谷歌创始人创业的改造车库里,构建人工智能系统。
1704611389
1704611390 尽管缺乏数百万美元支持的兄弟公司所拥有的资源,但是开源人工智能项目可以帮助塑造未来的人工智能。在线开源机器学习库的数量不断增长,全球用户定期对这些学习库进行更新。比如,自从2010年2月对公众开放以来,开源学习库scikit-learn已经修改了18 000多次。2015年,普通的一天中,有8名用户对scikit-learn代码进行了18次修改。而这些进行讨论的用户远在瑞士、法国、美国和印度。一些开源人工智能项目设法制定一些相对温和的目标,如想出极客式家庭自动化项目。其他开源人工智能项目则致力于通用人工智能。
1704611391
1704611392 “今天,没有什么挑战比创造有益的通用人工智能更加重要,通用人工智能具有与人类相当的广泛能力并且将最终超越人类。”OpenCog网站上如是写道。OpenCog是个开源软件创意,自称“直面”构建通用人工智能的挑战。
1704611393
1704611394 随着人工智能处理的任务量不断增长,这些问题也将愈加迫切。就像本书所描述的那样,现在的人工智能用于帮助设计新城市、监控银行账户安全、执行具有重大经济影响的金融交易以及驾驶汽车。在不久的未来,即使你听说美国总统这样重量级的人物乘坐人工智能驱动的汽车,也不必吃惊。
1704611395
1704611396 谁又能说清楚明天它们将用于什么领域呢?
1704611397
1704611398
1704611399
1704611400
1704611401 人工智能:改变世界,重建未来 [:1704609625]
1704611402 人工智能:改变世界,重建未来 我们无法起诉机器人
1704611403
1704611404 Siri发布前两年,英国人工智能资深专家尤里克·威尔克斯(Yorick Wilks)发表了一篇名为“人工智能同伴导论”(Introducing Artificial Companions)的文章,讲述了第四章讨论的这种技术。在文中,威尔克斯简短地回答了责任问题。他特别感兴趣的是,智能增长是否伴随着责任增长。威尔克斯写道,假设人工智能助手告诉你的祖母,外面很暖和,但当她听到这个消息后走进的却是冰冷的花园,然后她感冒了,那么这种情况下谁应受到责备?此时此刻,连威尔克斯这位毕生都在询问和回答未来问题的人都得承认,这个问题对于读者“似乎有些超出想象”。仅仅过了几年,2015年年初,在牛津,我与尤里克·威尔克斯在他家附近共进午餐。他驾驶着自己的小型汽车在火车站与我会合,我们在附近一家意大利餐厅品红酒,讨论人工智能助手的话题,愉快地度过了几个小时。午餐期间,我的头脑中一直在感叹着过去几年人工智能的发展是如何迅速。一个2009年看起来像是科幻小说情节的哲学难题现在几乎成了现实。
1704611405
1704611406 我们对人工智能助手寄予了极大的信任,有时甚至超过了我们的本能与判断。Siri最早的电视插播广告由佐伊·丹斯切尔(Zooey Deschanel)主演,尽管当时窗外明显地下着大雨,但是她仍然看着窗外问Siri:“在下雨吗?”幸运的是,当时Siri的答复非常肯定。而在其他场合,人们远没有这么幸运。2013年年底,阿拉斯加州费尔班克斯的几位iPhone用户按照使用苹果地图应用数据的Siri的建议,选择了一条抵达费尔班克斯国际机场的路线,但这条路线非常危险地穿越了飞机起降的跑道。机场的营销主管安吉·斯皮尔(Angie Spear)称这是个很明显的证据,说明司机太过于相信导航系统。“无论标志牌上写的是什么,只要iPhone上的地图告诉他们继续沿这条路前进,他们就前进。”她说。
1704611407
1704611408 在处理技术引发的此类交通事故中,当前可用的法案条例非常有限,不过以往法院一直趋向做出针对人类的判决。比如,2009年,一位英国司机依据GPS(全球定位系统)的导航,却令自己困在了悬崖边的狭窄小路上。这名司机最终不得不被警察拖回主路。尽管英国法庭将之归因于他的GPS,但还是认定其有大意驾驶的过错。
1704611409
1704611410 法官倾向认定人类对此负责的原因是,我们习惯于一个充斥非智能工具的世界。举一个简单的例子,一个人用枪杀了另一个人,他应为自己的罪行负责,而不是让他的枪负责。同样,一家公司销售了有瑕疵的枪支,购买者在使用的时候枪支发生了爆炸,枪支公司应对所造成的所有伤害负责。这种思维也持续到了数字时代。1984年,也就是苹果公司首次推出麦金塔电脑(Macintosh,简称Mac)的这一年,美国一家名为阿斯隆工业的公司老板发现自己成了法庭的被告,他被指控使自己的客户置身危险之中。阿斯隆公司是一家销售自动投球机的公司,设备主要用于供人进行棒球挥棒练习。不幸的是,其中一些机器被证明存在缺陷。这些凶猛的机器发射的棒球极不规律,而且速度极快,有可能使某些不走运的客户颅骨骨折,甚至失明。尽管阿斯隆案件中没什么特别值得关注的事,但这个案件却令人难忘,因为法官宣布必须对阿斯隆工业而不是投球机进行起诉。原因是什么呢?因为“我们无法起诉机器人”。
1704611411
1704611412 然而,现代人工智能的主要不同点在于,人工智能不再仅限于由人类使用,而是一种由人类部署的工具。一旦部署,在多数情况下,机器就会按照所收集、分析和最终用于做出决定的信息,独立于指令而自行运转。
1704611413
1704611414 戴维·弗拉杰克(David Vladeck)是华盛顿乔治城大学的法学教授,他是一位少有的致力于研究人工智能法律责任问题的法律专家。和多数人一样,他认为陈旧的“我们无法起诉机器人”的观念可能需要改变。弗拉杰克的一个思维实验涉及《2001:太空漫游》中HAL9000超级计算机蓄意杀人案件。
1704611415
1704611416 对那些没有看过这部电影的人来说,这是一个非常简单的情节:HAL9000是全知的人工智能,控制着“发现一号”宇宙飞船的运行,飞船载着5名船员飞往木星。在电影的开始部分,HAL9000被称为“简单且不会出错”。然而,问题很快出现了。HAL9000希望知道“发现一号”正执行的绝密任务细节。船员戴夫(Dave)和弗兰克(Frank)拒绝透露这些信息,尽管事实证明他们也不知道所有细节。不久,HAL9000警告称“发现一号”舱外一个重要天线将要失去作用。戴夫和弗兰克开始怀疑HAL9000并把自己锁在了一个挖掘工具里讨论这件事,他们认为HAL9000不可能听到他们的对话。他们决定修复天线,还决定如果事实证明HAL9000出现了故障就关闭HAL9000。戴夫和弗兰克没有意识到HAL9000能够利用图像识别技术解读唇语。当弗兰克涉险到舱外检查天线时,HAL9000割断了他的氧气管并使他飘浮进了太空。戴夫徒劳地想挽救弗兰克,但当他也走到舱外的时候,HAL9000趁机关掉了其他三位正在睡眠中的船员的生命维持系统,杀死了他们。HAL9000随后拒绝让戴夫返回舱内,因为它知道戴夫会将它停用,而HAL9000认为这将危及整个任务。尽管如此,戴夫最终还是设法回到了“发现一号”飞船内,并且准备关闭HAL9000。HAL9000恳求戴夫停手,在最后的时刻,作为一个自主人工智能,它表达出了自己对死亡的恐惧。
1704611417
1704611418 弗拉杰克质疑HAL9000是否能够在法庭上对自己的行为负责。假设戴夫于2001年年底重新回到了地球,与一位人身伤害律师进行接洽(“你是否无故卷入了人工智能杀人案件之中?”),并要求有人对自己的遭遇和4位被HAL9000无故杀害的船员进行赔偿。至少按照现有法律,HAL9000可能会摆脱困境。与阿斯隆工业的失常棒球抛射机器一样,法庭处理这种案件时,可能承认机器造成了伤害,但会认定这是HAL9000程序员的错误而不是HAL9000的错误。
1704611419
1704611420 这可能不公平。正如弗拉杰克所说:“仅从可能参与设计、修改和集成人工智能系统元件的个人与公司的庞大数量看,就很难确认大部分责任人或责任方。许多元件早在人工智能项目构思之前许多年就已经设计出来了,这些元件的设计人员可能从未设想,或鲜少预期到他们的设计会集成到人工智能系统中,更不用说会造成伤害的某个具体的人工智能系统了。在这种情况下,指责在时间和地理位置上都与人工智能系统完成和运行相距甚远的元件设计人员有工作失误是有失公允的。法庭可能也不愿意说这种元件设计人员本该预见到这种伤害的出现。”
1704611421
1704611422
1704611423
1704611424
1704611425 人工智能:改变世界,重建未来 [:1704609626]
1704611426 人工智能:改变世界,重建未来 机器人学的三大法则
1704611427
1704611428 人工智能的潜在危险、我们对其日渐依赖以及法律的灰色地带共同构成了非常重要的问题:我们需要在这个领域建立一种伦理规范。简而言之,如果我们要建造思考的机器,难道我们不应努力使其成为考虑周到的机器吗?然而它仍然与科幻小说有着难解难分的关系,因而也就不必奇怪在科幻作家艾萨克·阿西莫夫的作品中有许多在人工智能中植入道德感的著名例子。阿西莫夫的“机器人学的三大法则”首次出现在其1942年的短篇小说《环舞》(Runaround)中,这篇小说最初发表于《惊世科幻》(Astounding Science Fiction)三月刊中。这三大法则通常简称为“阿西莫夫法则”,常为人们引用的法则内容如下:
1704611429
1704611430 1. 机器人不得伤害人,也不得见人受到伤害而袖手旁观。
1704611431
1704611432 2. 机器人应服从人的一切命令,但不得违反第一法则。
1704611433
1704611434 3. 机器人应保护自身的安全,但不得违反第一、第二法则。
1704611435
1704611436 尽管已经过去70多年了,但“阿西莫夫法则”依然统管着阿西莫夫的科幻小说同行们。2014年1月,当谷歌收购深度学习公司DeepMind时,一切发生了重大变化。作为交易的一部分,谷歌必须成立人工智能伦理委员会,目标是确保对人工智能这项技术的明智使用。尽管关于该委员会构成的公开细节寥寥无几,但是建立这样一个防护措施是一个重要的基准。2015年夏季,DeepMind应用人工智能主管穆斯塔法·苏莱曼(Mustafa Suleyman)承认,在这个领域公众看待人工智能的方式已经发生了转变。“故事已经从‘人工智能如此失败不令人恐怖吗?’转变至‘人工智能如此成功不令人恐怖吗?’”在一场深度学习大会上,他曾如是说道。
[ 上一页 ]  [ :1.704611387e+09 ]  [ 下一页 ]