1704611426
人工智能:改变世界,重建未来 机器人学的三大法则
1704611427
1704611428
人工智能的潜在危险、我们对其日渐依赖以及法律的灰色地带共同构成了非常重要的问题:我们需要在这个领域建立一种伦理规范。简而言之,如果我们要建造思考的机器,难道我们不应努力使其成为考虑周到的机器吗?然而它仍然与科幻小说有着难解难分的关系,因而也就不必奇怪在科幻作家艾萨克·阿西莫夫的作品中有许多在人工智能中植入道德感的著名例子。阿西莫夫的“机器人学的三大法则”首次出现在其1942年的短篇小说《环舞》(Runaround)中,这篇小说最初发表于《惊世科幻》(Astounding Science Fiction)三月刊中。这三大法则通常简称为“阿西莫夫法则”,常为人们引用的法则内容如下:
1704611429
1704611430
1. 机器人不得伤害人,也不得见人受到伤害而袖手旁观。
1704611431
1704611432
2. 机器人应服从人的一切命令,但不得违反第一法则。
1704611433
1704611434
3. 机器人应保护自身的安全,但不得违反第一、第二法则。
1704611435
1704611436
尽管已经过去70多年了,但“阿西莫夫法则”依然统管着阿西莫夫的科幻小说同行们。2014年1月,当谷歌收购深度学习公司DeepMind时,一切发生了重大变化。作为交易的一部分,谷歌必须成立人工智能伦理委员会,目标是确保对人工智能这项技术的明智使用。尽管关于该委员会构成的公开细节寥寥无几,但是建立这样一个防护措施是一个重要的基准。2015年夏季,DeepMind应用人工智能主管穆斯塔法·苏莱曼(Mustafa Suleyman)承认,在这个领域公众看待人工智能的方式已经发生了转变。“故事已经从‘人工智能如此失败不令人恐怖吗?’转变至‘人工智能如此成功不令人恐怖吗?’”在一场深度学习大会上,他曾如是说道。
1704611437
1704611438
谷歌不是唯一认为必须确保人工智能承担责任的研究团体。由于过去10年间深度学习与其他人工智能的统计形式已经成为规范,纽约伦斯勒理工学院认知科学系主任塞尔默·布林斯乔德(Selmer Bringsjord)发起了一场一个人的战争,支持回归到从头到尾基于逻辑的人工智能。“我不做任何统计学上的事情,”在描述他在实验室的工作时,他告诉我,“我非常不喜欢它,认为它正将我们引入歧途。”
1704611439
1704611440
对于布林斯乔德而言,之所以需要回归从头到尾有逻辑的人工智能,是因为依靠“数学上令人费解”的统计工具本质上是愚蠢的行为。“你希望系统能够阐述其行为的依据和正确性吗?”他说:“我们应该希望更加复杂的人工智能系统能够证明,它们根据获得的输入,其所作所为是正确的决定。”
1704611441
1704611442
有逻辑的人工智能可能意味着《连线》和《快公司》的篇章中那种引人注意的技术推出过程应该放慢,但布林斯乔德认为,创造具有清晰推理过程的人工智能是最重要的,因为这个过程事后可以分析。近斯关于有逻辑的人工智能的一个例子出现在位于纽约哈德逊河东岸的布林斯乔德实验室中。这个展示中,一台计算机尽力破解“三个智者”出的难题,实验由三个小型类人机器人辅助进行:这一实验可能意味着人工智能自我意识的萌芽。在这个难题中,三个机器人被告知,两个机器人服用了停止说话的“哑药”。它们的任务是找出其中仍然可以说话的那个机器人。三个机器人都试图说“我不知道”,但只有一个实际发出声音。当它听到自己的机器声音时,这个机器人明白它就是那个没有被禁止发声的机器人。“对不起,我现在知道了。”它说,“我能证明我没有吃哑药。”随后它写下了关于这个难题的有条理的数学证明,并把它保存起来。布林斯乔德进行了相同测试的不同版本,或者任何旨在解决其他哲学难题的测试,他认为这些测试将形成一个人工智能可以利用的日益完善的技巧或功能指令系统。
1704611443
1704611444
由于围绕用于战争的自动人工智能武器进行的工作越来越多,人们迫切需要像布林斯乔德这样的工作项目。2014年,在塔夫茨大学和布朗大学成立了一个多学科综合小组,小组和布林斯乔德合作,获得了海军研究办公室的资助,去探索能否为可能用于战争的自主机器人赋予是非感。尽管这种探索得到的不是一个“友好的人工智能”,但它可能会使机器人在战场上做出符合伦理的决定。设想一下,比如,一个正将伤兵运往战地医院的机器人军医遇到另一个腿上受伤的士兵。权衡停止执行救助任务的利弊,能否在战场采用牵引疗法止疼以及其他难题,对于人类来说已然是个难以驾驭的复杂问题了,更不用说对于机器了。
1704611445
1704611446
这样的问题可能越来越成为常态。设想一下,如果一个生产自动驾驶汽车的公司决定,当其生产的车辆检测到前方即将发生碰撞时,它的车辆可以猛地驶出道路,从而保护驾驶员,这将会发生什么情况呢?这一操作非常合理,如果是人类在驾驶车辆,多数人也会做出这样的决定。然而,如果你的车正停在红灯前,但这时它发现后面的一辆车快速驶来,这时将会怎样?你的车知道可能要发生追尾事故,随后它就驶出了马路……并正好冲进了一群放学回家的学生当中。司机避开了一个小追尾和潜在的会扭伤脖子的事故,但结果却是三个学生死于非命、两人受伤。即使最忠诚的车迷也难以为这种成本和收益的互换进行辩护。而这些正是人工智能研究人员开始认真对待的问题。
1704611447
1704611448
1704611449
1704611450
1704611452
人工智能:改变世界,重建未来 人工智能的权利
1704611453
1704611454
随着我们将越来越多的工作交给人工智能,我们可能最后需要面对人工智能的权利问题。许多作家已经提出了这个问题,但是在主流目光集中到这一点之前,它依然远落后于人工智能是否会为人类带来危险这个问题。举例来说,英国技术作家比尔·汤普森(Bill Thompson)因其每周的BBC新闻专栏而闻名,他认为将艾萨克·阿西莫夫的第一法则(机器人不得伤害人,也不得见人受到伤害而袖手旁观)写进超级人工智能的代码中有些类似于“为奴隶戴上枷锁或把大猩猩装进笼子,它也折射出我们的信念,即人工智能应该且必须永远服务于人类,而不能成为一种自主的心灵”。如果有人提议将这一条法则作为控制未来人工智能的政策,他认为:“我们在道义上有责任反对它。”
1704611455
1704611456
就像人类有与其人工智能助手结婚的权利,我不认为人工智能的公民权利在未来10年内会成为一个大众讨论的话题,但它是个值得考虑的话题。就像如果我们建立一个具有基本意识的生物仿真神经网络,那么强迫它为我们开车或优化搜索排名是对的吗?这使人联想起道格拉斯·亚当斯著名小说《宇宙尽头的餐馆》(The Restaurant at the End of the Universe)中的场景,在书中他描述了一个未来主义的电梯:天狼星控制系统公司的快乐人体垂直传送器。读者获悉,将今天的电动卷扬机驱动电梯与这种人工智能控制的电梯相比,就像“将一包混合坚果与天狼星国立精神病医院的整个西翼大楼相提并论”。天狼星控制系统公司快乐人体垂直传送器有点像第三章说的智能物联网设备,通过预测未来而工作。它甚至在你意识到自己要进入电梯之前,就会出现在正确的楼层去接你,“这样一来,也就免去了等电梯时人们被迫要进行的所有那些单调乏味的交谈、放松以及相互结识”。
1704611457
1704611458
但是,种智能电梯很快就厌倦了这种上上下下,产生了斜向运行的念头并付诸试验。道格拉斯·亚当斯将之称为“存在主义式的抗议”。讨论囚禁人工智能是否符合伦理这可能看起来有些可笑,但如果科学家成功开发出了一种人工智能,其行为与我们主张的以符合伦理的方式对待的真正生命体更为类似,那么这种讨论就不会那么可笑了。多年来,许多人工智能标准都已经发生了改变,我们对于“什么可以称之为意识”的看法也发生了变化。举一个著名的例子,法国哲学家、数学家勒内·笛卡儿曾经描写了他认为在建造一种机器时会遇到的挑战,而这种机器就是我们今天称为人工智能的机器。在1637年发表的《谈谈方法》(Discourse on the Method)中,笛卡儿写道:
1704611459
1704611460
如果有一些机器跟我们的身体一模一样,并且尽可能不走样地模仿着我们的动作,我们还是有两条非常可靠的标准来判明它们并不因此就是真正的人。第一条是:……它决不能把这些字排成不同的组合以恰当地和人对答,而这是最愚蠢的人都能办到的。第二条是:那些机器虽然可以做许多事情,做得跟我们每个人做的一样好,甚至更好,却决不能做别的事情。从这一点可以看出,它们的活动所依靠的并不是认识。
1704611461
1704611462
笛卡儿认为在有灵魂的思想者与一个没有灵魂却栩栩如生的非思想机器之间存在重大区别。“我思故我在。”是笛卡儿著名的人类自我辩解。对于笛卡儿来说,在灵魂尺度上,动物多少表现得有些糟糕。因此,一些笛卡儿的追随者决定四处踢狗。他们的论据是,由于无法达到“最驽钝的人”的思考水平,狗没有灵魂,因此它们的吠叫只是简单的机械反应。
1704611463
1704611464
这个标准即使用于人类自身,也存在诸多问题。你只需要看看理论上关于子宫里的胎儿或靠生命维持技术而生存的脑死亡患者是否有生命的辩论有多激烈,你就会明白这个主题有多大的不确定性。人工智能是否有权追求生活、自由和幸福的问题并不是一个需要我们现在就回答的问题,但如同向计算机植入道德,或考虑如何解决潜在的危险软件一样,总有一天我们要面对这个问题。
1704611465
1704611466
就像奇点一样,预测即将来临的事物并不像我们想象的那么简单。
1704611467
1704611468
1704611469
1704611470
1704611472
人工智能:改变世界,重建未来 结论 当机器变得更加智能
1704611473
1704611474
2016年1月24日,星期天,人工智能先驱马文·明斯基因脑溢血辞世,享年88岁。他是当年达特茅斯人工智能大会组织者中最后一位离世者,约翰·麦卡锡2011年去世,纳森内尔·罗彻斯特(Nathaniel Rochester)和克劳德·香农于2001年去世。报纸随后发表对明斯基所做工作的赞颂——“他证明了向计算机传授常识推理的可能性,为人工智能领域打下了基础”。《连线》杂志一改传统风格,决定发表由人工智能创业公司Automated Insights开发的人工智能编辑编写的讣告,效果非常好。
[
上一页 ]
[ :1.704611425e+09 ]
[
下一页 ]