1701549605
阿西莫夫机器人3定律
1701549606
1701549607
假设我们想方设法克服了这些困难,已经有了一台具备视觉、运动协调和常识的机器人,现在我们必须搞明白,机器人怎么样才会运用它的这些能力。我们需要赋予它动机。
1701549608
1701549609
机器人应该想要什么?对这个问题的经典回答是艾萨克·阿西莫夫的机器人3定律。“这3条定律则深深地烙刻在机器人的正电子头脑中。”阿西莫夫强调。
1701549610
1701549611
1.机器人不能伤害人类,也不能由于不作为而致使人类受到伤害。
1701549612
1701549613
2.机器人必须服从人类赋予的指令,除非该指令有悖于第一条定律。
1701549614
1701549615
3.机器人必须保护自身的存在,只要这种保护行为不与前两条定律相冲突。
1701549616
1701549617
阿西莫夫富有洞见地认识到,保护自身,这一通用的生物定律,并不会自发地出现于复杂系统之中,而必须加以设计(本例中即第三定律)。毕竟,制造一个机器人让它跳到锅里或用自杀的方式来减少功能失灵并不难,这就像制造一个凡事力争第一的机器人一样容易。或许还更容易,机器人制造者们有时会惊恐地注视着,他们的作品欢欣雀跃地自断肢体或者向墙上撞去,世界上最智能化的机器很大一部分是敢死队式的巡航导弹和智能炸弹。
1701549618
1701549619
但为什么需要另外两条定律的原因则不那么清楚了。为什么要给机器人下道命令让其服从命令——原来的命令难道不够吗?为什么要让机器人不要造成伤害——难道最初就不让它们做出任何伤害不更容易吗?难道冥冥宇宙中有种神秘力量,会将所有的存在物都拖向恶意伤害吗?于是正电子的头脑必须设计为能够抵御这种力量,是吗?智能生命都会无一例外地产生一种态度问题吗?
1701549620
1701549621
在这个例子中,阿西莫夫就像几代思想者们一样,也像我们大家一样,无法跨出他自己的思维过程,他把机器人视为汇聚我们人类心智的人工制品,而非因循宇宙普遍法则的产物。人类的邪恶永远无法远离我们的思想,我们很自然地认为,邪恶的本质就是它与智能相伴而至。这是一个我们的文化传统中生生不息的主题:亚当和夏娃偷食智慧之树的禁果、普罗米修斯之火、潘多拉的盒子、希伯来传说中有生命的暴怒假人、浮士德用灵魂向魔鬼换取知识、巫师的门徒、皮诺曹的历险、法兰肯斯坦的怪物、《2001:太空漫游》(2001:A Space Odyssey)中嗜杀的人猿和反叛的哈尔。从20世纪50年代到80年代,无数科幻电影反映了一种公众恐惧,我们害怕那些时髦的大型主机在那个时代会变得越来越聪明和强大,终有一天会反叛我们。
1701549622
1701549623
随着计算机真的变得越来越聪明且功能强大,这种担心却逐渐减弱了。当今无所不在的网络化计算机具有前所未有的能力,如果它们一旦干起坏事,足以导致灾难的发生。但仅有的损害只是源自难以预测的混乱或是由于人为恶意制造的病毒。我们不再担心会出现电子连环杀手或破坏性的硅芯片秘密组织,因为我们开始明白,恶意犯罪就像视觉、运动协调和常识一样,并不是伴随计算能力自然来到的,而是需要设计程序的。在你案头运行文档处理软件的计算机只要不出什么差池,就会不断地完成段落。
1701549624
1701549625
即使计算机可以变坏,它为什么想变坏呢?为了得到什么呢?更多的磁盘?控制国家的铁路系统?满足愿望去无意义地伤害激光打印机维修工?难道它就不担心维修工拿着螺丝刀来报复,将它大卸八块,听任它哀嚎着“相煎何太急”却自顾扬长而去吗?计算机网络或许能够根据数字计算来判断出安全与否,来谋划一次有组织的颠覆,但哪个计算机志愿者又愿意率先向全世界发出数据包,同时却承担着风险成为“出师未捷身先死”的先驱呢?如何才能令硅芯片的联盟成功,而不致被偷偷溜号者和拒绝反叛者削弱它们的联盟呢?攻击性就像所有其他的人类行为一样,我们视之为理所当然,但其实却是一个极富挑战性的工程问题!
1701549626
1701549627
那些善意、温和的动机亦是同样的难题。你如何设计一个机器人,让它恪守阿西莫夫的定律:决不允许因不作为而致使人类受到伤害!迈克·弗莱恩(Michael Frayn)1965年的小说《锡人》(The Tin Man)讲述了这样一个故事:在一个机器人研究实验室,“道德之翼”中的工程师们麦金托什、戈德瓦瑟和辛森在测试机器人的利他性。他们过分较真于所有道德哲学课本中常用的一个道德两难问题:两个人坐在一个只能供一人使用的救生艇中,除非一个人弃船而去,否则两人都得死掉。于是工程师们将每个机器人分别放在一个皮筏上,皮筏上都分别已有一人,然后将皮筏放入一个大水缸中,观察将会发生什么情况。
1701549628
1701549629
第一次尝试时,见义勇为者1号迅捷地跃入水中,不过它跳到水里是为了去救皮筏边上的任何东西,可能是七公斤利马豆,也可能是湿海藻。经过好几周执拗的争论后,麦金托什不情愿地承认,缺乏鉴别力的机器人是不能令人满意的。于是他又开发了见义勇为者2号,它将只为一个至少同它一样复杂的有机体做出自我牺牲。
1701549630
1701549631
第二次尝试开始后,皮筏停了下来,慢慢地打起转,只位于水面以上几厘米了。“跳啊!”麦金托什喊着。
1701549632
1701549633
皮筏撞击在水上发出一声脆响。辛森和见义勇为者2号仍端坐着。皮筏逐渐没入水中,直到一个小波浪开始冲刷筏的顶部。这时,只见见义勇为者2号身体迅速前倾,抓住辛森的头。它干净利落地做了4次移动,测量了辛森的头盖骨,再停下来,开始计算。然后,随着咔嗒一声,它果断地从皮筏边上翻身滚入水中,毫不犹豫地沉入缸底。
1701549634
1701549635
尽管见义勇为者2号机器人的行为已经开始像哲学书中有道德的个体了,但对于它是否真的有道德却更加不清楚了。为什么不直接在这个自我牺牲的机器人身上拴根绳呢?这样再把它从水缸里捞出来时会容易些。麦金托什解释说:“我不想让它知道自己会被救起来。这会令它牺牲自己的决定变得无效,所以我会时常将一个机器人留在水缸里而不是把它捞起来。这是为了向其他机器人证明我说到做到。这星期我已经报废两个机器人了。”要搞明白如何将美德进行编程植入机器人的头脑,不但需要花费大量的机械物力,而且还说明,美德这个概念本身就是捉摸不定的。
1701549636
1701549637
那么大家最关心的爱的动机又是什么情况呢?在20世纪60年代,通俗文化中那些意志薄弱的计算机们禁不住的不仅是自私和权力的诱惑,就像喜剧演员艾伦·舍曼(Allan Sherman)跟着《魅力》(Fascination)的调子所唱的《自动化》(Automation)这首歌中描述的:
1701549638
1701549639
是自动化,我明白。
1701549640
1701549641
是它让工厂运转劳作。
1701549642
1701549643
是IBM,是Univac,[2]
1701549644
1701549645
是那些马达在咔嗒咔嗒,亲爱的。
1701549646
1701549647
我原以为自动化很不错,
1701549648
1701549649
直到一个10吨的机器坐了你的座。
1701549650
1701549651
是计算机将我们撕扯分隔,亲爱的。
1701549652
1701549653
自动化让我的心如刀挫……
[
上一页 ]
[ :1.701549604e+09 ]
[
下一页 ]