1700859825
1700859826
机器人在某些情况下应该拥有法律责任的义务,这就使得投保有了意义,而一旦出车祸,由该车的投保支付赔偿费,而不是由车主支付。最后一项推荐是对这样一个时代的预期,那时,家长需要机器人保姆来照看孩子。尽管这种做法是否可取值得成为另一本书的主题,但威佛认为,它肯定会成为稀松平常之事。他列举的机器人权利中,就有成为未成年人保护人的权利。我们先别为这种想法而大惊小怪,而应该意识到,从法律角度讲,一个孩子的保护权,哪怕就在一天里,也会经过好几个实体。他说:“在我们的法律制度中,孩子永远都在他人的监护之下,每天从家长监护到学校监护,再到临时照看孩子者的监护,然后回到家长那里。”让机器人保姆得到暂时的监护权,这意味着一旦出事,该机器人就要负法律责任。此外,以这种方式让机器人负起法律责任,就能鼓励制造商制造最安全的模型。
1700859827
1700859828
有些人无疑会反对把有限的人性授予机器人后,可能产生的伦理影响,但提出这些推荐方案的法律专家说思考的范围并未超出现有法律的框架。马克·戈尔德菲德是埃默里法学院的高级讲师,他指出:“法律人格的定义对道德、感觉或活力等,绝不提出任何要求。成为法人,就要在某种法律制度内具有拥有法律权利和义务的能力,如签合同、拥有财产、打官司和应对官司等权利。并非所有的法人都有同样的权利及义务,而且,有些实体在有些事情上被认为是‘人’,在另一些事情上却不被认为是‘人’。”有限人的法律先例,在公司的案例中早已确立,地位稳固。戈尔德菲德并不认为,我们应该等到机器人跟我们很像时,才把有限的人权授予它们。“人的特质的确立,”他说,“是一种评估,目的在于把权利及义务授予某一实体,无论该实体看起来是否像人,是否能算作人。”
1700859829
1700859830
不过,根据法律授予有限人的特质,也就等于说我们为了社交目的和伦理目的,可以将其定义为“人”。机器人的一个显而易见的优点就是,它们可在人类无法忍受的危险环境下工作,如有放射性的区域或在更加危险的战争情况下。截至目前,尚无人把机器人的报废比作人的丧生。不过,随着机器人技术的日益先进,机器人可能积累起一系列的权利,其中包括拒绝被关闭的权利。这样一个时代可能会到来,那时,把机器人关闭就会被视为犯罪,对机器人的保护,就相当于对人的保护。决定机器人是否享有权利时,可能还要考虑机器人与人类形成的纠缠不清的关系。把机器人关闭,可能像亲人故去一样,也有差不多的痛苦。
1700859831
1700859832
一旦大脑上传成为现实,肯定有一件事会把水搅浑,那就是上传后的大脑的地位是否集于机器人一身。从法律和伦理上讲,这些复制本能步入原人同样的权利和责任中吗?已上传的实体是否有同样的继承权,能成为孩子的合法家长或幸存夫妻的配偶,或者继续已故者的工作,还是“生命”从零开始?
1700859833
1700859834
还有一个可能会惹麻烦的情况,那就是原人还活着,但把这个活着的原人的大脑复制了一个详细的版本。根据目前科学的走向,这种前景并非没有可能。研究者们正在研究第一个虚拟模拟的大脑,先是对大脑的神经结构进行扫描,然后用扫描来查明大脑是如何工作的。那么,法律人的地位是否适用于人脑的数字副本?人的副本是否能同时与该人一起存在?如果能,那它的法律权利是什么?副本能够自我复印吗?原人能否把自己复印成许多份?他能“拥有”他自己的副本吗?如能拥有,他拿来做什么用?这些问题都值得彻底考察,但这已经超出了本书范围。不过,我们现在应该加以考虑了。
1700859835
1700859836
如果有危险或破坏性很强的机器人怎么办?科幻小说长期以来的主食,就是那种跟人类作对的机器人,一些研究者已经在试图绕过它们,把机器人编程得具有某种道德框架。当我们考虑机器人的多种用途时,道德机器人的思想就不是那么异想天开了。即使无人驾驶汽车也可能需要做出道德要求很高的决定,而这种决定连人都会觉得难以做出。
1700859837
1700859838
例如,不妨想象一辆无人驾驶汽车察觉到有位年轻妇女在路边推一辆婴儿车,但如果该车绕过她,就会撞上一辆中间坐着两位乘客的车。这辆车是直接撞妇女和婴儿,还是向左边绕过去撞另一辆车呢?假如有个机器人在战争或自然灾害情况下,协助进行撤退,如果有很多伤者,机器人如何决定先救谁或先治谁?必须有某种伦理编程,可在近期而不是遥远的未来,适用于机器人。
1700859839
1700859840
军队依然还是技术创新的前沿。美国军方现在正与塔夫茨大学、伦斯勒理工学院、布朗大学、耶鲁大学和乔治城大学等合作,研究如何为自动机器人配置伦理感。这个项目表明,军队越来越依赖于军用无人机了。截至目前,所有无人机都由军人遥控,但军事研究现在正倾向于让自动武器能做出闪电式的决定,看谁是战斗人员而谁不是,从而决定何种附带性破坏是可以接受的。
1700859841
1700859842
军事机器人无疑会铺平道路,决定机器是否能做出道德决定,而军方也在这方面领先一步。大量军事决定都基于国际认可的交战规则。佐治亚理工学院的人工智能专家罗纳德·阿肯撰写了一本书,题为《控制自动机器人的致命行为》。他认为,军事机器人做的决定,实际上会比士兵更好,这完全是因为它们不受人类愤怒和报复心这些弱点的影响。此外,机器人能在很快考虑所有可能行动之后,找出最正确的行动。另外,目前尚不能对机器人编程,令其应对现实生活中突发的所有可能事件。自杀式袭击者和其他恐怖主义者可能会逃过自动机器人的眼睛,混在人群中,这可能令大脑造成道德困惑。假定有一个被通缉的恐怖主义者,身穿平民服装,却到医院或学校避难。机器人能够滥杀无辜而进行打击吗?它能够把救无辜之人于未来恐怖主义者之手的可能性,与当前某些人丧生进行衡量对比吗?
1700859843
1700859844
对设计道德机器人这一项目持批评态度的人坚称,即使进行大量编程,战争情况或灾难情况变量太大,是机器人实际上无法应对的。机器人专家诺尔·夏基说,无论机器人多么精致、复杂,都不可能具有道德感,也就是拥有真正道德决定的那种意志和能力。在有可能做出几种选择时,就是普通人也会难于就正确的行动做出决定,而这并不是不常见的。部分问题在于,现实世界中变量太多,普通人无法从一系列的决定中预计所有可能的结果,而这些无法预测的事,是无法给机器编程的。
1700859845
1700859846
也许机器永远都不可能区分对错。它们只能选择许多行动方案中,不含有无法预料情况的那一种。但是,若将自动机器人置于生死攸关的情境,就意味着它们会做出生死攸关的决定。机器人专家不仅需要与工程师、语言学家、心理学家等合作,还需要与伦理学家、律师和政策制定者合作。绕过这些问题,结果有一个方法,那就是不把机器人置于生死攸关的境地,或者把所有决定权交到人的手里。但在危险情况下用机器人而不用人的主要原因之一,就是认为机器人属于耗材。不过,随着机器人技术的进一步演进,有些机器人可能取得更高的价值,特别是当它们获得了有价值的经验之后,包括与人类形成错综复杂的关系时,就更是如此了。我们可以把这些社会化或个人化机器人置于比其实用主义兄弟机器人更高的阶层,然后区别对待。
1700859847
1700859848
科学家和哲学家们在解决如何让机器人讲伦理的时候,我们人类却在处理我们日益依赖机器人和其他技术的问题。
1700859849
1700859850
也许,人们因过于依赖机器人而可能失去的最重要的技能,就是我们的社交技能,而这可能造成巨大的社会和心理伤害。从生到死都主要由机器人照料,这意味着关键的家庭纽带和社会纽带将被瓦解。当机器人成为我们的保姆、朋友、仆人和恋人时,我们彼此还互相需要吗?所有这些依赖性都可能会编程,悄悄进入我们的生活,不用大肆声张,等我们开始意识到我们的社会、情感和精神发展都受到伤害时,可能已经为时晚矣。我们对机器人可能已经依赖到难以自拔的地步,因为到了那时,我们已经忘记如何形成人类关系了。今天也许是人类历史中不受机器人依赖而评价其使用的最后时刻了。机器人会使我们更强大,还是会让我们堕落呢?
1700859851
1700859852
(1)此处的温度单位为华氏度,约为37.83℃。
1700859853
1700859854
1700859855
1700859856
1700859858
超越人类 第九章 千万别把这个叫“超人类主义”
1700859859
1700859860
今天,英文首字母为大写T的超人类主义者(Transhumanists)已经涵盖了本书涉及的所有技术,以及比这些更多的技术。他们寄希望的技术清单上,包含了大脑上传和低温学(把已故者冷冻,以后解冻并恢复生命),这使他们处于科学主流之外,而他们近年来一直被视为是一种怪异的“邪教”。但正当超人类主义者试图放弃“邪教”的元素,以期让人更加重视时,主流研究世界却在悄悄地接近超人类主义者的观点。几位超人类主义思想家,如牛津大学哲学家尼克·博斯特罗姆,他们都来自名牌大学,撰写的都是富有思想性的一流文章,主张建立一个“能无限扩展,可自我转型,充满动态乐观主义的”人类未来。随着综合技术的发展,超人类主义越来越受尊重,而英文首字母为小写t的超人类主义(transhumanism),也通过常规的主流渠道涌现出来。就像我们的主角维克多,本来一听“超人类主义”这个标签就畏葸不前的数不清的人,现在却越来越接受综合技术提供的各种疗法了。
1700859861
1700859862
尽管超人类主义很具革命性,但它的到来并不是大张旗鼓的——一般人从来都没听说过。但正如弗朗西斯·福山2004年所言:“当代生物医学的研究日程上,很多内容不言自明就带有某种超人类主义性质。”超人类主义通过医生、医院、大学和其他研究机构、美国军方,以及NIH资助的实验室,正向我们走来。我们大多数人都不会认为自己是T字母大写的超人类主义者,但是,属于该类别的技术所提及的,都是古代就有,对更多生命、力量、美和能力的追求,它几乎是放之四海而皆准的。由于超人类主义在我们生活中的切入点目前是通过医学疗法,逆转这种趋势是不大可能的。人工器官、心跳起搏器,以及其他协助性装置和精神治疗药物,都已经投入使用,因此,对超人类主义的拥抱大多是不知不觉的。我们做出的有意识的选择,都在痛苦和解除痛苦、残疾和有能力、死亡和生命之间。人类增强和延寿能包装在一起走来,这只不过是碰巧而已。
1700859863
1700859864
对超人类主义的反对早就根深蒂固,这明显就是因为这样一些传统,它们禁止自负假说、禁止宗教的阐释,不想让人废除只属于上帝的特权。但是,大多数(而不是所有)的宗教传统,都重视精神转换所达到的至境,而保守的伦理学家却未能把对至境的高度重视与所赞成的反对激进自我改善观点协调起来。生物保守分子特烦一件事,那就是,人们寻找至境不是为了精神的来世,而是为了凡俗的现世。你寻找的至境若与精神生活有关,他们就支持,但他们却无法证明,精神追求和寻求最佳现世生活之间,究竟有何与生俱来的冲突。
1700859865
1700859866
向善心理,人皆有之,人类增强因此广受欢迎,正是这种心理促使人人都希望生活继续改善。在很多人那儿,这种驱动力却受到一种恐惧的阻碍。他们害怕未来,害怕因僭越传统界限而受罚。对有些人来说,恐惧会压服那种寻求激进自我改善的冲动,但对其他许多人来说,更健康、更强壮、更聪明、活得更久的诱惑力,总会变得难以抗拒。我们既已在很大程度上征服了环境,现在就必须面对我们自己的限度,这个限度横亘在我们和我们渴望的至境之间。可以这样论证说,我们永远也不大可能达至完美无缺的境地。但是,也可以这样论证说,向那个方向努力本身,有着不可估量的价值,意义无比重大。
1700859867
1700859868
福山称,普世平等的民主观,基于关于人之本质的这样一个假定,即它能超越种族、性别,甚至智力,而“改变这个本质,是超人类主义项目的核心”。但几十年来,福山和其他生物保守主义者一直都在做类似论辩,却从未给何谓人之本质下定义。不下定义,他们的论点就始终是模糊一团。长期以来,生物保守主义者以这种论调蒙混过关,因为无法验证他们的假定。然而,既然技术已能为人类有机体带来激进的变化,而且创造的高度先进的人工智能也已上道,那么我们关于人性的很多假定就会得到验证。如果我能以激进的方式增强我的记忆、提高我的决策能力和情绪、杜绝所有精神病的倾向,那我的本质是什么?另外,如果我能发生所有这些变化,却发现我的主观意识改变极少或根本未变,那怎么办?总而言之,要想回答这些问题,就必须跟着人类增强项目前行,体验第一手的结果。
1700859869
1700859870
列昂·卡斯解释他为何反对增强技术时,就其所称的“厌恶的智慧”大量撰文。他写道:“在关键个案中……厌恶之感是深度智慧的情感表现,是理智的力量无法充分言说的……我们能即时,而且也不用争辩,就凭直觉感到我们正确地认为亲切的一切已经遭到了强暴……一般化的恐怖和厌恶,都是犯规和反常的初步认定之证据。”
1700859871
1700859872
卡斯的论点中,还是有一点意思,的确有这么一种东西,人有强烈的感情,是正当的感受,尽管难以言说。但言说感情这种事,是生物伦理学家的工作,这样才能在光天化日之下来对之进行考察。卡斯解释不了感情,却又要把多重假定建立在这种感情之上,甚至建立在反思之上,这对支撑他的立场是无济于事的。如果人的反感是正当的,那这种反感就应该经得起考验。此外,一人反感之事,可能另一人却毫不觉得反感。斯苔西·苏曼迪格所属教堂的一些教区居民,听见她人工心脏的跳动,就会感到恶心,但对她和她的亲人来说,那颗心脏却是无价之宝。人可能起先对一种新想法产生反感,但进一步考察之后便意识到,其实没有什么需要反对或害怕的。
1700859873
1700859874
卡斯断言一般人都会产生反感,如此行事很危险,相当于为盲目的偏见而辩护。我们需要记住,每个文化的反感对象都不一样。对中东的某些文化来说,如果看见某个女人未从头到脚覆盖起来,那就令人反感,但这种反感在世界其他地方就不可能被证明是合理的。很多个人,以及一些社会所有的人,都会因一张开列不完的清单上列举的新技术、新思想、新风俗和新道德观而反感。很有可能,正是这种排斥一切新鲜事物的保守主义,才能像胶水一样把整个社会团结在一起。但如果那种保守主义产生的观念经不住考验,论点就不攻自破了。
[
上一页 ]
[ :1.700859825e+09 ]
[
下一页 ]