打字猴:1.700859806e+09
1700859806 机器人终将成为高度网络化“智能家庭”中最重要的组成部分,这种“智能家庭”过不了几年就会出现。荷兰一家名叫“智能家庭”的公司,监督了多国研发的一种机器人伴侣,其设计目的在于能与“智能家庭”和智能衣服整合,任何人穿上,都能进行健康监测。整个系统名叫默碧伺服(Mobiserv),有一个可私人定制、无肢体的机器人,带凸起的触屏、相机、感应器和音频能力,为老年人提供认知支持。该机器人能提醒使用者吃药,或做其他重要的事情,如吃饭,或提醒朋友保持社交兴奋状态。如果与机器人网络化的家庭环境里有智能感应器和光学识别单元,甚至能监测使用者睡觉模式的感应器床单的话,这种机器人的效率将达到最高。Mobiserv这样的机器人很快就能开灯、关灯,改变家庭的温度,开关电视,开关扬声器,开启洗碗机和其他电气设备。除了为老年人提供护理和伴侣之外,还能提供广泛的功能。
1700859807
1700859808 尽管Mobiserv这种系统的好处一目了然,但这种技术的消极面也是显而易见的。首先要考虑的一点是,谁买得起呢?一旦这个系统投入大规模生产,预计机器人的价格会降至4500美元一个。荷兰机器人制造商坚持认为,他们不会让Mobiserv机器人取代保健护理人员,但随着这些模型的机器人变得越来越有能力,它们会取代一些日常护理人员。如果联邦医疗保险和医疗补助计划这种政府卫生机构能花钱购买(也许会花钱购买),考虑到不那么依赖护理人员可以节约开支,那就会导致解雇更多的护理人员了。还有一个问题可能是机器人的编程和维护,以及这样一种可能,即使用者因过分依赖机器人,而失去管理其“智能家庭”的能力。如果机器人出现故障,那“智能家庭”的其他部件就会受影响。使用者就会一筹莫展,只能等待技工来解决问题。还有一种可能,即使用这样一种系统不仅会出问题,而且很复杂。这就会使得老年人的生活更加复杂,而不是不那么复杂了。当然,无论你是否欢迎它,Mobiserv机器人都有能力一天24小时对用户进行监测。
1700859809
1700859810 不管你怎么看这个问题,凡是传统上由真人提供,构成重要人际关系之结构的功能,Mobiserv机器人都能取而代之。老年人或有病在身者肯定会高度依赖这些机器人,过于忙碌的家人可能也会过分依赖这些机器人陪伴亲人。不管你把机器人编程得如何友好,用户与之形成的关系还是与真人有别,虽然真实和不真实之间的界限肯定会变得模糊起来。这种关系的质量,几乎很难与真人的关系相比拟,因为机器人会无穷尽地应允,而不会在社交意义上对用户提出挑战。人际关系倾向于模糊、难以预料,但正是因为这些素质,我们才成长起来。当我们与机器人的关系变得容易得多,也更方便时,我们还会选择货真价实的人际关系吗?事实上,跟机器人形成的关系存在得越久,人就越依赖它,风险也越大,因为用户会失去重要的社交技能,如大公无私和对他人权利的尊重。
1700859811
1700859812 个人化机器人越先进,用户面临的危险就越大,因为用户会过分依赖它们,也会相应地失去社交技能。随着人工智能的迅速演进而出现的机器人,会越来越像人,也越来越难以与真人区别开来。对有些人来说,机器人甚至可能会取代主要的关系,如家长和孩子的关系或配偶之间的关系。例如,如果配偶开始愿意和机器人发生性关系,因为机器人能满足其各种奇想,真人可能会感到情感上的疏离。机器人因能通过观察和有错就改而学习,反倒显得充满智慧和真实。它们能适应用户的性格,形成的关系也能高度客户化。实际上,机器人可能成为比真人更好的伴侣。随着机器人越来越像人,人越来越像机器人,男男女女和机器人之间的差别变得几乎难以察觉了。
1700859813
1700859814 “成为赛博格不仅仅是能重构自己的自由,而且还是关于网络的。”哲学家多娜·哈拉维说,人类很快就会装入植入体和仿生学部件,天衣无缝地与他们自己的物联网互动,包括与高能力、高智慧的机器人互动。事实上,通过这个错综复杂的网络,我们人人都有能力超出我们的自然能力。人类的身份和人之特质将会扩展到把广泛的电子生态系统包括进来的地步。虽然哲学家们仍在就人类构成是什么的问题争论不休,但是机器人的操作方式已经在紧急地要求对其法律权利和责任进行某种定义,而这个问题的关键是,能否将之定义为人。机器人已经能炒股票、降落飞机、在亚马逊网站和易趣网站卖货,为军队服役,还能决定我们是否有资格享受联邦医疗保险和医疗补助计划等。但是,推动法律地位问题(以及伦理责任问题)的机器人,其实是自动汽车。
1700859815
1700859816 谷歌的自动汽车在美国公路上已经开了25万英里,到目前为止几乎没有什么问题,但假如出车祸,给人和财物造成损失怎么办?谁来负法律责任?是实际上并未操作开车的司机,还是为该车设计并编程的谷歌公司呢?或者是车辆本身?受伤者的赔偿费由谁支付?如果违反交通规则,谁来接受罚单?司法制度判断责任的工具,取决于对人之特质的识别。现在已有数名法律专家建议,机器人,包括无人机和自动汽车等,法律授予其部分人的特质。即使是前面提到的华生,如果它推荐了一个错误的诊断,导致伤害或死亡的话,也可以标定为某种具有法律权责的。
1700859817
1700859818 约翰·弗兰克·威佛,律师兼《机器人也是人》的作者,曾在Slate杂志概述了他的几项有关机器人的推荐方案。他认为,应给机器人一种有限人之特质的法律标定,如公司的有限权责一样。他列举了五项权利和义务,认为应该授予机器人,以保护人类不受无聊诉讼这样问题的伤害,并让受害者能够尽快弥补损失。
1700859819
1700859820 威佛要给机器人的第一项权利,是签订合同并使合同生效的权利。例如,如让亚马逊的无人机把产品直接投递到你家台阶上,那就需要先签一个小合同,让亚马逊免责,以防万一该无人机把包裹弄坏或投递错误。既然犯错的不是亚马逊,它就不能承担法律责任。责任就是机器人的事了。与机器人紧密相关的责任,就是其投保的义务。
1700859821
1700859822 威佛以自动汽车为例,说明机器人应该投保。如果这些汽车已投保(由车主购买),那一旦出车祸,就不能告车主,这样才能刺激人们购买自动汽车。受伤者就能很快得到保险赔付,车主也免受无聊的诉讼之苦。
1700859823
1700859824 顺便看去,可以看到这样一个时代,那时,机器人和其他机器都能创造艺术、音乐、文学,以及诸如此类的东西。威佛预测说,机器人将有权拥有知识产权。他推荐采用有限知识产权,这样,机器人或程序的发明人就能持有所有创造物的专利,为期10年。这之后,其作品就进入公共领域。这能为发明人带来物质刺激,设计富有创造性的程序,同时不允许永久拥有机器人可能自动创造出的艺术品。
1700859825
1700859826 机器人在某些情况下应该拥有法律责任的义务,这就使得投保有了意义,而一旦出车祸,由该车的投保支付赔偿费,而不是由车主支付。最后一项推荐是对这样一个时代的预期,那时,家长需要机器人保姆来照看孩子。尽管这种做法是否可取值得成为另一本书的主题,但威佛认为,它肯定会成为稀松平常之事。他列举的机器人权利中,就有成为未成年人保护人的权利。我们先别为这种想法而大惊小怪,而应该意识到,从法律角度讲,一个孩子的保护权,哪怕就在一天里,也会经过好几个实体。他说:“在我们的法律制度中,孩子永远都在他人的监护之下,每天从家长监护到学校监护,再到临时照看孩子者的监护,然后回到家长那里。”让机器人保姆得到暂时的监护权,这意味着一旦出事,该机器人就要负法律责任。此外,以这种方式让机器人负起法律责任,就能鼓励制造商制造最安全的模型。
1700859827
1700859828 有些人无疑会反对把有限的人性授予机器人后,可能产生的伦理影响,但提出这些推荐方案的法律专家说思考的范围并未超出现有法律的框架。马克·戈尔德菲德是埃默里法学院的高级讲师,他指出:“法律人格的定义对道德、感觉或活力等,绝不提出任何要求。成为法人,就要在某种法律制度内具有拥有法律权利和义务的能力,如签合同、拥有财产、打官司和应对官司等权利。并非所有的法人都有同样的权利及义务,而且,有些实体在有些事情上被认为是‘人’,在另一些事情上却不被认为是‘人’。”有限人的法律先例,在公司的案例中早已确立,地位稳固。戈尔德菲德并不认为,我们应该等到机器人跟我们很像时,才把有限的人权授予它们。“人的特质的确立,”他说,“是一种评估,目的在于把权利及义务授予某一实体,无论该实体看起来是否像人,是否能算作人。”
1700859829
1700859830 不过,根据法律授予有限人的特质,也就等于说我们为了社交目的和伦理目的,可以将其定义为“人”。机器人的一个显而易见的优点就是,它们可在人类无法忍受的危险环境下工作,如有放射性的区域或在更加危险的战争情况下。截至目前,尚无人把机器人的报废比作人的丧生。不过,随着机器人技术的日益先进,机器人可能积累起一系列的权利,其中包括拒绝被关闭的权利。这样一个时代可能会到来,那时,把机器人关闭就会被视为犯罪,对机器人的保护,就相当于对人的保护。决定机器人是否享有权利时,可能还要考虑机器人与人类形成的纠缠不清的关系。把机器人关闭,可能像亲人故去一样,也有差不多的痛苦。
1700859831
1700859832 一旦大脑上传成为现实,肯定有一件事会把水搅浑,那就是上传后的大脑的地位是否集于机器人一身。从法律和伦理上讲,这些复制本能步入原人同样的权利和责任中吗?已上传的实体是否有同样的继承权,能成为孩子的合法家长或幸存夫妻的配偶,或者继续已故者的工作,还是“生命”从零开始?
1700859833
1700859834 还有一个可能会惹麻烦的情况,那就是原人还活着,但把这个活着的原人的大脑复制了一个详细的版本。根据目前科学的走向,这种前景并非没有可能。研究者们正在研究第一个虚拟模拟的大脑,先是对大脑的神经结构进行扫描,然后用扫描来查明大脑是如何工作的。那么,法律人的地位是否适用于人脑的数字副本?人的副本是否能同时与该人一起存在?如果能,那它的法律权利是什么?副本能够自我复印吗?原人能否把自己复印成许多份?他能“拥有”他自己的副本吗?如能拥有,他拿来做什么用?这些问题都值得彻底考察,但这已经超出了本书范围。不过,我们现在应该加以考虑了。
1700859835
1700859836 如果有危险或破坏性很强的机器人怎么办?科幻小说长期以来的主食,就是那种跟人类作对的机器人,一些研究者已经在试图绕过它们,把机器人编程得具有某种道德框架。当我们考虑机器人的多种用途时,道德机器人的思想就不是那么异想天开了。即使无人驾驶汽车也可能需要做出道德要求很高的决定,而这种决定连人都会觉得难以做出。
1700859837
1700859838 例如,不妨想象一辆无人驾驶汽车察觉到有位年轻妇女在路边推一辆婴儿车,但如果该车绕过她,就会撞上一辆中间坐着两位乘客的车。这辆车是直接撞妇女和婴儿,还是向左边绕过去撞另一辆车呢?假如有个机器人在战争或自然灾害情况下,协助进行撤退,如果有很多伤者,机器人如何决定先救谁或先治谁?必须有某种伦理编程,可在近期而不是遥远的未来,适用于机器人。
1700859839
1700859840 军队依然还是技术创新的前沿。美国军方现在正与塔夫茨大学、伦斯勒理工学院、布朗大学、耶鲁大学和乔治城大学等合作,研究如何为自动机器人配置伦理感。这个项目表明,军队越来越依赖于军用无人机了。截至目前,所有无人机都由军人遥控,但军事研究现在正倾向于让自动武器能做出闪电式的决定,看谁是战斗人员而谁不是,从而决定何种附带性破坏是可以接受的。
1700859841
1700859842 军事机器人无疑会铺平道路,决定机器是否能做出道德决定,而军方也在这方面领先一步。大量军事决定都基于国际认可的交战规则。佐治亚理工学院的人工智能专家罗纳德·阿肯撰写了一本书,题为《控制自动机器人的致命行为》。他认为,军事机器人做的决定,实际上会比士兵更好,这完全是因为它们不受人类愤怒和报复心这些弱点的影响。此外,机器人能在很快考虑所有可能行动之后,找出最正确的行动。另外,目前尚不能对机器人编程,令其应对现实生活中突发的所有可能事件。自杀式袭击者和其他恐怖主义者可能会逃过自动机器人的眼睛,混在人群中,这可能令大脑造成道德困惑。假定有一个被通缉的恐怖主义者,身穿平民服装,却到医院或学校避难。机器人能够滥杀无辜而进行打击吗?它能够把救无辜之人于未来恐怖主义者之手的可能性,与当前某些人丧生进行衡量对比吗?
1700859843
1700859844 对设计道德机器人这一项目持批评态度的人坚称,即使进行大量编程,战争情况或灾难情况变量太大,是机器人实际上无法应对的。机器人专家诺尔·夏基说,无论机器人多么精致、复杂,都不可能具有道德感,也就是拥有真正道德决定的那种意志和能力。在有可能做出几种选择时,就是普通人也会难于就正确的行动做出决定,而这并不是不常见的。部分问题在于,现实世界中变量太多,普通人无法从一系列的决定中预计所有可能的结果,而这些无法预测的事,是无法给机器编程的。
1700859845
1700859846 也许机器永远都不可能区分对错。它们只能选择许多行动方案中,不含有无法预料情况的那一种。但是,若将自动机器人置于生死攸关的情境,就意味着它们会做出生死攸关的决定。机器人专家不仅需要与工程师、语言学家、心理学家等合作,还需要与伦理学家、律师和政策制定者合作。绕过这些问题,结果有一个方法,那就是不把机器人置于生死攸关的境地,或者把所有决定权交到人的手里。但在危险情况下用机器人而不用人的主要原因之一,就是认为机器人属于耗材。不过,随着机器人技术的进一步演进,有些机器人可能取得更高的价值,特别是当它们获得了有价值的经验之后,包括与人类形成错综复杂的关系时,就更是如此了。我们可以把这些社会化或个人化机器人置于比其实用主义兄弟机器人更高的阶层,然后区别对待。
1700859847
1700859848 科学家和哲学家们在解决如何让机器人讲伦理的时候,我们人类却在处理我们日益依赖机器人和其他技术的问题。
1700859849
1700859850 也许,人们因过于依赖机器人而可能失去的最重要的技能,就是我们的社交技能,而这可能造成巨大的社会和心理伤害。从生到死都主要由机器人照料,这意味着关键的家庭纽带和社会纽带将被瓦解。当机器人成为我们的保姆、朋友、仆人和恋人时,我们彼此还互相需要吗?所有这些依赖性都可能会编程,悄悄进入我们的生活,不用大肆声张,等我们开始意识到我们的社会、情感和精神发展都受到伤害时,可能已经为时晚矣。我们对机器人可能已经依赖到难以自拔的地步,因为到了那时,我们已经忘记如何形成人类关系了。今天也许是人类历史中不受机器人依赖而评价其使用的最后时刻了。机器人会使我们更强大,还是会让我们堕落呢?
1700859851
1700859852 (1)此处的温度单位为华氏度,约为37.83℃。
1700859853
1700859854
1700859855
[ 上一页 ]  [ :1.700859806e+09 ]  [ 下一页 ]