打字猴:1.70085978e+09
1700859780 为了应对DARPA挑战赛,来自五个国家的23个机器人在各个项目进行比赛,如驾驶北极星全地形车,从车上下来,操纵门把手,关掉阀门,爬墙,把插头从一个插座里拔出,再插进另一个插座,绕过一堆废墟,爬上一段楼梯,清除瓦砾,锯胶合板,以及使用消防软管。机器人是否完成每一个项目,并进行了计时。DRC-Hubo是韩国科学技术院制造的一种毛光水滑、功能全面的机器人,因其提前44分钟完成了各项任务,而赢得了此次竞赛。但在这次竞赛中,一家主要的机器人公司引人注目地缺席:谷歌。
1700859781
1700859782 考虑到谷歌曾于2013年买下了日本机器人公司Shaft,几周后,Shaft公司的双足机器人就在DARPA机器人挑战赛的试赛上旗开得胜,谷歌的不参与就更扎眼了。尽管Shaft的产品稳操胜券,但谷歌却不让它参赛,说它不会把它的机器人产品投入军事用途。不用说,DARPA是在通常的供应链之外,寻找机器人供应商。但有些观察家认为,这个行动是有意怠慢五角大楼及其行业的诸位对手。机器人社区的成员们都把谷歌的行为归因于该公司是出了名的做事秘而不宣,有信息也不跟竞争公司分享的老习惯。无论理由是什么,机器人设计、编程和制造的发展,主要是由私人部门推动的。这一事实说明,竞争压力终将发挥作用。任何技术越接近消费市场,其信息就越不大可能与人共享。
1700859783
1700859784 谷歌机器人分部的未来计划,可根据这一事实预测,即它收购的公司中有三家公司是做人形机器人的。一家是之前提到的Shaf,一家是梅卡机器人公司(Meka Robotics),其生产的机器人有人头,而不是一堆取代人头的硬件——像很多机器人那样。Meka Robotics公司还生产人形手、手臂、抓爪和操纵器,其机器人似乎很有前途,有能成为互动型个人化机器人的潜在可能。如果机器人能进入消费市场,能否设计出迷人的硬件是关键,那软件就是机器人和机器人的真正区别所在。《机器人商业评论》杂志专栏作家塞勒斯特·勒孔特,在撰文谈到谷歌2013年下半年购买的公司时指出:“这几家公司的主要连带关系就是,它们都是软件密集型机器人公司。”写到“物联网”呈爆炸的趋势时,她说:“机器人四平八稳地坐在这些趋势的正中间,发挥着关键作用,把数码世界和物质世界混合起来。”随着我们的肉体能存储越来越多的技术,我们的个人化机器人能将我们更深地嵌入我们周围的技术网络世界中。数码世界正开始步入物质世界,与我们进行实时互动,这个现象可能使现实和非现实之间的界限更难界定了。
1700859785
1700859786 我之所以把这段空间献给对苹果和谷歌最近活动的评论,是因为这些活动暗示着,这两家巨头技术公司正打算加大投入,进入人形机器人业。显而易见,他们的领导人已经看到了技术和经济上的巨大潜力,觉得个人化人形机器人将成为下一个巨大的消费者品种。这些公司拥有资源,能非常快地发展、制造并分配家庭、保健和娱乐类的个人化机器人助手。不过,这主要还是要看其是否有能力研发出机器人的互动能力,能让它们跟人类进行社交。
1700859787
1700859788 要想把个人化机器人纳入我们的生活中,设计师必须掌握自然与人类互动的心理学,机器人制造专家已在这方面进行研究了。目前的一句常用语是“社交机器人”。关于如何使机器人具有社交迷人感,目前已经进行了大量研究,这在个人助理机器人这一个案中,将会具有极重要的意义。
1700859789
1700859790 研究表明,人们(包括老人)都很愿意接受机器人,让它们充当自己的个人助理。他们的接受程度令人惊讶。一项不断发现的调查结果是,人们很快就把人的感情赋予了机器人,也跟评价其他人一样来评价机器人。在某些功能中,如提供金融咨询,脸长得比较理智的机器人就比较受欢迎,而脸长得孩子气,很Q的机器人,就会被视为很好玩、很“娱乐”。在个人保健等类别中,脸长得像人的就比较会成为首选。不过,人无论多么想要机器人长得像人,好像也还是有个限度的。就像维克多一样,我们中的许多人都会觉得长得太像人的机器人的脸怪怪的,而且令人毛骨悚然。
1700859791
1700859792 情感智力这种东西,我们一般仅归之于人所有,但模拟情感智力的能力,却似乎是机器人的关键特征,如果它们最终能够被接受为个人助理和保健助理的话。但即使在涉及机器人的社会特质之前,机器人设计师也需要聚焦类型合适的脸,以对应要求机器人执行的职能。如上所述,人类倾向于对号入座,拿人的性格与机器人的脸进行比对,跟比对人一样。佐治亚理工学院前心理学硕士研究生阿坎沙·普拉卡西及其他人,就对人类期望各种特质机器人有什么样的脸,进行过大量研究。普拉卡西和佐治亚理工学院的一个研究团队把他们进行的一项名为“理解机器人是否为人接受”的意义重大研究的灵感,归因于机器人公司“柳树车房”(Willow Garage),该公司是谷歌2013年收购的Meka公司的合作公司。
1700859793
1700859794 在普拉卡西领导的这项研究中,研究者们发现,人因年轻或年老,喜好便不相同,选择的机器人相貌便不一样,而这些对外观的喜好又因对机器人功能的要求而不同。对20岁左右的人和年龄更大的成人的对机器人态度进行考察之后,普拉卡西发现,两个组别的人都根据机器人的脸,把某些社会和性格特征归于该机器人。大多数长者都更喜欢有人脸的机器人,而大多数年轻人则更喜欢有机器人脸的机器人或机器人脸和人脸混成的机器人。两个组别的人对期望机器人干什么活截然不同。
1700859795
1700859796 两个组别的人对机器人干什么活,如拖地还是往洗碗机装碗碟等,要求都很随便,但说到需要“智力”的功能,如帮助管钱等,两个组别的人都更喜欢有人形的脸或人机混成脸,因为他们把这跟智力联系在一起。两个年龄组别的人之间,最大的不同与提供亲密个人护理,如洗澡的机器人有关。虽然在机器人提供个人护理时,一般都更倾向于有人类特征的,但很大一批研究对象“根本不想要任何看起来像人的东西来为他们洗澡,因为这个任务的隐私性质”。
1700859797
1700859798 研究中有一件事是一清二楚的,即长者都会把机器人协助和居家养老联系起来。总的来说,他们能高度接受这种想法,即让机器人协助他们做家务,并做其他家庭维护活动。事实上,老年人更接受机器人协助,而不那么接受保健人员及其家人的协助。佐治亚理工学院进行的另一项研究表明,老年人能接受机器人,让其干打扫厨房、扫地、拖地、铺床、擦窗,以及去取手不易拿到之物等工作。很明显,机器人是否为人所接受,取决于其所执行的具体功能,及其如何影响人独立生活的能力。由于不同年龄组别,甚至不同性别(一般来说,女性比较容易接受机器人助理)之间存在的选择差别,个人化机器人仍需要客户化,设计时应考虑到特殊的目标市场。
1700859799
1700859800 日本人是世界机器人技术的领袖,他们正在为其迅速老化的人口探索机器人伴侣的作用。日本发明家柴田崇徳创造了一个很Q、很毛光水滑的机器人海豹,名叫琵罗(Paro),并在养老院试验,作为一种疗法动物。爱抚它时,琵罗就哼哼唧唧;对它毛手毛脚时,它就尖声喊叫。它能像小猫、小狗一样,在住养老院的人中,消除寂寞隔绝之感。琵罗还通过跟主人打交道,学会了如何识别主人的声音和手势。值得怀疑的是,拥有一个机器人宠物,是否能跟与真正的动物形成关系相比拟。不过,这些宠物对老年人来说,无疑比有血有肉的动物更干净,也更容易相处。琵罗不仅在日本试验过,在意大利、瑞典和美国也进行过试验,已经显示出临床的益处了。截至目前,机器人宠物还相当简单,表情范围有限,但先进的算法能让机器人像儿童一样学习,很快就能让它们跟拥有者形成独一无二的关系。
1700859801
1700859802 日本机器人巨头松下电器就生产了猫或泰迪熊外形的能说话的机器人。这些机器人内置声音识别软件,养老院的老年人对它们说话时,它们就能回应。如果对老年人说话而得不到回应,它们就能向护士报警。婴儿潮一代的日本人,如想监测老年家长,就可购买一个名叫若丸(Wakamaru)的机器人。这个有照相眼、会说话的机器人,身高3英尺,编程后可成为不在身边者的耳目,可做的工作包括提醒被护理者何时该吃药了等。一个同类的机器人可提供视频见面,这样家庭成员就能互相见面,进行谈话了。
1700859803
1700859804 虽然监测体弱多病的老年人,显而易见是很有用的,但尚不清楚的是,老年人是否愿意一天24小时被人监视,即使遥控的那个监测者是自己的亲人。别人任何时候用这些装置来查看监听人的一举一动,这种做法本来就是很让人不安的事。尽管监视者不是政府这样的强大实体,但还是有许多人感到隐私权是他们不愿意随便放弃的重要财产。而且,并非所有亲戚都那么可靠,不会利用机器人来作恶。如果这些机器人被广泛接受,用来护理老年人,那似乎很有可能的是,它们也会用来监测儿童和青少年。再往前跨一小步,老板就可能用这种技术来监视工人,执法机构就会用它们来监视公民了。谁来保护公民不被监视的权利呢?隐私将成为往事,还是社会将发展出一套保护隐私的措施?
1700859805
1700859806 机器人终将成为高度网络化“智能家庭”中最重要的组成部分,这种“智能家庭”过不了几年就会出现。荷兰一家名叫“智能家庭”的公司,监督了多国研发的一种机器人伴侣,其设计目的在于能与“智能家庭”和智能衣服整合,任何人穿上,都能进行健康监测。整个系统名叫默碧伺服(Mobiserv),有一个可私人定制、无肢体的机器人,带凸起的触屏、相机、感应器和音频能力,为老年人提供认知支持。该机器人能提醒使用者吃药,或做其他重要的事情,如吃饭,或提醒朋友保持社交兴奋状态。如果与机器人网络化的家庭环境里有智能感应器和光学识别单元,甚至能监测使用者睡觉模式的感应器床单的话,这种机器人的效率将达到最高。Mobiserv这样的机器人很快就能开灯、关灯,改变家庭的温度,开关电视,开关扬声器,开启洗碗机和其他电气设备。除了为老年人提供护理和伴侣之外,还能提供广泛的功能。
1700859807
1700859808 尽管Mobiserv这种系统的好处一目了然,但这种技术的消极面也是显而易见的。首先要考虑的一点是,谁买得起呢?一旦这个系统投入大规模生产,预计机器人的价格会降至4500美元一个。荷兰机器人制造商坚持认为,他们不会让Mobiserv机器人取代保健护理人员,但随着这些模型的机器人变得越来越有能力,它们会取代一些日常护理人员。如果联邦医疗保险和医疗补助计划这种政府卫生机构能花钱购买(也许会花钱购买),考虑到不那么依赖护理人员可以节约开支,那就会导致解雇更多的护理人员了。还有一个问题可能是机器人的编程和维护,以及这样一种可能,即使用者因过分依赖机器人,而失去管理其“智能家庭”的能力。如果机器人出现故障,那“智能家庭”的其他部件就会受影响。使用者就会一筹莫展,只能等待技工来解决问题。还有一种可能,即使用这样一种系统不仅会出问题,而且很复杂。这就会使得老年人的生活更加复杂,而不是不那么复杂了。当然,无论你是否欢迎它,Mobiserv机器人都有能力一天24小时对用户进行监测。
1700859809
1700859810 不管你怎么看这个问题,凡是传统上由真人提供,构成重要人际关系之结构的功能,Mobiserv机器人都能取而代之。老年人或有病在身者肯定会高度依赖这些机器人,过于忙碌的家人可能也会过分依赖这些机器人陪伴亲人。不管你把机器人编程得如何友好,用户与之形成的关系还是与真人有别,虽然真实和不真实之间的界限肯定会变得模糊起来。这种关系的质量,几乎很难与真人的关系相比拟,因为机器人会无穷尽地应允,而不会在社交意义上对用户提出挑战。人际关系倾向于模糊、难以预料,但正是因为这些素质,我们才成长起来。当我们与机器人的关系变得容易得多,也更方便时,我们还会选择货真价实的人际关系吗?事实上,跟机器人形成的关系存在得越久,人就越依赖它,风险也越大,因为用户会失去重要的社交技能,如大公无私和对他人权利的尊重。
1700859811
1700859812 个人化机器人越先进,用户面临的危险就越大,因为用户会过分依赖它们,也会相应地失去社交技能。随着人工智能的迅速演进而出现的机器人,会越来越像人,也越来越难以与真人区别开来。对有些人来说,机器人甚至可能会取代主要的关系,如家长和孩子的关系或配偶之间的关系。例如,如果配偶开始愿意和机器人发生性关系,因为机器人能满足其各种奇想,真人可能会感到情感上的疏离。机器人因能通过观察和有错就改而学习,反倒显得充满智慧和真实。它们能适应用户的性格,形成的关系也能高度客户化。实际上,机器人可能成为比真人更好的伴侣。随着机器人越来越像人,人越来越像机器人,男男女女和机器人之间的差别变得几乎难以察觉了。
1700859813
1700859814 “成为赛博格不仅仅是能重构自己的自由,而且还是关于网络的。”哲学家多娜·哈拉维说,人类很快就会装入植入体和仿生学部件,天衣无缝地与他们自己的物联网互动,包括与高能力、高智慧的机器人互动。事实上,通过这个错综复杂的网络,我们人人都有能力超出我们的自然能力。人类的身份和人之特质将会扩展到把广泛的电子生态系统包括进来的地步。虽然哲学家们仍在就人类构成是什么的问题争论不休,但是机器人的操作方式已经在紧急地要求对其法律权利和责任进行某种定义,而这个问题的关键是,能否将之定义为人。机器人已经能炒股票、降落飞机、在亚马逊网站和易趣网站卖货,为军队服役,还能决定我们是否有资格享受联邦医疗保险和医疗补助计划等。但是,推动法律地位问题(以及伦理责任问题)的机器人,其实是自动汽车。
1700859815
1700859816 谷歌的自动汽车在美国公路上已经开了25万英里,到目前为止几乎没有什么问题,但假如出车祸,给人和财物造成损失怎么办?谁来负法律责任?是实际上并未操作开车的司机,还是为该车设计并编程的谷歌公司呢?或者是车辆本身?受伤者的赔偿费由谁支付?如果违反交通规则,谁来接受罚单?司法制度判断责任的工具,取决于对人之特质的识别。现在已有数名法律专家建议,机器人,包括无人机和自动汽车等,法律授予其部分人的特质。即使是前面提到的华生,如果它推荐了一个错误的诊断,导致伤害或死亡的话,也可以标定为某种具有法律权责的。
1700859817
1700859818 约翰·弗兰克·威佛,律师兼《机器人也是人》的作者,曾在Slate杂志概述了他的几项有关机器人的推荐方案。他认为,应给机器人一种有限人之特质的法律标定,如公司的有限权责一样。他列举了五项权利和义务,认为应该授予机器人,以保护人类不受无聊诉讼这样问题的伤害,并让受害者能够尽快弥补损失。
1700859819
1700859820 威佛要给机器人的第一项权利,是签订合同并使合同生效的权利。例如,如让亚马逊的无人机把产品直接投递到你家台阶上,那就需要先签一个小合同,让亚马逊免责,以防万一该无人机把包裹弄坏或投递错误。既然犯错的不是亚马逊,它就不能承担法律责任。责任就是机器人的事了。与机器人紧密相关的责任,就是其投保的义务。
1700859821
1700859822 威佛以自动汽车为例,说明机器人应该投保。如果这些汽车已投保(由车主购买),那一旦出车祸,就不能告车主,这样才能刺激人们购买自动汽车。受伤者就能很快得到保险赔付,车主也免受无聊的诉讼之苦。
1700859823
1700859824 顺便看去,可以看到这样一个时代,那时,机器人和其他机器都能创造艺术、音乐、文学,以及诸如此类的东西。威佛预测说,机器人将有权拥有知识产权。他推荐采用有限知识产权,这样,机器人或程序的发明人就能持有所有创造物的专利,为期10年。这之后,其作品就进入公共领域。这能为发明人带来物质刺激,设计富有创造性的程序,同时不允许永久拥有机器人可能自动创造出的艺术品。
1700859825
1700859826 机器人在某些情况下应该拥有法律责任的义务,这就使得投保有了意义,而一旦出车祸,由该车的投保支付赔偿费,而不是由车主支付。最后一项推荐是对这样一个时代的预期,那时,家长需要机器人保姆来照看孩子。尽管这种做法是否可取值得成为另一本书的主题,但威佛认为,它肯定会成为稀松平常之事。他列举的机器人权利中,就有成为未成年人保护人的权利。我们先别为这种想法而大惊小怪,而应该意识到,从法律角度讲,一个孩子的保护权,哪怕就在一天里,也会经过好几个实体。他说:“在我们的法律制度中,孩子永远都在他人的监护之下,每天从家长监护到学校监护,再到临时照看孩子者的监护,然后回到家长那里。”让机器人保姆得到暂时的监护权,这意味着一旦出事,该机器人就要负法律责任。此外,以这种方式让机器人负起法律责任,就能鼓励制造商制造最安全的模型。
1700859827
1700859828 有些人无疑会反对把有限的人性授予机器人后,可能产生的伦理影响,但提出这些推荐方案的法律专家说思考的范围并未超出现有法律的框架。马克·戈尔德菲德是埃默里法学院的高级讲师,他指出:“法律人格的定义对道德、感觉或活力等,绝不提出任何要求。成为法人,就要在某种法律制度内具有拥有法律权利和义务的能力,如签合同、拥有财产、打官司和应对官司等权利。并非所有的法人都有同样的权利及义务,而且,有些实体在有些事情上被认为是‘人’,在另一些事情上却不被认为是‘人’。”有限人的法律先例,在公司的案例中早已确立,地位稳固。戈尔德菲德并不认为,我们应该等到机器人跟我们很像时,才把有限的人权授予它们。“人的特质的确立,”他说,“是一种评估,目的在于把权利及义务授予某一实体,无论该实体看起来是否像人,是否能算作人。”
1700859829
[ 上一页 ]  [ :1.70085978e+09 ]  [ 下一页 ]