1702420720
1702420721
我的学生与机器人Nexi的一段小故事也可以印证新的伦理问题。Nexi是由麻省理工学院研发的一款无臂人形机器人,它有一张表情丰富的脸,并且会说话。2009年的某一天,我的一个学生为了写论文和Nexi的研发团队预约进行访谈。但由于在时间安排上双方的误解,我的学生只能独自等待,而她正坐在离Nexi不远的地方。这段等待的时间让她非常沮丧,因为她发现:当不与人互动的时候,Nexi平常会被放在帘幕后面,并且被布完全遮住。
1702420722
1702420723
在此后我的一次研讨会中,这位学生与其他人分享了这段经历。“这非常令人沮丧,”她说,“帘幕——为什么它要被布遮住眼睛?我正是因此而沮丧。”被布裹住、蒙住眼睛的机器人Nexi点燃了那次讨论。在讨论中,所有人都用“她”来指代机器人。设计者已经尽一切可能赋予机器人以性别。如今,用布遮住机器人的双眼暗示着“她”拥有视力和意识。在课堂中,讨论继续向前推进:蒙住双眼是因为人们看到Nexi的眼睛会感到恐惧吗?或许当它关机的时候,“她”的眼睛还是睁开的,如同死人的眼睛?又或者机器人的设计者不愿意Nexi能够“看出来”?或许他们不愿意让机器人知道,“她”已经不再被使用而是被闲置在帘幕后的角落里?这一系列疑问将研讨会推向了一个更加让人不安的问题:如果Nexi已经智慧到需要用布盖住,才能让“她”对自己身处的环境不完全了然,那么这是否意味着她已经具备足够的主体性,而使得周边的环境很不人道?学生们在一个问题上达成了共识:用布遮盖住Nexi的眼睛意味着“这个机器人可以看见”,而看见则意味着理解和内在生命,而这都足以导致“不人道”。
1702420724
1702420725
西格蒙德·弗洛伊德曾经提出过“怪熟”(uncanny)现象:指的是有些东西你觉得非常熟悉,但同时又非常陌生,导致一种不舒服的、异样感觉的情形。“怪熟”的对象处于标准的分类之间,并且挑战既有的分类标准。看见闲置的玩偶是很寻常的事情,但通常我们并不需要盖住它的眼睛,因为只有我们才能赋予它生机。看见别人神情丰富地向我们打招呼也是很寻常的事情,但如果有人竟然盖住他的脸并把他安顿在帘幕后面,那是自讨惩罚。会表达恐惧的“菲比”和被遮盖住眼睛的Nexi对我们来说,正是计算机文化中的“怪熟”之物。
1702420726
1702420727
更有甚者,有一款设计得非常貌美的“女性”机器人产品Aiko如今已经开始出售。当你太使劲地按压“她”的皮肤时,“她”会说:“请放开……你弄疼我了。”这让我感到更加不舒服。当有人触碰“她”的胸部时,“她”还会抗议说:“我很厌恶你碰我的胸部。”我觉得这些关于人际交往边界和礼节的程序非常令人困惑,倘若不是因为机器人被设计拥有一个性感的躯体,是很难想象会听到这样的抗议的。
1702420728
1702420729
从浪漫反应到机器人时代
1702420730
1702420731
也许不用太久,就可以看到机器人因为你受的伤害而饱受“煎熬”。也许很快,仿佛顺道拜访老朋友一样与机器人交谈,也会成为人们习以为常的事情。随着我们与机器人交互的经验不断累积,随着我们学着如何在新的情景中生活,孩子和大人也许都会提出这样的问题:“为什么我在和一个机器人交谈?”“为什么我希望这个机器人喜欢我?”也许我们只是被有所陪伴的愉悦所吸引。
1702420732
1702420733
20世纪八九十年代的浪漫反应认为,只有人可以互相贡献。这一理解出自人们共同的经验。它强调人类精神中有一些本质的东西是无法复制和模仿的。在20世纪80年代早期,当时12岁的戴维在学习了计算机编程后,这么描述人和程序的区别:“当计算机和人一样聪明的时候,它会替代人做许多工作。但尽管如此,还是有许多事情只能由人来完成。只有人能开餐厅,品尝美食,相亲相爱,成立家庭。我想也只有人才会去教堂。”成年人也谈及了家庭生活。而对于我来说,浪漫反应来自于人们如何决绝地向计算机心理治疗师袒露心声:“我怎么可能向一个没有母亲的机器谈论同胞争宠的事情?”
1702420734
1702420735
当然,浪漫反应的元素依然在我们的周围,但如今我们更强调通过技术分享什么。随着精神药理学的发展,如今我们将大脑视为生化工程的机器。脑成像技术让我们相信,即使是人类的情感也可以被还原成为图像。我们目前的治疗文化从内在生命转向为聚焦于行为力学,而这是人和机器人所共有的。
1702420736
1702420737
我曾经就“机器人成为知己的可能性”进行过两次谈话,第一次在1983年,第二次在2008年,两次相隔25年。对于我来说,这两次谈话之间的差别标志着从浪漫反应到机器人时代的实用主义的变化。两次谈话都是与波士顿附近的十几岁男孩进行的;他们都是波士顿红袜队的球迷,并且和他们父亲的关系很好。1983年,13岁的布鲁斯谈论机器人时,强调人具有独特的“感情能力”。布鲁斯认为,机器人和电脑都是“完美”的,而人“生而不完美”,有缺陷,也很脆弱。他认为机器人“可以完美地做好任何事情”,而人“尽自己所能做好事情”。但对于布鲁斯来说,他认为正是人的不完美才能让人与人之间产生亲密的感情纽带。他特别举了自己的例子,比如自己的许多缺点让他感到和父亲很亲近,“我和我爸爸有许多共同的特点……我们都有点乱糟糟的”。完美的机器人永远都不会理解这种非常重要的关系。如果你自己也是不完美的,那么就去与人交往吧。
1702420738
1702420739
25年后,同样的话题却走向了完全不同的方向。15岁的霍华德将他的父亲和机器人伙伴做了对比后发现,父亲在很多方面不如机器人。霍华德认为,机器人能够更好地理解高中生活的复杂性:“它的数据库比爸爸的更庞大。爸爸只知道基本的事情,但并不足以理解高中生。”25年前,布鲁斯认为机器人不能够思考家庭生活;25年后,霍化德认为机器人经过特别的训练后,可以照料“老人和孩子”,而这是他周围的人并不特别热衷做的事情。
1702420740
1702420741
霍华德不认为人比机器有什么独特性。在他看来,“人类并不垄断”理解和关怀彼此的能力。每个人都受到自己生活经验的束缚,但“计算机和机器人可以被设计成拥有无限的知识”。霍华德讲了一个故事来证明,为什么机器人可以比他的父亲给他更好的建议。当年早些时候,霍华德喜欢上了学校的一个女生,而那个女生已经有男朋友了。于是他询问父亲是否应该约这个女生出来。他的父亲根据自己上高中时的经验,认为即使那个女孩有男朋友,也应该约她试试。霍华德认为他爸爸的建议是早已过时的所谓“男子气概”,由于担心插足可能导致悲剧而没有采纳他的建议。他认为在这件事情上,机器人会比他爸爸给出更加聪明的回答。机器人“会被上传许多经验”从而作出正确的回答,而他爸爸的经验数据库非常有限。“机器人也可以被设计成通过观察人的行为,从而理解诸如嫉妒等情感……机器人也可以是完全善解人意、思想开放的。”霍华德认为,机器人作为知己具有许多无法替代的优势。“至于人,”他说,“是具有风险的。”他认为机器人更“安全”。
1702420742
1702420743
有些事情你是不能跟你的朋友或家长讲的,但你可以告诉智能机器人。然后它可以给你非常靠谱的建议……我相信它可以借鉴类似情况下、前人的知识,有你的知识,也有你朋友的知识,然后给出最好的建议。我认识许多十几岁的年轻人在感情问题上遭遇困扰,然后却作出了错误的决定。
1702420744
1702420745
我请霍华德想象他和机器人第一次对话的情景。他说他会首先问机器人“什么是快乐?如何获得快乐?”然后再问问“人类易犯错误的特点”(human fallibility),即那些导致“错误”的原因。从布鲁斯到霍华德,人类易犯错误的特点已经从亲密关系的利好因素变成负担。
1702420746
1702420747
没有哪一代家长在他们孩子的眼里是被看成专家的。但霍华德这一代人所见证的新关系是他们的父母辈从未预料到的。这一代人认为人工智能可以监控他们的电子邮件、电话、网络搜索和即时信息。这种智能机器可以通过自行搜索扩充自己的知识,从而形成几乎无限的数据库。因此,他们许多人想象通过这样的搜索和数据存储,人工智能或机器人完全可以满足他们的需要。正如他们所见,如今人工智能理解霍华德所言“不同的社会选择如何解决问题”,已经不再有任何技术障碍。拥有知识以及为你的利益服务的目标,“和它聊聊生活、感情的纠结,以及友情的困扰是很好的选择”。
1702420748
1702420749
生活?感情的纠结?友情的困扰?这些本是浪漫反应最神圣的核心部分,是只有人类才被允许进入的情感领地。霍华德却认为这些都可以被浓缩为信息,机器人可以成为这方面的专家和知己。我们已经来到机器人时代。
1702420750
1702420751
正如我所说,我对于机器人时代的故事不会太多集中在技术的先进性上,而是会更多地关注我们对于社交机器人的强烈反应。与我们强烈的期望值比起来,如今机器人能做的还很少。随着新机器人的不断面世,我们的期望值也越来越高。我发现,我们的确是很脆弱的;而我相信,这种脆弱存在着很大风险。
1702420752
1702420753
1702420754
1702420755
1702420756
群体性孤独:为什么我们对科技期待更多,对彼此却不能更亲密? [
:1702420112]
1702420757
群体性孤独:为什么我们对科技期待更多,对彼此却不能更亲密? 03 一起长大的“爱宝” 我们都有美好童年
1702420758
1702420759
孩子们忘不了跟他们一起长大的那个“泰迪熊”,因为它会唤起人们的童年记忆。而对于朝夕相伴的那个机器人“爱宝”,人们更加无法割舍,因为它还会唤起人们对机器人童年的记忆。对于孩子们来说,“爱宝”不是可有可无的,而是“胜过一切”。
1702420760
1702420761
1702420762
1702420763
1702420764
群体性孤独:为什么我们对科技期待更多,对彼此却不能更亲密? 1999年4月,在“爱宝”机器人发售前一个月,索尼公司于加州圣何塞(San Jose)的一次新媒体会议上,展示了一款机器小狗。我看到它痉挛似地走到空旷的舞台上,后面跟随着它的发明人。在他的召唤下,“爱宝”抓住了一个球,并讨好主人。然后,它又看起来完全自主地在一个消防栓前抬起了后腿,等了一会,颤抖了一下,然后似乎害羞地低下了它的头。全场观众哄堂大笑起来。这个被设计出来取悦观众的小插曲动作获得了极大的成功。这一幕让我想起了18世纪时观众对法国发明家雅卡尔德沃康桑(Jacques de Vaucanson)发明的可以消化(并排泄)食物的机器鸭子的反应,以及让埃德加爱伦坡(Edgar Allan Poe)深深着迷的自动下棋机器人。“爱宝”,和它们一样,被视为这个时代的科技奇迹。
1702420765
1702420766
在“爱宝”从卖萌的宠物小狗到成熟大狗的成长过程中,根据人们对待它的方式不同,每一个“爱宝”都会形成独特的性格。在这个过程中,“爱宝”会学习新的技能,会表达感情:眼睛中闪烁的红灯或绿灯代表了不同的情绪;每一种情绪都伴有不同的声音。随后的新款“爱宝”会识别它的主人。它还知道什么时候该休息了,并自行回到充电器。在前文介绍中,“菲比”的英语能力被设计为“必然”会提高。“爱宝”却与它不一样,声称有独立的思考能力和表达想法的能力。
1702420767
1702420768
如果说“爱宝”在某种程度上是玩具,那么这种玩具在许多方面彻底改变了我们的传统观念。它让我们有机会与后生物时代的生命亲密接触,不是在理论中,也不是在实验室里。并且它预示着这种转变的过程是如何发生的。首先,我们会将这种新的生命体看作“好像”生命;接着,我们会发现它“好像”足够栩栩如生。即使现在,当我们仔细思考这些有着人工感情和人工智慧的“生物”时,我们也会用不同的方式反思自我。这里的问题并非机器是否可以设计得像人一样思考,而是人的思维过程是否一直都像机器。
1702420769
[
上一页 ]
[ :1.70242072e+09 ]
[
下一页 ]