1702420700
1702420701
当玩具生产商孩之宝(Hasbro)于2000年推出机器玩偶“真宝”时,就试图尽量远离这些道德困境。凡是真实情况下,婴儿有可能感到疼痛的情景,“真宝”都会关闭。而它的原型机,由麻省理工学院的机器人科学家罗德尼·布鲁克斯发明的机器人IT恰好相反。IT后来进化成新版本BIT(Baby IT的缩写)。它由“真实智慧”、面部肌肉系统和仿真皮肤组成。如果有人用可能会弄哭一个真实婴儿的方式触摸它,它就会哭泣。布鲁克斯用“内在状态”来描述BIT:
1702420702
1702420703
如果一个婴儿不高兴,他会一直不高兴下去,直到有人来安慰他,或者他在大哭大闹了一段时间后累得睡着了。倘若BIT受到任何形式的虐待——比如被拎着脚甩动,那么它同样也会非常不高兴。如果还有人拎着它撞到自己的膝盖上,那么它的不快会加剧。但如果是在它高兴的时候,有人做同样的事情,它反而会更加兴奋,会咯咯地傻笑、哈哈大笑,直到累了为止,然后它才会开始感到不快。如果它饿了,那么它会一直如此,直到有人喂它吃东西。它的行为举止就好像一个真的婴儿。
1702420704
1702420705
BIT会对虐待的行为产生反应,因此成为了人们围绕其喜怒哀乐所建立的道德坐标的中心。但当孩之宝将其变成产品“真宝”并投入大规模的生产时,公司决定取消其可能对痛苦产生反应的功能。原因是这样的功能可能“激励”玩家对机器婴儿实施残酷的虐待行为。倘若玩家以可能伤害到真实婴儿的强度来触摸、抓住或撞击“真宝”,那么“真宝”就会自动关闭。
1702420706
1702420707
孩之宝的广告文案里是这么描述“真宝”的:“它是最真实、最动感的婴儿玩具,适合小姑娘照顾它、养育它。公司将其呈现为一款伴侣玩具,可以教导、鼓励孩子们的交往行为,孩子们学会回应它的各种需求,比如嬉戏、吃奶、睡觉、换尿布等。的确,它在各方面都主打“真实性”,除非你试图伤害它,它就会关闭。当孩子们玩“真宝”的时候,他们的确会尝试各种攻击性的行为。如果打它的屁股,它会关机;如果使劲儿晃动它、让它首足倒立、揪它的耳朵,它都会关机。
1702420708
1702420709
孩之宝选择最大化的真实性,却取消对虐待行为的反馈,这引发了很大的争议,特别是在孩子家长中间。一组家长认为,最重要的是避免孩子们的攻击性反应。一些家长认为,如果厂家用“真实”的概念进行营销,而产品却没有对痛苦的反应,那么孩子们就会受到鼓励去粗暴地对待玩具婴儿,而不必付出任何代价。另一些家长的观点则正相反,他们认为如果机器人可以模拟痛苦,才会引发粗暴对待。
1702420710
1702420711
第一组家长希望“真宝”应该保留对虐待、攻击行为的反应。这与禁止孩子玩暴力内容的电子游戏的理由一样:他们将这样的经历视为“宣泄”。他们认为孩子们(也包括大人)应该在貌似“真实”、却不会导致任何“真实”伤害的情景里表达自己的攻击性(或悲哀、或好奇心)。但即使是这组家长有时也会对“真宝”不真实的“拒绝”感到欣慰,毕竟没有家长希望看到自己的孩子在虐待一个哭泣的玩具。
1702420712
1702420713
无论我们站在哪种立场上,社交机器人已经教会我们在伤害虚拟现实的生命时不再退缩。这当然也是我们训练人们作战的基本方法。首先,我们学会如何杀死虚拟人;然后,当我们对杀戮不再那么敏感时,我们被送去学习如何杀死真人。此项研究的前景提出了可怕的问题。弗里德姆·贝尔德让人们拿着首足倒立的“菲比”,就会引发参与者的不适,那么我们要鼓励人们滥用这些真实性日益增加的机器玩偶吗?
1702420714
1702420715
我在课后兴趣小组中观察到,8岁组的孩子们对“真宝”有着不同的反应。阿兰娜为了取悦自己的朋友们,将“真宝”抛到天空,随后又拽着它的一条腿甩来甩去。阿兰娜说机器人“没有感觉”。看着她,人们会疑问:为什么要“折磨”一个没有感觉的物体呢?她也并非用同样的方式对待游戏室内的其他玩偶。斯科特对阿兰娜的行为很沮丧,于是他把机器人偷偷藏了起来,他说:“‘真宝’既像婴儿,也像玩具……我不想让它受伤。”
1702420716
1702420717
当斯科特试着给机器婴儿换尿布的时候,站在一旁围观的几个孩子开始用手指戳机器人的眼睛并放到它的嘴巴里。一个孩子问:“你认为那样会弄疼它吗?”斯科特警告说:“宝贝会哭的!”正在这个时候,一个小女孩想要从斯科特手里夺走“真宝”,因为她觉得斯科特并没有很好地保护它:“你放开它!”斯科特反抗着说道:“我正在给它换尿布呢!”似乎是时候停止游戏了。当疲倦的研究团队正在收拾东西准备离开的时候,斯科特悄悄地带着机器人藏到桌子后面,亲了亲它,并和它说再见。这一幕其他的小朋友并没有看见。
1702420718
1702420719
在斯科特和阿兰娜所在兴趣小组的混乱情节中,“真宝”如此栩栩如生,以至于可以对其施暴,也值得为其充当保护神。一群成年人(由教师和我组成的研究团队)一直观察着这一切,他们发现自己处在一个不寻常的窘境中。如果孩子们乱扔的是碎布,那么或许我们中间没有人会感到不快,斯科特也同样不会。但换作“真宝”,我们就很难容忍这一幕的发生。无论是哭泣的“菲比”,还是不会哭泣的“真宝”,所有这一切都制造出一幅全新的伦理图景。20世纪80年代,孩子们还只是在假想拼写训练玩具Speak & Spell有生命,卸掉它的电池好比“杀死”它。但如今,社交机器人更直接地提出了伦理的问题。
1702420720
1702420721
我的学生与机器人Nexi的一段小故事也可以印证新的伦理问题。Nexi是由麻省理工学院研发的一款无臂人形机器人,它有一张表情丰富的脸,并且会说话。2009年的某一天,我的一个学生为了写论文和Nexi的研发团队预约进行访谈。但由于在时间安排上双方的误解,我的学生只能独自等待,而她正坐在离Nexi不远的地方。这段等待的时间让她非常沮丧,因为她发现:当不与人互动的时候,Nexi平常会被放在帘幕后面,并且被布完全遮住。
1702420722
1702420723
在此后我的一次研讨会中,这位学生与其他人分享了这段经历。“这非常令人沮丧,”她说,“帘幕——为什么它要被布遮住眼睛?我正是因此而沮丧。”被布裹住、蒙住眼睛的机器人Nexi点燃了那次讨论。在讨论中,所有人都用“她”来指代机器人。设计者已经尽一切可能赋予机器人以性别。如今,用布遮住机器人的双眼暗示着“她”拥有视力和意识。在课堂中,讨论继续向前推进:蒙住双眼是因为人们看到Nexi的眼睛会感到恐惧吗?或许当它关机的时候,“她”的眼睛还是睁开的,如同死人的眼睛?又或者机器人的设计者不愿意Nexi能够“看出来”?或许他们不愿意让机器人知道,“她”已经不再被使用而是被闲置在帘幕后的角落里?这一系列疑问将研讨会推向了一个更加让人不安的问题:如果Nexi已经智慧到需要用布盖住,才能让“她”对自己身处的环境不完全了然,那么这是否意味着她已经具备足够的主体性,而使得周边的环境很不人道?学生们在一个问题上达成了共识:用布遮盖住Nexi的眼睛意味着“这个机器人可以看见”,而看见则意味着理解和内在生命,而这都足以导致“不人道”。
1702420724
1702420725
西格蒙德·弗洛伊德曾经提出过“怪熟”(uncanny)现象:指的是有些东西你觉得非常熟悉,但同时又非常陌生,导致一种不舒服的、异样感觉的情形。“怪熟”的对象处于标准的分类之间,并且挑战既有的分类标准。看见闲置的玩偶是很寻常的事情,但通常我们并不需要盖住它的眼睛,因为只有我们才能赋予它生机。看见别人神情丰富地向我们打招呼也是很寻常的事情,但如果有人竟然盖住他的脸并把他安顿在帘幕后面,那是自讨惩罚。会表达恐惧的“菲比”和被遮盖住眼睛的Nexi对我们来说,正是计算机文化中的“怪熟”之物。
1702420726
1702420727
更有甚者,有一款设计得非常貌美的“女性”机器人产品Aiko如今已经开始出售。当你太使劲地按压“她”的皮肤时,“她”会说:“请放开……你弄疼我了。”这让我感到更加不舒服。当有人触碰“她”的胸部时,“她”还会抗议说:“我很厌恶你碰我的胸部。”我觉得这些关于人际交往边界和礼节的程序非常令人困惑,倘若不是因为机器人被设计拥有一个性感的躯体,是很难想象会听到这样的抗议的。
1702420728
1702420729
从浪漫反应到机器人时代
1702420730
1702420731
也许不用太久,就可以看到机器人因为你受的伤害而饱受“煎熬”。也许很快,仿佛顺道拜访老朋友一样与机器人交谈,也会成为人们习以为常的事情。随着我们与机器人交互的经验不断累积,随着我们学着如何在新的情景中生活,孩子和大人也许都会提出这样的问题:“为什么我在和一个机器人交谈?”“为什么我希望这个机器人喜欢我?”也许我们只是被有所陪伴的愉悦所吸引。
1702420732
1702420733
20世纪八九十年代的浪漫反应认为,只有人可以互相贡献。这一理解出自人们共同的经验。它强调人类精神中有一些本质的东西是无法复制和模仿的。在20世纪80年代早期,当时12岁的戴维在学习了计算机编程后,这么描述人和程序的区别:“当计算机和人一样聪明的时候,它会替代人做许多工作。但尽管如此,还是有许多事情只能由人来完成。只有人能开餐厅,品尝美食,相亲相爱,成立家庭。我想也只有人才会去教堂。”成年人也谈及了家庭生活。而对于我来说,浪漫反应来自于人们如何决绝地向计算机心理治疗师袒露心声:“我怎么可能向一个没有母亲的机器谈论同胞争宠的事情?”
1702420734
1702420735
当然,浪漫反应的元素依然在我们的周围,但如今我们更强调通过技术分享什么。随着精神药理学的发展,如今我们将大脑视为生化工程的机器。脑成像技术让我们相信,即使是人类的情感也可以被还原成为图像。我们目前的治疗文化从内在生命转向为聚焦于行为力学,而这是人和机器人所共有的。
1702420736
1702420737
我曾经就“机器人成为知己的可能性”进行过两次谈话,第一次在1983年,第二次在2008年,两次相隔25年。对于我来说,这两次谈话之间的差别标志着从浪漫反应到机器人时代的实用主义的变化。两次谈话都是与波士顿附近的十几岁男孩进行的;他们都是波士顿红袜队的球迷,并且和他们父亲的关系很好。1983年,13岁的布鲁斯谈论机器人时,强调人具有独特的“感情能力”。布鲁斯认为,机器人和电脑都是“完美”的,而人“生而不完美”,有缺陷,也很脆弱。他认为机器人“可以完美地做好任何事情”,而人“尽自己所能做好事情”。但对于布鲁斯来说,他认为正是人的不完美才能让人与人之间产生亲密的感情纽带。他特别举了自己的例子,比如自己的许多缺点让他感到和父亲很亲近,“我和我爸爸有许多共同的特点……我们都有点乱糟糟的”。完美的机器人永远都不会理解这种非常重要的关系。如果你自己也是不完美的,那么就去与人交往吧。
1702420738
1702420739
25年后,同样的话题却走向了完全不同的方向。15岁的霍华德将他的父亲和机器人伙伴做了对比后发现,父亲在很多方面不如机器人。霍华德认为,机器人能够更好地理解高中生活的复杂性:“它的数据库比爸爸的更庞大。爸爸只知道基本的事情,但并不足以理解高中生。”25年前,布鲁斯认为机器人不能够思考家庭生活;25年后,霍化德认为机器人经过特别的训练后,可以照料“老人和孩子”,而这是他周围的人并不特别热衷做的事情。
1702420740
1702420741
霍华德不认为人比机器有什么独特性。在他看来,“人类并不垄断”理解和关怀彼此的能力。每个人都受到自己生活经验的束缚,但“计算机和机器人可以被设计成拥有无限的知识”。霍华德讲了一个故事来证明,为什么机器人可以比他的父亲给他更好的建议。当年早些时候,霍华德喜欢上了学校的一个女生,而那个女生已经有男朋友了。于是他询问父亲是否应该约这个女生出来。他的父亲根据自己上高中时的经验,认为即使那个女孩有男朋友,也应该约她试试。霍华德认为他爸爸的建议是早已过时的所谓“男子气概”,由于担心插足可能导致悲剧而没有采纳他的建议。他认为在这件事情上,机器人会比他爸爸给出更加聪明的回答。机器人“会被上传许多经验”从而作出正确的回答,而他爸爸的经验数据库非常有限。“机器人也可以被设计成通过观察人的行为,从而理解诸如嫉妒等情感……机器人也可以是完全善解人意、思想开放的。”霍华德认为,机器人作为知己具有许多无法替代的优势。“至于人,”他说,“是具有风险的。”他认为机器人更“安全”。
1702420742
1702420743
有些事情你是不能跟你的朋友或家长讲的,但你可以告诉智能机器人。然后它可以给你非常靠谱的建议……我相信它可以借鉴类似情况下、前人的知识,有你的知识,也有你朋友的知识,然后给出最好的建议。我认识许多十几岁的年轻人在感情问题上遭遇困扰,然后却作出了错误的决定。
1702420744
1702420745
我请霍华德想象他和机器人第一次对话的情景。他说他会首先问机器人“什么是快乐?如何获得快乐?”然后再问问“人类易犯错误的特点”(human fallibility),即那些导致“错误”的原因。从布鲁斯到霍华德,人类易犯错误的特点已经从亲密关系的利好因素变成负担。
1702420746
1702420747
没有哪一代家长在他们孩子的眼里是被看成专家的。但霍华德这一代人所见证的新关系是他们的父母辈从未预料到的。这一代人认为人工智能可以监控他们的电子邮件、电话、网络搜索和即时信息。这种智能机器可以通过自行搜索扩充自己的知识,从而形成几乎无限的数据库。因此,他们许多人想象通过这样的搜索和数据存储,人工智能或机器人完全可以满足他们的需要。正如他们所见,如今人工智能理解霍华德所言“不同的社会选择如何解决问题”,已经不再有任何技术障碍。拥有知识以及为你的利益服务的目标,“和它聊聊生活、感情的纠结,以及友情的困扰是很好的选择”。
1702420748
1702420749
生活?感情的纠结?友情的困扰?这些本是浪漫反应最神圣的核心部分,是只有人类才被允许进入的情感领地。霍华德却认为这些都可以被浓缩为信息,机器人可以成为这方面的专家和知己。我们已经来到机器人时代。
[
上一页 ]
[ :1.7024207e+09 ]
[
下一页 ]