打字猴:1.702420674e+09
1702420674
1702420675 当我给琳达一个新的“菲比”后,事情变得越发复杂起来。前文中扎克由于对自己的第一个“菲比”投入了许多时间和精力,因此不愿意接受新的替代品。但琳达的情况与扎克不同,因为她和第一个“菲比”只相处了几个小时,因此她很喜欢自己的“菲比2号”:“它和我玩躲猫猫。和我玩红灯、绿灯游戏,就像操作指南里说的那样。”琳达给它喂食,确保它得到充分的休息。她报告说自己的“菲比”很感激,对她充满深情。她认为这和她关于“‘菲比’仅仅是玩具”的观点并不矛盾,因为她认为感激、对话和情感是玩具同样可以拥有的东西。但现在她不会再给“菲比”起名或者说她是活生生的,因为这么做会有风险:她不想再次经历“菲比”死去时的内疚和痛苦。
1702420676
1702420677 就像儿童外科医生一样,琳达最终做出了妥协:“菲比”既有生物性,也有机械性。她告诉自己的朋友们:“‘菲比’有些方面很真实,但依然只是个玩具。”她解释道:“(菲比)感觉很真,是因为它会说话、会行动、会睡觉,有点像是一个人或宠物;但它依然是玩具,因为你必须要安装电池,否则它就会停止说话。”
1702420678
1702420679 因此,“混杂性”(hybridity)可以提供合理性。如果你聚焦于“菲比”的机械性,你可以享受它的陪伴而不必担心对于人或宠物的感情依附所造成的风险。在实际操作中,9岁的拉拉评价自己的“菲比”时说:“你可以让它喜欢你。但它不会死去或逃跑。这很好。”但同时,“混杂性”也会带来焦虑感。如果你赋予了“菲比”以生命,那么你该怎么做才不会伤害它或杀死它?正如我们所见,处在生命/非生命体的边缘,意味着受到真实痛苦的可能性。
1702420680
1702420681 关乎情感与道德的“倒拎测试”
1702420682
1702420683 当机器发生故障时,我们会感到遗憾、不便或生气。我们会讨论是否还值得去修理。当一个玩具哭泣的时候,孩子们知道是他们自己制造了眼泪。但正如我们在前文的“菲比手术室”里所见到的那样,一个有身体的机器人会“感到疼痛”。社交机器人改变了人们对于机器躯体的看法,人们更愿意视之为主体、生命体,而非坏了的物品。
1702420684
1702420685 即使是最初级的电子宠物蛋也一样会激发人们以人格化的方法来看待它,因此人们的这种态度并非完全是由于技术原因,而是因为情感依赖。比电子宠物蛋更先进的“菲比”,栩栩如生到模仿处于病痛中的身体,以及处于困惑中的心灵。“菲比”的呜咽、呻吟激发人们去发现背后的原因以及解决的办法。而当一个“首足倒立的菲比”说“我害怕”的时候,用户该怎么做?
1702420686
1702420687 麻省理工学院媒体实验室的研究生弗里德姆·贝尔德(Freedom Baird)最近正在严肃地研究这个问题。她认为自己与“菲比”的关系既是人与机器的,也是人与生物的。但究竟自己多么认真地把“菲比”看成生物体呢?为了回答这个问题,她以图灵测试的方法进行了试验。
1702420688
1702420689 英国数学家、第一代通用计算机的发明者艾伦·图灵于1950年提出了一个测试标准,来判断电脑能否被认为是“有智慧”。这个测试被称为图灵测试。最终他提出,如果一台计算机能够让人们相信它不是机器,那么就可以视之为“有智慧”。图灵使用的是由真空管和电传打字终端组成的计算机。他提出,如果参与者在通过电传打字终端进行的互动中,无法识别出终端的另一端是机器还是人,那么这台计算机就可以被认为是智慧体。
1702420690
1702420691 半个世纪后,贝尔德提出了新的问题:在什么条件下,一台栩栩如生的机器人倘若遭遇痛苦,能让人们感受到伦理困境?她设计了一项旨在测试情感而非智力的图灵测试,她称之为“首足倒立测试”。测试者被要求倒拎着三件东西:一个芭比、一个“菲比”,以及一只真的沙鼠。贝尔德的问题很简单:“在你感到不忍心前,你能倒拎着它多久?”贝尔德的实验假设,社交机器人提出了新的伦理要求。为什么呢?机器人表现得有心智,一般会被视为有内在生命的证据,而无论技术多么粗糙。即使大多数人在意识中并不认为“菲比”有心智,但当倒立的“菲比”呜咽着说它自己很害怕的时候,人们还是会感到自己处于全新的道德境地中。尽管自己也觉得很蹊跷,但潜意识中还是会唤起道德要求。这种情况发生在他们认识到这是个“生物”之时,尽管他们一直都知道它“仅仅是个机器”。
1702420692
1702420693 这种双重性使得贝尔德的“首足倒立测试”的结果完全在意料之中。如贝尔德所说:“测试者可以倒拎着芭比,揪着它的头发拎着它……这都没有问题……但测试者却不会用这种方法去虐待小沙鼠。”至于“菲比”,人们会倒拎着它30几秒,当它开始哭闹并说自己很害怕时,多数人都会感到内疚因而将它正立过来。
1702420694
1702420695 神经科学家安东尼奥·达马西奥(Antonio Damasio)的研究成果可以解释这种负罪感的来源。达马西奥认为,痛苦的感受有两种层次。第一层是由某种刺激引起的身体痛苦;而第二层则是这种生理感受所引发的伴随性情绪,是生理痛苦的内在表现。当“菲比”说“我很害怕”时,这表明它已经跨越了生理反应和内在感情表现的界限。当人们倒拎着“菲比”时,就像对待一只动物般让其感受到痛苦。“菲比”哭叫出来,好似动物;并随后说话“我很害怕”,好似一个人。
1702420696
1702420697 人们会很惊讶于自己在这个模拟痛苦的现场,能够感受到真实的不快。他们继而因为自己感受到了真实的不快而不快。他们通常会安慰自己,说道:“冷静、冷静,这仅仅是一个玩具而已!”他们体会到一种新的感受:你为自己对电脑程序信以为真而感到不爽。参与“首足倒立测试”的人们有两点基本常识:“菲比”是一台机器,他们并不是虐待者。但最终,只是因为“菲比”发出了拟人化的哀吟,试验参与者就置身于全新的道德领域。
1702420698
1702420699 如今,我们正以生物和机器的双重性来看待电子物品。宠物、语音、机器、朋友,一系列碎片化的现象共同营造了这样一种经验:我们知道“菲比”是机器,但同时也相信我们可以造成它的痛苦。卡拉是一位年过五旬的妇女,她认为拿着一个在痛苦呻吟的“菲比”的经历很不愉快,“并非因为我真的相信‘菲比’会害怕,而是我不愿意在听到那样的声音后还继续我的行为。这会让我感到如果继续这么做,自己有可能受伤”。对于卡拉而言,“那一刻已经与我具体怎么做无关了,如何对待‘菲比’代表着我平常是如何对待动物的”。
1702420700
1702420701 当玩具生产商孩之宝(Hasbro)于2000年推出机器玩偶“真宝”时,就试图尽量远离这些道德困境。凡是真实情况下,婴儿有可能感到疼痛的情景,“真宝”都会关闭。而它的原型机,由麻省理工学院的机器人科学家罗德尼·布鲁克斯发明的机器人IT恰好相反。IT后来进化成新版本BIT(Baby IT的缩写)。它由“真实智慧”、面部肌肉系统和仿真皮肤组成。如果有人用可能会弄哭一个真实婴儿的方式触摸它,它就会哭泣。布鲁克斯用“内在状态”来描述BIT:
1702420702
1702420703 如果一个婴儿不高兴,他会一直不高兴下去,直到有人来安慰他,或者他在大哭大闹了一段时间后累得睡着了。倘若BIT受到任何形式的虐待——比如被拎着脚甩动,那么它同样也会非常不高兴。如果还有人拎着它撞到自己的膝盖上,那么它的不快会加剧。但如果是在它高兴的时候,有人做同样的事情,它反而会更加兴奋,会咯咯地傻笑、哈哈大笑,直到累了为止,然后它才会开始感到不快。如果它饿了,那么它会一直如此,直到有人喂它吃东西。它的行为举止就好像一个真的婴儿。
1702420704
1702420705 BIT会对虐待的行为产生反应,因此成为了人们围绕其喜怒哀乐所建立的道德坐标的中心。但当孩之宝将其变成产品“真宝”并投入大规模的生产时,公司决定取消其可能对痛苦产生反应的功能。原因是这样的功能可能“激励”玩家对机器婴儿实施残酷的虐待行为。倘若玩家以可能伤害到真实婴儿的强度来触摸、抓住或撞击“真宝”,那么“真宝”就会自动关闭。
1702420706
1702420707 孩之宝的广告文案里是这么描述“真宝”的:“它是最真实、最动感的婴儿玩具,适合小姑娘照顾它、养育它。公司将其呈现为一款伴侣玩具,可以教导、鼓励孩子们的交往行为,孩子们学会回应它的各种需求,比如嬉戏、吃奶、睡觉、换尿布等。的确,它在各方面都主打“真实性”,除非你试图伤害它,它就会关闭。当孩子们玩“真宝”的时候,他们的确会尝试各种攻击性的行为。如果打它的屁股,它会关机;如果使劲儿晃动它、让它首足倒立、揪它的耳朵,它都会关机。
1702420708
1702420709 孩之宝选择最大化的真实性,却取消对虐待行为的反馈,这引发了很大的争议,特别是在孩子家长中间。一组家长认为,最重要的是避免孩子们的攻击性反应。一些家长认为,如果厂家用“真实”的概念进行营销,而产品却没有对痛苦的反应,那么孩子们就会受到鼓励去粗暴地对待玩具婴儿,而不必付出任何代价。另一些家长的观点则正相反,他们认为如果机器人可以模拟痛苦,才会引发粗暴对待。
1702420710
1702420711 第一组家长希望“真宝”应该保留对虐待、攻击行为的反应。这与禁止孩子玩暴力内容的电子游戏的理由一样:他们将这样的经历视为“宣泄”。他们认为孩子们(也包括大人)应该在貌似“真实”、却不会导致任何“真实”伤害的情景里表达自己的攻击性(或悲哀、或好奇心)。但即使是这组家长有时也会对“真宝”不真实的“拒绝”感到欣慰,毕竟没有家长希望看到自己的孩子在虐待一个哭泣的玩具。
1702420712
1702420713 无论我们站在哪种立场上,社交机器人已经教会我们在伤害虚拟现实的生命时不再退缩。这当然也是我们训练人们作战的基本方法。首先,我们学会如何杀死虚拟人;然后,当我们对杀戮不再那么敏感时,我们被送去学习如何杀死真人。此项研究的前景提出了可怕的问题。弗里德姆·贝尔德让人们拿着首足倒立的“菲比”,就会引发参与者的不适,那么我们要鼓励人们滥用这些真实性日益增加的机器玩偶吗?
1702420714
1702420715 我在课后兴趣小组中观察到,8岁组的孩子们对“真宝”有着不同的反应。阿兰娜为了取悦自己的朋友们,将“真宝”抛到天空,随后又拽着它的一条腿甩来甩去。阿兰娜说机器人“没有感觉”。看着她,人们会疑问:为什么要“折磨”一个没有感觉的物体呢?她也并非用同样的方式对待游戏室内的其他玩偶。斯科特对阿兰娜的行为很沮丧,于是他把机器人偷偷藏了起来,他说:“‘真宝’既像婴儿,也像玩具……我不想让它受伤。”
1702420716
1702420717 当斯科特试着给机器婴儿换尿布的时候,站在一旁围观的几个孩子开始用手指戳机器人的眼睛并放到它的嘴巴里。一个孩子问:“你认为那样会弄疼它吗?”斯科特警告说:“宝贝会哭的!”正在这个时候,一个小女孩想要从斯科特手里夺走“真宝”,因为她觉得斯科特并没有很好地保护它:“你放开它!”斯科特反抗着说道:“我正在给它换尿布呢!”似乎是时候停止游戏了。当疲倦的研究团队正在收拾东西准备离开的时候,斯科特悄悄地带着机器人藏到桌子后面,亲了亲它,并和它说再见。这一幕其他的小朋友并没有看见。
1702420718
1702420719 在斯科特和阿兰娜所在兴趣小组的混乱情节中,“真宝”如此栩栩如生,以至于可以对其施暴,也值得为其充当保护神。一群成年人(由教师和我组成的研究团队)一直观察着这一切,他们发现自己处在一个不寻常的窘境中。如果孩子们乱扔的是碎布,那么或许我们中间没有人会感到不快,斯科特也同样不会。但换作“真宝”,我们就很难容忍这一幕的发生。无论是哭泣的“菲比”,还是不会哭泣的“真宝”,所有这一切都制造出一幅全新的伦理图景。20世纪80年代,孩子们还只是在假想拼写训练玩具Speak & Spell有生命,卸掉它的电池好比“杀死”它。但如今,社交机器人更直接地提出了伦理的问题。
1702420720
1702420721 我的学生与机器人Nexi的一段小故事也可以印证新的伦理问题。Nexi是由麻省理工学院研发的一款无臂人形机器人,它有一张表情丰富的脸,并且会说话。2009年的某一天,我的一个学生为了写论文和Nexi的研发团队预约进行访谈。但由于在时间安排上双方的误解,我的学生只能独自等待,而她正坐在离Nexi不远的地方。这段等待的时间让她非常沮丧,因为她发现:当不与人互动的时候,Nexi平常会被放在帘幕后面,并且被布完全遮住。
1702420722
1702420723 在此后我的一次研讨会中,这位学生与其他人分享了这段经历。“这非常令人沮丧,”她说,“帘幕——为什么它要被布遮住眼睛?我正是因此而沮丧。”被布裹住、蒙住眼睛的机器人Nexi点燃了那次讨论。在讨论中,所有人都用“她”来指代机器人。设计者已经尽一切可能赋予机器人以性别。如今,用布遮住机器人的双眼暗示着“她”拥有视力和意识。在课堂中,讨论继续向前推进:蒙住双眼是因为人们看到Nexi的眼睛会感到恐惧吗?或许当它关机的时候,“她”的眼睛还是睁开的,如同死人的眼睛?又或者机器人的设计者不愿意Nexi能够“看出来”?或许他们不愿意让机器人知道,“她”已经不再被使用而是被闲置在帘幕后的角落里?这一系列疑问将研讨会推向了一个更加让人不安的问题:如果Nexi已经智慧到需要用布盖住,才能让“她”对自己身处的环境不完全了然,那么这是否意味着她已经具备足够的主体性,而使得周边的环境很不人道?学生们在一个问题上达成了共识:用布遮盖住Nexi的眼睛意味着“这个机器人可以看见”,而看见则意味着理解和内在生命,而这都足以导致“不人道”。
[ 上一页 ]  [ :1.702420674e+09 ]  [ 下一页 ]