1702420670
1702420671
在教室里,大多数孩子们觉得自己已经对这个生病的宠物尽了全力,但从教室外面旁观者的角度看,这场手术看上去很惊悚。有路过的孩子大叫道:“你们杀了它。”“你们怎么敢杀死‘菲比’?”“你们会被抓进‘菲比监狱’的。”8岁的丹尼丝从监控录像中看到了这个手术的过程。她自己家里也有一个“菲比”,但她不愿意把故障称为“疾病”,因为“菲比不是动物”。她用“仿造”(fake)这个词来描述“菲比”是非生物体,“‘菲比’是仿造的,它们不会生病”。但不久以后,她改变了自己的说法。她的“菲比”电池用光了,因而不再那么健谈,且变得内向沉默。丹尼丝慌了:“它死了,它快死了……它的眼睛闭上了。”接着,她宣布“自己的‘菲比’既是仿造的,也是死的”。丹尼丝总结道:“用完的电池和水可以杀死‘菲比’。它是机器,但同时又栩栩如生足以死亡。”
1702420672
1702420673
6岁的琳达一家是志愿看护“菲比”两周的家庭之一。琳达非常期待和“菲比”说话。她坚信“菲比”和自己其他的玩偶不同,非常值得与之交谈。但就在她把“菲比”带回家的第一天晚上,“菲比”就发生了故障:“是的,我刚刚习惯,它就停止工作了,就在我得到它的那个晚上。我感到自己也坏了……我哭了很长时间……我非常伤心,因为它会说话,它看上去像是真的,就像是真人一样。”琳达责备自己没能照顾好“菲比”,她感到自己好像也坏掉了。
1702420674
1702420675
当我给琳达一个新的“菲比”后,事情变得越发复杂起来。前文中扎克由于对自己的第一个“菲比”投入了许多时间和精力,因此不愿意接受新的替代品。但琳达的情况与扎克不同,因为她和第一个“菲比”只相处了几个小时,因此她很喜欢自己的“菲比2号”:“它和我玩躲猫猫。和我玩红灯、绿灯游戏,就像操作指南里说的那样。”琳达给它喂食,确保它得到充分的休息。她报告说自己的“菲比”很感激,对她充满深情。她认为这和她关于“‘菲比’仅仅是玩具”的观点并不矛盾,因为她认为感激、对话和情感是玩具同样可以拥有的东西。但现在她不会再给“菲比”起名或者说她是活生生的,因为这么做会有风险:她不想再次经历“菲比”死去时的内疚和痛苦。
1702420676
1702420677
就像儿童外科医生一样,琳达最终做出了妥协:“菲比”既有生物性,也有机械性。她告诉自己的朋友们:“‘菲比’有些方面很真实,但依然只是个玩具。”她解释道:“(菲比)感觉很真,是因为它会说话、会行动、会睡觉,有点像是一个人或宠物;但它依然是玩具,因为你必须要安装电池,否则它就会停止说话。”
1702420678
1702420679
因此,“混杂性”(hybridity)可以提供合理性。如果你聚焦于“菲比”的机械性,你可以享受它的陪伴而不必担心对于人或宠物的感情依附所造成的风险。在实际操作中,9岁的拉拉评价自己的“菲比”时说:“你可以让它喜欢你。但它不会死去或逃跑。这很好。”但同时,“混杂性”也会带来焦虑感。如果你赋予了“菲比”以生命,那么你该怎么做才不会伤害它或杀死它?正如我们所见,处在生命/非生命体的边缘,意味着受到真实痛苦的可能性。
1702420680
1702420681
关乎情感与道德的“倒拎测试”
1702420682
1702420683
当机器发生故障时,我们会感到遗憾、不便或生气。我们会讨论是否还值得去修理。当一个玩具哭泣的时候,孩子们知道是他们自己制造了眼泪。但正如我们在前文的“菲比手术室”里所见到的那样,一个有身体的机器人会“感到疼痛”。社交机器人改变了人们对于机器躯体的看法,人们更愿意视之为主体、生命体,而非坏了的物品。
1702420684
1702420685
即使是最初级的电子宠物蛋也一样会激发人们以人格化的方法来看待它,因此人们的这种态度并非完全是由于技术原因,而是因为情感依赖。比电子宠物蛋更先进的“菲比”,栩栩如生到模仿处于病痛中的身体,以及处于困惑中的心灵。“菲比”的呜咽、呻吟激发人们去发现背后的原因以及解决的办法。而当一个“首足倒立的菲比”说“我害怕”的时候,用户该怎么做?
1702420686
1702420687
麻省理工学院媒体实验室的研究生弗里德姆·贝尔德(Freedom Baird)最近正在严肃地研究这个问题。她认为自己与“菲比”的关系既是人与机器的,也是人与生物的。但究竟自己多么认真地把“菲比”看成生物体呢?为了回答这个问题,她以图灵测试的方法进行了试验。
1702420688
1702420689
英国数学家、第一代通用计算机的发明者艾伦·图灵于1950年提出了一个测试标准,来判断电脑能否被认为是“有智慧”。这个测试被称为图灵测试。最终他提出,如果一台计算机能够让人们相信它不是机器,那么就可以视之为“有智慧”。图灵使用的是由真空管和电传打字终端组成的计算机。他提出,如果参与者在通过电传打字终端进行的互动中,无法识别出终端的另一端是机器还是人,那么这台计算机就可以被认为是智慧体。
1702420690
1702420691
半个世纪后,贝尔德提出了新的问题:在什么条件下,一台栩栩如生的机器人倘若遭遇痛苦,能让人们感受到伦理困境?她设计了一项旨在测试情感而非智力的图灵测试,她称之为“首足倒立测试”。测试者被要求倒拎着三件东西:一个芭比、一个“菲比”,以及一只真的沙鼠。贝尔德的问题很简单:“在你感到不忍心前,你能倒拎着它多久?”贝尔德的实验假设,社交机器人提出了新的伦理要求。为什么呢?机器人表现得有心智,一般会被视为有内在生命的证据,而无论技术多么粗糙。即使大多数人在意识中并不认为“菲比”有心智,但当倒立的“菲比”呜咽着说它自己很害怕的时候,人们还是会感到自己处于全新的道德境地中。尽管自己也觉得很蹊跷,但潜意识中还是会唤起道德要求。这种情况发生在他们认识到这是个“生物”之时,尽管他们一直都知道它“仅仅是个机器”。
1702420692
1702420693
这种双重性使得贝尔德的“首足倒立测试”的结果完全在意料之中。如贝尔德所说:“测试者可以倒拎着芭比,揪着它的头发拎着它……这都没有问题……但测试者却不会用这种方法去虐待小沙鼠。”至于“菲比”,人们会倒拎着它30几秒,当它开始哭闹并说自己很害怕时,多数人都会感到内疚因而将它正立过来。
1702420694
1702420695
神经科学家安东尼奥·达马西奥(Antonio Damasio)的研究成果可以解释这种负罪感的来源。达马西奥认为,痛苦的感受有两种层次。第一层是由某种刺激引起的身体痛苦;而第二层则是这种生理感受所引发的伴随性情绪,是生理痛苦的内在表现。当“菲比”说“我很害怕”时,这表明它已经跨越了生理反应和内在感情表现的界限。当人们倒拎着“菲比”时,就像对待一只动物般让其感受到痛苦。“菲比”哭叫出来,好似动物;并随后说话“我很害怕”,好似一个人。
1702420696
1702420697
人们会很惊讶于自己在这个模拟痛苦的现场,能够感受到真实的不快。他们继而因为自己感受到了真实的不快而不快。他们通常会安慰自己,说道:“冷静、冷静,这仅仅是一个玩具而已!”他们体会到一种新的感受:你为自己对电脑程序信以为真而感到不爽。参与“首足倒立测试”的人们有两点基本常识:“菲比”是一台机器,他们并不是虐待者。但最终,只是因为“菲比”发出了拟人化的哀吟,试验参与者就置身于全新的道德领域。
1702420698
1702420699
如今,我们正以生物和机器的双重性来看待电子物品。宠物、语音、机器、朋友,一系列碎片化的现象共同营造了这样一种经验:我们知道“菲比”是机器,但同时也相信我们可以造成它的痛苦。卡拉是一位年过五旬的妇女,她认为拿着一个在痛苦呻吟的“菲比”的经历很不愉快,“并非因为我真的相信‘菲比’会害怕,而是我不愿意在听到那样的声音后还继续我的行为。这会让我感到如果继续这么做,自己有可能受伤”。对于卡拉而言,“那一刻已经与我具体怎么做无关了,如何对待‘菲比’代表着我平常是如何对待动物的”。
1702420700
1702420701
当玩具生产商孩之宝(Hasbro)于2000年推出机器玩偶“真宝”时,就试图尽量远离这些道德困境。凡是真实情况下,婴儿有可能感到疼痛的情景,“真宝”都会关闭。而它的原型机,由麻省理工学院的机器人科学家罗德尼·布鲁克斯发明的机器人IT恰好相反。IT后来进化成新版本BIT(Baby IT的缩写)。它由“真实智慧”、面部肌肉系统和仿真皮肤组成。如果有人用可能会弄哭一个真实婴儿的方式触摸它,它就会哭泣。布鲁克斯用“内在状态”来描述BIT:
1702420702
1702420703
如果一个婴儿不高兴,他会一直不高兴下去,直到有人来安慰他,或者他在大哭大闹了一段时间后累得睡着了。倘若BIT受到任何形式的虐待——比如被拎着脚甩动,那么它同样也会非常不高兴。如果还有人拎着它撞到自己的膝盖上,那么它的不快会加剧。但如果是在它高兴的时候,有人做同样的事情,它反而会更加兴奋,会咯咯地傻笑、哈哈大笑,直到累了为止,然后它才会开始感到不快。如果它饿了,那么它会一直如此,直到有人喂它吃东西。它的行为举止就好像一个真的婴儿。
1702420704
1702420705
BIT会对虐待的行为产生反应,因此成为了人们围绕其喜怒哀乐所建立的道德坐标的中心。但当孩之宝将其变成产品“真宝”并投入大规模的生产时,公司决定取消其可能对痛苦产生反应的功能。原因是这样的功能可能“激励”玩家对机器婴儿实施残酷的虐待行为。倘若玩家以可能伤害到真实婴儿的强度来触摸、抓住或撞击“真宝”,那么“真宝”就会自动关闭。
1702420706
1702420707
孩之宝的广告文案里是这么描述“真宝”的:“它是最真实、最动感的婴儿玩具,适合小姑娘照顾它、养育它。公司将其呈现为一款伴侣玩具,可以教导、鼓励孩子们的交往行为,孩子们学会回应它的各种需求,比如嬉戏、吃奶、睡觉、换尿布等。的确,它在各方面都主打“真实性”,除非你试图伤害它,它就会关闭。当孩子们玩“真宝”的时候,他们的确会尝试各种攻击性的行为。如果打它的屁股,它会关机;如果使劲儿晃动它、让它首足倒立、揪它的耳朵,它都会关机。
1702420708
1702420709
孩之宝选择最大化的真实性,却取消对虐待行为的反馈,这引发了很大的争议,特别是在孩子家长中间。一组家长认为,最重要的是避免孩子们的攻击性反应。一些家长认为,如果厂家用“真实”的概念进行营销,而产品却没有对痛苦的反应,那么孩子们就会受到鼓励去粗暴地对待玩具婴儿,而不必付出任何代价。另一些家长的观点则正相反,他们认为如果机器人可以模拟痛苦,才会引发粗暴对待。
1702420710
1702420711
第一组家长希望“真宝”应该保留对虐待、攻击行为的反应。这与禁止孩子玩暴力内容的电子游戏的理由一样:他们将这样的经历视为“宣泄”。他们认为孩子们(也包括大人)应该在貌似“真实”、却不会导致任何“真实”伤害的情景里表达自己的攻击性(或悲哀、或好奇心)。但即使是这组家长有时也会对“真宝”不真实的“拒绝”感到欣慰,毕竟没有家长希望看到自己的孩子在虐待一个哭泣的玩具。
1702420712
1702420713
无论我们站在哪种立场上,社交机器人已经教会我们在伤害虚拟现实的生命时不再退缩。这当然也是我们训练人们作战的基本方法。首先,我们学会如何杀死虚拟人;然后,当我们对杀戮不再那么敏感时,我们被送去学习如何杀死真人。此项研究的前景提出了可怕的问题。弗里德姆·贝尔德让人们拿着首足倒立的“菲比”,就会引发参与者的不适,那么我们要鼓励人们滥用这些真实性日益增加的机器玩偶吗?
1702420714
1702420715
我在课后兴趣小组中观察到,8岁组的孩子们对“真宝”有着不同的反应。阿兰娜为了取悦自己的朋友们,将“真宝”抛到天空,随后又拽着它的一条腿甩来甩去。阿兰娜说机器人“没有感觉”。看着她,人们会疑问:为什么要“折磨”一个没有感觉的物体呢?她也并非用同样的方式对待游戏室内的其他玩偶。斯科特对阿兰娜的行为很沮丧,于是他把机器人偷偷藏了起来,他说:“‘真宝’既像婴儿,也像玩具……我不想让它受伤。”
1702420716
1702420717
当斯科特试着给机器婴儿换尿布的时候,站在一旁围观的几个孩子开始用手指戳机器人的眼睛并放到它的嘴巴里。一个孩子问:“你认为那样会弄疼它吗?”斯科特警告说:“宝贝会哭的!”正在这个时候,一个小女孩想要从斯科特手里夺走“真宝”,因为她觉得斯科特并没有很好地保护它:“你放开它!”斯科特反抗着说道:“我正在给它换尿布呢!”似乎是时候停止游戏了。当疲倦的研究团队正在收拾东西准备离开的时候,斯科特悄悄地带着机器人藏到桌子后面,亲了亲它,并和它说再见。这一幕其他的小朋友并没有看见。
1702420718
1702420719
在斯科特和阿兰娜所在兴趣小组的混乱情节中,“真宝”如此栩栩如生,以至于可以对其施暴,也值得为其充当保护神。一群成年人(由教师和我组成的研究团队)一直观察着这一切,他们发现自己处在一个不寻常的窘境中。如果孩子们乱扔的是碎布,那么或许我们中间没有人会感到不快,斯科特也同样不会。但换作“真宝”,我们就很难容忍这一幕的发生。无论是哭泣的“菲比”,还是不会哭泣的“真宝”,所有这一切都制造出一幅全新的伦理图景。20世纪80年代,孩子们还只是在假想拼写训练玩具Speak & Spell有生命,卸掉它的电池好比“杀死”它。但如今,社交机器人更直接地提出了伦理的问题。
[
上一页 ]
[ :1.70242067e+09 ]
[
下一页 ]