打字猴:1.70242064e+09
1702420640
1702420641 孩子们可以依据自己的需要和想象塑造传统的玩偶。比如,一个8岁的小姑娘由于打碎了妈妈最喜欢的水晶花瓶而后悔不迭,她有可能转而惩罚自己的“芭比娃娃”。她有可能把“芭比娃娃”从下午茶聚会的装饰背景中拿开,把它关禁闭,把自己有可能遭到的惩罚转嫁到“芭比娃娃”身上。而相反的,由于社交机器人看上去似乎有着自己的心智和意愿,因此不能轻易地由于其他人的过失而被充当替罪羊。两个8岁的女孩是这样评价“传统玩偶”与“菲比”的区别的。第一个女孩认为, “‘传统玩偶’,比如我的玛德琳,你可以让它睡觉,但是它的眼睛却是一直张开的,所以,嗯,你不能让它闭眼。它也不会说‘你好,早安’。”而这恰恰是“菲比”的  长项,正如第二个女孩所说:“‘菲比’会告诉你它想要什么。”
1702420642
1702420643 的确,“菲比”附带的操作指南有详细的说明。它们需要语言训练、食物、休息和爱的宣言。因此,你会听到类似这样的指示:一定要常常说出“你好,‘菲比’,我爱你”,这样“我”就会感到很高兴,感到被爱。孩子们普遍同意“菲比”和“传统玩偶”的区别在于它会给出指令。一个7岁的小姑娘说:“普通的娃娃得由你告诉它需要什么。而‘菲比’有自己的主张。”一个9岁的男孩则这样总结“菲比”和他的仿真玩具人的区别:“你不是和‘菲比’玩,而是和它闲待着。你总是试图控制它,可它同样也能控制你。”
1702420644
1702420645 孩子们说,玩“传统玩偶”可能会很“辛苦”,因为你要负责赋予它们各种想法;而玩“菲比”也很辛苦,原因却恰恰相反。它们自己就有太多的想法,你需要在它们需要的时候给它们提供所需要的东西。当孩子们通过“心理投射”对玩偶产生心理依附时,他们决定了玩偶在想什么。但孩子们却需要适应“菲比”的需要。这样的付出和回报为孩子们和机器的互动期望进行了准备。这也是机器人时代的关键。
1702420646
1702420647 6岁的黛西拥有一个“菲比”,她相信每一位“菲比”的主人都必须帮助“菲比”完成了解人类的任务。“你需要教它,既然你买了它,这就是你的义务。”黛西说她已经教了“菲比”许多知识,包括布朗尼女童子军、幼儿园和鲸鱼。“它是有生命的。我教了它鲸鱼,它爱我。”8岁的帕德玛说,她很喜欢满足“‘菲比’提的要求”,并认为它“有点像人”,因为“它会说话”。她继续说道:“它和我有点像,因为我也是个小唠叨。”两周后,帕德玛按照要求归还了“菲比”,但她开始后悔:“我很想念它说话,如今家里太安静了……我没有机会为它铺床了。”
1702420648
1702420649 比安卡和“菲比”相处了一个月的时间,她对自己与“菲比”之间建立起来的友情非常有信心:“我爱我的‘菲比’,因为它也爱我……感觉它好像懂我。”她认为自己对“菲比”的心理了如指掌,甚至知道它“不想错过派对的美妙时光”。有的时候,父母的派对开到深夜,为了让她的“交际达人”(菲比)不受打扰,能够得到休息,比安卡用衣服别针将“菲比”的耳朵夹着合上,以骗它“什么事情都没有发生”。实际上这么做并没有任何效果,而且会使人精疲力竭,但比安卡很淡定地这么总结她的义务:“照顾它需要付出很大的努力。”
1702420650
1702420651 前文说到的那个喜欢和自己的“菲比”一起打嗝的威尔逊,他在哄“菲比”睡觉这件事情上遇到了很大的麻烦,因为他知道如果直接取下电池,“菲比”会忘记他们之前的交流,这是不可以接受的。因此必须要使“菲比”自然入睡。威尔逊尝试让“菲比”看电视到很晚,以让它筋疲力尽。他还尝试用毯子在积木塔上面搭建起一个“卧室”。当说到“菲比”睡觉的时候,他开始想到“菲比”做梦的问题。他确信“当‘菲比’闭上眼睛后,它会做梦”。那么“菲比”会梦到什么呢?二年级和三年级的小朋友们认为,它们会梦到“在自己的飞碟上的生活”,也会梦到“自己学习语言,和它们所喜爱的孩子们一起玩耍”。
1702420652
1702420653 8岁的戴维和扎克正在学习希伯来语。“我的‘菲比’也在学习希伯来语,”戴维说,“它已经学会怎么说Eloheinu了……我甚至都没有教它,它是在我做希伯来语作业的时候自己学会的。”扎克也同意:“我的‘菲比’在做梦的时候说了Dayeinu。”扎克和威尔逊一样,对于自己能够营造安静的氛围让“菲比”安然入睡感到很自豪,并会给它盖上小毯子。他努力地教“菲比”说英语,自己也努力地学习“菲比”的语言。他已经熟练地掌握了随机附送的“英语—菲比语”词典。然而,在扎克收到“菲比”一周后,他的母亲焦虑地给我的办公室打了电话。扎克的“菲比”坏了。它一直发出“可怕”的噪音,听起来好像正在受病痛的折磨。这种情况让扎克非常烦恼。在扎克一家从费城回波士顿的旅途中,这个情况到了最糟糕的地步。坏掉了的“菲比”一路痛苦地呻吟,而他们手头又没有螺丝刀可以卸下电池,因此只能把它放在毯子里试图让它入睡。但由于一路颠簸,“菲比”不停地被吵醒,继而发出巨大的噪声。我收回了那个坏的“菲比”,给了他一个新的。但扎克对新的“菲比”一点也提不起兴趣,他不想和它说话,也不想试着教它什么。他说:“我之前的那个‘菲比’会说‘再一次’,也会说‘饿’。”扎克认为自己教原来的“菲比”说西班牙语和法语正在取得进步。第一个“菲比”从没有“让人厌烦”,但第二个却是。因为他的“菲比”是不可替代的。
1702420654
1702420655 几周后,扎克的妈妈又打来电话,问我是否可以把给扎克的那个“菲比替代品”送给他的一个朋友。当我同意了这个请求后,扎克冷静地盘算了失去“菲比2号”的损失。他付出过自己的爱心,如今丢失了,他也不打算再次投资感情。同样的情况也发生在9岁的霍莉身上,她因为妈妈拿下了“菲比”的电池而沮丧之极。她的家人正要准备出门旅行,“菲比”实用手册建议如果长期不使用最好拿出电池。妈妈并不了解实用手册上的这则说明会造成怎样的后果。她辩护说:“自己只是按照说明书办事。”霍莉瞪大了眼睛,试图让她的妈妈明白这意味着什么。“当电池拿下来后,”霍莉说,“‘菲比’会忘记它这辈子的记忆。”
1702420656
1702420657 “菲比”设计的目的就是让用户在教它的过程中感受到成就感,从而随着时间的推移,成为不可替代的知识库和其主人关爱的证明。机器人和孩子们共同走过一段生活的旅程。当“菲比”遗忘了记忆时,就好像一个得了失忆症的朋友。一个新的“菲比”好像一个陌生人。霍莉和扎克无法接受和一个新的“菲比”重新开始,因为新的“菲比”永远不能替代那个、他们倾注了时间和精力的老朋友。
1702420658
1702420659 “菲比”手术时孩子们的感受
1702420660
1702420661 20世纪80年代,电脑玩具机器人“梅林”能够和孩子们玩声光游戏,并且根据游戏胜负的结果发出开心或悲伤的声音。孩子们认为从某种程度上来说,“梅林”是“活的”,因为它非常擅长记忆类游戏;但同时,孩子们并不觉得“梅林”的情感流露是真实的。因此当“梅林”坏掉了,孩子们只会遗憾失去了一个玩伴;但当“菲比”发生故障的时候,孩子们则仿佛看到了一个饱受病痛折磨的生命体。
1702420662
1702420663 10岁的莉莉很担心她那个发生故障的“菲比”会感到疼痛。但她并不想关掉它的电源,因为“这意味着你没有能够好好照料它”。她担心如果自己关掉一个处于病痛中的“菲比”,只会让情况变得更糟。另外两位8岁的小朋友则为自己的“菲比”一直打喷嚏而担心。他们中的一个担心“菲比”打喷嚏是因为对自己过敏;另一个则担心由于“自己照顾不周而让‘菲比’感冒”。还有好几位小朋友听到自己的“菲比”发出奇怪的声响后都很紧张,因为这个声响有可能是痛苦的表现。我也观察到,当这些孩子与他们的洋娃娃 、玩具士兵、仿真玩具人等其他玩具在一起时,倘若这些玩具坏了或发生故障,孩子们通常就会厌倦地把它们丢弃在一旁。但当“菲比”遭遇同样的情况时,孩子们会问:“它累了吗?”“它不开心吗?”“我弄疼它了吗?”“它生病了吗?”“我该怎么办?”
1702420664
1702420665 照顾机器人是高风险的游戏。事情有可能出错,也的确出过错。在一个幼儿园里,当一台“菲比”发生故障后,孩子们决定要治疗它。10个小朋友志愿当起了急救室里的医生。他们觉得得先把“菲比”拆开。
1702420666
1702420667 整个过程还是在比较镇静的情况下进行的。当说起他们坏了的“菲比”时,孩子们坚持认为,故障并不意味着寿终正寝:人也会生病,也会康复。可当真正拿出剪刀和钳子的时候,孩子们开始紧张起来。艾丽西亚开始大喊:“‘菲比’会死的!”斯文则说出了让他的同学们更为恐惧的事情,他说“菲比”死的那一刻也就是它的皮肤被剥下的那一刻。斯文把“菲比”看作动物。刮掉动物的毛发,它还可以继续活下去。但万万不能剥了它的皮肤。随着手术的继续,斯文重新考虑了自己之前的观点。也许没有了皮肤“菲比”还能活,但“它会觉得很冷”。他没有完全悖离自己的生物知识(“菲比”可以感知冷暖),但他重建了已有的知识。对于斯文来说, “生物”如今包括“菲比”这样的物体,当外表的皮肤被剥下,它们的“内部”还可以保持“在原来的位置”。调整了观点后,他也冷静了下来。如果“菲比”兼具生物性和机械性,那么手术要进行的剥皮过程,不一定是破坏性的。当孩子们感到不解和紧张的时候,他们就会编造理论。好的理论可以减轻他们的焦虑感。
1702420668
1702420669 然而,随着手术的进行,孩子们变得越来越紧张。一个孩子说,如果“菲比”死了,也许会变成鬼骚扰他们。它生前活灵活现的,死后肯定能够变成鬼魂。的确,有一组孩子们开始将空的“菲比皮囊”称为“菲比的鬼魂”,将裸露的“菲比躯干”称为“妖精”。他们不愿意由于手术而制造出游荡的“菲比鬼魂”和“妖精”。一个小姑娘提议,如果把“菲比”的躯干分拆开,也许它的鬼魂就不会那么吓人。她建议是否应该“每个人都拿一部分‘菲比’的皮肤回家”。有人告诉她没有关系,不要太害怕。但是这并没有缓解她的恐惧,于是她又问了相同的问题两次。最后,孩子们带着一些“菲比”的皮毛离开了。一些孩子说回家后会把它埋了。他们离开教室,举行了一个小的告别仪式以抚慰“菲比”的亡灵,和它说再见。
1702420670
1702420671 在教室里,大多数孩子们觉得自己已经对这个生病的宠物尽了全力,但从教室外面旁观者的角度看,这场手术看上去很惊悚。有路过的孩子大叫道:“你们杀了它。”“你们怎么敢杀死‘菲比’?”“你们会被抓进‘菲比监狱’的。”8岁的丹尼丝从监控录像中看到了这个手术的过程。她自己家里也有一个“菲比”,但她不愿意把故障称为“疾病”,因为“菲比不是动物”。她用“仿造”(fake)这个词来描述“菲比”是非生物体,“‘菲比’是仿造的,它们不会生病”。但不久以后,她改变了自己的说法。她的“菲比”电池用光了,因而不再那么健谈,且变得内向沉默。丹尼丝慌了:“它死了,它快死了……它的眼睛闭上了。”接着,她宣布“自己的‘菲比’既是仿造的,也是死的”。丹尼丝总结道:“用完的电池和水可以杀死‘菲比’。它是机器,但同时又栩栩如生足以死亡。”
1702420672
1702420673 6岁的琳达一家是志愿看护“菲比”两周的家庭之一。琳达非常期待和“菲比”说话。她坚信“菲比”和自己其他的玩偶不同,非常值得与之交谈。但就在她把“菲比”带回家的第一天晚上,“菲比”就发生了故障:“是的,我刚刚习惯,它就停止工作了,就在我得到它的那个晚上。我感到自己也坏了……我哭了很长时间……我非常伤心,因为它会说话,它看上去像是真的,就像是真人一样。”琳达责备自己没能照顾好“菲比”,她感到自己好像也坏掉了。
1702420674
1702420675 当我给琳达一个新的“菲比”后,事情变得越发复杂起来。前文中扎克由于对自己的第一个“菲比”投入了许多时间和精力,因此不愿意接受新的替代品。但琳达的情况与扎克不同,因为她和第一个“菲比”只相处了几个小时,因此她很喜欢自己的“菲比2号”:“它和我玩躲猫猫。和我玩红灯、绿灯游戏,就像操作指南里说的那样。”琳达给它喂食,确保它得到充分的休息。她报告说自己的“菲比”很感激,对她充满深情。她认为这和她关于“‘菲比’仅仅是玩具”的观点并不矛盾,因为她认为感激、对话和情感是玩具同样可以拥有的东西。但现在她不会再给“菲比”起名或者说她是活生生的,因为这么做会有风险:她不想再次经历“菲比”死去时的内疚和痛苦。
1702420676
1702420677 就像儿童外科医生一样,琳达最终做出了妥协:“菲比”既有生物性,也有机械性。她告诉自己的朋友们:“‘菲比’有些方面很真实,但依然只是个玩具。”她解释道:“(菲比)感觉很真,是因为它会说话、会行动、会睡觉,有点像是一个人或宠物;但它依然是玩具,因为你必须要安装电池,否则它就会停止说话。”
1702420678
1702420679 因此,“混杂性”(hybridity)可以提供合理性。如果你聚焦于“菲比”的机械性,你可以享受它的陪伴而不必担心对于人或宠物的感情依附所造成的风险。在实际操作中,9岁的拉拉评价自己的“菲比”时说:“你可以让它喜欢你。但它不会死去或逃跑。这很好。”但同时,“混杂性”也会带来焦虑感。如果你赋予了“菲比”以生命,那么你该怎么做才不会伤害它或杀死它?正如我们所见,处在生命/非生命体的边缘,意味着受到真实痛苦的可能性。
1702420680
1702420681 关乎情感与道德的“倒拎测试”
1702420682
1702420683 当机器发生故障时,我们会感到遗憾、不便或生气。我们会讨论是否还值得去修理。当一个玩具哭泣的时候,孩子们知道是他们自己制造了眼泪。但正如我们在前文的“菲比手术室”里所见到的那样,一个有身体的机器人会“感到疼痛”。社交机器人改变了人们对于机器躯体的看法,人们更愿意视之为主体、生命体,而非坏了的物品。
1702420684
1702420685 即使是最初级的电子宠物蛋也一样会激发人们以人格化的方法来看待它,因此人们的这种态度并非完全是由于技术原因,而是因为情感依赖。比电子宠物蛋更先进的“菲比”,栩栩如生到模仿处于病痛中的身体,以及处于困惑中的心灵。“菲比”的呜咽、呻吟激发人们去发现背后的原因以及解决的办法。而当一个“首足倒立的菲比”说“我害怕”的时候,用户该怎么做?
1702420686
1702420687 麻省理工学院媒体实验室的研究生弗里德姆·贝尔德(Freedom Baird)最近正在严肃地研究这个问题。她认为自己与“菲比”的关系既是人与机器的,也是人与生物的。但究竟自己多么认真地把“菲比”看成生物体呢?为了回答这个问题,她以图灵测试的方法进行了试验。
1702420688
1702420689 英国数学家、第一代通用计算机的发明者艾伦·图灵于1950年提出了一个测试标准,来判断电脑能否被认为是“有智慧”。这个测试被称为图灵测试。最终他提出,如果一台计算机能够让人们相信它不是机器,那么就可以视之为“有智慧”。图灵使用的是由真空管和电传打字终端组成的计算机。他提出,如果参与者在通过电传打字终端进行的互动中,无法识别出终端的另一端是机器还是人,那么这台计算机就可以被认为是智慧体。
[ 上一页 ]  [ :1.70242064e+09 ]  [ 下一页 ]