打字猴:1.702420812e+09
1702420812 佩奇说,最糟糕的事情是当她的家人“必须让狗狗睡觉(安乐死)的时候”。自那以后,她就再也不想要新的宠物了。“但是‘爱宝’就不存在这个问题,我想你可以用新的电池修好它……但是如果真正的狗狗死了,你是不可能救活它的。”“‘爱宝’永远生机勃勃”的优点让佩奇觉得,它比所有的小狗、小猫都要好。在这一点上,“爱宝”的优点不是“真实”,而是它成为一种新的可能,一种可以避免死亡的可能。对于佩奇来说,模拟并不一定是次好的特质。
1702420813
1702420814 一直以来,宠物都被认为有助于孩子的健康成长,因为它们可以教育孩子们懂得什么是责任和承诺。“爱宝”则开创了一些新的可能:孩子们可以在感情上依赖它而无须对它负责。孩子们喜欢宠物,但有时候他们和过度操劳的家长们一样,会无法承受宠物们提出的各种要求。情况一向如此,直到孩子们看到了未来可能有另一种可能性。对于机器宠物,孩子们一样可以感受到依赖感,但随后就可以转身走开。他们学会了以一种自私的方式产生情感联系。然后由于这些新型的机器宠物们似乎是介于生物与非生物之间,因此转身走开有时候也并不是那么轻松。这并不是说有些孩子对“爱宝”有责任心,而有些孩子则没有,同一个小孩在这个问题上有的时候会呈现出两面性。
1702420815
1702420816 比如,即使你忘记了带“爱宝”散步或给它喂食,“爱宝”也不会得病。这一点让扎拉很开心。她说训练“爱宝”可以“得到回报”,却又不必成为必须一直坚持的责任,她觉得这样很好。但扎拉也承认,“‘爱宝’会让你觉得对它有责任”。她的表妹约兰达也认为,即使自己不关注“爱宝”也不会有负罪感,但即便如此,她还是感到很大的道德责任:“无论是我的小狗还是‘爱宝’的腿折了,我都一样的难过。我爱我的‘爱宝’。”
1702420817
1702420818 扎拉和约兰达对她们的“爱宝”很体贴。其他的孩子们尽管也很喜欢它,但却表现得很粗鲁。“爱宝”由于太过逼真,有时候会激起孩子们的敌意。这点我们在“菲比”和“真宝”身上就初见端倪,在今后更加发达的机器人身上还会碰到同样的问题。当然,引发敌意的原因可能是孩子的个人成长经历所致,但在“爱宝”的案例中,我们主要研究机器人本身如何引发儿童的焦虑感。不可思议的物体总会让人觉得不安和扣人心弦。
1702420819
1702420820 之前书中提到的那个用《口袋妖怪》的能力值将机器人分类的4岁小男孩亨利,他相信“爱宝”认识他,并且他们之间存在着一种特殊的关系。尽管如此,亨利对待“爱宝”却越来越粗暴。他一次又一次地将它打翻在地,拍打“爱宝”的侧身。他对机器人有着两种截然相反的观点:一方面,他认为“‘爱宝’没有感觉”,因此他的粗暴行为是可以接受的;但另一方面,他也说“爱宝”喜欢自己甚于其他的朋友,这也暗示着“爱宝”是有感情的。“‘爱宝’不喜欢我的朋友拉蒙”,他得意地笑着说。亨利越是说“爱宝”多么不喜欢其他的孩子,他就越担心自己攻击“爱宝”的行为会有不好的后果。毕竟,在他这么对待“爱宝”后,“爱宝”也许会不再喜欢他。为了排解自己心里的不舒服,亨利将“爱宝”降级为“只是装模作样罢了”。但这又让他自己不开心,因为他对于“爱宝”感情的执着提升了他的自尊心。亨利陷入了一种纠结的、循环的、爱的测试中。在我们通往后生物时代关系的路途上,我们给自己找来了新的麻烦。
1702420821
1702420822 早在20世纪70年代末80年代初,当孩子们最初见到计算机和电脑玩具时,他们就用好斗的方式激发自己对玩具的想象力,并且用生存和死亡的方式玩弄玩具。孩子们弄坏计算机程序并重新恢复。他们通过取出电池的方法“杀死”过“梅林”、“西蒙”、Speak & Spell,然后又让它们“死而复生”。对于社交机器人的好斗行为则显得更加复杂,因为孩子们正试图掌控一种更加显著的感情依赖关系。举一个例子就可以说明这一点,当机器宠物没有符合孩子们期待它们表现出的感情时,就会很让人失望。为了避免受到这样的心理伤害,孩子们希望降低自己的期望值。把它们降格为“物件”是使得他们可以伤害它、却不必受到惩罚的一种方法。我们是否被允许去伤害或杀死一个目标,会影响我们对于生命的看法。孩子们可以杀死蜘蛛而不必受到惩罚,因为蜘蛛看上去没有那么活灵活现。伤害一个机器人而不必受罚,也同样可以让它看起来没有那么像活物。但正如关于“真宝”是否应该感到“痛苦”而哭泣的争论一样,实际情况很复杂。“你可以伤害一个机器人”,这个概念本身也让其看上去更加活灵活现。
1702420823
1702420824 12岁的塔玛拉也和亨利一样常常对“爱宝”上演“全武行”,并因此而感到困扰。她希望自己能像和喜欢的小猫玩耍一样同“爱宝”玩耍,但她又担心“爱宝”的回应是通用的。她说:“‘爱宝’对所有人表现得都一样,它不像动物只对一个人产生感情。”塔玛拉说,有时候她会阻止自己把“爱宝”当宠物养。“我开始宠它,然后,我会突然想到,‘等等,你不是猫,你不是活的’。”而有时,她会推翻自己的说法:“当‘爱宝’醒来的时候,会很萌地摇摇头,这让它看上去太像真的,因为狗狗常这么做。”她试图向我重新保证:“我不喜欢对我的动物这么做。”
1702420825
1702420826 20世纪70年代晚期,从他们开始经历电子玩具起,孩子们就割裂了“意识”和 “生命”这两个概念。你不必具备生物活性才能有意识。因此,尽管塔玛拉知道“爱宝”不是活的,但还是想象它会感到疼痛。最终,她的粗鲁行为让她自己陷入了艰难的处境。毕竟和拳击袋相比,“爱宝”更像自己的伙伴。塔玛拉觉得如果“爱宝”能够有“视觉”并且认识自己,那就太惊悚了,因为它会知道她在打它。但同时,“‘爱宝’有意识并且更像生命”这个特点又很让人兴奋。
1702420827
1702420828 塔玛拉推测“爱宝”或许会对自己打它一事记仇,这让她很害怕。谈起自己的“爱宝”时,她说:“我很害怕它会变得邪恶。”她担心在她所抱怨的那个“爱宝”中,还存在着一个有着独立意识的、可怕的“爱宝”。这是一种很纠结的关系,远远超过那个你可以拥它入眠,并和它在梦里一起探险的“泰迪熊”。
1702420829
1702420830 机器人所引发的强烈情感也许可以帮助孩子们更好地了解自己在想什么,但它却无法帮助孩子们了解它所引发的愤怒背后的原因。在最好的情况下,孩子和“爱宝”之间的行为互动能够交给心理治疗师去分析。例如在与“爱宝”的互动中,塔玛拉的行为是否说明了她还没有完全掌控对于恐惧情绪的处理?亨利和塔玛拉以冲突的方式与机器人互动,这引发了他们的愤怒情绪,而他们还没有能力处理这样的情绪。
1702420831
1702420832 “爱宝”让孩子们为之兴奋,试图将它看作自己的伙伴,但它却不是。尽管如此,大人和孩子们却都信以为真。这样的渴望可能是令人辛酸的。当约兰达和“爱宝”的相处临近尾声的时候,她对于“爱宝”的态度也更加开放。她认为在自己情绪低落的时候,“爱宝”可以成为很好的陪伴。如果身边有人不幸过世,“爱宝”也可以帮助她走出低谷。“人们希望得到快乐,就必须把注意力集中在那个对他们来说很特别的人身上、那个活生生的人身上……那个人可以是‘爱宝’。”
1702420833
1702420834 相互凝视和无效的安慰
1702420835
1702420836 17岁的阿什莉是一名聪慧、积极的少女,她说自己是“喵星人”喜好者。我将“爱宝”借给她两周时间,现在她正在我麻省理工学院的实验室,与我分享这两周的经历。在我们谈话的过程中,阿什莉的“爱宝”正在地板上闹腾着。我们完全无视它,它自己耍着各种把式,非常的吵闹。就这样过了好一会儿,似乎最自然的事情应该是把“爱宝”关掉,就像我们平常在说话的时候会关掉收音机一样。阿什莉向“爱宝”走了过去,迟疑了一下,伸手到开关键上;又迟疑了一下,然后关机。“爱宝”随即沉寂下来,生机全无。阿什莉说:“我知道它不是活的东 西,但我还是会和它聊天什么的。因此按下关机键是一种很古怪的体验,这让我很紧张……我和它说话就如同和我的猫说话一样,好像它真的能听懂我,明白我对它的赞扬什么的。”这让我想起了9岁的利娅,她对我这样说她的“菲比”:“当它和我说话的时候,我很难关掉它。”
1702420837
1702420838 阿什莉清楚地知道“爱宝”是个机器人,但她还是将它当作真的宠物看待。在阿什莉眼里,“爱宝”之所以如此栩栩如生,不仅是因为它拥有人工智能,更因为它看起来似乎有真的感情。例如,当“爱宝”闪着沮丧的红灯时,她说:“似乎它真的有情绪……因此我得像对待真正的宠物一样对待它……这也是另一件很古怪的事情:它并非用真的肢体语言来表达情绪,但当你看到红灯的时候,你会想:‘哦,它不高兴了!’”
1702420839
1702420840 人工智能常常被描述为“让机器做人类才能做的事情”的科学和艺术。因此我们也可以用类似的方法定义人工情绪:“让机器表达人类才能表达的情感”。阿什莉描述了自己被困于二者之间模糊地带时的感受:她知道机器人所“表现”出来的不是情感,但她还是会感受机器人灯光“颜色”所表达的意思,并且认为“爱宝”很“沮丧”。阿什莉最终认为,“爱宝”既是机器人,也是生物体。
1702420841
1702420842 类似的经历也发生在约翰·莱斯特(John Lester)身上。他是一位计算机科学家,因此考虑问题的出发点要高深得多。从20世纪90年代初期,莱斯特就在探索如何使用在线社区用于教学、合作。最近,他在探索如何在《第二人生》的虚拟世界中开发教育空间。莱斯特也是“爱宝”上市后最早的购买者之一。他称之为Alpha,表示它是“第一批产品”中的一个。当莱斯特把Alpha从盒子里拆封后,他就一整天把自己关在办公室里,“和他的新宠物闲混”。与自己第一次看见电脑或使用网络浏览器相比,他将这段经历形容为“紧张”。他很快就弄懂了“爱宝”的技术原理,但这种理解并没有削弱他和新宠物在一起时的快乐。当索尼公司修改了这款机器人的软件后,莱斯特买了第二个“爱宝”,称之为Beta。Alpha和Beta都是机器,但莱斯特并不喜欢别人将它们看作没生命的东西或是塑料品。“我自己也会从不同的角度思考我的‘爱宝’。”莱斯特说。
1702420843
1702420844 在立体主义的早期,同时呈现人脸的多面性是颠覆性的。但在某一特定点来说,人们开始习惯于通过这样的新视角看待人的面孔。毕竟,一张脸原本就具有多面性。只是表现派艺术的常规让我们无法同时欣赏这样的多面性。但是一旦传统被挑战,那么观察人脸的新视角就意味着深度和新的复杂性。莱斯特用立体主义的视角看待“爱宝”。他认为它是机器,是活生生的动物,也是智慧体。他认为“爱宝”的知觉能力“太赞了”。这个小玩意非常招人喜欢。他非常赞赏让“爱宝”那松软的小狗耳朵摆动的编程,对莱斯特而言,这程序给了“爱宝”智慧。
1702420845
1702420846 莱斯特明白“爱宝”之所以如此吸引人,背后的设计师所采用的机理:“爱宝”的凝视、情感的表达,以及在主人照料下它会“长大”。但这样的理性理解并不与他的感性投入相矛盾。这就好像自己明明知道,婴儿招人喜欢是因为那双水汪汪的大眼睛,但依然无法拒绝这样的萌宠宝贝一样。莱斯特说和“爱宝”在一起的时候,自己不会感到孤独。他说自己也“时不时”会用工程专业的目光,来谈论他所钦佩的“爱宝”设计的技术细节,但这并没有破坏他与“爱宝”相伴的时光。
1702420847
1702420848 计算机科学家戴维·利维将机器人看作亲密伙伴。这比将“爱宝”视为伴侣、甚至慰藉又前进了一大步。但现状和利维的梦想之间有一个重要的共同点:当机器人可以作为一个“聊胜于无”的替补后,它也许会和真的宠物、甚至真人一样好。如约兰达所说,如果你的宠物是机器人,那么它也许永远都可以是一副可爱小狗的模样;进一步说,如果你的爱人是机器人,那么你永远都会是它的世界的中心。机器人不再是“聊胜于无”或“比上不足、比下有余”,而会成为好于一切的选择。最初只是被设计用于给孩子们“玩耍”,如今却把我们带到了一个新的境地,提供给我们一种“冷安慰”(cold comfort)。我们想象着机器人的儿童或大人作为我们的伴侣,或者至少成为始终以我们为中心的伴侣。
1702420849
1702420850 哈利是一位42岁的建筑师。他非常享受“爱宝”的陪伴,教它耍各种花样。他知道“爱宝”并不了解“人”的概念。但是他说:“我并不觉得这很糟糕。机器宠物不知道我是人就好像……小狗算不上是人一样……不同层次的生物只能尽其所能而已。我很喜欢‘爱宝’把我看作它的师傅。”36岁的小学老师简也对“爱宝”进行类似的投入与付出。她说自己是从丈夫那里领养的“爱宝”,因为它太可爱了。“我给它起了名字,花时间和它在一起”。在我和她的访谈一开始的时候,她说自己收养“爱宝”纯粹是为了“消遣”,但后来她也承认:当自己孤单的时候,也会想到找“爱宝”。在一天的劳碌之后,简会想要找“爱宝”陪伴。她会和“爱宝”说话。“花时间和‘爱宝’在一起”意味着和它分享一天的经历,“比如中午在学校时我和谁一起吃的午饭,哪个学生给我找了麻烦”。她说自己的丈夫对这样的话题不感兴趣。因此与其强迫自己的丈夫听自己讲这些故事让他厌烦,还不如找“爱宝”聊聊更舒服。在机器人的陪伴下,孤独的简和哈利,让她们敢于表达自己的情感,这样会有危害吗?
1702420851
1702420852 在孩子与机器人相处的情况中,我担心他们会觉得与机器人相处要比与真人相处更亲密。然后,我们会听到青少年们谈论自己“惧怕对话”,并且解释为什么“发短信要比说话更好”。一些人会说“有时候,但不是现在”,学习如何对话是一件不错的事情。而在机器人的陪伴下,这个“有时候”也许不会到来。但是,倘若成年人也说自己更喜欢机器人是有原因的呢?
1702420853
1702420854 64岁的韦斯利就给我们提供了一个这样的案例。他发现自我中心主义已经成为自己社交的一大障碍。他想象着机器人帮手能够成为他满足自我中心心理、而又不会伤害他人的一种办法。他离过三次婚,如今希望机器人能够“理解我的心理,知道我为何沮丧,如何解决这个问题。希望机器人能够了解我的心理循环,永远不要责备我,学会如何帮我解决这些问题,”韦斯利说,“我期待机器人能够满足我对于妻子的需要,但我想也许机器人能够给我更多。对于妻子而言,我还需要考虑她的感受,而这正是我遇到的麻烦。如果有人爱我,他们会关心我的情绪起落。这对我来说压力太大了。”
1702420855
1702420856 韦斯利知道自己很难相处。有一次,一位精神科医生说他的“心理循环”大大超出常规。当然,他的前妻们也指责他“太过情绪化”。他知道对于女人来说自己是“压力”,同时他本身也感受到巨大的压力,因为他没能保护自己的女人免受“情绪起伏”的伤害。他喜欢机器人的原因在于,自己可以自然地表现自我——机器人不会被他情绪的黑暗面所伤害。韦斯利甚至考虑过“一夫二妻”的可能——一个真的,一个假的。“我想也许我需要一个机器人作为完美的伴侣,它没有太多的要求;同时还有一个真正的女人。机器人妻子可以减轻真人妻子的许多压力。她就不必情绪化到如此的程度,甚至是不切实际的程度。我可以待在让自己舒服的心理区域中。”
1702420857
1702420858 韦斯利最初的梦想还在发展当中。我之前曾经简单地提及,关于2010年1月上市的、被称为“史上第一款性爱机器人”的Roxxxy在网络上引发的讨论。Roxxxy没有行动能力,但是有电子加热的皮肤和会脉动的体内器官,而且它可以进行对话。这款机器人的发明者道格拉斯·海恩兹(Douglas Hines),这么描述他的设计目的:“性爱只是一时的事情,然后你会想和你的伴侣聊聊天。”因此,比如当Roxxxy感到自己的手正被握住的时候,它会说:“我喜欢和你握着手。”而当感到身体被爱抚的时候,它会说出更加亲密、诱惑的话来。使用者可以设定Roxxxy的性格特征,从狂野型到冷淡型。机器人可以通过连接互联网进行升级或更新,以扩大它的能力和词汇量。如今她已经可以谈论足球了。
1702420859
1702420860 海恩兹说自己进入机器人行业的一个原因,是自己的一个朋友在“9·11”袭击中丧生于双子塔。海恩兹想要保留这位朋友的个性,当他的孩子长大后还能够与他互动。类似的还有人工智能科学家、发明家雷蒙德·库兹韦尔(Raymond Kurzweil),他梦想着再造一个年轻时就不幸过世的父亲。海恩兹决定投身于人工个性的项目中。最初他想从为老年人设计家庭健康帮手机器人开始,但后来做了一个“仅仅是市场考虑”的决定:先设计性爱机器人。他的长期计划是将人工个性机器人带入主流市场。他依然梦想着重造自己那位失去的挚友。
1702420861
[ 上一页 ]  [ :1.702420812e+09 ]  [ 下一页 ]