1702421290
1702421291
当然,也有第三种方法,即承认机器人即将成为文化的一部分,并认为机器人甚至在许多方面要超越人类。当我的研究团队在20世纪末开始研究社交机器人时,我们保持着一种人本主义的偏见。我们曾经认为,人在人类关系中拥有毋庸置疑的优先地位,即使我们看到许多机器人都声称可以起到陪伴的作用。我们当然很好奇,同时也怀疑机器人究竟能给人带来什么。尽管如此,我们近年在一些养老院中的所见所闻,让我们对未来的生活如此失望,以至于真的想把希望寄托在机器人身上。在这些物资贫乏的养老院中,一台“爱宝”、“帕罗”或者“真宝”,绝对是大家未曾见过的新鲜玩意。人们争相传看、议论纷纷。每个人都可以自由地发表自己的观点。这样的时刻的确给机器人的形象和作用大大加分。有时候,当我看到老人们是多么渴望有人陪他们说话时,我会深深地震惊,并且想如果没有人陪他们说话,有件“东西”作为替代其实也不错。有时候,甚至是老年人提醒我,说其实这件可以用来作为倾诉对象的东西甚至都不必是机器人。
1702421292
1702421293
当78岁的阿黛尔谈起自己第一次接触“帕罗”机器人的时候,她回忆起了她的婶婶玛格丽。当阿黛尔还是个小姑娘时,婶婶玛格丽就开始和她们全家一起住。玛格丽每天的大多数时间都待在自己的房间里读书或编织,只有吃饭时才会出来,但往往也一言不发。阿黛尔还记得玛格丽在90岁的时候,“还会把孩子们轰出自己的房间,好让自己安静地回忆往事”。阿黛尔可以通过玛格丽门上的一条缝隙向里偷偷张望。她看见婶婶正在对着一张有她自己和母亲、姐妹的家庭合影说话。如今,阿黛尔把“帕罗”当作她婶婶家庭合影的替代品。“它会鼓励你和它说话,”阿黛尔声音小了下来,她停顿了一会儿继续说,“也许对着照片说话会更好一些。”我问她为什么这么讲。阿黛尔整理了一下自己的思绪,最后承认:“有时候很难分清楚什么是记忆,什么是现实。如果我对着照片说话,我知道现在我正沉迷于记忆中。但和机器人说话的时候,我就会弄混。”
1702421294
1702421295
阿黛尔的话让我从不同的角度去思考和机器人共度的时光。一方面,机器人的互动性可以触发老人的回忆;另一方面,因为它并不理解人类的幻想,因此可能会“挟持”人的记忆,让人困惑于女儿童年时“婴儿床围栏”的记忆,以及要为嗷嗷待哺的机器娃娃“喂餐”之间。有时候后者甚至比前者看起来更加真实。或者,有时候婴儿床的围栏似乎已经不再是记忆了。
1702421296
1702421297
“连雪莉都会爱上的机器人”
1702421298
1702421299
2004年,我在一场关于机器人的会议上,第一次听说了护理机器人(nursebot)。在那场会议中,我的演讲是关于社交机器人预示着一种新型人际关系的出现:我们会在彼此孤独的情况下,又感觉似乎彼此相连。我的同事中的多数人都反驳我的观点,认为“作秀”原本就是所有社交关系的通用货币。它不是什么负面因素,而是事情原本的面貌。人们总是在为他人“作秀”。如今,机器人同样也会“作秀”。因此世界会增加全新的社交表演者和全新的表演形式。在晚餐的时候,我正沉默寡言地埋头用餐时,一组研究者充满热情地开始向我介绍一款和蔼温和、有所裨益的机器人,说也许我会喜欢。这款机器人的某些型号当时正在美国和日本进行测试。这正是护理机器人,它可以在居家生活中帮助老年人,提醒他们吃药的时间、按点吃饭。有些型号的机器人可以在需要时提供药物或氧气。在医院或者养老院的环境中,护理机器人则会适应环境的需要,了解病人的日程安排,在病人需要的时候陪伴他们。还记得养老院中的老人们在坐立不安中等待家人和朋友的探视吗?还记得医院中的老人们焦虑地等待护工的帮助吗?这样的日子很快就可以一去不复返了。还记得由于把药物忘记在厨房,而在卧室里头晕目眩、胆战心惊吗?这样的日子几乎不会再发生了。研究者们试图抚平批评者们的言论,一位研究者说:“这款机器人甚至连雪莉都会爱上的。”的确,第二天我就看到了一段关于医院向导机器人的视频,其中被采访的许多病人都很开心,他们中的大多数都是老年人。
1702421300
1702421301
仅仅几个月以后,我自己就因为在哈佛广场结冰的台阶上滑倒,而必须坐在轮椅上在医院里接受各种治疗。陪着我的是医院的男性护理员们。他们非常体贴,知道我从轮椅上被抬到X光拍片台上时会很疼。他们非常人性化,也很风趣。他们安慰我的骨折类型“很幸运”,因为虽然造成很大的不便,也很痛苦,但不会留下什么后遗症。在得知我的病情好转时,护理员与我击掌庆祝。护理机器人也许具备逻辑运算的能力,但我自己很庆幸照顾我的是真人。对于我来说,这段个人经历并没有改变我对机器人优点的态度:它们可以提供药品、提供监护、监察生理状况,以及是否出现紧急情况;但这段经历也提醒了我机器人的局限性。
1702421302
1702421303
尽管如此,这个故事并不能推导出任何简单的结论。我们正在试图理清一些非常复杂的现象。有些老年人告诉我,比起某些护理人员,他们更愿意选择机器人。有些人更希望选择机器人帮助他们洗澡,这会让他们感到自己的隐私没有被侵犯。如今的护理机器人尚不具备帮助洗澡的功能,但未来可能会具备。我所研究的一家养老院的院长对我说:“我们并不会因为年老而变得像孩子一样,但是因为老年人更加依赖别人,因此外表看起来似乎很孩子气。很多时候,我们都用这种错误的理解去对待老人。”对待老人的这种脆弱性,护士们有时候通过貌似唐突无礼的行为来进行心理补偿;有时候则用完全相反的方法,用亲密的字眼来安慰老人,如“亲爱的”、“宝贝儿”等。但这种试图温暖老人的字眼,有时却恰恰会起到有损人格的反作用。院长对机器人抱有很大的希望,因为它们更“中立”。
1702421304
1702421305
到了2006年,护理机器人已经在退休疗养院中使用了数年的时间,许多人都在网络讨论组里对机器人的作用进行评价。大多数人对机器人的态度都很正面。来自宾夕法尼亚州奥克蒙特的洛伍德(Longwood)退休社区的报告非常感人。报告中说,机器人“赢得了老人们的心”。另一份报告则说一台叫作“珍珠”的机器人会“一直陪伴老人,和他们说话”,并引用一位老人的话说,“我们相处得很愉快,但我不认为‘她’是我喜欢的那种姑娘”。另一些评论则谈到许多老人和家庭对待机器人的矛盾心理,在我的研究中常常会遇到这样的矛盾心态。一位女士对“珍珠”能承担家庭杂务赞不绝口,但对机器人的“社交功能”表示忧虑。她写道:“我担心随着未来科技的进步,像‘珍珠’这样的机器人也许会变得非常先进,以至于所有照顾老人的工作都会分派给机器人完成。这的确非常让人忧虑。当你老了以后,你希望由机器人来照顾你吗?如果机器人是人的补充而非替代,那么我会完全接纳!”
1702421306
1702421307
另一份报告是这样开头的:“人类的关怀和爱,让我们把这些留给人来完成吧。”随后报告却声称:“从机器宠物的爱,到对于孤独老人的陪伴是完全可以接受的。”在这个论坛中,许多讨论都是先谈到机器人可以起到许多实际的作用(比如在老人遇到危险的时候,提醒亲属或警察的注意),随后想象机器人可以排解孤独,因而变得比其他任何宠物都可爱:“它们永远也不会抱怨,非常忠诚。”我为这样的忠诚和服从而感动,因为两种都意味着掌控别人,而对于老年人来说,这恰恰是最缺乏的。
1702421308
1702421309
在另一个网络讨论中,没有人对于真人关怀还抱有浪漫的想象,因为他们都看到真人是如何冷漠和自私。评论都很灰暗,一位写道:“机器人不会像疗养院里的工作人员那样虐待老人。”另一位则并不这么认为:“护士一定要是真人,不过大多数护士都会保持与工作的距离,这是他们保护自己不至于发疯的方法。”另一位抱怨道:“机器人也许永远不会理解老人是否‘无聊、悲伤、非常悲伤、绝望,还是没有了活下去的信心’,但懂得理解老人这种感情的人同样‘很难得’。”
1702421310
1702421311
我发现,这样的观点在机器人和老人关系的讨论中非常典型。许多有着这样观点的老人都垂垂老矣。有一个实质性的问题:为什么要把一个不明白生命的物体,送给那些最希望能够理解自己生命意义的老人?回答这个问题几乎是不可能的,因为我们已经建立起这样一个框架——这样的结果是已经决定了的、不可撤销的,因为我们可以给予老人的东西实在太有限了。我们已经宣告自己被这样的大趋势所折服,我们与自己和未来的创造性的关系已经不复存在。我们学会了遵从科技所能带来的东西,因为我们发现自己很空虚。我们自暴自弃。从这个角度出发,我或者任何其他人是否喜爱护理机器人真的不重要。如果它被设计出来做一件工作,它就会兢兢业业地完成。
1702421312
1702421313
有些人会反对,说机器人只是看上去很关心、很善解人意而已。对于这样的意见,通常的回答是:其实很多时候,人们也只是假装看上去很关心、很善解人意而已。或者如最近《纽约时报》一篇介绍“帕罗”和其他“护理机器人”的文章中说得那样:“我们中间谁没有假意地表现出对别人的关心呢?或是突然地漠不关心呢?”在这里,关于“护理机器人”价值的对话,偏移到了早在机器人被发明前就存在的人类“欺骗行为”。因此,问题并不在机器人身上,因为人类本身的行为也和机器人一样。文章继续写道:“不管怎样,人工智能爱好者认为,问题并不是去避免友好的机器人所能触发的、我们的情感,而是如何去处理这样的情感。”一位人工智能专家认为:人类“作为一个物种”已经学会了如何处理“人造情绪”。所谓“人造情绪”,即指由人工制造出来的物体所表现出来的情绪。对于他来说,“人造情绪”的产生已经成为既定事实。既然我们必然会制造这样的情绪,我们就必须学会适应它。这是一个完整的循环。打破这个循环的唯一方法就是重新定位。有人也许会说,人们会假装关心,而机器人则不懂关心。因此机器人无法假装什么,因为它唯一会做的事情就是“作秀”。
1702421314
1702421315
机器人是心灵良药吗?
1702421316
1702421317
在我最初研究计算机和人的相关问题时,我发现程序员和计算机之间建立的是一种“一对一”的关系,显然他们之间有密切的情感联系。计算机几乎像人一样具有反应性和互动性,让程序员们感觉自己即使在写代码的时候也同样有人“陪伴”。随着时间的流逝,这种情感联系更“民主化”了。计算机程序成为了黑箱,当我们与计算机打交道的时候,我们只是和它的表层进行互动。我们通过屏幕图标的中介进行操作。我们也满足于不再关心计算机背后的运作机制,而仅仅关注它的“交互界面价值”。但是我们将它们带入现实生活,计算机程序似乎是最好的伙伴。如今“似乎”二字也几乎可以省略。网络中介与社交机器人已经如此先进,以至于让我们可以相信,它们就是足以胜任的伙伴。
1702421318
1702421319
可以预期的是,我们的感情投入会越来越多。我们会发现自己被模拟关心的事情所抚慰、被没有感情的机器所感动。我们赋予了机器人许多的意义,但是它们却并不知道这些意味着什么。它们的确没有任何的主观意识。当机器人的程序想要表现“恶心”的时候,它的脸部就会表现出人类文化意义上的“恶心”。这只是为了“作秀”而表演出来的“情感”。如果我们出于自己的目的,而将这样的表演看作“足够真实”的呢?当机器人伴侣不仅治疗了老年人的孤独,而且缓解了亲人们的负罪感,那么就会存在道德问题。
1702421320
1702421321
在2009年春天,我将老年人的机器人护理案例讲给哈佛大学一个班级的本科生听。他们的教授、政治理论学者麦克尔·桑德尔(Michael Sandel)很惊讶:他的学生可以如此坦然、轻松地接受新观念。桑德尔让他们的学生想象这样一个情景:一位养老院的老人感到自己受到了“帕罗”的抚慰,用它替代了自己子女的角色。而他真正的子女们也许会感到自己的责任减轻了许多,因为机器人“搞定了一切”。给老年人提供机器人伴侣,是否让我们不再去寻找其他照顾老年人更好的选项呢?
1702421322
1702421323
桑德尔教授让学生们去探讨机器人伴侣是否可能导致道德自满。而我却想起了蒂姆:他的母亲喜欢与“帕罗”聊天,这让蒂姆心里好受许多。蒂姆说这让他自己去养老院探望母亲后,“离开房门”时心里会好受一些。
1702421324
1702421325
短期而言,蒂姆的案例似乎证明机器人可以起到积极的作用。老人们似乎很满足,孩子们似乎不再那么内疚。但长期来看,我们做这一切的目的难道只是为了让子女们可以更容易地离弃自己的父母吗?那种机器人所营造的“感觉好些”的时刻会导致子女们减少探望父母的次数吗?当老人们把本该和子女们说的话说给机器人听时,他们是否受到了机器人的欺骗而感到似乎不再那么孤单?当你和机器“生物”分享“情感”的时候,你已经习惯于把“情感”缩减到机器可以制造的范围内。当我们已经学会对机器人“倾诉”时,也许我们已经降低了对所有关系的期待,包括和人的关系。在这个过程中,我们背叛了我们自己。
1702421326
1702421327
所有这些问题都在桑德尔的课堂上进行了讨论。但总体而言,他的学生在进行他提出的思想试验时,都表现出了比较积极的态度。在关于母亲、子女和机器人的假想案例中,他们将三件事情视为理所当然并且像背诵祷文一样不断重复,这三件事情是:第一,孩子们早晚都得离开父母;第二,最好要让母亲满意;第三,孩子们必须尽可能地让母亲高兴。
1702421328
1702421329
我非常冷静地离开了桑德尔教授的课堂,想起了五年级的小学生们围聚在一起,叽叽喳喳地谈论机器人成为自己祖母的保姆和护理员的场景,他们提出的问题在我的脑海里萦绕:“难道不是应该有人去做这些工作吗?”我想到这代年轻人并不会反对在养老院中采用机器人保姆。也正是在那个春天,“帕罗”的发明者刚刚向丹麦政府销售了1 000台“帕罗”机器人。他来到麻省理工学院,宣布将在美国开设店面并开始销售“帕罗”。
1702421330
1702421331
1702421332
1702421333
1702421334
群体性孤独:为什么我们对科技期待更多,对彼此却不能更亲密? [
:1702420116]
1702421335
群体性孤独:为什么我们对科技期待更多,对彼此却不能更亲密? 07 拥抱“机器人时代” 亲密关系的美好未来
1702421336
1702421337
机器人能为我们做很多实实在在的事。机器人的面部表情和声音,让它们有了像人一样的思想和灵魂。因此,我们与机器人的关系越来越亲密。将人们从“虚拟”拉回到“现实”的“机器人时代”正在到来。
1702421338
1702421339
[
上一页 ]
[ :1.70242129e+09 ]
[
下一页 ]