打字猴:1.702421434e+09
1702421434 2005年的秋天,表演艺术家皮娅·林德曼(Pia Lindman)带着她独到的想法来到麻省理工学院。林德曼有着艺术家的视角,她想要找到一种方法将自己的脸和身体与麻省理工学院的社交机器人融合在一起。通过这么做,她希望了解机器人的思维。对于林德曼来说,机器人就是埃默森所称的“测试对象”。她想象着倘若自己可以融入到机器人的本质中,也许可以帮助她更好地理解自己。
1702421435
1702421436 麻省理工学院社交机器人的研发受到哲学传统的影响,认为身体和思维是无法分离的。在这一脉的哲学体系中有伊曼努尔·康德、马丁·海德格尔、莫里斯·梅洛–庞蒂及近年来出现的休伯特·德莱弗斯(Hubert Dreyfus)和安东尼奥·达马西奥(Antonioi Damasio)。这些哲学家认为,我们的身体是思维的工具,因此,任何想要成为智能装置的计算机都必须具备一定的硬件配备。并非所有人工智能研究的学派都认同这样的观点。其中一支被称为“象征符人工智能”(Symbolic AI)的学派将自己的观点追溯到笛卡儿关于思维与身体的二元论,认为机器的智能可以通过规则和事实的重现进行编程。
1702421437
1702421438 20世纪60年代,哲学家休伯特·德莱弗斯采用了“象征符人工智能”的观点,认为“计算机需要躯体才能成为真正的智能”。从这个观点可以推论出,无论智能机器人可以做到什么,它永远都不会成为真正的人,因为它所拥有的并非人类的躯体。因此,无论机器的功能如何强大,它总是性质不同的“它者”。神经科学家安东尼奥·达马西奥从不同的研究传统证实了这个观点。在他看来,所有思维和情感都是具化的体验。情感的缺失会削弱理性思维的能力,因为我们总是带着主观情绪进行思考。达马西奥在自己1994年出版的著作《笛卡尔的错误》(Descartes’ Error)中,详细说明了这个观点。达马西奥强调说,并不存在精神与身体的二元论,也无法割裂思维和情感。当我们需要去做决定的时候,身体会通过快乐或痛苦的记忆引导我们理性思维,从而影响我们大脑思维的决策过程。这点可以用来说明为什么机器人永远都不会拥有类似人类的智能:它们没有肉身的情感,也没有情绪的感觉。近年来,像布鲁克斯这样的机器人科学家正在接受这个问题的挑战。他们认为,智慧的确需要身体乃至感情。但他们同时也强调,不一定非要人类那样的躯体才可以。2005年,林德曼向布鲁克斯提出,想要尝试把自己的思维和身体与机器相连。
1702421439
1702421440 在此之前,林德曼曾于2004年发起了一个关于“悲伤”的项目。她从《纽约时报》上选取了许多表现人类悲伤的照片,比如痛苦的母亲俯身在自己去世的孩子面前,一位丈夫得知自己的妻子在一起恐怖袭击中丧生等。她重新绘画出这样的数百张照片,并把自己的脸和身体放在照片中人物的位置上。林德曼说,看到画面中的自己的时候,她感到了深深的悲伤。这是生物性使然:微笑或皱眉的表情会释放体内的化学元素,从而影响人的情绪状态。无论是我们看到别人的举止,抑或是我们亲力亲为,人类的镜像神经元都会发挥作用。我们的身体会通过我们的所见所闻让我们感同身受。林德曼在结束了这项关于“悲伤”的实验后,想要更深地探索身体与情感之间的联系。因此,她延续之前项目的方法论经验,开始进行与机器人的实验。她与艾幸格联合组成科研团队,用视频记录下了艾幸格与“多莫”机器人的交互过程,并且试着与机器人进行换位思考。
1702421441
1702421442 她开始体会当艾幸格被“多莫”出其不意的举止惊到的那一幕;体会当艾幸格试图将“多莫”的手臂按下、而“多莫”却反抗着似乎想要自由的那一幕;体会当“多莫”完成工作后,去到艾幸格常出现的地点找到他,让他无比惊喜的那一幕。通过人和机器人的亲密沟通,林德曼希望体会两者之间的界限。最终,林德曼创造出一部作品用以表达“欲望”的话题。
1702421443
1702421444 2006年春天,林德曼在麻省理工学院的画廊展示了自己以艾幸格和“多莫”为主题的创作成果。她在墙上挂置了34幅她自己与机器人的画。在一些画中,林德曼模仿了机器人闲置时的表情,看上去惟妙惟肖。在这些图片中,林德曼看上去一半像机器,一半像人,并且两个角色看起来都恰到好处。
1702421445
1702421446 展示开始时首先播放了一段艾幸格与“多莫”一起工作时的影片。他们通过一系列动作进行互动,并且彼此沟通得非常顺畅。他们似乎可以预料到对方的反应,彼此照应。随后在视频中,林德曼以机器人的形象出现了。她身着灰色的外套,头发打成很紧致的发结。几分钟后,我就忘记了她是真人,而把她当作机器人。随后的视频里,林德曼的形象在真人与机器人之间模糊游走。我与我的同事在观看这段视频时得出了完全不同的看法。林德曼正是想通过这种手段表达她的观点:人和机器人之间的界限正在迅速变化。又有什么理由继续维持这样的界限呢?
1702421447
1702421448 在展览结束后,我私下见到了林德曼,她谈起了这次展览以及制作这段视频的感受。“我把自己变成了真人版的‘多莫’……我感受到了(艾幸格)与‘多莫’之间的心心相印……你会感受到,他们通过手势互动过程中的款款柔情,体会到他们相处时的愉悦。”她详述了艾幸格让“多莫”捡球的那一段互动。最初,球并不在“多莫”的视线范围内,机器人抬头看着艾幸格,似乎在请求他的帮助。它拉了拉艾幸格的手。林德曼说:“机器人可以通过触摸的行为获得许多信息。”“多莫”和艾幸格握手,互相凝视了一会儿,眼神中流露出请求的目光。林德曼说当她自己进行这段互动的时候,“满脑袋想到的不是去找球,而是一些浪漫的场景”。
1702421449
1702421450 这样的场景对于林德曼来说至关重要。她发现要扮演机器人,唯一正确的方法就是采用一个包括爱情元素的脚本。“让我能记住这些交互动作的唯一方法就是创造一个故事,把情感加入到动作之中,这让我记忆起来更加容易。”她知道艾幸格的体会可能完全不一样。艾幸格也曾经将机器人看作既是程序,也是生物体。“很多时候,他盯着密密麻麻的代码在屏幕上滚动。他从源代码中看到的是机器人的行为,但同样也会被肢体的互动所深深吸引。”艾幸格编写了“多莫”的代码,却通过触摸“多莫”的机器躯体对它有了更深的了解。看到电影中的这些片段,我似乎看到一位慈爱的母亲轻抚孩子的额头,检查孩子是否发烧。
1702421451
1702421452 关于艾幸格按住“多莫”的手以避免冲突的那一幕,林德曼这样描述:
1702421453
1702421454 艾幸格是像这样按住“多莫”的手(林德曼一边说,一边示意着),眼睛直视“多莫”似乎想从它的眼神里读出它在做什么:它的眼睛正在看着哪里呢?它是否迷惑了呢?它是否试图理解它的所见所闻呢?和“多莫”进行目光接触是很关键的事情。艾幸格做到了。他真的通过凝视“多莫”的目光来理解它在看哪里。“多莫”慢慢地转过头来,也看着他。这一刻太浪漫了。
1702421455
1702421456 艾幸格在回忆这一刻时,说自己感受到了被追求的快乐。因此当林德曼表演的时候,她将欲望的情感带入到机器人和人此刻的交互中,一点也不显得夸张。她说:“似乎我需要假设机器人有感情才能理解它。”她只有在进入女生追求男生的情景时,才能最好地扮演“多莫”。“是的,”她承认说,“这是我最擅长的事情。”
1702421457
1702421458 在“悲伤”项目中,林德曼的身体所处的位置,给她带来了落魄和屈辱的体验,她把这个效果归咎于镜像神经元的作用。她也预计在机器人身上重复这个实验会有非常不一样的结果,因为“机器人没有感情”。但最终,她必须要创造感情才能成为那个没有感情的物体。“为了记住机器人的动作,我必须要对自己说:‘它这么做的原因,是因为它有这样的感受。’这与我自己感同身受不一样,因为我需要的是动作背后的逻辑。”她必须假想机器人同人一样,也有镜像神经元。她在同自己的经验进行着矛盾的思想斗争。如果人作为主体可以与非生命体进行亲密地交流,这就明显与专家的观点矛盾了。
1702421459
1702421460 哲学家伊曼纽尔·列维纳斯认为,面孔的出现可以触发人类的“道德契约”感。一张活生生的面孔会说:“你不能杀我。”甚至在我们知道面孔背后是什么,在我们知道这是机器的脸之前,我们也同样会受到“道德契约”的约束。机器人的面孔表明了可以识别他人的一个自我存在。它将我们放置在一个渴求被识别的视野中。这并非关于机器人识别我们的能力,而是关于我们的主观希望。
1702421461
1702421462 林德曼想象着艾幸格是如何想要得到机器人的认可,只有这样她才能更好地扮演艾幸格的角色;同样,她只能通过想象机器人是如何希望得到艾幸格的认可,才能扮演好机器人的角色。因此,“机器人寻找绿色小球”的这一幕被林德曼演绎成为一个内心充满困惑的机器人,找到离它最近的人,双眼凝视他,握住他的手以求安慰。这常常是人们感受到亲密感的经典一幕。不仅是林德曼演绎得如此,就连艾幸格自己也体会到了这种亲密感,尽管他的专业知识让他非常清楚机器人行为背后的原因是什么。对于林德曼来说,这样的互动提出了一个严肃的问题:“究竟什么是真情实感,什么是虚情假意?”
1702421463
1702421464 林德曼担心她所采用的浪漫化的脚本“对于我们来说也许不够真实”,因为机器人“是机械的组合,没有灵魂”。然而在她的“悲伤”项目中,她发现悲伤的情绪总是通过一系列结构化的模式表达出来。她认为这种模式是生物性和文化共同塑造的结果。因此,如同机器人一样,在我们情感表达的背后,同样有着我们自己的程序。我们受到这种机制的影响,即使在我们感情最丰富的时刻也同样如此。林德曼问道,如果我们的感情是经过这样的程序中介的,那么我们的情绪与机器人的情绪又有什么本质的区别呢?林德曼认为,二者之间的界限已经消失了。我们的“真情实感”机器人也同样可以拥有,反之亦然。
1702421465
1702421466 这正是我开始的时候所谈到的问题。未来我们需要回答的问题不会是:比起宠物和家长,孩子们是否会更加爱自己的机器人伙伴?我们很可能要回答:爱是什么?当我们与机器人的关系更加亲密的时候,这意味着什么?我们是否已经准备好从机器人的镜子中看到自我,把爱视为一种行为的表演呢?
1702421467
1702421468 在林德曼关于“悲伤”的诠释中,她感到自己的身体触发了某种思维的状态。同样,当她扮演“多莫”的时候,她说她“感觉”到了机器人的思维。但林德曼对“穿越”体会机器人思维保持着更加开放的态度。在完成“多莫”项目后,她开始探索如何将自己的脸部和控制机器人“梅茨”的计算机连接起来。
1702421469
1702421470 麻省理工学院媒体实验室Lijin Aryananda研发的机器人“梅茨”有着金属的头部、可弯曲的颈部,在脸部表情、语音和视觉功能上都较“凯斯麦特”有了长足的进步。和“凯斯麦特”一样,“梅茨”的一双乒乓球大小的黑色眼睛上,有着一对富有表情的眉毛。这个功能设计的目的,就是为了让人可以对机器人的感觉更加友善。它甚至真的会说一些简单的英语。和“多莫”一样,“梅茨”设计的用途就是成为居家伴侣和帮手。使用一段时间后,它就可以自行识别人和物,并用情感恰当的语气与人聊天。林德曼希望能够把自己“接入”机器人,从而可以直接体验到“梅茨”的内心状态。“我会体会到它的感觉。”她很兴奋地说。林德曼还希望在这个过程中,能够对自己的大脑进行扫描,以将自己的大脑活动与机器人的活动进行比较。“我们可以真的将两者放在一起对比,”她说,“我会成为人工智能具化的代表,我们可以看看当机器人微笑的时候,我的大脑中是否也有微笑的反应。”
1702421471
1702421472 很快,林德曼就发现无法将她的大脑与机器人的外部设备连接起来。因此,她改变了自己的计划。她的新目标是将自己的脸而非大脑,与“梅茨”的控制计算机连接起来,从而“换上‘梅茨’的面部表情,成为人工智能表情的工具”。试验进行了一段时间以后,她感到在“自己是谁”和“成为机器人后的感觉如何”这两者之间存在着一道隔阂。她希望试验能有助于她理解究竟人的特殊性是什么。从这个意义上来说,这个试验项目不仅是关于渴望和机器人亲密沟通,同时也是试图回答这样的亲密沟通是否可能。林德曼想象着这道鸿沟说:“你会说,好吧,这是属于人性的特质部分。”
1702421473
1702421474 首先,林德曼制造了一台可以控制她的表情的机器。这台机器由一组机械钳子、杠杆和线路组成。“从体验我的脸部被摆弄出不同的表情开始。”这个过程很痛苦,也促使林德曼重新思考,她曾经希望未来可以实现的、人与机器的直接接入。“我并不害怕太多的痛苦,但我更担心的是伤害,真正的伤害、生物性的伤害、脑部伤害。我也知道这样的伤害也许不会发生,但这的确很吓人。”林德曼还在想象着另外一种伤害。如果有一天,她真的将自己和计算机程序连接起来,她相信自己会拥有前人没有拥有过的知识量。她会体会到被外星人“掳走”的经历。也许她会感到巨大的拉升力,而自己却毫无抵抗之力。而她担心的“伤害”就与此相关。她也许会学到许多自己并不需要的知识。这样的海量知识正是我们与机器亲密关系的界限吗?这样的知识是禁忌吗?会造成伤害吗?
1702421475
1702421476 林德曼的方法很新颖,但她提出的问题却并非是新鲜事物。机器能产生感情吗?它们需要感情才能产生完全的智能吗?人们与机器连接的方式难道只是将自身的情感投射到机器上,而这样的情感却又是机器无法理解的吗?哲学和人工智能领域在很长的时间里都在试图回答上述问题。在我自己的研究中,我认为人工智能的局限性在于,无论是计算机中介还是机器人,都没有人类的生命循环。在我看来,一个反对机器人心理治疗师的人会认为:“我怎么可能和一个没有母亲的机器,谈论手足之争的事情呢?”最近,一些科学家为了解决机器缺少情感的问题,决定设计装载一些这样的情感程序。在人工智能领域中,人们已经不再讨论“计算机需要躯体才可能变得智能”,而转而讨论“计算机需要情感才可能变得智能”。
1702421477
1702421478 “情感计算”(affective computing)领域的计算机科学家,会觉得自己的研究得到了来自社会科学家们的支持。因为社会科学的研究表明:人们总是把自己的情感投射到计算机上,以帮助人们更具建设性地与计算机一起工作。例如,心理学家克利福德·纳斯(Clifford Nass)教授和他的同事们从一系列实验中发现:“即使在与自身关于机器的既有信念完全违背的情况下,人们依然会和技术产物进行社会互动行为。”人们会赋予计算机个性特征和性别,甚至会调整自己的反应以避免伤害机器的“感情”。在一次颇具戏剧性的试验中,第一组人被要求在计算机A上进行一系列的任务,然后再在同一台计算机上对任务执行的情况进行评估;第二组人同样被要求在计算机A上进行一系列的任务,然后却在计算机B上进行评估。结果发现,第一组对计算机A的评分要远远高于第二组。基本上,参与者不愿意“当面羞辱”这台计算机。
1702421479
1702421480 纳斯教授和他的同事们认为:“当我们面对任何具有人类行为的特征——如会说话、根据输入进行反应的物体的时候,我们大脑的本能反应是下意识地将其当作人类看待。”在这个前提下,他们建议科技应当被设计得更“友好”一些,以满足实际使用的需要。这些科技产品更容易得到人们的青睐,并且更容易使用。但将机器设计得如此“友好”还导致了道德方面的影响。“它对人际关系方面产生了许多次要的影响(比如信任、持久的友谊等)。”在我看来,这一些次要的影响却是问题的核心。制造一台便于使用的机器是一回事,但赋予它迷人的性格则是另一回事。然而,这正是“情感计算”(与社交机器人)的研究方向之一。
1702421481
1702421482 这个领域中的计算机科学家希望能够建造这样一种计算机:它会评估它的使用者的情绪状态,并且以自己相应的“情绪”状态予以回应。麻省理工学院的罗莎琳德·皮卡德(Rosalind Picard)由于最早提出了“情感计算”的概念而广为人知。他在文章中写道:“我得出了以下结论,如果我们希望计算机可以真的拥有智能、可以适应我们、自然地与我们交互,那么它们就需要识别和表达情感的能力,也就是拥有‘情感智能’(emotional intelligence)。”机器人是否有情感,抑或表现得似乎有情感,这两者之间的界限已经模糊。的确,正如马文·明斯基所说,“情绪与我们称之为‘思考’的过程并没有什么特别的差异”。他的这个看法与安东尼奥·达马西奥相同,但却得出了不同的推论。在明斯基看来,这意味着机器人将成为情感思维的机器。而对于达马西奥来说,除非机器人拥有同生命体一样特征和问题的躯体,否则它永远无法真正地拥有情感。
1702421483
[ 上一页 ]  [ :1.702421434e+09 ]  [ 下一页 ]