1702421449
1702421450
这样的场景对于林德曼来说至关重要。她发现要扮演机器人,唯一正确的方法就是采用一个包括爱情元素的脚本。“让我能记住这些交互动作的唯一方法就是创造一个故事,把情感加入到动作之中,这让我记忆起来更加容易。”她知道艾幸格的体会可能完全不一样。艾幸格也曾经将机器人看作既是程序,也是生物体。“很多时候,他盯着密密麻麻的代码在屏幕上滚动。他从源代码中看到的是机器人的行为,但同样也会被肢体的互动所深深吸引。”艾幸格编写了“多莫”的代码,却通过触摸“多莫”的机器躯体对它有了更深的了解。看到电影中的这些片段,我似乎看到一位慈爱的母亲轻抚孩子的额头,检查孩子是否发烧。
1702421451
1702421452
关于艾幸格按住“多莫”的手以避免冲突的那一幕,林德曼这样描述:
1702421453
1702421454
艾幸格是像这样按住“多莫”的手(林德曼一边说,一边示意着),眼睛直视“多莫”似乎想从它的眼神里读出它在做什么:它的眼睛正在看着哪里呢?它是否迷惑了呢?它是否试图理解它的所见所闻呢?和“多莫”进行目光接触是很关键的事情。艾幸格做到了。他真的通过凝视“多莫”的目光来理解它在看哪里。“多莫”慢慢地转过头来,也看着他。这一刻太浪漫了。
1702421455
1702421456
艾幸格在回忆这一刻时,说自己感受到了被追求的快乐。因此当林德曼表演的时候,她将欲望的情感带入到机器人和人此刻的交互中,一点也不显得夸张。她说:“似乎我需要假设机器人有感情才能理解它。”她只有在进入女生追求男生的情景时,才能最好地扮演“多莫”。“是的,”她承认说,“这是我最擅长的事情。”
1702421457
1702421458
在“悲伤”项目中,林德曼的身体所处的位置,给她带来了落魄和屈辱的体验,她把这个效果归咎于镜像神经元的作用。她也预计在机器人身上重复这个实验会有非常不一样的结果,因为“机器人没有感情”。但最终,她必须要创造感情才能成为那个没有感情的物体。“为了记住机器人的动作,我必须要对自己说:‘它这么做的原因,是因为它有这样的感受。’这与我自己感同身受不一样,因为我需要的是动作背后的逻辑。”她必须假想机器人同人一样,也有镜像神经元。她在同自己的经验进行着矛盾的思想斗争。如果人作为主体可以与非生命体进行亲密地交流,这就明显与专家的观点矛盾了。
1702421459
1702421460
哲学家伊曼纽尔·列维纳斯认为,面孔的出现可以触发人类的“道德契约”感。一张活生生的面孔会说:“你不能杀我。”甚至在我们知道面孔背后是什么,在我们知道这是机器的脸之前,我们也同样会受到“道德契约”的约束。机器人的面孔表明了可以识别他人的一个自我存在。它将我们放置在一个渴求被识别的视野中。这并非关于机器人识别我们的能力,而是关于我们的主观希望。
1702421461
1702421462
林德曼想象着艾幸格是如何想要得到机器人的认可,只有这样她才能更好地扮演艾幸格的角色;同样,她只能通过想象机器人是如何希望得到艾幸格的认可,才能扮演好机器人的角色。因此,“机器人寻找绿色小球”的这一幕被林德曼演绎成为一个内心充满困惑的机器人,找到离它最近的人,双眼凝视他,握住他的手以求安慰。这常常是人们感受到亲密感的经典一幕。不仅是林德曼演绎得如此,就连艾幸格自己也体会到了这种亲密感,尽管他的专业知识让他非常清楚机器人行为背后的原因是什么。对于林德曼来说,这样的互动提出了一个严肃的问题:“究竟什么是真情实感,什么是虚情假意?”
1702421463
1702421464
林德曼担心她所采用的浪漫化的脚本“对于我们来说也许不够真实”,因为机器人“是机械的组合,没有灵魂”。然而在她的“悲伤”项目中,她发现悲伤的情绪总是通过一系列结构化的模式表达出来。她认为这种模式是生物性和文化共同塑造的结果。因此,如同机器人一样,在我们情感表达的背后,同样有着我们自己的程序。我们受到这种机制的影响,即使在我们感情最丰富的时刻也同样如此。林德曼问道,如果我们的感情是经过这样的程序中介的,那么我们的情绪与机器人的情绪又有什么本质的区别呢?林德曼认为,二者之间的界限已经消失了。我们的“真情实感”机器人也同样可以拥有,反之亦然。
1702421465
1702421466
这正是我开始的时候所谈到的问题。未来我们需要回答的问题不会是:比起宠物和家长,孩子们是否会更加爱自己的机器人伙伴?我们很可能要回答:爱是什么?当我们与机器人的关系更加亲密的时候,这意味着什么?我们是否已经准备好从机器人的镜子中看到自我,把爱视为一种行为的表演呢?
1702421467
1702421468
在林德曼关于“悲伤”的诠释中,她感到自己的身体触发了某种思维的状态。同样,当她扮演“多莫”的时候,她说她“感觉”到了机器人的思维。但林德曼对“穿越”体会机器人思维保持着更加开放的态度。在完成“多莫”项目后,她开始探索如何将自己的脸部和控制机器人“梅茨”的计算机连接起来。
1702421469
1702421470
麻省理工学院媒体实验室Lijin Aryananda研发的机器人“梅茨”有着金属的头部、可弯曲的颈部,在脸部表情、语音和视觉功能上都较“凯斯麦特”有了长足的进步。和“凯斯麦特”一样,“梅茨”的一双乒乓球大小的黑色眼睛上,有着一对富有表情的眉毛。这个功能设计的目的,就是为了让人可以对机器人的感觉更加友善。它甚至真的会说一些简单的英语。和“多莫”一样,“梅茨”设计的用途就是成为居家伴侣和帮手。使用一段时间后,它就可以自行识别人和物,并用情感恰当的语气与人聊天。林德曼希望能够把自己“接入”机器人,从而可以直接体验到“梅茨”的内心状态。“我会体会到它的感觉。”她很兴奋地说。林德曼还希望在这个过程中,能够对自己的大脑进行扫描,以将自己的大脑活动与机器人的活动进行比较。“我们可以真的将两者放在一起对比,”她说,“我会成为人工智能具化的代表,我们可以看看当机器人微笑的时候,我的大脑中是否也有微笑的反应。”
1702421471
1702421472
很快,林德曼就发现无法将她的大脑与机器人的外部设备连接起来。因此,她改变了自己的计划。她的新目标是将自己的脸而非大脑,与“梅茨”的控制计算机连接起来,从而“换上‘梅茨’的面部表情,成为人工智能表情的工具”。试验进行了一段时间以后,她感到在“自己是谁”和“成为机器人后的感觉如何”这两者之间存在着一道隔阂。她希望试验能有助于她理解究竟人的特殊性是什么。从这个意义上来说,这个试验项目不仅是关于渴望和机器人亲密沟通,同时也是试图回答这样的亲密沟通是否可能。林德曼想象着这道鸿沟说:“你会说,好吧,这是属于人性的特质部分。”
1702421473
1702421474
首先,林德曼制造了一台可以控制她的表情的机器。这台机器由一组机械钳子、杠杆和线路组成。“从体验我的脸部被摆弄出不同的表情开始。”这个过程很痛苦,也促使林德曼重新思考,她曾经希望未来可以实现的、人与机器的直接接入。“我并不害怕太多的痛苦,但我更担心的是伤害,真正的伤害、生物性的伤害、脑部伤害。我也知道这样的伤害也许不会发生,但这的确很吓人。”林德曼还在想象着另外一种伤害。如果有一天,她真的将自己和计算机程序连接起来,她相信自己会拥有前人没有拥有过的知识量。她会体会到被外星人“掳走”的经历。也许她会感到巨大的拉升力,而自己却毫无抵抗之力。而她担心的“伤害”就与此相关。她也许会学到许多自己并不需要的知识。这样的海量知识正是我们与机器亲密关系的界限吗?这样的知识是禁忌吗?会造成伤害吗?
1702421475
1702421476
林德曼的方法很新颖,但她提出的问题却并非是新鲜事物。机器能产生感情吗?它们需要感情才能产生完全的智能吗?人们与机器连接的方式难道只是将自身的情感投射到机器上,而这样的情感却又是机器无法理解的吗?哲学和人工智能领域在很长的时间里都在试图回答上述问题。在我自己的研究中,我认为人工智能的局限性在于,无论是计算机中介还是机器人,都没有人类的生命循环。在我看来,一个反对机器人心理治疗师的人会认为:“我怎么可能和一个没有母亲的机器,谈论手足之争的事情呢?”最近,一些科学家为了解决机器缺少情感的问题,决定设计装载一些这样的情感程序。在人工智能领域中,人们已经不再讨论“计算机需要躯体才可能变得智能”,而转而讨论“计算机需要情感才可能变得智能”。
1702421477
1702421478
“情感计算”(affective computing)领域的计算机科学家,会觉得自己的研究得到了来自社会科学家们的支持。因为社会科学的研究表明:人们总是把自己的情感投射到计算机上,以帮助人们更具建设性地与计算机一起工作。例如,心理学家克利福德·纳斯(Clifford Nass)教授和他的同事们从一系列实验中发现:“即使在与自身关于机器的既有信念完全违背的情况下,人们依然会和技术产物进行社会互动行为。”人们会赋予计算机个性特征和性别,甚至会调整自己的反应以避免伤害机器的“感情”。在一次颇具戏剧性的试验中,第一组人被要求在计算机A上进行一系列的任务,然后再在同一台计算机上对任务执行的情况进行评估;第二组人同样被要求在计算机A上进行一系列的任务,然后却在计算机B上进行评估。结果发现,第一组对计算机A的评分要远远高于第二组。基本上,参与者不愿意“当面羞辱”这台计算机。
1702421479
1702421480
纳斯教授和他的同事们认为:“当我们面对任何具有人类行为的特征——如会说话、根据输入进行反应的物体的时候,我们大脑的本能反应是下意识地将其当作人类看待。”在这个前提下,他们建议科技应当被设计得更“友好”一些,以满足实际使用的需要。这些科技产品更容易得到人们的青睐,并且更容易使用。但将机器设计得如此“友好”还导致了道德方面的影响。“它对人际关系方面产生了许多次要的影响(比如信任、持久的友谊等)。”在我看来,这一些次要的影响却是问题的核心。制造一台便于使用的机器是一回事,但赋予它迷人的性格则是另一回事。然而,这正是“情感计算”(与社交机器人)的研究方向之一。
1702421481
1702421482
这个领域中的计算机科学家希望能够建造这样一种计算机:它会评估它的使用者的情绪状态,并且以自己相应的“情绪”状态予以回应。麻省理工学院的罗莎琳德·皮卡德(Rosalind Picard)由于最早提出了“情感计算”的概念而广为人知。他在文章中写道:“我得出了以下结论,如果我们希望计算机可以真的拥有智能、可以适应我们、自然地与我们交互,那么它们就需要识别和表达情感的能力,也就是拥有‘情感智能’(emotional intelligence)。”机器人是否有情感,抑或表现得似乎有情感,这两者之间的界限已经模糊。的确,正如马文·明斯基所说,“情绪与我们称之为‘思考’的过程并没有什么特别的差异”。他的这个看法与安东尼奥·达马西奥相同,但却得出了不同的推论。在明斯基看来,这意味着机器人将成为情感思维的机器。而对于达马西奥来说,除非机器人拥有同生命体一样特征和问题的躯体,否则它永远无法真正地拥有情感。
1702421483
1702421484
在实际工作中,“情感计算”方面的研究者都在尽量避免使用“情绪”(emotion)这样的字眼。因为“计算机的情绪”这样的话题总是会遭遇强烈的非议。计算机是如何拥有情绪的呢?而“情感”(affect)则听起来更加恰当、合理一些。更像是用户界面策略而非哲学观点。但“情感”的同义词也包括“情绪”、“感觉”(feeling)、“直觉的”(intuitive)以及“非认知的”(noncognitive)等。当“情感”成为计算机可以拥有的一种特质的时候,这个词语就失去了上述这些含义。同样,“智能”一词在用于形容机器的时候,也会发生类似这样的词义损失。“智能”曾经指代一种浓厚的、分层的复杂特征。它具备敏锐的洞察力和常识。但当计算机也开始变得“智能”的时候,这个词就蜕变为单纬度的、专门指代认知方面的能力。
1702421485
1702421486
林德曼认为自己在“多莫”、“梅茨”机器人上进行的试验,对“情感计算”领域作出了贡献。她相信“多莫”机器人需要一层额外的情绪智能。因为这种情绪并没有在最初设计的范畴内,因此她说当进行角色扮演的时候,她需要“自行添加”这样的情绪。我聆听着林德曼是如何在“多莫”和艾幸格的关系中添加了渴望与温柔,但心里却有着完全不一样的反应。“情感计算”模糊了人与机器人之间的界限。也许林德曼在机器人中“加入”情绪是一件好事,因为这回答了“人的特殊性究竟是什么”的问题。
1702421487
1702421488
透过机器人的眼睛
1702421489
1702421490
“多莫”和“梅茨”都是非常先进的机器人。但我们知道,即便非常简单的机器人同样可以引发人们的亲密感。还记得把自己的“爱宝”既当作机器、也当作生命体的计算机科学家约翰·莱斯特吗?他仔细研究了“爱宝”以后,认为机器人将会改变人类进化的过程。他说:“未来人们不仅仅将机器人当作工具使用,我们还会去关心、照顾它们。机器人教会我们如何对待它们,如何和它们一起生活。我们会进化到去爱我们的工具,而我们的工具也会进化得更加可爱。”
1702421491
1702421492
莱斯特与林德曼、艾幸格一样,发现人们会将情感依附于这样的创造物上。他知道这么做有风险,于是有些腼腆地耸耸肩说:“我的意思是,我现在能做到自己与‘爱宝’有一种感情连接,因为它可以让我做许多我以前从来没有做过的事情……像‘爱宝’这样的终极工具会让这个社会做许多从来没有做过的事情。”莱斯特认为,“爱宝”会发展成为使用者的左膀右臂,扩展人们的臂膀之所能及、视野之所能见的范围。它可以让人们用新的方式与真实的物理空间进行互动。莱斯特认为:“我们会透过机器人的眼睛看世界,并且通过机器人的身体与世界互动……机器人的身体和你的身体会部分融合在一起,工具和身体通过永恒的、物理的方法永远结合在一起。”这也正是布鲁克斯谈及的、将人类肉身与机器结合的问题。以后不再有“它们机器人”和“我们人类”的区别。也许我们将与机器生物融合;抑或再进一步,我们将变得如此接近它们,我们需要通过它们才能更好地认识自我。在前者中,机器人依然还是“它者”,但这个“它者”会使你变得更加完整。
1702421493
1702421494
萨德·斯塔那(Thad Starner)也有类似的梦想。他是麻省理工学院可穿戴计算小组(Wearable Computing Group)的创始人。这个小组的研究对象就是前些年很热门的“半机器人”。他想象着如何像抚养小孩子一样养育机器人,正如布鲁克斯抚养“卡格”一样。但斯塔那坚持认为,“卡格”以及后来的“多莫”、“梅茨”,都还没有达到极致。它们生活在实验室中,无论设计者是如何出于好意,它们都永远不可能像人类婴儿那样被对待。斯塔那希望把自己的人生经验教给机器人,他在自己的衣服里装上了感应装置,这些装置可以让“计算机见我所见、闻我所闻、经历我所经历的世界”。斯塔那说:“如果我在某次会议上碰到了某人,它就会听到我说,‘嗨,戴维。’然后握手。如果它随后看到我输入此人的名字和档案信息,也许它就会真正地开始理解‘认识’的意思。”在斯塔那看来,创造的“不仅仅是一个人工智能的机器。它就是我” 。
1702421495
1702421496
27岁的格雷格是一位年轻的以色列创业者,他刚刚从商学院毕业。格雷格同样梦想着将机器人和人连接在一起。这也是他未来创业的方向,并且希望能够在短期内发家致富。在格雷格的设计中,他手机的数据将会驱动一台机器人。他说:
1702421497
1702421498
白天,我会随身带着我的手机。晚上回到家后,我会把手机连接到一台机器人。这台机器人也是智能的,但与之前的那些都不一样。它很了解我的家,知道如何料理它。如果我生病了,它也知道该怎么照顾我。机器人会坐在我身边,为我准备材料,以方便我进行商务通话时使用。当我旅行的时候,我只需要携带我的手机,在特拉维夫会有同一型号的另外一台机器人。我只需要把我的手机连接到这台机器人就可以了。机器人可以做的事情会更多,背部按摩当然是必不可少的。如果你遇到紧急的医疗状况,它还可以提供紧急治疗。对于年轻人来说,它是一个靠谱的帮手;对于老年人来说,则意味着更多。
[
上一页 ]
[ :1.702421449e+09 ]
[
下一页 ]