1702421465
1702421466
这正是我开始的时候所谈到的问题。未来我们需要回答的问题不会是:比起宠物和家长,孩子们是否会更加爱自己的机器人伙伴?我们很可能要回答:爱是什么?当我们与机器人的关系更加亲密的时候,这意味着什么?我们是否已经准备好从机器人的镜子中看到自我,把爱视为一种行为的表演呢?
1702421467
1702421468
在林德曼关于“悲伤”的诠释中,她感到自己的身体触发了某种思维的状态。同样,当她扮演“多莫”的时候,她说她“感觉”到了机器人的思维。但林德曼对“穿越”体会机器人思维保持着更加开放的态度。在完成“多莫”项目后,她开始探索如何将自己的脸部和控制机器人“梅茨”的计算机连接起来。
1702421469
1702421470
麻省理工学院媒体实验室Lijin Aryananda研发的机器人“梅茨”有着金属的头部、可弯曲的颈部,在脸部表情、语音和视觉功能上都较“凯斯麦特”有了长足的进步。和“凯斯麦特”一样,“梅茨”的一双乒乓球大小的黑色眼睛上,有着一对富有表情的眉毛。这个功能设计的目的,就是为了让人可以对机器人的感觉更加友善。它甚至真的会说一些简单的英语。和“多莫”一样,“梅茨”设计的用途就是成为居家伴侣和帮手。使用一段时间后,它就可以自行识别人和物,并用情感恰当的语气与人聊天。林德曼希望能够把自己“接入”机器人,从而可以直接体验到“梅茨”的内心状态。“我会体会到它的感觉。”她很兴奋地说。林德曼还希望在这个过程中,能够对自己的大脑进行扫描,以将自己的大脑活动与机器人的活动进行比较。“我们可以真的将两者放在一起对比,”她说,“我会成为人工智能具化的代表,我们可以看看当机器人微笑的时候,我的大脑中是否也有微笑的反应。”
1702421471
1702421472
很快,林德曼就发现无法将她的大脑与机器人的外部设备连接起来。因此,她改变了自己的计划。她的新目标是将自己的脸而非大脑,与“梅茨”的控制计算机连接起来,从而“换上‘梅茨’的面部表情,成为人工智能表情的工具”。试验进行了一段时间以后,她感到在“自己是谁”和“成为机器人后的感觉如何”这两者之间存在着一道隔阂。她希望试验能有助于她理解究竟人的特殊性是什么。从这个意义上来说,这个试验项目不仅是关于渴望和机器人亲密沟通,同时也是试图回答这样的亲密沟通是否可能。林德曼想象着这道鸿沟说:“你会说,好吧,这是属于人性的特质部分。”
1702421473
1702421474
首先,林德曼制造了一台可以控制她的表情的机器。这台机器由一组机械钳子、杠杆和线路组成。“从体验我的脸部被摆弄出不同的表情开始。”这个过程很痛苦,也促使林德曼重新思考,她曾经希望未来可以实现的、人与机器的直接接入。“我并不害怕太多的痛苦,但我更担心的是伤害,真正的伤害、生物性的伤害、脑部伤害。我也知道这样的伤害也许不会发生,但这的确很吓人。”林德曼还在想象着另外一种伤害。如果有一天,她真的将自己和计算机程序连接起来,她相信自己会拥有前人没有拥有过的知识量。她会体会到被外星人“掳走”的经历。也许她会感到巨大的拉升力,而自己却毫无抵抗之力。而她担心的“伤害”就与此相关。她也许会学到许多自己并不需要的知识。这样的海量知识正是我们与机器亲密关系的界限吗?这样的知识是禁忌吗?会造成伤害吗?
1702421475
1702421476
林德曼的方法很新颖,但她提出的问题却并非是新鲜事物。机器能产生感情吗?它们需要感情才能产生完全的智能吗?人们与机器连接的方式难道只是将自身的情感投射到机器上,而这样的情感却又是机器无法理解的吗?哲学和人工智能领域在很长的时间里都在试图回答上述问题。在我自己的研究中,我认为人工智能的局限性在于,无论是计算机中介还是机器人,都没有人类的生命循环。在我看来,一个反对机器人心理治疗师的人会认为:“我怎么可能和一个没有母亲的机器,谈论手足之争的事情呢?”最近,一些科学家为了解决机器缺少情感的问题,决定设计装载一些这样的情感程序。在人工智能领域中,人们已经不再讨论“计算机需要躯体才可能变得智能”,而转而讨论“计算机需要情感才可能变得智能”。
1702421477
1702421478
“情感计算”(affective computing)领域的计算机科学家,会觉得自己的研究得到了来自社会科学家们的支持。因为社会科学的研究表明:人们总是把自己的情感投射到计算机上,以帮助人们更具建设性地与计算机一起工作。例如,心理学家克利福德·纳斯(Clifford Nass)教授和他的同事们从一系列实验中发现:“即使在与自身关于机器的既有信念完全违背的情况下,人们依然会和技术产物进行社会互动行为。”人们会赋予计算机个性特征和性别,甚至会调整自己的反应以避免伤害机器的“感情”。在一次颇具戏剧性的试验中,第一组人被要求在计算机A上进行一系列的任务,然后再在同一台计算机上对任务执行的情况进行评估;第二组人同样被要求在计算机A上进行一系列的任务,然后却在计算机B上进行评估。结果发现,第一组对计算机A的评分要远远高于第二组。基本上,参与者不愿意“当面羞辱”这台计算机。
1702421479
1702421480
纳斯教授和他的同事们认为:“当我们面对任何具有人类行为的特征——如会说话、根据输入进行反应的物体的时候,我们大脑的本能反应是下意识地将其当作人类看待。”在这个前提下,他们建议科技应当被设计得更“友好”一些,以满足实际使用的需要。这些科技产品更容易得到人们的青睐,并且更容易使用。但将机器设计得如此“友好”还导致了道德方面的影响。“它对人际关系方面产生了许多次要的影响(比如信任、持久的友谊等)。”在我看来,这一些次要的影响却是问题的核心。制造一台便于使用的机器是一回事,但赋予它迷人的性格则是另一回事。然而,这正是“情感计算”(与社交机器人)的研究方向之一。
1702421481
1702421482
这个领域中的计算机科学家希望能够建造这样一种计算机:它会评估它的使用者的情绪状态,并且以自己相应的“情绪”状态予以回应。麻省理工学院的罗莎琳德·皮卡德(Rosalind Picard)由于最早提出了“情感计算”的概念而广为人知。他在文章中写道:“我得出了以下结论,如果我们希望计算机可以真的拥有智能、可以适应我们、自然地与我们交互,那么它们就需要识别和表达情感的能力,也就是拥有‘情感智能’(emotional intelligence)。”机器人是否有情感,抑或表现得似乎有情感,这两者之间的界限已经模糊。的确,正如马文·明斯基所说,“情绪与我们称之为‘思考’的过程并没有什么特别的差异”。他的这个看法与安东尼奥·达马西奥相同,但却得出了不同的推论。在明斯基看来,这意味着机器人将成为情感思维的机器。而对于达马西奥来说,除非机器人拥有同生命体一样特征和问题的躯体,否则它永远无法真正地拥有情感。
1702421483
1702421484
在实际工作中,“情感计算”方面的研究者都在尽量避免使用“情绪”(emotion)这样的字眼。因为“计算机的情绪”这样的话题总是会遭遇强烈的非议。计算机是如何拥有情绪的呢?而“情感”(affect)则听起来更加恰当、合理一些。更像是用户界面策略而非哲学观点。但“情感”的同义词也包括“情绪”、“感觉”(feeling)、“直觉的”(intuitive)以及“非认知的”(noncognitive)等。当“情感”成为计算机可以拥有的一种特质的时候,这个词语就失去了上述这些含义。同样,“智能”一词在用于形容机器的时候,也会发生类似这样的词义损失。“智能”曾经指代一种浓厚的、分层的复杂特征。它具备敏锐的洞察力和常识。但当计算机也开始变得“智能”的时候,这个词就蜕变为单纬度的、专门指代认知方面的能力。
1702421485
1702421486
林德曼认为自己在“多莫”、“梅茨”机器人上进行的试验,对“情感计算”领域作出了贡献。她相信“多莫”机器人需要一层额外的情绪智能。因为这种情绪并没有在最初设计的范畴内,因此她说当进行角色扮演的时候,她需要“自行添加”这样的情绪。我聆听着林德曼是如何在“多莫”和艾幸格的关系中添加了渴望与温柔,但心里却有着完全不一样的反应。“情感计算”模糊了人与机器人之间的界限。也许林德曼在机器人中“加入”情绪是一件好事,因为这回答了“人的特殊性究竟是什么”的问题。
1702421487
1702421488
透过机器人的眼睛
1702421489
1702421490
“多莫”和“梅茨”都是非常先进的机器人。但我们知道,即便非常简单的机器人同样可以引发人们的亲密感。还记得把自己的“爱宝”既当作机器、也当作生命体的计算机科学家约翰·莱斯特吗?他仔细研究了“爱宝”以后,认为机器人将会改变人类进化的过程。他说:“未来人们不仅仅将机器人当作工具使用,我们还会去关心、照顾它们。机器人教会我们如何对待它们,如何和它们一起生活。我们会进化到去爱我们的工具,而我们的工具也会进化得更加可爱。”
1702421491
1702421492
莱斯特与林德曼、艾幸格一样,发现人们会将情感依附于这样的创造物上。他知道这么做有风险,于是有些腼腆地耸耸肩说:“我的意思是,我现在能做到自己与‘爱宝’有一种感情连接,因为它可以让我做许多我以前从来没有做过的事情……像‘爱宝’这样的终极工具会让这个社会做许多从来没有做过的事情。”莱斯特认为,“爱宝”会发展成为使用者的左膀右臂,扩展人们的臂膀之所能及、视野之所能见的范围。它可以让人们用新的方式与真实的物理空间进行互动。莱斯特认为:“我们会透过机器人的眼睛看世界,并且通过机器人的身体与世界互动……机器人的身体和你的身体会部分融合在一起,工具和身体通过永恒的、物理的方法永远结合在一起。”这也正是布鲁克斯谈及的、将人类肉身与机器结合的问题。以后不再有“它们机器人”和“我们人类”的区别。也许我们将与机器生物融合;抑或再进一步,我们将变得如此接近它们,我们需要通过它们才能更好地认识自我。在前者中,机器人依然还是“它者”,但这个“它者”会使你变得更加完整。
1702421493
1702421494
萨德·斯塔那(Thad Starner)也有类似的梦想。他是麻省理工学院可穿戴计算小组(Wearable Computing Group)的创始人。这个小组的研究对象就是前些年很热门的“半机器人”。他想象着如何像抚养小孩子一样养育机器人,正如布鲁克斯抚养“卡格”一样。但斯塔那坚持认为,“卡格”以及后来的“多莫”、“梅茨”,都还没有达到极致。它们生活在实验室中,无论设计者是如何出于好意,它们都永远不可能像人类婴儿那样被对待。斯塔那希望把自己的人生经验教给机器人,他在自己的衣服里装上了感应装置,这些装置可以让“计算机见我所见、闻我所闻、经历我所经历的世界”。斯塔那说:“如果我在某次会议上碰到了某人,它就会听到我说,‘嗨,戴维。’然后握手。如果它随后看到我输入此人的名字和档案信息,也许它就会真正地开始理解‘认识’的意思。”在斯塔那看来,创造的“不仅仅是一个人工智能的机器。它就是我” 。
1702421495
1702421496
27岁的格雷格是一位年轻的以色列创业者,他刚刚从商学院毕业。格雷格同样梦想着将机器人和人连接在一起。这也是他未来创业的方向,并且希望能够在短期内发家致富。在格雷格的设计中,他手机的数据将会驱动一台机器人。他说:
1702421497
1702421498
白天,我会随身带着我的手机。晚上回到家后,我会把手机连接到一台机器人。这台机器人也是智能的,但与之前的那些都不一样。它很了解我的家,知道如何料理它。如果我生病了,它也知道该怎么照顾我。机器人会坐在我身边,为我准备材料,以方便我进行商务通话时使用。当我旅行的时候,我只需要携带我的手机,在特拉维夫会有同一型号的另外一台机器人。我只需要把我的手机连接到这台机器人就可以了。机器人可以做的事情会更多,背部按摩当然是必不可少的。如果你遇到紧急的医疗状况,它还可以提供紧急治疗。对于年轻人来说,它是一个靠谱的帮手;对于老年人来说,则意味着更多。
1702421499
1702421500
我们生活的故事涌入到手机中,我们再通过手机来激活机器人。当手机的“大脑”与机器人的身躯相结合的时候,文件整理的工作和按摩理疗的工作就可以由机器人一肩挑。这是一个关于安全、智能伴侣以及生活护理的美好想象。谁又不会被吸引呢?
1702421501
1702421502
莱斯特想象着从“爱宝”的眼睛里看到世界:这是进入一个通过技术强化了的环境的入口。其他人则从相反的角度来看,认为机器人本身就会成为环境。物理环境中将会混合着我们想要植入机器人的人工智能。2008年,我在一家软件公司对一群有着技术背景的听众进行演讲。一些设计师对我说,未来人们根本不会与独立的机器人互动——这已经是过时的幻想了。我们想要从机器人那里获得的那些东西,都会被植入到我们的房间中。房间会变得智能化、情感化,给我们提供帮助。未来的房间会明白我们的语言和姿势。它们会具有幽默感,会察觉我们的需求并提供慰藉。我们的房间将成为我们的朋友和伙伴。
1702421503
1702421504
拥抱“机器人时代”
1702421505
1702421506
关于机器人、亲密感和其他更多可能性的故事,可以引发许多哲学和心理学方面的讨论。但最近,当人们开始讨论日常生活中引入机器人的可能性时,相关的讨论变得非常具体。人们想要明白在特定的情景中,机器人可以帮上什么忙。托尼是一位高中教师,他刚刚过完了自己50岁的生日。在过去的几年中,他的生活进入了新的阶段。他所有的孩子都上了大学,父母也都过世了。他和夫人贝蒂一直忙于照顾贝蒂的母亲娜塔莎。娜塔莎今年84岁,正处于中风的康复疗程阶段,同时也显示出老年痴呆的早期症状。当娜塔莎还年轻的时候,脾气就不太好。如今,她变得更加焦虑和苛刻。她常指责自己的女儿和女婿照顾她的时候做得不够好,她总是不满意。托尼已经筋疲力尽,正在考虑其他的办法。他们也很谨慎地讨论过,是否把娜塔莎接到他们自己的家里来住。但因为他和贝蒂都要工作,因此他们需要请一位保姆来照顾娜塔莎。他听说近年来专门用来照顾老人和孩子的机器人发展迅速。这是一个新的选择。他的第一反应很积极。
1702421507
1702421508
如果让我比较是使用机器人保姆还是雇用外来佣工照顾老人,机器人也许是更好的选择。感觉有点像乘坐维珍航空公司的飞机时,你可以选择自己喜欢的电影一样。你可以按照自己的需求来要求机器人。它不会做事粗鲁,也不会对什么都一窍不通,更不会有小偷小摸的行径。它非常安全、专业化、个性化。我喜欢这样。因为老年痴呆症的原因,娜塔莎的生活能力正在急剧下降。如果机器人有照顾老年痴呆患者的功能,比如测试她病情的严重程度,并且据此作出一些诊断和刺激的话,那就太棒了。
1702421509
1702421510
托尼又重新思考了一会儿,然后说:
1702421511
1702421512
但也许我错了。我想当我老了以后,我可能也不希望照顾我的是机器人。事实上,也许让机器人照顾我,会让我更加生不如死。因为与真人的接触是如此的重要。即使当人得了老年痴呆症,甚至在无意识、昏迷的状态中,病人还是会对人的触摸和安抚有反应。我想我也希望娜塔莎得到真人的照顾。我自己也是。我以前看过这样一个实验,人们用毛线猴子玩具替换掉真的猴子妈妈,小猴子就对假猴子信以为真。我在大学里面看到这则实验的时候,感到非常的悲哀。不,你需要真正的猴子来保持自己的尊严。你的尊严就像是一个人,如果没有它,我们就好像被捆绑在挤奶机器上的母牛一样。抑或我们的生活就像一条组装流水线,最终你只能与机器人一起终老。
1702421513
1702421514
托尼知道自己有些自相矛盾:机器人是专业化的帮手,可以像医疗专家一样诊断病情的严重程度;同时,机器人也像毛线猴子玩具。他试图在这个矛盾的观点中得出结论:
[
上一页 ]
[ :1.702421465e+09 ]
[
下一页 ]