打字猴:1.7024205e+09
1702420500
1702420501
1702420502
1702420503
1702420504 群体性孤独:为什么我们对科技期待更多,对彼此却不能更亲密? [:1702420110]
1702420505 群体性孤独:为什么我们对科技期待更多,对彼此却不能更亲密? 01 最亲密的伙伴“拓麻歌子” 有生命的电子宠物
1702420506
1702420507 电子宠物改变了孩子们对“生命”的理解。他们在养育“拓麻歌子”的过程中,付出过爱,也感受到爱的回报。当这些电子宠物“死去”时,孩子们会体验到失去亲人般的悲伤。在他们心里,这些电子宠物也是值得怀念的“生命”。
1702420508
1702420509
1702420510
1702420511
1702420512 群体性孤独:为什么我们对科技期待更多,对彼此却不能更亲密? 20世纪70年代,我第一次接触具备陪伴功能的计算机程序。当时在我周围,有很多学生都在使用麻省理工学院教授约瑟夫·魏岑鲍姆(Joseph Weizenbaum)开发的计算机程序ELIZA。ELIZA是一款能模仿心理医生与病人进行谈话的程序。使用者通过键盘输入一个想法,ELIZA就可以给予答复从而提供帮助,或者要求提问者进一步澄清问题。比如,使用者说“我妈妈让我很恼火”,程序可能会说“再和我多谈谈你妈妈”,或者“为什么你对你妈妈的感觉这么消极”。作为一个计算机程序,ELIZA并不知道“母亲”二字的含义,更不知道生气这种情绪意味着什么。它能做的就是捕获一串串文字然后变成提问,或者重申对方的意思作为解读。
1702420513
1702420514 魏岑鲍姆的学生其实明白,这个程序不知道、也不懂他们在说什么;但他们仍然希望和它交谈。而且,他们希望能和它单独待在一起,因为他们想对它说出自己的秘密。面对一个通过最简单的举止表明它能与你产生共鸣的程序,人们都想说点心里话。我看到成百上千的人对早期的ELIZA程序输入第一句话,通常大多数开头都是“你今天过得好吗”或者“你好”。但是4~5个来回之后,许多人会说“我女朋友离开了我”,“我担心有机化学考试搞砸”,或者“我的姐妹去世了”。
1702420515
1702420516 此后不久,魏岑鲍姆和我在麻省理工学院共同开设了计算机和社会课程。课堂气氛相当热烈。在课堂讨论期间,他反对说自己的程序具有欺骗性,而我认为他是多虑了。在我看来,ELIZA就像心理医生所做的某种罗夏(Rorschach)墨迹测验。人们将程序看作一个表达自我的投射屏幕。没错,这正是我想说的,表面上他们和ELIZA进行了一场私人谈话,但却是在“好像”的假象中进行的。他们明知这是自说自话,但却表现得“好像”有人在倾听。他们被牵扯进这场测验里。他们想,我得像和真人说话一样和这个程序交谈。我得排解压力,发泄愤怒,一吐胸臆。这还不止,当有些人进一步知道这个程序也会失误以后,就更有可能用相同的内在逻辑来回应ELIZA的回答,使这程序看起来更生动、更真切。在和这个程序互动的游戏中,他们表现得相当积极。
1702420517
1702420518 魏岑鲍姆教授感到有些不安,因为他的学生上了程序的当,他们竟然能违背常识,相信自己正在面对一台智能机器。他甚至为创造了一台骗人的机器而感到内疚。但他那些世故老成的学生们其实是不会被蒙骗的。他们完全清楚ELIZA的局限性,但是他们仍然迫不及待地要“逢场作戏”。我开始把这种人类在虚拟游戏中的串通行为称之为“ELIZA效应”。整个20世纪70年代,我并不认为这种人类与机器的串通行为是一种威胁,而认为是为了改进互动日志的工作质量。正如它所表现的,我低估了这种串通的发展势头。进入机器人时代后,人类与非生命物体结合的意愿前所未有的强烈,这并不表明我们想被骗,却表明了我们想“逢场作戏”。
1702420519
1702420520 如今,距离魏岑鲍姆教授第一次撰文描述ELIZA已经过去了40多年。以“机器人爬虫程序”为代表的人工智能,正为无数互联网在线游戏者充当同甘共苦的伙伴。在游戏世界里,与自动程序就多个话题展开“交谈”似乎已经成为一件十分平常的事。而且,正如它最终证明的,一旦你用虚拟世界里的自动程序保存你的“人生”,你就很容易迷恋上它。而且,不管你对立体音响或者汽车有多么喜爱,都绝对比不上这种迷恋。与此同时,在真实的自然世界里,事情正在飞速发展着。备受欢迎的机器宠物“猪猪鼠”起初来源于一种“养育模式”。“猪猪鼠”的官方传记作者查克说:“它活着的意义就是为了感受到爱。”对老年人来说,逗人喜爱的机器小海豹正在热卖。再看看日本,它现在瞄准美国的家庭护理市场。机器人专家提出理由证明:由于人力资源短缺,老年人需要一名伙伴机器人。他们几乎肯定地说,机器人会改善老年人的状况。
1702420521
1702420522 当一些机器人专家梦想着置换爱情的时候,其他专家正在考虑置换性爱。在2010年2月,我使用Google搜索引擎精确搜索“性爱机器人”这一短语时,得到了313 000条结果。第一条结果链接到一篇文章,题目为《发明者披露价值7 000美元的交谈式性爱机器人》(Inventor Unveils $7 000 Talking Sex Robot)。于是我得知,这台名叫Roxxxy的机器人“可能是世界上最精密、复杂的谈话式性爱机器人”。令人惊叹的机器人军团正身穿内衣睡袍,以出人意料的速度向我们靠近。究其原因,正如我之前提到的ELIZA效应,与其说是因为机器人技术已经很成熟了,不如说是因为我们已经准备好迎接机器人时代了。
1702420523
1702420524 在一期电视新闻节目中,我看到一台有着性感女人外表的日本机器人。一名记者解释说,虽然目前它仅仅像个机器服务员,但它的设计者希望有朝一日它能成为机器老师或伙伴。记者对机器人未来的发展趋势毫不怀疑,提出了“奇点”(singularity)的概念,用以联系眼前这个略显尴尬的机器人和未来的机器人妻子之间的鸿沟。他问发明者:“当‘奇点’到来的时候,没有人能够猜想出她(机器人)在未来会变成什么样子,对吗?……‘奇点’之后的机器人会是什么样呢?未来机器人世界的情景是否会让我们大吃一惊呢?”
1702420525
1702420526 “奇点”这个概念来源于有关设计制造的科幻小说。“奇点”是当机械智能超越某一个临界点的神话般的时刻。据那些对此深信不疑的人讲,过了这个临界点之后,人工智能将完全超越我们目前的想象。不管今天的机器人技术是否可以胜任黄金时段的服务员功能,一旦超越“奇点”,从技术上讲任何事情都是可能的,机器人也将懂得如何去爱。的确如此,当“奇点”发生之时,我们可能与机器人融为一体并因此永垂不朽。“奇点”,意味着技术领域的纵情狂欢。
1702420527
1702420528 至于魏岑鲍姆教授,他认为人们对计算机心理治疗是持开放态度的,并准确地预感到更大的发展还在后面。在20世纪70年代末,很多人对计算机心理治疗一直保持沉默,但是很快,舆论就转向了。事态表明,机器在理解人类的能力上并没有什么新进步,但是人们对心理治疗和自己心灵运转的认识正在发生变化,变得更加机械化了。30年前,随着心理治疗更加贴近文化交谈,大多数人将治疗过程视为一种情境。在这一情境下,我们能以新的方式解读自己的人生经历。要实现治疗,你必须获得洞察力,与治疗师建立起一种关系,他会为你的种种纠结提供一个安全的着陆场所。如今,许多人不再认为心理治疗是一种关于我们生命意义的调查追问,他们更多地认为它是一种能够改变行为的训练,或是对大脑化学反应的探索。在这种模式下,计算机在很多方面变得意义重大,比如,它可以协助诊断,为认知行为治疗建立程序,以及为替代性药物治疗提供信息。
1702420529
1702420530 先前对计算机作为心理治疗师有颇多微词,是因为许多人对于计算机的存在有某种“浪漫主义的反应”,认为有些领域是计算机无法涉足、也不应该涉足的。简单地说,这种“浪漫主义的反应”认为:“模仿思考可能是思考,但是模仿感觉一定不是感觉,模仿爱情也绝对不是爱情。”现在,这种“浪漫主义的反应”已经被新的实用主义观点所取代。后者认为,计算机能够“理解”任何细微的人类体验,比如,它们知道嫉妒兄弟姐妹、或者怀念已故的父母是什么含义。不过,他们的理解能力的确比过去好多了,而且,我们乐于扮演配合的角色。毕竟,人们的在线生活就是一场表演。我们经营社会关系网络,指挥我们的虚拟化身在虚拟世界里的行为表现。对表演行为进行额外奖励是机器人时代的一大基础。之所以说我们已经进入机器人时代,并不是因为我们的生活有机器人陪伴,而是因为我们看待机器人的方式已经完全表明了我们是谁、我们想成为谁。
1702420531
1702420532 我们怎样到达理想之地?问题的答案就隐藏在“平地风云”里,隐藏在粗糙混乱的游戏室里,隐藏在儿童们对机器人玩具的反应里。作为成年人,我们能够轻易改变观点。在童年,我们确立的是自己内心最真实的一面。
1702420533
1702420534 我已经观察儿童,以及陪伴他们的那些层出不穷的越来越精密的机器人玩具30年了。我发现,这些玩具已经从“有点像真的”发展到了“足够逼真”,这是和电子宠物、电子娃娃之类的机器人一同长大的这一代人的专属语言。达到“足够逼真”意味着一个转折点。在20世纪70年代末80年代初,儿童们对真实性和计算机之间的区别有着哲学般的思考。而现在,当孩子们为了“特定的目的”说起机器人是多么栩栩如生时,他们不再去考虑那些抽象的问题。他们的态度非常实用:不同的机器人要做不同的背景分析。比如,如果作为朋友、一个保姆,或者祖父母来说,它足够逼真吗?有时这个问题变得更加微妙:如果机器人能够让你爱上它,你觉得它逼真吗?
1702420535
1702420536 电子玩具改变了儿童对生命的理解
1702420537
1702420538 在20世纪70年代末80年代初,儿童们有了第一批计算机玩具:比如“梅林”(Merlin)、“西蒙”(Simon)和Speak&Spell。游戏室里的第一代计算机对孩子们的记忆和拼写能力提出了挑战,使他们在三连棋和猜英文单词这样的小游戏上经常落败。互动型玩具把孩子们变成了哲学家。体验过这些玩具以后,孩子们问自己,这些经过编程的东西有生命吗?
1702420539
1702420540 儿童的出发点是他们对世界的认知渴望。他们通过理解自己(这是他们最了解的方式)来理解世界。为什么石头会滚下山坡呢?年幼的孩子说:“为了滚到坡底”,仿佛石头有自己的意愿似的。但是,万物有灵的观点迟早会让位于物理学。孩子们学习后知道,石头下落是因为万有引力,和意愿无关。于是,他们确立起一种一分为二的观点:物理特性和心理特性是截然对立的两大系统。但是计算机是一个新例外:它有心理特征,同时也遵从物理特性。像计算机这种横跨两个种类的临界物体,促使人们关注以下问题:我们怎么区分物理和心理特性呢?
1702420541
1702420542 20世纪20年代,瑞士心理学家让·皮亚杰(Jean Piaget)[1]通过对儿童的访谈发现:儿童通过对象的物理运动来确定其生命状况。最小的孩子认为,所有能动的东西都是活的;稍大一些的孩子认为,只有那些不需要外力推拉就能动的物体才是活的。他们很容易区分人和动物,但是像云这种看起来好像自由移动的物体也被认为是活的。直到孩子们认识了风,一种外在的但是看不见的力量,助推着云的方向。当孩子们理解发动机是一种“外在”推动力时,他们把汽车重新划分为没有生命的物体。最后,关于自主运动的认识集中到了呼吸作用和新陈代谢上,这才是生命最典型的特征。
1702420543
1702420544 到了20世纪80年代,在回答“计算机对象是不是活的”这个问题时,儿童们放弃了从物理到心理的划分,又有了新的思路。当他们注意到一个能在拼写游戏中击败他们的玩具时,他们不再好奇这个对象能不能动,而是关心它能不能自主思考。孩子们问,这个游戏是不是能“知道”?它是在骗人吗?“知道”是否也是骗局的一部分呢?他们十分着迷,想知道这些电子游戏和玩具是怎么实现自主的。当发音拼写游戏机Speak&Spell的早期版本出现程序失灵,而且没法在“朗读”环节关机时,为了“弄死”这台机器,孩子们会激动地尖叫着拔出电池,然后把电池装回去,这样它就又复活了。
1702420545
1702420546 在他们关于“计算机的生与死”的热烈交谈中可以看出,20世纪80年代的儿童为新的物质世界设定了新的概念准则。到了20世纪90年代,这一准则被发挥到了极致。在如《模拟人生》(The Sim)这样的虚拟世界中,生命形式进一步进化,网络世界因此焕发出勃勃生机。与此同时,儿童文化也受到了电影、动画片、仿真玩具人中会变形的虚拟形象(从终结者到电子病毒)的影响。儿童把计算机里的东西等同于现实生活中的东西。一个8岁的小女孩认为,机械生命和人类生命是“同一个东西”,只不过机器生物更加令人生厌。这引起了新一轮对真实性问题的讨论。当讨论起计算机一类的玩意时,孩子们既说到演变,也会说到认知,而且还会谈到流动性。1993年,一个10岁的小孩在回答《模拟人生》游戏里的虚拟人物是不是活着这个问题时,她说:“如果他们能从电脑里出来,并且上美国在线的话,他们就是活的。”
1702420547
1702420548 在这里,皮亚杰关于运动的叙事研究以新的形式再次得到体现。儿童通常会把这种渴望倾注在模拟游戏里的人物身上:我想逃出禁锢,进入到一个更宽广的电子世界。于是,从20世纪90年代开始,让孩子们更着迷的电子生物出现了。他们不仅仅以“智能”著称,更因具备“社交能力”而受人瞩目。从那时起,我也展开了有关儿童与新机器互动情况的漫长研究。孩子们认为机器人的运动能力和智慧是他们生命存在的信号和证据。但是即使是在关于真实性的专门谈话里,儿童更在乎的却是这些新机器人能感觉到什么。按照生命的标准来看,任何东西与机器人的关怀能力相比都会黯然失色。
1702420549
[ 上一页 ]  [ :1.7024205e+09 ]  [ 下一页 ]