1700411711
过度依赖的后果
1700411712
1700411713
当人们在计算机的协助下完成一项任务时,他们经常会被一对认知障碍所扰,即自动化的自满情绪和人们对自动化的偏好。当我们按照怀特海定律进行重要操作而不多加思考时,我们很可能会掉进这对认知障碍的陷阱。
1700411714
1700411715
当计算机给我们造成安全假象时,就体现出了我们对自动化的过度依赖。我们坚信机器运转不会出现任何问题,它能处理所有可能遇到的挑战,我们不用时刻留意机器的状况。我们从工作中抽身,或者至少对于软件处理的那部分工作不用给予太多关注,这样一来,我们很可能会忽略机器的故障信号。大多数人都有过类似的经历:在发邮件或使用文字处理软件时,如果开启了拼写检查工具,我们就不会特意去校对文字。这是个简单的例子,最坏的情况也就是带来点儿尴尬。但是有些时候,对自动化的过度依赖会带来致命的后果,飞机的操作悲剧就说明了这一点。在最坏的情况下,人们过于相信技术,以至于他们完全丧失了对周遭情况的感知能力。他们关掉了自己的认知系统。如果突然出现问题,人们会感到迷茫,并错失宝贵的时机。
1700411716
1700411717
从战场到工业控制室,再到船只和潜水艇的船桥,在许多危险系数较高的环境中都曾出现过对自动化的过度依赖。这里有一个典型的例子:1995年春天,一艘载有1 500名乘客的远洋客轮“皇威”号从巴拿马起航,开往波士顿,在为期一周的航行中,在当地是最后一站。这艘客轮装载了当时最先进的自动航海系统,通过GPS信号保持航线。起航一小时后,GPS的天线松脱,航海系统无法进行方向定位,虽然仍能继续提供读数,但这些读数都存在偏差。过了30多个小时,客轮渐渐偏离了原定的航线。虽然已经出现了系统故障的明确信号,但船长和船员仍旧置之不理。曾有那么一刻,当值大副无法定位客轮应该经过的重要区位浮标,但他也没有报告这一情况。他盲目地相信,自动航海系统是十分健全的,以至于他以为浮标就在那儿,只是他没看见罢了。客轮偏离了航线将近20英里,最终在楠塔基特岛附近的沙洲上搁浅。幸运的是,这次事故没有造成人员伤亡,但是给客轮公司造成了数百万美元的损失。政府安全调查员总结,对自动化的过度依赖是引发这次不幸事故的元凶。船长“过度依赖”自动系统,以至于他忽略了其他“助航设备及监控信息”的偏航危险提示。安全调查员在报告中说,有了自动化,“船员不再负责重要的操作,不再积极地参与轮船的控制工作”。
1700411718
1700411719
对自动化的过度依赖会困扰办公室职员,也会给飞机和轮船的驾驶员带来麻烦。在一项关于软件对建筑业的影响的调查中,麻省理工学院社会学家雪莉·特克记录了建筑师关注细节方面的变化。在需要手绘设计图时,建筑师在将设计蓝图交给施工人员之前,都会不厌其烦地仔细核对、检查所有尺寸。建筑师知道自己可能会犯错误,会有疏忽。所以,他们遵循着木匠的格言:“量两次切一次。”但是如果通过软件设计图纸,设计师就不会这么仔细地核准尺寸了。计算机具有精确的透视和打印技术,导致设计师认为设计数据都是准确的。一位建筑师告诉特克:“再去检查就显得有些自以为是了,我是说,我不可能比计算机做得更好。计算机能精确到0.01英寸[1]。”工程师和建筑工人也存在这种对自动化的过度依赖情绪,以至于在设计和施工的过程中,他们会犯下代价惨重的错误。虽然我们知道,计算机输出的内容取决于我们输入的质量,但我们仍旧告诉自己:计算机不会出现严重的错误。特克的一名学生说:“计算机系统越精确,你就越会觉得它在修正你的错误,你也就越相信机器输出的内容,认为就应该是这样。产生这种想法是很自然的。”
1700411720
1700411721
对自动化的偏好同对自动化的过度依赖紧密相连。当人们过分重视显示屏上的信息时,这种偏好就会悄悄地蔓延开来。即使信息是错误的或具有误导性,人们也相信这些信息。他们对软件的信赖变得特别强烈,以至于忽略或低估了其他来源的信息,包括人类自己的感知。如果你发现,因为盲目听从GPS设备或其他数字地图工具发出的错误或未更新的指示,你迷了路或是一直在绕圈,那么,你就被自动化偏好影响了。即使是司机,在依靠卫星导航行驶时,也会表现得缺少常识,这让人很是吃惊。司机们会沿着危险的路线一直开,最终撞上低矮的天桥或是堵在小镇的羊肠小道上。2008年,在西雅图,一名司机驾驶着公共汽车撞上了混凝土桥,当时车上乘客是一支高中运动队。这辆车有12英尺高,而桥的限高是9英尺。汽车的顶棚被掀翻了,21名学生受伤被送往医院。司机告诉警察,他一直按照GPS的指示驾驶,并没有看到前方桥梁限高的标志和闪烁的警示灯。
1700411722
1700411723
对于依靠决策支持类软件进行分析或判断的人来说,自动化偏好具有特殊的风险性。自20世纪20年代末以来,放射科医生就一直使用计算机辅助诊断系统。乳腺X光或其他X射线将疑似患病区域突出标示出来。将图像的数码版扫描进计算机,图像匹配软件会进行检查,添加箭头或其他提示,为医生标明区域,从而方便医生进行更为细致的检查。在某些情况下,疾病检查的突出标注能帮助放射科医生找出可能会忽略的潜在癌症。但是,研究表明,突出标注也会起到反作用。医生更倾向于采用软件给出的建议,对于图像中没有高亮标注的区域只是草草扫一眼。这样一来,有时,医生就会忽略早期肿瘤或其他病变。当放射科医生让病人做没有必要的活体检查时,提示信息也会增加误报的可能性。
1700411724
1700411725
近日,伦敦城市大学的一组研究人员对乳腺X光数据进行了复核。他们发现,自动化偏好对放射科医生以及其他图像读取职业的影响比想象的要大。研究人员发现,虽然在评估“相对简单的案例”时,计算机辅助诊断提高了“鉴别力较差的人员”的准确性,但它也确实降低了专业人员评估复杂案例的能力。依靠软件识别疾病时,专家更容易忽视某些癌症。并且,计算机辅助决策会引发个别细微的判断偏好,是“人类认知结构中对提示和警告的固有反应的一部分”。辅助技术引导我们的视线焦点,歪曲了我们的认识。
1700411726
1700411727
对自动化的过度依赖和偏好似乎都是源于注意力的局限性。对自动化的过度依赖表明,当我们没有同周围事物进行常规性互动时,注意力和意识很容易就会分散。我们在评估和衡量信息时容易产生偏好情绪,这表明我们思维的关注点具有选择性,并且很容易被错误信息或是表面上看起来有用的提示影响。随着自动化系统的质量和可靠性不断提升,人们对自动化的过度依赖和偏好会变得越来越严重。实验表明,当某个系统频繁出现错误时,我们会保持高度警惕,时刻注意周围环境的变化,仔细监控来自不同渠道的信息。但是当系统的可靠性提高以后,故障或错误只是偶尔出现,我们就变得懒惰了,认为系统是完美无瑕的、可靠的。
1700411728
1700411729
通常情况下,即使我们不关注自动化系统,或者不对自动化系统施加强烈的主观意识,它也能保持良好的运转状态,所以,我们很少受到对自动化的过度依赖或偏好带来的惩罚。这会导致一些复杂的问题。2010年,帕拉休拉曼同德国同事迪特里希·曼蔡共同撰写了一篇论文,他们指出:“考虑到自动化系统通常都具有较高的可靠性,所以,即使操作者对自动化的过度依赖或偏好情绪特别严重,也很少会对系统运转造成明显的影响。”缺乏负面反馈会触发“某种认知程序,同前面提到的‘学者的粗心大意’类似”。设想一下,你在开车的时候打瞌睡。你困得上下点头,车偏移了车道,这时,你通常会撞上坚硬的路肩或是隆起带,或者其他驾驶员会朝你按喇叭——这些信号会让你很快惊醒。如果你的车能通过监控车道标记,调整驾驶,自动保持在道路中央行驶,你就不会收到什么警告。你会慢慢进入熟睡状态。然后,如果有什么意外——动物闯进了马路,或者一辆车在你前方很近的地方停了下来,很容易就会酿成事故。自动化把我们同负面反馈隔离开来,使我们难以保持警惕的状态,也很难参与操作,这样一来,我们就更容易忽视情况的变化。
1700411730
1700411732
钝化的思维
1700411733
1700411734
我们很容易出现对自动化的过度依赖和偏好的情绪,这就解释了为什么依赖自动化会导致我们出现行为偏差或是对差错置之不理。即使信息是错误的或是不完整的,我们也会欣然接受,并按照信息行事,忽略了本应了解的情况。但是,对计算机的依赖性削弱了我们的意识和注意力,这引出了一个更隐蔽的问题:自动化将我们从执行者变为观察者。我们不再控制操纵杆,而是盯着屏幕。这种角色的转变可能会使我们的生活变得轻松,但也会阻碍我们学习和锻炼技能。不管自动化是增强还是削弱了我们执行某项任务的能力,长期这样下去,我们的技能都将退化,学习新技能的能力也将减弱。
1700411735
1700411736
自20世纪70年代以来,认知心理学家一直在研究一种被称为“生成效应”的现象。这种现象最先出现在词汇研究中,人们如果主动回想单词就会增强记忆——主动回想相当于在生成单词,比人们单纯阅读纸上的单词效果要好。早些时候,多伦多大学的心理学家诺曼·斯拉麦卡主持了一项著名的实验,在实验中,人们通过抽认卡记忆成对的反义词,如:热(Hot)和冷(Cold)。某些实验对象获得的卡片给出了完整的单词,例如:
1700411737
1700411738
HOT : COLD
1700411739
1700411740
而其他人的卡片上,第二个单词只给出了首字母,如:
1700411741
1700411742
HOT : C
1700411743
1700411744
在后续的记忆测试中,卡片上只有首字母的实验对象表现得更好。他们强迫思维补全缺少的字母,对问题做出反应,而不仅仅依靠观察来解决问题,这更有利于记忆信息。
1700411745
1700411746
一直以来,在不同的情况下,生成效应对记忆力和学习能力都产生了明显的影响。实验证据表明,不仅是记忆字母和单词,有些任务还需要记忆数字、图片和声音,解决数学难题,接受细节拷问,阅读理解文章等,这时,生成效应就会发挥作用。最近的研究也证明了,生成效应可以给高等教学和学习带来诸多益处。2011年,《科学》杂志发表了一篇论文,文章描述了一项研究:在研究的第一阶段,实验对象阅读一项复杂的科学任务。在第二阶段,在不借助任何辅助措施的情况下,实验对象要尽量回忆任务的内容。这比让实验者进行4次实验而每次都是反复阅读的记忆效果更好。生成思维提高了人们的活动能力,教育研究员布里顿·豪根·郑曾指出,因为思维生成时“需要概念推理以及更深层次的认知加工”。确实如此,布里顿表示,随着思维生成的东西越来越复杂,生成效应也在不断加强。
1700411747
1700411748
心理学家和精神系统科学家仍在努力探索生成效应的原理。但是很明显,生成效应涉及深层的认知和记忆过程。我们努力进行某项工作时,会集中注意力和精力,大脑就会奖励我们,增强我们的理解力。我们的记忆力越好,学的东西也就越多。最后,我们具备了熟练、专业、具有目的性的专业技能。这一点儿也不奇怪。大多数人都知道,熟练掌握某件事的唯一方式就是亲身实践。从计算机屏幕或是书籍上快速搜集信息很容易,但是真正的知识,特别是那些埋藏在记忆深处并通过技能体现出来的知识,是很难习得的,需要学习者精力充沛,并同严苛的任务展开旷日持久的斗争。
1700411749
1700411750
澳大利亚心理学家西蒙·法雷尔和斯蒂芬·莱万多夫斯基在2000年发表了一篇论文,指出自动化和生成效应之间具有某种联系。在斯拉麦卡的实验中,实验对象被告知反义词组中的第二个单词是什么,而不是被要求回忆单词,法雷尔和莱万多夫斯基认为这个实验“可以作为自动化的例子”,“因为人类活动——产生‘COLD’这个单词的行为,被打印出来的刺激物抵消了”。再者,“当生成功能被阅读所取代,人们的表现就会变差,这可以作为对自动化过度依赖的例子。”我们可以借此阐明自动化的认知代价。同计算机辅助技术相比,自己承担一项任务或工作会涉及多种心理过程。软件降低了工作的参与度和专注度,特别是当软件把我们推向更为被动的角色时,我们成了观察者或是监控者,这就避开了生成效应的基础——深层认知处理。最终,自动化会限制我们获取丰富、真实、专业知识的能力。生成效应需要人们付出努力,而自动化则是为了减少人们的努力。
1700411751
1700411752
2004年,荷兰乌得勒支大学认知心理学家克里斯托夫·范宁韦根进行了一系列简单的原创性实验,主要研究软件对记忆生成以及专业技能的影响。他招募了两组实验对象,让他们玩同一个电脑游戏,这个游戏是根据经典的逻辑难题“野人与传教士”改编的。要解开这个谜题,玩家必须用一条小船将5名传教士和5名野人送到河的另一岸,这条河是假想的(在范宁韦根的版本里,传教士和野人变成了5个黄球和5个蓝球),每次最多载3名乘客。谜题的难点就在于,每次运送时,不管是在船上还是岸上,野人的数量均不能超过传教士的数量。如果超过了,传教士就会被野人吃掉。参与者需要进行精确的分析和仔细的规划,才能按照任务的要求计算出如何才能成功。
1700411753
1700411754
范宁韦根安排一组实验对象使用软件来解决这个难题,软件提供一步步的指导,例如,在屏幕上显示提示信息,将可行和不可行的移动用高亮标示出来。另一队使用一种初级程序,不提供任何帮助。正如你能想到的,使用帮助性较大的软件的实验对象,在游戏之初取得了很大进展。根据提示操作,这组实验对象不需要每走一步就停下来回想游戏规则,也不需要计算如何应对新形势。但是,随着游戏的发展,使用初级程序的游戏者开始显露出优势。最终,同另一队相比,他们解开谜题的速度更快,并且错误步骤较少。在这项实验的报告里,范宁韦根总结道,使用初级程序的实验对象对任务概念有更清晰的认识,他们能更好地思考并制定成功的策略。相较之下,那些依靠软件指导的人经常会感到困惑,只是“毫无目的地到处乱点”。
1700411755
1700411756
软件辅助技术给我们带来的认知惩罚在8个月后更加明显。当范宁韦根让同样的实验对象再解这道谜题时,之前使用初级软件的人解开谜底的速度是其他人的两倍。他写道,使用初级程序的实验对象在执行任务时注意力更集中,并且实验后对知识的记忆效果更好。他们享受到了生成效应的好处。范宁韦根以及他在乌得勒支大学的同事又进行了其他更具实际意义的实验,例如使用日历软件安排会议和用活动规划软件为会议发言人安排房间等。结果是相同的。从依靠软件提示进行各项活动的人群身上我们可以发现,他们的策略性思考较少,会经历许多不必要的步骤,最终表现出来的对任务概念的理解力也较弱。而当程序的帮助不大时,实验对象能更好地做出计划,工作起来更聪明,学得也更多。
1700411757
1700411758
认知任务(例如解决问题)实现自动化以后,思维将信息转化为知识、将知识转化为专业技能的能力都会受到影响,范宁韦根在实验室中观察到了这一点,在现实世界中,这种现象也是真实存在的。在许多行业中,经理以及其他专业人士依靠所谓的专业系统对信息进行分类和分析,系统会给出行动方案建议。例如,会计在公司审计时使用决策支持类软件,这些软件会提高任务的完成速度。但是,软件功能越强,会计的能力就会越弱。澳大利亚教授进行的一项实验对三家国际会计公司使用专业系统所带来的影响进行了研究。两家公司使用高级软件,软件根据会计对客户基本问题的回答给出客户审计文件中包含的相关业务风险的建议。第三家公司则使用功能较为简单的软件,虽然这个软件给出了潜在风险列表,但是要求会计对这些风险进行复核,手动选择文件相关的风险。研究人员对三家公司的会计进行了测试,衡量他们对审计所涉行业风险的了解程度。那些使用帮助较小的软件的会计,表现出的能力要明显强于另外两家公司的。即使是经验丰富的审计员——在现在的公司任职5年以上,使用高级软件也会造成学习能力下降。
1700411759
1700411760
对其他专业系统的研究得出了相似的结论。研究表明,虽然决策支持类软件能在短期内帮助新晋分析师做出更好的判断,但也给他们带来了精神上的疲惫感。软件降低了他们思考的频率,阻碍了记忆的信息编码能力,从而减少了隐性知识储备,而要成为真正的专家,他们必须具备丰富的隐性知识。自动决策辅助技术的缺点并不明显,但是会造成一些实质性的影响,特别是在某些领域,分析出现错误会造成难以估量的影响。高速计算机交易程序的应用加剧了计算错误的风险,在2008年的世界金融系统的危机中,计算错误就扮演了重要的角色。正如塔夫茨大学管理学教授阿玛尔·拜德所言,“机器人式的”决策导致银行家和其他华尔街专业人士普遍出现“判断障碍”。我们无法准确定位自动化在这场灾难以及随后的惨败中(例如2010年美交所的“闪电崩盘”)所扮演的角色,但我们还是要谨慎地对待自动化可能产生的任何影响:广泛使用的技术会减少人们的知识储备,或者给敏感工作从业者的判断力罩上一层迷雾。在2013年的报告中,计算机科学家戈登·巴克斯特和约翰·卡特利奇警告称,人们对自动化的过度依赖正在侵蚀金融业人士的技能和知识,而计算机交易系统使得金融市场更具风险。
[
上一页 ]
[ :1.700411711e+09 ]
[
下一页 ]