1700411703
玻璃笼子:自动化时代和我们的未来 100年前,英国哲学家阿弗雷德·诺尔司·怀特海在《数学导论》(An Introduction to Mathematics)中写道:“人们无须过多考虑就可以完成的重要操作越来越多,随着这些操作数量的增长,文明也在进步。”怀特海所指的并不是机器,而是运用数学符号表达想法或逻辑过程——将智力行为封装在代码中。怀特海希望他的想法能得到广泛认同。他写道,人们普遍认为“应该培养勤于反思所做之事的习惯,但这从根本上就错了”。我们越是能将思维从日常琐事中解放出来,就越能卸下这些任务,将它们交给辅助技术,从而储备更多精力,用于进行最深层的、最具创造性的推理和猜想。“思维运转就像战争中冲锋陷阵的骑士——数量非常有限,需要战马辅佐,并且只能用于决定性的时刻。”
1700411704
1700411705
我们坚信,自动化是发展的基石,很难再想出一种更加简洁、明确的方式来表达我们的信念了。怀特海的话阐明了人类行为的等级观念。每当我们卸下一项任务,将其交给工具、机器、符号或是软件算法,我们就获得了解放,可以寻求更高的追求,这个追求需要我们更加机敏,拥有更多智慧和更加开阔的视野。可能每往上爬一步,我们就会失去些东西,但是到了最后,我们的收获也会更大。极端点儿看,怀特海将自动化视为自由,它最终会变成王尔德和凯恩斯所说的“技术乌托邦”,或者像马克思所说的——机器将把我们从早期劳动中解放出来,重返伊甸园时的闲适愉悦。但是怀特海并不是在做白日梦,他就如何支配时间和如何付出努力,提出了一种较为实用的观点。在20世纪70年代出版的一份刊物上,美国劳动部将秘书的工作职责总结为:“将雇主从日常任务中解放出来,使雇主可以去处理更重要的事务。”在怀特海看来,软件和其他自动化技术起到了类似的作用。
1700411706
1700411707
历史为怀特海提供了大量支持的证据。自从杠杆、轮胎和计算工具问世以来,人们一直都处于不断摆脱琐事的过程和努力中,将它们交给工具去完成,这些琐事不仅涉及体力劳动,还包括脑力劳动。任务的转移使我们能够应对更为棘手的挑战,取得更大的成就。农场、工厂、实验室和家里,随处都可以找到证据。但是,我们不能认为怀特海的观点就是普遍真理。他说出此番言论时,自动化还局限于个别的、定义明确的重复性工作——用蒸汽织布机编制布料、用联合收割机收获粮食、用计算尺做乘法等。现在,自动化已经今非昔比。就像我们看到的,计算机通过编程,能够执行或支持复杂的活动,这些活动需要通过评估多个变量来完成一系列高度协同的任务。在如今的自动化系统里,计算机经常承担起脑力劳动的任务——观察、感知、分析、判断,甚至做出决策。一直以来,这些行为都被认为是人类的特殊属性。操作计算机的人沦为高技术职员,负责输入数据,监控输出,留意故障。软件限制了我们的关注点,而不是开启人类思维和行动的新疆域。我们用精妙独特的才智换取了更为常规的、趋同的技术。
1700411708
1700411709
大多数人的预测同怀特海相同,认为自动化是有益的,会推动我们去完成更大的使命,但并不会改变我们做事或思考的方式。这是个谬论,是自动化学者所说的“替代神话”。省力设备不仅可以替代部分工作,还改变了整个任务的特性,包括参与者的角色、态度和技术。正如拉嘉·帕拉休拉曼在2000年发表的杂志文章中提到的:“自动化并不是简单地取代了人类活动,而是通过出乎设计者意料或预期之外的方式改变人类活动。”自动化重塑了工作和工人。
1700411710
1700411711
过度依赖的后果
1700411712
1700411713
当人们在计算机的协助下完成一项任务时,他们经常会被一对认知障碍所扰,即自动化的自满情绪和人们对自动化的偏好。当我们按照怀特海定律进行重要操作而不多加思考时,我们很可能会掉进这对认知障碍的陷阱。
1700411714
1700411715
当计算机给我们造成安全假象时,就体现出了我们对自动化的过度依赖。我们坚信机器运转不会出现任何问题,它能处理所有可能遇到的挑战,我们不用时刻留意机器的状况。我们从工作中抽身,或者至少对于软件处理的那部分工作不用给予太多关注,这样一来,我们很可能会忽略机器的故障信号。大多数人都有过类似的经历:在发邮件或使用文字处理软件时,如果开启了拼写检查工具,我们就不会特意去校对文字。这是个简单的例子,最坏的情况也就是带来点儿尴尬。但是有些时候,对自动化的过度依赖会带来致命的后果,飞机的操作悲剧就说明了这一点。在最坏的情况下,人们过于相信技术,以至于他们完全丧失了对周遭情况的感知能力。他们关掉了自己的认知系统。如果突然出现问题,人们会感到迷茫,并错失宝贵的时机。
1700411716
1700411717
从战场到工业控制室,再到船只和潜水艇的船桥,在许多危险系数较高的环境中都曾出现过对自动化的过度依赖。这里有一个典型的例子:1995年春天,一艘载有1 500名乘客的远洋客轮“皇威”号从巴拿马起航,开往波士顿,在为期一周的航行中,在当地是最后一站。这艘客轮装载了当时最先进的自动航海系统,通过GPS信号保持航线。起航一小时后,GPS的天线松脱,航海系统无法进行方向定位,虽然仍能继续提供读数,但这些读数都存在偏差。过了30多个小时,客轮渐渐偏离了原定的航线。虽然已经出现了系统故障的明确信号,但船长和船员仍旧置之不理。曾有那么一刻,当值大副无法定位客轮应该经过的重要区位浮标,但他也没有报告这一情况。他盲目地相信,自动航海系统是十分健全的,以至于他以为浮标就在那儿,只是他没看见罢了。客轮偏离了航线将近20英里,最终在楠塔基特岛附近的沙洲上搁浅。幸运的是,这次事故没有造成人员伤亡,但是给客轮公司造成了数百万美元的损失。政府安全调查员总结,对自动化的过度依赖是引发这次不幸事故的元凶。船长“过度依赖”自动系统,以至于他忽略了其他“助航设备及监控信息”的偏航危险提示。安全调查员在报告中说,有了自动化,“船员不再负责重要的操作,不再积极地参与轮船的控制工作”。
1700411718
1700411719
对自动化的过度依赖会困扰办公室职员,也会给飞机和轮船的驾驶员带来麻烦。在一项关于软件对建筑业的影响的调查中,麻省理工学院社会学家雪莉·特克记录了建筑师关注细节方面的变化。在需要手绘设计图时,建筑师在将设计蓝图交给施工人员之前,都会不厌其烦地仔细核对、检查所有尺寸。建筑师知道自己可能会犯错误,会有疏忽。所以,他们遵循着木匠的格言:“量两次切一次。”但是如果通过软件设计图纸,设计师就不会这么仔细地核准尺寸了。计算机具有精确的透视和打印技术,导致设计师认为设计数据都是准确的。一位建筑师告诉特克:“再去检查就显得有些自以为是了,我是说,我不可能比计算机做得更好。计算机能精确到0.01英寸[1]。”工程师和建筑工人也存在这种对自动化的过度依赖情绪,以至于在设计和施工的过程中,他们会犯下代价惨重的错误。虽然我们知道,计算机输出的内容取决于我们输入的质量,但我们仍旧告诉自己:计算机不会出现严重的错误。特克的一名学生说:“计算机系统越精确,你就越会觉得它在修正你的错误,你也就越相信机器输出的内容,认为就应该是这样。产生这种想法是很自然的。”
1700411720
1700411721
对自动化的偏好同对自动化的过度依赖紧密相连。当人们过分重视显示屏上的信息时,这种偏好就会悄悄地蔓延开来。即使信息是错误的或具有误导性,人们也相信这些信息。他们对软件的信赖变得特别强烈,以至于忽略或低估了其他来源的信息,包括人类自己的感知。如果你发现,因为盲目听从GPS设备或其他数字地图工具发出的错误或未更新的指示,你迷了路或是一直在绕圈,那么,你就被自动化偏好影响了。即使是司机,在依靠卫星导航行驶时,也会表现得缺少常识,这让人很是吃惊。司机们会沿着危险的路线一直开,最终撞上低矮的天桥或是堵在小镇的羊肠小道上。2008年,在西雅图,一名司机驾驶着公共汽车撞上了混凝土桥,当时车上乘客是一支高中运动队。这辆车有12英尺高,而桥的限高是9英尺。汽车的顶棚被掀翻了,21名学生受伤被送往医院。司机告诉警察,他一直按照GPS的指示驾驶,并没有看到前方桥梁限高的标志和闪烁的警示灯。
1700411722
1700411723
对于依靠决策支持类软件进行分析或判断的人来说,自动化偏好具有特殊的风险性。自20世纪20年代末以来,放射科医生就一直使用计算机辅助诊断系统。乳腺X光或其他X射线将疑似患病区域突出标示出来。将图像的数码版扫描进计算机,图像匹配软件会进行检查,添加箭头或其他提示,为医生标明区域,从而方便医生进行更为细致的检查。在某些情况下,疾病检查的突出标注能帮助放射科医生找出可能会忽略的潜在癌症。但是,研究表明,突出标注也会起到反作用。医生更倾向于采用软件给出的建议,对于图像中没有高亮标注的区域只是草草扫一眼。这样一来,有时,医生就会忽略早期肿瘤或其他病变。当放射科医生让病人做没有必要的活体检查时,提示信息也会增加误报的可能性。
1700411724
1700411725
近日,伦敦城市大学的一组研究人员对乳腺X光数据进行了复核。他们发现,自动化偏好对放射科医生以及其他图像读取职业的影响比想象的要大。研究人员发现,虽然在评估“相对简单的案例”时,计算机辅助诊断提高了“鉴别力较差的人员”的准确性,但它也确实降低了专业人员评估复杂案例的能力。依靠软件识别疾病时,专家更容易忽视某些癌症。并且,计算机辅助决策会引发个别细微的判断偏好,是“人类认知结构中对提示和警告的固有反应的一部分”。辅助技术引导我们的视线焦点,歪曲了我们的认识。
1700411726
1700411727
对自动化的过度依赖和偏好似乎都是源于注意力的局限性。对自动化的过度依赖表明,当我们没有同周围事物进行常规性互动时,注意力和意识很容易就会分散。我们在评估和衡量信息时容易产生偏好情绪,这表明我们思维的关注点具有选择性,并且很容易被错误信息或是表面上看起来有用的提示影响。随着自动化系统的质量和可靠性不断提升,人们对自动化的过度依赖和偏好会变得越来越严重。实验表明,当某个系统频繁出现错误时,我们会保持高度警惕,时刻注意周围环境的变化,仔细监控来自不同渠道的信息。但是当系统的可靠性提高以后,故障或错误只是偶尔出现,我们就变得懒惰了,认为系统是完美无瑕的、可靠的。
1700411728
1700411729
通常情况下,即使我们不关注自动化系统,或者不对自动化系统施加强烈的主观意识,它也能保持良好的运转状态,所以,我们很少受到对自动化的过度依赖或偏好带来的惩罚。这会导致一些复杂的问题。2010年,帕拉休拉曼同德国同事迪特里希·曼蔡共同撰写了一篇论文,他们指出:“考虑到自动化系统通常都具有较高的可靠性,所以,即使操作者对自动化的过度依赖或偏好情绪特别严重,也很少会对系统运转造成明显的影响。”缺乏负面反馈会触发“某种认知程序,同前面提到的‘学者的粗心大意’类似”。设想一下,你在开车的时候打瞌睡。你困得上下点头,车偏移了车道,这时,你通常会撞上坚硬的路肩或是隆起带,或者其他驾驶员会朝你按喇叭——这些信号会让你很快惊醒。如果你的车能通过监控车道标记,调整驾驶,自动保持在道路中央行驶,你就不会收到什么警告。你会慢慢进入熟睡状态。然后,如果有什么意外——动物闯进了马路,或者一辆车在你前方很近的地方停了下来,很容易就会酿成事故。自动化把我们同负面反馈隔离开来,使我们难以保持警惕的状态,也很难参与操作,这样一来,我们就更容易忽视情况的变化。
1700411730
1700411732
钝化的思维
1700411733
1700411734
我们很容易出现对自动化的过度依赖和偏好的情绪,这就解释了为什么依赖自动化会导致我们出现行为偏差或是对差错置之不理。即使信息是错误的或是不完整的,我们也会欣然接受,并按照信息行事,忽略了本应了解的情况。但是,对计算机的依赖性削弱了我们的意识和注意力,这引出了一个更隐蔽的问题:自动化将我们从执行者变为观察者。我们不再控制操纵杆,而是盯着屏幕。这种角色的转变可能会使我们的生活变得轻松,但也会阻碍我们学习和锻炼技能。不管自动化是增强还是削弱了我们执行某项任务的能力,长期这样下去,我们的技能都将退化,学习新技能的能力也将减弱。
1700411735
1700411736
自20世纪70年代以来,认知心理学家一直在研究一种被称为“生成效应”的现象。这种现象最先出现在词汇研究中,人们如果主动回想单词就会增强记忆——主动回想相当于在生成单词,比人们单纯阅读纸上的单词效果要好。早些时候,多伦多大学的心理学家诺曼·斯拉麦卡主持了一项著名的实验,在实验中,人们通过抽认卡记忆成对的反义词,如:热(Hot)和冷(Cold)。某些实验对象获得的卡片给出了完整的单词,例如:
1700411737
1700411738
HOT : COLD
1700411739
1700411740
而其他人的卡片上,第二个单词只给出了首字母,如:
1700411741
1700411742
HOT : C
1700411743
1700411744
在后续的记忆测试中,卡片上只有首字母的实验对象表现得更好。他们强迫思维补全缺少的字母,对问题做出反应,而不仅仅依靠观察来解决问题,这更有利于记忆信息。
1700411745
1700411746
一直以来,在不同的情况下,生成效应对记忆力和学习能力都产生了明显的影响。实验证据表明,不仅是记忆字母和单词,有些任务还需要记忆数字、图片和声音,解决数学难题,接受细节拷问,阅读理解文章等,这时,生成效应就会发挥作用。最近的研究也证明了,生成效应可以给高等教学和学习带来诸多益处。2011年,《科学》杂志发表了一篇论文,文章描述了一项研究:在研究的第一阶段,实验对象阅读一项复杂的科学任务。在第二阶段,在不借助任何辅助措施的情况下,实验对象要尽量回忆任务的内容。这比让实验者进行4次实验而每次都是反复阅读的记忆效果更好。生成思维提高了人们的活动能力,教育研究员布里顿·豪根·郑曾指出,因为思维生成时“需要概念推理以及更深层次的认知加工”。确实如此,布里顿表示,随着思维生成的东西越来越复杂,生成效应也在不断加强。
1700411747
1700411748
心理学家和精神系统科学家仍在努力探索生成效应的原理。但是很明显,生成效应涉及深层的认知和记忆过程。我们努力进行某项工作时,会集中注意力和精力,大脑就会奖励我们,增强我们的理解力。我们的记忆力越好,学的东西也就越多。最后,我们具备了熟练、专业、具有目的性的专业技能。这一点儿也不奇怪。大多数人都知道,熟练掌握某件事的唯一方式就是亲身实践。从计算机屏幕或是书籍上快速搜集信息很容易,但是真正的知识,特别是那些埋藏在记忆深处并通过技能体现出来的知识,是很难习得的,需要学习者精力充沛,并同严苛的任务展开旷日持久的斗争。
1700411749
1700411750
澳大利亚心理学家西蒙·法雷尔和斯蒂芬·莱万多夫斯基在2000年发表了一篇论文,指出自动化和生成效应之间具有某种联系。在斯拉麦卡的实验中,实验对象被告知反义词组中的第二个单词是什么,而不是被要求回忆单词,法雷尔和莱万多夫斯基认为这个实验“可以作为自动化的例子”,“因为人类活动——产生‘COLD’这个单词的行为,被打印出来的刺激物抵消了”。再者,“当生成功能被阅读所取代,人们的表现就会变差,这可以作为对自动化过度依赖的例子。”我们可以借此阐明自动化的认知代价。同计算机辅助技术相比,自己承担一项任务或工作会涉及多种心理过程。软件降低了工作的参与度和专注度,特别是当软件把我们推向更为被动的角色时,我们成了观察者或是监控者,这就避开了生成效应的基础——深层认知处理。最终,自动化会限制我们获取丰富、真实、专业知识的能力。生成效应需要人们付出努力,而自动化则是为了减少人们的努力。
1700411751
[
上一页 ]
[ :1.700411702e+09 ]
[
下一页 ]