打字猴:1.700411681e+09
1700411681
1700411682 [2]人们提到“失速”时,通常是指发动机熄火。在航空业,失速是指机翼失去升力。——译者注
1700411683
1700411684
1700411685
1700411686
1700411687 玻璃笼子:自动化时代和我们的未来 [:1700411226]
1700411688
1700411689 玻璃笼子:自动化时代和我们的未来
1700411690
1700411691
1700411692
1700411693
1700411694 玻璃笼子:自动化时代和我们的未来 第四章 重塑工作和工人
1700411695
1700411696
1700411697
1700411698
1700411699
1700411700
1700411701
1700411702 玻璃笼子:自动化时代和我们的未来 [:1700411227]
1700411703 玻璃笼子:自动化时代和我们的未来 100年前,英国哲学家阿弗雷德·诺尔司·怀特海在《数学导论》(An Introduction to Mathematics)中写道:“人们无须过多考虑就可以完成的重要操作越来越多,随着这些操作数量的增长,文明也在进步。”怀特海所指的并不是机器,而是运用数学符号表达想法或逻辑过程——将智力行为封装在代码中。怀特海希望他的想法能得到广泛认同。他写道,人们普遍认为“应该培养勤于反思所做之事的习惯,但这从根本上就错了”。我们越是能将思维从日常琐事中解放出来,就越能卸下这些任务,将它们交给辅助技术,从而储备更多精力,用于进行最深层的、最具创造性的推理和猜想。“思维运转就像战争中冲锋陷阵的骑士——数量非常有限,需要战马辅佐,并且只能用于决定性的时刻。”
1700411704
1700411705 我们坚信,自动化是发展的基石,很难再想出一种更加简洁、明确的方式来表达我们的信念了。怀特海的话阐明了人类行为的等级观念。每当我们卸下一项任务,将其交给工具、机器、符号或是软件算法,我们就获得了解放,可以寻求更高的追求,这个追求需要我们更加机敏,拥有更多智慧和更加开阔的视野。可能每往上爬一步,我们就会失去些东西,但是到了最后,我们的收获也会更大。极端点儿看,怀特海将自动化视为自由,它最终会变成王尔德和凯恩斯所说的“技术乌托邦”,或者像马克思所说的——机器将把我们从早期劳动中解放出来,重返伊甸园时的闲适愉悦。但是怀特海并不是在做白日梦,他就如何支配时间和如何付出努力,提出了一种较为实用的观点。在20世纪70年代出版的一份刊物上,美国劳动部将秘书的工作职责总结为:“将雇主从日常任务中解放出来,使雇主可以去处理更重要的事务。”在怀特海看来,软件和其他自动化技术起到了类似的作用。
1700411706
1700411707 历史为怀特海提供了大量支持的证据。自从杠杆、轮胎和计算工具问世以来,人们一直都处于不断摆脱琐事的过程和努力中,将它们交给工具去完成,这些琐事不仅涉及体力劳动,还包括脑力劳动。任务的转移使我们能够应对更为棘手的挑战,取得更大的成就。农场、工厂、实验室和家里,随处都可以找到证据。但是,我们不能认为怀特海的观点就是普遍真理。他说出此番言论时,自动化还局限于个别的、定义明确的重复性工作——用蒸汽织布机编制布料、用联合收割机收获粮食、用计算尺做乘法等。现在,自动化已经今非昔比。就像我们看到的,计算机通过编程,能够执行或支持复杂的活动,这些活动需要通过评估多个变量来完成一系列高度协同的任务。在如今的自动化系统里,计算机经常承担起脑力劳动的任务——观察、感知、分析、判断,甚至做出决策。一直以来,这些行为都被认为是人类的特殊属性。操作计算机的人沦为高技术职员,负责输入数据,监控输出,留意故障。软件限制了我们的关注点,而不是开启人类思维和行动的新疆域。我们用精妙独特的才智换取了更为常规的、趋同的技术。
1700411708
1700411709 大多数人的预测同怀特海相同,认为自动化是有益的,会推动我们去完成更大的使命,但并不会改变我们做事或思考的方式。这是个谬论,是自动化学者所说的“替代神话”。省力设备不仅可以替代部分工作,还改变了整个任务的特性,包括参与者的角色、态度和技术。正如拉嘉·帕拉休拉曼在2000年发表的杂志文章中提到的:“自动化并不是简单地取代了人类活动,而是通过出乎设计者意料或预期之外的方式改变人类活动。”自动化重塑了工作和工人。
1700411710
1700411711 过度依赖的后果
1700411712
1700411713 当人们在计算机的协助下完成一项任务时,他们经常会被一对认知障碍所扰,即自动化的自满情绪和人们对自动化的偏好。当我们按照怀特海定律进行重要操作而不多加思考时,我们很可能会掉进这对认知障碍的陷阱。
1700411714
1700411715 当计算机给我们造成安全假象时,就体现出了我们对自动化的过度依赖。我们坚信机器运转不会出现任何问题,它能处理所有可能遇到的挑战,我们不用时刻留意机器的状况。我们从工作中抽身,或者至少对于软件处理的那部分工作不用给予太多关注,这样一来,我们很可能会忽略机器的故障信号。大多数人都有过类似的经历:在发邮件或使用文字处理软件时,如果开启了拼写检查工具,我们就不会特意去校对文字。这是个简单的例子,最坏的情况也就是带来点儿尴尬。但是有些时候,对自动化的过度依赖会带来致命的后果,飞机的操作悲剧就说明了这一点。在最坏的情况下,人们过于相信技术,以至于他们完全丧失了对周遭情况的感知能力。他们关掉了自己的认知系统。如果突然出现问题,人们会感到迷茫,并错失宝贵的时机。
1700411716
1700411717 从战场到工业控制室,再到船只和潜水艇的船桥,在许多危险系数较高的环境中都曾出现过对自动化的过度依赖。这里有一个典型的例子:1995年春天,一艘载有1 500名乘客的远洋客轮“皇威”号从巴拿马起航,开往波士顿,在为期一周的航行中,在当地是最后一站。这艘客轮装载了当时最先进的自动航海系统,通过GPS信号保持航线。起航一小时后,GPS的天线松脱,航海系统无法进行方向定位,虽然仍能继续提供读数,但这些读数都存在偏差。过了30多个小时,客轮渐渐偏离了原定的航线。虽然已经出现了系统故障的明确信号,但船长和船员仍旧置之不理。曾有那么一刻,当值大副无法定位客轮应该经过的重要区位浮标,但他也没有报告这一情况。他盲目地相信,自动航海系统是十分健全的,以至于他以为浮标就在那儿,只是他没看见罢了。客轮偏离了航线将近20英里,最终在楠塔基特岛附近的沙洲上搁浅。幸运的是,这次事故没有造成人员伤亡,但是给客轮公司造成了数百万美元的损失。政府安全调查员总结,对自动化的过度依赖是引发这次不幸事故的元凶。船长“过度依赖”自动系统,以至于他忽略了其他“助航设备及监控信息”的偏航危险提示。安全调查员在报告中说,有了自动化,“船员不再负责重要的操作,不再积极地参与轮船的控制工作”。
1700411718
1700411719 对自动化的过度依赖会困扰办公室职员,也会给飞机和轮船的驾驶员带来麻烦。在一项关于软件对建筑业的影响的调查中,麻省理工学院社会学家雪莉·特克记录了建筑师关注细节方面的变化。在需要手绘设计图时,建筑师在将设计蓝图交给施工人员之前,都会不厌其烦地仔细核对、检查所有尺寸。建筑师知道自己可能会犯错误,会有疏忽。所以,他们遵循着木匠的格言:“量两次切一次。”但是如果通过软件设计图纸,设计师就不会这么仔细地核准尺寸了。计算机具有精确的透视和打印技术,导致设计师认为设计数据都是准确的。一位建筑师告诉特克:“再去检查就显得有些自以为是了,我是说,我不可能比计算机做得更好。计算机能精确到0.01英寸[1]。”工程师和建筑工人也存在这种对自动化的过度依赖情绪,以至于在设计和施工的过程中,他们会犯下代价惨重的错误。虽然我们知道,计算机输出的内容取决于我们输入的质量,但我们仍旧告诉自己:计算机不会出现严重的错误。特克的一名学生说:“计算机系统越精确,你就越会觉得它在修正你的错误,你也就越相信机器输出的内容,认为就应该是这样。产生这种想法是很自然的。”
1700411720
1700411721 对自动化的偏好同对自动化的过度依赖紧密相连。当人们过分重视显示屏上的信息时,这种偏好就会悄悄地蔓延开来。即使信息是错误的或具有误导性,人们也相信这些信息。他们对软件的信赖变得特别强烈,以至于忽略或低估了其他来源的信息,包括人类自己的感知。如果你发现,因为盲目听从GPS设备或其他数字地图工具发出的错误或未更新的指示,你迷了路或是一直在绕圈,那么,你就被自动化偏好影响了。即使是司机,在依靠卫星导航行驶时,也会表现得缺少常识,这让人很是吃惊。司机们会沿着危险的路线一直开,最终撞上低矮的天桥或是堵在小镇的羊肠小道上。2008年,在西雅图,一名司机驾驶着公共汽车撞上了混凝土桥,当时车上乘客是一支高中运动队。这辆车有12英尺高,而桥的限高是9英尺。汽车的顶棚被掀翻了,21名学生受伤被送往医院。司机告诉警察,他一直按照GPS的指示驾驶,并没有看到前方桥梁限高的标志和闪烁的警示灯。
1700411722
1700411723 对于依靠决策支持类软件进行分析或判断的人来说,自动化偏好具有特殊的风险性。自20世纪20年代末以来,放射科医生就一直使用计算机辅助诊断系统。乳腺X光或其他X射线将疑似患病区域突出标示出来。将图像的数码版扫描进计算机,图像匹配软件会进行检查,添加箭头或其他提示,为医生标明区域,从而方便医生进行更为细致的检查。在某些情况下,疾病检查的突出标注能帮助放射科医生找出可能会忽略的潜在癌症。但是,研究表明,突出标注也会起到反作用。医生更倾向于采用软件给出的建议,对于图像中没有高亮标注的区域只是草草扫一眼。这样一来,有时,医生就会忽略早期肿瘤或其他病变。当放射科医生让病人做没有必要的活体检查时,提示信息也会增加误报的可能性。
1700411724
1700411725 近日,伦敦城市大学的一组研究人员对乳腺X光数据进行了复核。他们发现,自动化偏好对放射科医生以及其他图像读取职业的影响比想象的要大。研究人员发现,虽然在评估“相对简单的案例”时,计算机辅助诊断提高了“鉴别力较差的人员”的准确性,但它也确实降低了专业人员评估复杂案例的能力。依靠软件识别疾病时,专家更容易忽视某些癌症。并且,计算机辅助决策会引发个别细微的判断偏好,是“人类认知结构中对提示和警告的固有反应的一部分”。辅助技术引导我们的视线焦点,歪曲了我们的认识。
1700411726
1700411727 对自动化的过度依赖和偏好似乎都是源于注意力的局限性。对自动化的过度依赖表明,当我们没有同周围事物进行常规性互动时,注意力和意识很容易就会分散。我们在评估和衡量信息时容易产生偏好情绪,这表明我们思维的关注点具有选择性,并且很容易被错误信息或是表面上看起来有用的提示影响。随着自动化系统的质量和可靠性不断提升,人们对自动化的过度依赖和偏好会变得越来越严重。实验表明,当某个系统频繁出现错误时,我们会保持高度警惕,时刻注意周围环境的变化,仔细监控来自不同渠道的信息。但是当系统的可靠性提高以后,故障或错误只是偶尔出现,我们就变得懒惰了,认为系统是完美无瑕的、可靠的。
1700411728
1700411729 通常情况下,即使我们不关注自动化系统,或者不对自动化系统施加强烈的主观意识,它也能保持良好的运转状态,所以,我们很少受到对自动化的过度依赖或偏好带来的惩罚。这会导致一些复杂的问题。2010年,帕拉休拉曼同德国同事迪特里希·曼蔡共同撰写了一篇论文,他们指出:“考虑到自动化系统通常都具有较高的可靠性,所以,即使操作者对自动化的过度依赖或偏好情绪特别严重,也很少会对系统运转造成明显的影响。”缺乏负面反馈会触发“某种认知程序,同前面提到的‘学者的粗心大意’类似”。设想一下,你在开车的时候打瞌睡。你困得上下点头,车偏移了车道,这时,你通常会撞上坚硬的路肩或是隆起带,或者其他驾驶员会朝你按喇叭——这些信号会让你很快惊醒。如果你的车能通过监控车道标记,调整驾驶,自动保持在道路中央行驶,你就不会收到什么警告。你会慢慢进入熟睡状态。然后,如果有什么意外——动物闯进了马路,或者一辆车在你前方很近的地方停了下来,很容易就会酿成事故。自动化把我们同负面反馈隔离开来,使我们难以保持警惕的状态,也很难参与操作,这样一来,我们就更容易忽视情况的变化。
1700411730
[ 上一页 ]  [ :1.700411681e+09 ]  [ 下一页 ]