1700412165
是否需要考虑人类因素?
1700412166
1700412167
人类工程学是艺术和科学结合的产物,是一门研究如何使工具和工作场所适应人类需求的学科,最早可以追溯到古希腊时期。希波克拉底在“论外科手术”(On Things Relating to the Surgery)一文中,给出了精确的指示,他告诉我们应该如何布置手术室的照明设施和内饰,如何摆放和操作医疗工具,甚至还给出了医生的着装建议。在许多希腊工具的设计中我们可以看到,工具的形状、重量和平衡性是如何影响工人的生产力、体力和健康的,古希腊人在这方面可谓细致考究。亚洲文明早期也是如此,各种迹象表明,工人的工具都经过了精心设计,从身体上和心理上都给工人带来了舒适感和满足感。
1700412168
1700412169
但是,直到“二战”时才诞生了人类工程学,还有它的表亲——一门理论性更强的正式学科,控制论。上万名不经事的士兵和刚刚招募的新兵要扛起这些复杂的、危险的武器和机器,但他们没有时间接受训练。蹩脚的设计和令人混乱的操作让人无法容忍。要感谢那些先锋的思想者,例如诺伯特·维纳、美国空军心理学家保罗·菲茨和阿尔方斯·查帕尼斯,军队和工业规划者开始认识到,复杂的技术系统的成功,除了系统机械组件和电子调节器以外,人类也扮演了不可或缺的角色,他们开始重视人类的价值。在严格的泰勒主义理论里,你不能制造一台完美的机器,然后让工人去适应这台机器;你必须设计一台机器,让它去适应人类的工作。
1700412170
1700412171
最开始是受战争启发,而后被计算机进入商业、政府和科学界的潮流推动,一大批敬业的心理学家、生理学家、神经生物学家、工程师、社会学家和设计师开始将他们的才华投入到人类和机器的互动研究中来。虽然他们的研究焦点曾集中于战场、工厂,但还是充满浓浓的人本主义气息:将人类和技术融合起来,高效、富有弹性、安全的共生关系,和谐的人机伙伴关系,互惠共赢。如果我们生活在一个复杂系统的时代,那么人类工程学家就是形而上学的大师。
1700412172
1700412173
或者至少人类工程学应该是形而上学的大师。大多数情况下,人们忽视了人类工程学领域(现在一般称为人因工程学)的发现或洞见,或者对其置之不理。原来,人们关注计算机或其他机器给人类思维和身体带来的影响,而今,这个关注点已经逐渐被追求效率、速度和准确度的最大化所取代——或者干脆就是追求利益的最大化。软件程序员没有接受过人类工程学方面的训练,他们对相关的人因研究置若罔闻。虽然工程师和计算机科学家非常关注数学和逻辑,他们天生厌恶人因领域的“软”关注,但这也无济于事。人类工程学先驱戴维·迈斯特于2006年去世,在去世前的几年,他回忆起自己的职业生涯:“他们在工作中经常需要克服许多困难,所以取得的成就几乎都是意料之外的。”他略带遗憾地总结说:“技术发展的进程和利益推动捆绑在一起,结果导致人的价值很少得到尊重。”
1700412174
1700412175
情况也并不总是如此。18世纪后半叶,当启蒙运动的科学发现开始转变为工业革命的真正机器时,人类开始认为,技术发展是推动历史的因素之一。那也是政治动荡的年代,这种时间上的重合并非偶然。启蒙运动倡导的民主和人本思想在美洲和法国的革命中达到了顶峰,并影响了社会各界对科学和技术的看法。如果说工人还没有认识到技术进步的重要性,那么学者却已经对技术给予了高度重视,他们将技术革新视作政治改革的途径。“进步”具有了社会意味,而“技术”只起到了修饰作用。用文化历史学家利奥·马克斯的话来说,启蒙运动思想家,例如伏尔泰、约瑟夫·普利斯特里和托马斯·杰斐逊见证了“新科学和技术并没有自我终结,而是作为工具,推动了社会的全面转型”。
1700412176
1700412177
然而,到了19世纪中期,这种改革的观点被另外一种完全不同的新概念所侵蚀,至少在美国是这样。人们认为,在发展的过程中,技术本身就是主角。马克斯写道:“随着工业资本主义的进一步发展,美国人庆祝科学和技术进步的热情越来越高涨,但是他们开始将技术同社会和政治自由分离开来。”相反,他们拥护“现在更为普遍的观点——科学技术革新本身就是进步与发展的可靠而坚实的根基”。一旦新技术被视作开创伟大事业的途径,这项技术本身就变得伟大了。
1700412178
1700412179
这样一来,正如班布里奇所说,在我们这个时代,计算机能完成复杂的自动化系统分工也不是什么让人惊讶的事了。为了提高生产力,降低劳动力成本,避免人为错误——为了继续进步,你将所有任务的控制权都交给了软件,然后,随着软件能力的提升,你也会进一步扩充软件的权限。技术越多越好。而那些设计师还无法实现的自动化任务,就落到了人类的血肉之躯上,例如监视异常情况或是在系统故障时提供后备支持等。人类被一步步推出工程师所说的“圈子”——行为、反馈和决策的循环,而正是这三者掌控着系统的每一步运行。
1700412180
1700412181
人类工程学家将现在普遍存在的这种方式叫作“以技术为中心的自动化”。这体现了人们对技术近乎宗教般的虔诚信奉,以及对人类自身极度的不信任,厌恶人类的情绪取代了人本主义。它将“技术梦想家”们那“谁需要人类”的观点变成了设计伦理问题。机器和软件工具作为技术的产物,进入工作场所和家庭,随之而来的是,它们将厌恶人类的情绪也带入了我们的生活。认知科学家唐纳德·诺曼写了多本具有很高影响力的产品设计著作,他写道:“不知不觉地,社会就掉进了以机器为中心的生活旋涡,这种生活强调技术的重要性大过人类,因此,人们被迫扮演辅助者的角色,我们最不擅长的就是这个了。更糟糕的是,以机器为中心的观点将人类同机器相比,认为人类不够资格,不能胜任严格、重复、精确的任务。”虽然现在“社会上充斥着”这种观点,但它是错误的,它扭曲了我们对自己的认识。“它强调人类无法完成的任务和活动,忽略了人类最主要的技能和特性——如果有的话,就是机器做不好的事。当我们持有机器中心论时,我们看到的是人工化和机械化的优点。”
1700412182
1700412183
如果存在机械偏好,那么机械化的生活观念也是合情合理的。正如诺伯特·维纳所说,通常,发明背后的推动力同“好摆弄小玩意儿的人想要看到轮子滚动的欲望”一样。有了动力,这群人就会自然而然地掌握设计和构造复杂系统和软件程序的方法,而今,这些系统和程序正控制或者协调整个社会的运转。他们了解代码。随着社会计算机化的程度越来越高,技术专家成了隐形的立法者。他们认为人类因素只是些次要的外部关注,这就消除了实现愿望的主要障碍。他们无所顾忌地追求技术进步,还为自己的观点进行辩驳。如果我们仅凭技术的优越性来评判科技,那么摆弄小玩意儿的人将独掌大权。
1700412184
1700412185
除了适应“进步”这个主流思想,“技术主导”自动化决策的偏好也具有实际价值,它极大地简化了系统构造者的工作。工程师和程序员只需考虑计算机和机器能做什么就行了。这样一来,他们就缩小了关注的范围,精选出项目的各个具体参数。他们再也不用同人类复杂、奇特、脆弱的身体和心理纠缠了。但是,虽然作为一种设计策略,以技术为中心的自动化具有很大的吸引力,但也只是幻影。人类因素被忽略并不代表它们就消失了。
1700412186
1700412187
1997年“自动化奇迹”(Automation Surprises)发表,这篇文章被多次引用。人因专家纳丁·萨特、戴维·伍兹和查尔斯·比林斯追溯了以技术为核心的自动化的源头及其发展历程,这个过程体现了并将继续反映“现代技术的谬见、虚妄和被误导的意图”。计算机最初只是模拟机,而后出现了人们所熟悉的数字形式,这促使工程师和实业家对电子控制系统形成理想化的愿景,他们将这些系统视作低效率、易出错的人类的救星。同人类世界的混乱相比,计算机的运行和输出整洁有序,有如天赐。萨特和她的同事写道:“自动化技术最初希望提高运行的准确度和经济效益,同时降低工作量和训练要求。当时人们认为,可以设计一个自动化系统,这个系统不需要人类的参与,从而减少或避免人类错误出现的机会。”这种信念带着古老质朴的思想,引出了进一步的假设:“设计自动化系统时,可以不考虑人类因素在整个系统中的作用。”
1700412188
1700412189
文章的作者继续指出,这种愿望和信念撑起了主流的设计思路,但这种设计思路被证明是天真且具有破坏性的。虽然自动化系统经常可以提高“运行的准确性和经济效益”,但是它们在某些方面缺少远见,反而带来了一系列全新的问题。自动化系统的缺点大多来源于“即使高度自动化的系统仍然需要运营人员的参与,这就存在人与机器的沟通和协调问题”。但是,在设计系统的时候,设计者并没有充分考虑系统运营人员的参与,所以,系统的沟通和协调能力是非常弱的。这样一来,计算机系统不具备对工作的“全面认识”,也缺少“同外部世界的广泛接触”——这是人类的专长。“自动化系统不知道应该在什么时候同人类进行交流,告诉人们系统的意图和活动,也不知道何时需要人类提供额外信息。这些系统无法向人类提供充分的反馈,反过来,人类就很难追踪自动化的状态和行为,也很难知晓是否需要进行干预,以避免不良的系统行为。”许多影响自动化系统的问题都源自设计缺陷——“没有设计人机交互,也就无法体现基本的人际交互”。
1700412190
1700412191
当工程师和编程人员将软件的工作原理隐藏起来,不让操作人员了解时,他们就等于向这些问题妥协了。所有系统都被装进了神秘莫测的黑盒。普遍的观点认为,一般的人类还不够聪明,没有足够的能力掌握软件程序或机器人设备的复杂原理。如果你和他们讲太多软件运行和决策的算法或程序,只会让他们云里雾里,他们会对系统做出一些错误的操作。让人们蒙在鼓里相对来说更安全。但是,还要再次声明,为了避免人类错误而推卸人类责任最终只会带来更多错误。无知的操作员是一大威胁因素。艾奥瓦大学人因学教授约翰·李解释说,自动化系统使用的控制算法“同人类操作员的控制策略和心智模式不同”,这是很正常的。如果操作员不能理解那些算法,他就无法“预测自动化的行为和局限性”。人类和机器在矛盾下运行,最终目的相左。李教授表示,人们不能理解所使用的机器,这会反过来削弱人类的自信,当系统出差错时,“人类不想进行干预”。
1700412192
1700412194
给人类空间
1700412195
1700412196
人因专家一致敦促设计者抛弃技术优先的策略,转而投向以人类为中心的自动化的怀抱。以人类为中心的设计需要首先评估操作机器或同机器互动的人,衡量他们的优势和局限性,而不是把机器的能力放在第一位。技术发展回归了催生原始人类工程学的人本主义原则。这样做的目的是不只依靠计算机的速度和精确性来划分角色和责任,也要让工人参与进来,积极、主动——也就是在圈内,而不是被排除在外。
1700412197
1700412198
要实现这种平衡并不难。几十年的人类工程学研究表明,有许多直接的方法。我们可以编写软件,将计算机拥有的关键功能控制权时不时地转交给操作员。人类如果知道他们可能需要随时接管任务的控制权,那么他就会保持注意力集中、高度投入,提高态势感知和学习能力。设计工程师会限制自动化的范围,确保同计算机协作的人类能分配到具有挑战性的任务,而不是被降格到被动观察的角色。增加人类的任务有助于保持生成效应。即使是计算机正在处理的活动,设计师也可以向操作者提供相关的直观反馈,告知操作者当前的系统性能。这种反馈可以是声音和触觉警告,也可以是视觉提示。定期反馈会提高人员的参与度,有助于操作员时刻保持警觉。
1700412199
1700412200
自适应自动化就是一种以人类为中心的自动化应用,它非常具有吸引力。在自适应系统里,计算机按照编写的程序,密切关注操作人员的行为,根据不同时段的具体情况,不断调整软件和操作人员的劳动分工。例如,当计算机感觉到操作人员需要进行复杂的操作时,它就会接管其他所有的任务,使得操作人员免受干扰,全神贯注地应对关键性的挑战。在常规条件下,计算机可能会将更多的任务交给操作人员,增加他们的工作量,保证他们具有态势感知能力,也锻炼了操作人员的技能。自适应自动化将计算机的分析能力用于服务人类,使得操作人员一直保持在耶基斯——多德森表现曲线的顶端,避免认知过载和认知负载不足。美国国防部高级研究计划局(DARPA)是隶属于美国国防部的实验室,是创立互联网的先锋。该研究计划局也在研究“神经人类工程学”系统,通过不同的大脑和身体感官,“检测个体的认知状态,然后控制任务参数,克服感知、注意力和工作记忆方面的瓶颈”。自适应自动化也有可能为人类和计算机之间的工作关系注入一股人文气息。一些早期的系统用户报告称,感觉就像是在与人类同事合作一样,而不是操作一台机器。
1700412201
1700412202
自动化研究趋向于高风险的、复杂的大型系统,应用于飞机驾驶舱、控制室和战场上的系统。如果这些系统出现故障,会造成大量的人员伤亡和财产损失。但是,这项研究同医生、律师、经理和其他分析性职业所使用的决策支持类应用也存在一定的相关性。这些程序都经历了多轮人员测试,确保学习和使用起来简单易懂,但是一旦进行深入研究,越过了用户友好界面,你就会发现,以技术为中心的设计原则仍然处于主导地位。约翰·李写道:“通常情况下,专家系统就像是假肢,可能会用更精确的计算机算法替代人类存在缺陷的、相互矛盾的推理。”这些系统会替代人类判断,而不是作为人类思维的补充。随着应用程序数据处理速度和预测灵敏度的提升,程序员会将越来越多的决策任务交给软件来处理。
1700412203
1700412204
拉嘉·帕拉休拉曼也深入研究了自动化对人类的影响,他认为用软件来取代人类决策是错误的。帕拉休拉曼表示,只有当决策支持类应用向专业人士传递所需的相关信息而不是给出某些具体的行动建议时,才真正体现了它们的价值。人类有了思考的空间,才会产生最智慧、最具创造性的想法。李教授也同意这种观点,他写道:“弱化自动化的方式取得的成功更多,它对操作人员的行为做出评论,而不是担当主宰者的角色。”最好的专业系统会呈现“替代性的解释、假设或选择”。附加信息或通常意料之外的信息有助于抵抗人类与生俱来的认知偏见,这种偏见有时会对人类判断造成误导。这些信息会强迫分析员和决策者从完全不同的角度看待问题,扩大选择范围。但是李教授强调,系统应该让人来做最后的决断。他建议,在有证据表明在不存在完美自动化的情况下,“自动化程度越低,例如自动化只扮演评论者的角色,导致错误的可能性就越低”。计算机在对大量数据进行快速分类方面能力超群,但是人类专家比这些数字伙伴更敏感、更智慧。
1700412205
1700412206
力求使创意产业自动化更具人文主义气息的人也想开辟出一块区域,保护专家从业者的思想和判断。许多设计师批评时下流行的CAD程序简单粗暴。本·特瑞纳是旧金山Gensler公司的一名建筑师,他称赞计算机能拓宽设计的可能性。Gensler设计了上海中心大厦,这座节能型的摩天大厦呈螺旋上升式。特瑞纳指出,这栋新建筑就是个例子,如果没有计算机,“就无法建造出来”。但是,他也担心设计软件具有彻底的写实主义,建筑师必须定义输入的每一个几何元素的意义和用途,这就丢失了手绘设计稿所带来的开放式的、无拘束的探索。他说:“画出来的一条线可以是很多东西。”但是,数字线条就只能代表一种事物。
1700412207
1700412208
回到1996年,建筑教授马克·格罗斯和埃伦·都仪伦提出了一种可以替代那些缺乏想象力的CAD软件的应用。在概念蓝图里,这个应用具有“纸”一样的界面,能够“捕捉使用者模糊不清和不够精确的想法,并在视觉上呈现出来”。设计软件“同手绘草稿一样,也具有启发和暗示的特性”。此后,许多学者也提出了类似的想法。最近耶鲁大学计算机科学家朱莉·多尔西带领团队创造了一种设计应用原型,这个应用配备有“思想画布”。同由计算机将二维图稿自动转化为三维虚拟模型不同,这个系统以触屏板作为输入设备,建筑师可以直接绘制三维草图。软件团队解释说:“设计师绘制线条,也可以擦掉重新绘制,不受多边形网格的限制,也摆脱了参数管道不灵活的缺点。使用我们的系统,用户可以在开发创意的过程中反复优化,非常简单,不需要在创意成型前提供精确的几何数据。”
1700412209
1700412211
以技术为中心还是以人为中心?
1700412212
1700412213
以技术为中心和以人为中心的这两种自动化形式之间的矛盾并不只是专业学者所关注的理论层面上的问题,它也影响着企业家、工程师、程序员和政府监管者每日的决策。在航空业,自打30年前引入电传操纵系统以来,两大主导飞机制造商在飞机设计上就存在分歧。空客公司追求以技术为中心,以实现飞机基本“无人驾驶”为目标。空客公司决定替换掉传统飞机驾驶所用的笨重的前置控制杆,取而代之的是侧装式的、小巧的操纵杆,这正体现了公司的目标。这种类似于游戏控制杆的装置将输入信号传送给计算机,短时高效,其间不需要太多的人工干预,却可以为驾驶员提供具体的反馈。同玻璃驾驶舱的概念一致,空客公司强调,飞机驾驶员的角色应该是由计算机操作员而不是飞行员来担任。此外,空客还编写了计算机程序,在特定情况下,计算机会推翻驾驶员的指令,从而保证飞机一直处于软件规定的飞行包线参数内。是软件而不是驾驶员行使最终控制权。
[
上一页 ]
[ :1.700412164e+09 ]
[
下一页 ]