打字猴:1.700412177e+09
1700412177 然而,到了19世纪中期,这种改革的观点被另外一种完全不同的新概念所侵蚀,至少在美国是这样。人们认为,在发展的过程中,技术本身就是主角。马克斯写道:“随着工业资本主义的进一步发展,美国人庆祝科学和技术进步的热情越来越高涨,但是他们开始将技术同社会和政治自由分离开来。”相反,他们拥护“现在更为普遍的观点——科学技术革新本身就是进步与发展的可靠而坚实的根基”。一旦新技术被视作开创伟大事业的途径,这项技术本身就变得伟大了。
1700412178
1700412179 这样一来,正如班布里奇所说,在我们这个时代,计算机能完成复杂的自动化系统分工也不是什么让人惊讶的事了。为了提高生产力,降低劳动力成本,避免人为错误——为了继续进步,你将所有任务的控制权都交给了软件,然后,随着软件能力的提升,你也会进一步扩充软件的权限。技术越多越好。而那些设计师还无法实现的自动化任务,就落到了人类的血肉之躯上,例如监视异常情况或是在系统故障时提供后备支持等。人类被一步步推出工程师所说的“圈子”——行为、反馈和决策的循环,而正是这三者掌控着系统的每一步运行。
1700412180
1700412181 人类工程学家将现在普遍存在的这种方式叫作“以技术为中心的自动化”。这体现了人们对技术近乎宗教般的虔诚信奉,以及对人类自身极度的不信任,厌恶人类的情绪取代了人本主义。它将“技术梦想家”们那“谁需要人类”的观点变成了设计伦理问题。机器和软件工具作为技术的产物,进入工作场所和家庭,随之而来的是,它们将厌恶人类的情绪也带入了我们的生活。认知科学家唐纳德·诺曼写了多本具有很高影响力的产品设计著作,他写道:“不知不觉地,社会就掉进了以机器为中心的生活旋涡,这种生活强调技术的重要性大过人类,因此,人们被迫扮演辅助者的角色,我们最不擅长的就是这个了。更糟糕的是,以机器为中心的观点将人类同机器相比,认为人类不够资格,不能胜任严格、重复、精确的任务。”虽然现在“社会上充斥着”这种观点,但它是错误的,它扭曲了我们对自己的认识。“它强调人类无法完成的任务和活动,忽略了人类最主要的技能和特性——如果有的话,就是机器做不好的事。当我们持有机器中心论时,我们看到的是人工化和机械化的优点。”
1700412182
1700412183 如果存在机械偏好,那么机械化的生活观念也是合情合理的。正如诺伯特·维纳所说,通常,发明背后的推动力同“好摆弄小玩意儿的人想要看到轮子滚动的欲望”一样。有了动力,这群人就会自然而然地掌握设计和构造复杂系统和软件程序的方法,而今,这些系统和程序正控制或者协调整个社会的运转。他们了解代码。随着社会计算机化的程度越来越高,技术专家成了隐形的立法者。他们认为人类因素只是些次要的外部关注,这就消除了实现愿望的主要障碍。他们无所顾忌地追求技术进步,还为自己的观点进行辩驳。如果我们仅凭技术的优越性来评判科技,那么摆弄小玩意儿的人将独掌大权。
1700412184
1700412185 除了适应“进步”这个主流思想,“技术主导”自动化决策的偏好也具有实际价值,它极大地简化了系统构造者的工作。工程师和程序员只需考虑计算机和机器能做什么就行了。这样一来,他们就缩小了关注的范围,精选出项目的各个具体参数。他们再也不用同人类复杂、奇特、脆弱的身体和心理纠缠了。但是,虽然作为一种设计策略,以技术为中心的自动化具有很大的吸引力,但也只是幻影。人类因素被忽略并不代表它们就消失了。
1700412186
1700412187 1997年“自动化奇迹”(Automation Surprises)发表,这篇文章被多次引用。人因专家纳丁·萨特、戴维·伍兹和查尔斯·比林斯追溯了以技术为核心的自动化的源头及其发展历程,这个过程体现了并将继续反映“现代技术的谬见、虚妄和被误导的意图”。计算机最初只是模拟机,而后出现了人们所熟悉的数字形式,这促使工程师和实业家对电子控制系统形成理想化的愿景,他们将这些系统视作低效率、易出错的人类的救星。同人类世界的混乱相比,计算机的运行和输出整洁有序,有如天赐。萨特和她的同事写道:“自动化技术最初希望提高运行的准确度和经济效益,同时降低工作量和训练要求。当时人们认为,可以设计一个自动化系统,这个系统不需要人类的参与,从而减少或避免人类错误出现的机会。”这种信念带着古老质朴的思想,引出了进一步的假设:“设计自动化系统时,可以不考虑人类因素在整个系统中的作用。”
1700412188
1700412189 文章的作者继续指出,这种愿望和信念撑起了主流的设计思路,但这种设计思路被证明是天真且具有破坏性的。虽然自动化系统经常可以提高“运行的准确性和经济效益”,但是它们在某些方面缺少远见,反而带来了一系列全新的问题。自动化系统的缺点大多来源于“即使高度自动化的系统仍然需要运营人员的参与,这就存在人与机器的沟通和协调问题”。但是,在设计系统的时候,设计者并没有充分考虑系统运营人员的参与,所以,系统的沟通和协调能力是非常弱的。这样一来,计算机系统不具备对工作的“全面认识”,也缺少“同外部世界的广泛接触”——这是人类的专长。“自动化系统不知道应该在什么时候同人类进行交流,告诉人们系统的意图和活动,也不知道何时需要人类提供额外信息。这些系统无法向人类提供充分的反馈,反过来,人类就很难追踪自动化的状态和行为,也很难知晓是否需要进行干预,以避免不良的系统行为。”许多影响自动化系统的问题都源自设计缺陷——“没有设计人机交互,也就无法体现基本的人际交互”。
1700412190
1700412191 当工程师和编程人员将软件的工作原理隐藏起来,不让操作人员了解时,他们就等于向这些问题妥协了。所有系统都被装进了神秘莫测的黑盒。普遍的观点认为,一般的人类还不够聪明,没有足够的能力掌握软件程序或机器人设备的复杂原理。如果你和他们讲太多软件运行和决策的算法或程序,只会让他们云里雾里,他们会对系统做出一些错误的操作。让人们蒙在鼓里相对来说更安全。但是,还要再次声明,为了避免人类错误而推卸人类责任最终只会带来更多错误。无知的操作员是一大威胁因素。艾奥瓦大学人因学教授约翰·李解释说,自动化系统使用的控制算法“同人类操作员的控制策略和心智模式不同”,这是很正常的。如果操作员不能理解那些算法,他就无法“预测自动化的行为和局限性”。人类和机器在矛盾下运行,最终目的相左。李教授表示,人们不能理解所使用的机器,这会反过来削弱人类的自信,当系统出差错时,“人类不想进行干预”。
1700412192
1700412193 玻璃笼子:自动化时代和我们的未来 [:1700411245]
1700412194 给人类空间
1700412195
1700412196 人因专家一致敦促设计者抛弃技术优先的策略,转而投向以人类为中心的自动化的怀抱。以人类为中心的设计需要首先评估操作机器或同机器互动的人,衡量他们的优势和局限性,而不是把机器的能力放在第一位。技术发展回归了催生原始人类工程学的人本主义原则。这样做的目的是不只依靠计算机的速度和精确性来划分角色和责任,也要让工人参与进来,积极、主动——也就是在圈内,而不是被排除在外。
1700412197
1700412198 要实现这种平衡并不难。几十年的人类工程学研究表明,有许多直接的方法。我们可以编写软件,将计算机拥有的关键功能控制权时不时地转交给操作员。人类如果知道他们可能需要随时接管任务的控制权,那么他就会保持注意力集中、高度投入,提高态势感知和学习能力。设计工程师会限制自动化的范围,确保同计算机协作的人类能分配到具有挑战性的任务,而不是被降格到被动观察的角色。增加人类的任务有助于保持生成效应。即使是计算机正在处理的活动,设计师也可以向操作者提供相关的直观反馈,告知操作者当前的系统性能。这种反馈可以是声音和触觉警告,也可以是视觉提示。定期反馈会提高人员的参与度,有助于操作员时刻保持警觉。
1700412199
1700412200 自适应自动化就是一种以人类为中心的自动化应用,它非常具有吸引力。在自适应系统里,计算机按照编写的程序,密切关注操作人员的行为,根据不同时段的具体情况,不断调整软件和操作人员的劳动分工。例如,当计算机感觉到操作人员需要进行复杂的操作时,它就会接管其他所有的任务,使得操作人员免受干扰,全神贯注地应对关键性的挑战。在常规条件下,计算机可能会将更多的任务交给操作人员,增加他们的工作量,保证他们具有态势感知能力,也锻炼了操作人员的技能。自适应自动化将计算机的分析能力用于服务人类,使得操作人员一直保持在耶基斯——多德森表现曲线的顶端,避免认知过载和认知负载不足。美国国防部高级研究计划局(DARPA)是隶属于美国国防部的实验室,是创立互联网的先锋。该研究计划局也在研究“神经人类工程学”系统,通过不同的大脑和身体感官,“检测个体的认知状态,然后控制任务参数,克服感知、注意力和工作记忆方面的瓶颈”。自适应自动化也有可能为人类和计算机之间的工作关系注入一股人文气息。一些早期的系统用户报告称,感觉就像是在与人类同事合作一样,而不是操作一台机器。
1700412201
1700412202 自动化研究趋向于高风险的、复杂的大型系统,应用于飞机驾驶舱、控制室和战场上的系统。如果这些系统出现故障,会造成大量的人员伤亡和财产损失。但是,这项研究同医生、律师、经理和其他分析性职业所使用的决策支持类应用也存在一定的相关性。这些程序都经历了多轮人员测试,确保学习和使用起来简单易懂,但是一旦进行深入研究,越过了用户友好界面,你就会发现,以技术为中心的设计原则仍然处于主导地位。约翰·李写道:“通常情况下,专家系统就像是假肢,可能会用更精确的计算机算法替代人类存在缺陷的、相互矛盾的推理。”这些系统会替代人类判断,而不是作为人类思维的补充。随着应用程序数据处理速度和预测灵敏度的提升,程序员会将越来越多的决策任务交给软件来处理。
1700412203
1700412204 拉嘉·帕拉休拉曼也深入研究了自动化对人类的影响,他认为用软件来取代人类决策是错误的。帕拉休拉曼表示,只有当决策支持类应用向专业人士传递所需的相关信息而不是给出某些具体的行动建议时,才真正体现了它们的价值。人类有了思考的空间,才会产生最智慧、最具创造性的想法。李教授也同意这种观点,他写道:“弱化自动化的方式取得的成功更多,它对操作人员的行为做出评论,而不是担当主宰者的角色。”最好的专业系统会呈现“替代性的解释、假设或选择”。附加信息或通常意料之外的信息有助于抵抗人类与生俱来的认知偏见,这种偏见有时会对人类判断造成误导。这些信息会强迫分析员和决策者从完全不同的角度看待问题,扩大选择范围。但是李教授强调,系统应该让人来做最后的决断。他建议,在有证据表明在不存在完美自动化的情况下,“自动化程度越低,例如自动化只扮演评论者的角色,导致错误的可能性就越低”。计算机在对大量数据进行快速分类方面能力超群,但是人类专家比这些数字伙伴更敏感、更智慧。
1700412205
1700412206 力求使创意产业自动化更具人文主义气息的人也想开辟出一块区域,保护专家从业者的思想和判断。许多设计师批评时下流行的CAD程序简单粗暴。本·特瑞纳是旧金山Gensler公司的一名建筑师,他称赞计算机能拓宽设计的可能性。Gensler设计了上海中心大厦,这座节能型的摩天大厦呈螺旋上升式。特瑞纳指出,这栋新建筑就是个例子,如果没有计算机,“就无法建造出来”。但是,他也担心设计软件具有彻底的写实主义,建筑师必须定义输入的每一个几何元素的意义和用途,这就丢失了手绘设计稿所带来的开放式的、无拘束的探索。他说:“画出来的一条线可以是很多东西。”但是,数字线条就只能代表一种事物。
1700412207
1700412208 回到1996年,建筑教授马克·格罗斯和埃伦·都仪伦提出了一种可以替代那些缺乏想象力的CAD软件的应用。在概念蓝图里,这个应用具有“纸”一样的界面,能够“捕捉使用者模糊不清和不够精确的想法,并在视觉上呈现出来”。设计软件“同手绘草稿一样,也具有启发和暗示的特性”。此后,许多学者也提出了类似的想法。最近耶鲁大学计算机科学家朱莉·多尔西带领团队创造了一种设计应用原型,这个应用配备有“思想画布”。同由计算机将二维图稿自动转化为三维虚拟模型不同,这个系统以触屏板作为输入设备,建筑师可以直接绘制三维草图。软件团队解释说:“设计师绘制线条,也可以擦掉重新绘制,不受多边形网格的限制,也摆脱了参数管道不灵活的缺点。使用我们的系统,用户可以在开发创意的过程中反复优化,非常简单,不需要在创意成型前提供精确的几何数据。”
1700412209
1700412210 玻璃笼子:自动化时代和我们的未来 [:1700411246]
1700412211 以技术为中心还是以人为中心?
1700412212
1700412213 以技术为中心和以人为中心的这两种自动化形式之间的矛盾并不只是专业学者所关注的理论层面上的问题,它也影响着企业家、工程师、程序员和政府监管者每日的决策。在航空业,自打30年前引入电传操纵系统以来,两大主导飞机制造商在飞机设计上就存在分歧。空客公司追求以技术为中心,以实现飞机基本“无人驾驶”为目标。空客公司决定替换掉传统飞机驾驶所用的笨重的前置控制杆,取而代之的是侧装式的、小巧的操纵杆,这正体现了公司的目标。这种类似于游戏控制杆的装置将输入信号传送给计算机,短时高效,其间不需要太多的人工干预,却可以为驾驶员提供具体的反馈。同玻璃驾驶舱的概念一致,空客公司强调,飞机驾驶员的角色应该是由计算机操作员而不是飞行员来担任。此外,空客还编写了计算机程序,在特定情况下,计算机会推翻驾驶员的指令,从而保证飞机一直处于软件规定的飞行包线参数内。是软件而不是驾驶员行使最终控制权。
1700412214
1700412215 波音公司在设计电传操控飞机方面则采用了相对以人为中心的策略。公司决定,不允许飞行软件凌驾于驾驶员之上,这可能更受莱特兄弟的青睐。即使是在极端情况下,飞行员也对飞机的控制拥有最终决定权。波音公司不仅保留了传统的体积较大的操纵杆,并且让操纵杆提供人工反馈,模拟飞行员直接控制飞机转向装置时的体验。虽然操纵杆只是向计算机传送电子信号,但通过程序设定,操纵杆会有阻力和其他触觉提醒,模仿飞机副翼、升降舵和其他操控面运动给驾驶员带来的体验。约翰·李表示,研究发现,在提醒驾驶员飞机方向和运行已经发生重要变化时,触觉或触觉型的反馈比单纯的视觉信号更有效。并且,因为大脑处理触觉信号的方式同视觉信号不同,“触觉警告”不会“干预同时进行的视觉表现”。从某种意义上来说,综合的触觉反馈把波音飞机驾驶员带离了玻璃驾驶舱。他们驾驶大型喷气式客机的方式可能和威利·波斯特驾驶的小型洛克希德维加飞机不同,但是相比于空客驾驶舱里的同行们,波音飞机的驾驶员拥有更多身体上的飞行体验。
1700412216
1700412217 空客公司制造出高端大气的飞机。同波音飞机比起来,一些商业飞行员更喜欢空客。两家飞机制造商的安全记录十分接近。但是,最近发生的一些事故反映出空客以技术为中心的设计理念的短板。某些飞行专家认为,法航空难的部分原因可以归咎于空客飞机驾驶舱的设计。录音记录记载了驾驶员控制飞机的全过程,皮埃尔·塞德里克·博宁回拉侧杆,副驾驶员戴维·罗伯特对博宁犯下的致命错误视而不见。而在波音飞机的驾驶舱里,每一位驾驶员都能清楚地看到其他驾驶员的操纵杆以及其他驾驶员对操纵杆的控制行为,如果这还不够,两个操纵杆会作为同一个单元运行。如果某个驾驶员回拉操纵杆,另外一名驾驶员的操纵杆也会向后移动。借助视觉和触觉提示,驾驶员们可以保持同步。相反,空客飞机的侧杆比较隐蔽,驾驶员的操作动作较小,并且,两个操纵杆各行其是。飞行员很容易就会忽略另一位飞行员的动作,特别是在压力上升而注意力下降的紧急情况下。
1700412218
1700412219 如果罗伯特及早发现并纠正了博宁的错误,驾驶员可能会重新控制A330。切斯利·萨伦伯格认为,如果驾驶员在搭载了以人为中心的控制设备的波音飞机驾驶室里,法航空难发生的概率会“大大降低”。杰出的法国工程师伯纳德·齐格勒是空客公司的顶尖设计师,他于1997年退休。最近,他对空客公司的设计哲学表示了担忧。在空客公司总部图卢兹接受作家威廉姆·朗格维舍采访时,齐格勒表示:“有时,我在想,是否我们制造的飞机太容易操作了,以至于它们飞不起来,因为如果飞机驾驶难度较高,机组人员就需要特别警惕。”他进而建议空客公司应该“在驾驶员的座椅里安装一个滴答作响的断续器”。这可能是个玩笑,但是齐格勒的看法同人因研究员对人类技能和注意力维护研究得出的结果一致。有时,自动化系统给操作员提供的应该只是一个好想法或是类似的技术。
1700412220
1700412221 在美国联邦航空管理局2013年给驾驶员的安全警告中,美国联邦航空管理局鼓励驾驶员在飞行过程中多采用手动控制模式,虽然是实验性的,但这也体现了对以人为中心的自动化的支持。航空管理局已经认识到,让驾驶员更加深入地参与飞行可以降低发生人为错误的概率,降低自动化故障带来的影响,提高飞行的安全性。提高自动化程度并不总是最明智的选择。美国联邦航空管理局聘请了大批知名的人因研究员,密切关注人类工程学研究,美国联邦航空管理局计划推行“下一代”计划,对美国的空中交通管制系统进行彻底检查。该项目的首要目标之一是“建立适应、补充并增强人类行为的航空系统”。
1700412222
1700412223 在金融领域,加拿大皇家银行也在抵抗以技术为中心的自动化。在华尔街交易平台上,加拿大皇家银行安装了专属的软件程序,名为THOR,这个软件能切实放缓买卖交易速度,避免高速交易商会利用算法控制交易。加拿大皇家银行发现,放缓交易速度以后,最终执行的交易条款对顾客来说更具吸引力。银行承认,现在通行的高速数据流技术具有强制性,他们在这方面做出了权衡。避开了高速交易,每笔交易的金额有所下降,但是相信从长远来看,客户忠诚度的加强以及风险的降低会带来总体利润的提升。
1700412224
1700412225 前加拿大皇家银行执行官布雷德·胜山目光更加长远。胜山观察到股票市场倾向于高频交易,他领导开创了一种更为公平的新的交易方式,名为IEX。2013年年末,IEX开放,对自动化系统施加控制。交易公司具有掠夺性,它们的计算机同交易联系紧密,可以从中占据优势,IEX的软件管理数据流确保交易各方能同时收到定价或其他信息,从而弱化了交易公司的优势。IEX禁止高速算法交易和收费计划。胜山和他的同事借助复杂的技术,平衡人和计算机之间的关系。一些国家管理机构也在通过法律法规尝试放缓自动交易。2012年,法国对股票交易征税,一年以后,意大利也加入进来。因为高频交易算法通常执行基于数量的套利策略——每笔交易带来的利润较低,但是可以同时处理上百万笔交易,即使是非常低的税率,也会让高频算法程序的吸引力大打折扣。
1700412226
[ 上一页 ]  [ :1.700412177e+09 ]  [ 下一页 ]