1702416392
1702416393
自动化悖论体现在三个方面。第一,自动化不但操作简单,而且可以自动纠错,哪怕操作者不够专业都可以正常工作很长时间,他的不足被自动化完美掩盖,很可能一辈子都不会被同行发现。第二,即便是老手,由于系统不需要他们手工作业,原有的操作技能也会因为疏于练习而退化。第三,自动化系统往往在异常情况下失效,或者以发生异常情况的方式失效,如果操作者的技巧不够熟练是无法应付这些突发情况的。就以上任意一个方面来说,系统的自动化程度越高,人们对系统就越依赖,面对异常情况时的反应就会越糟糕。
1702416394
1702416395
当然,并不是每一个自动化系统都存在这样的悖论,自动化客服便是一个例外。比如,一个自动化的客服网页能够处理日常的投诉和问题,从而避免人工客服就同一问题一遍又一遍地重复回答。自动化系统节约下来的时间可以让人工客服为客户解决更复杂的问题。
1702416396
1702416397
不过和自动化客服不同,飞机可不是例外。自动驾驶系统和电传操纵系统的存在目的绝不是为了节约飞行员的时间,让他们有空干别的事。在飞行员需要休息时,它们充当了半个有时甚至是全权负责的指挥官。2009年末发生了一起丑闻,两名飞行员将飞机设置成自动驾驶,自己却在一旁玩笔记本电脑,结果飞过了目的地明尼阿波利斯机场160多千米。
1702416398
1702416399
类似这种问题是很难及时察觉的,即使发现了一般也不好处理。
1702416400
1702416401
让我们回到法航447号航班。突如其来的颠簸打断了机长迪布瓦的休息。他终于在空速指示器失灵1分38秒后走进驾驶舱。当时,飞机仍处在35000英尺(约10668米)的高空,但是正以每秒150英尺(约45米)的速度下坠。除冰器完成了它的使命,空速传感器恢复正常,此时的飞机正竭尽全力向两位副驾驶发出警告:飞机没有前进,而是在向1万多米以下的海面坠落。不过两位副驾驶好像不敢相信空速传感器恢复了正常,他们反而认为仪器出现了更多故障。机长迪布瓦沉默了23秒——在这生死关头,这可是相当长的一段时间。就在这23秒里,飞机又足足下坠了1200米。
1702416402
1702416403
如果此时迪布瓦能够认清形势,意识到飞机正在失速,拯救这架飞机还为时不晚。这时,机头已抬得很高,以致失速警报都不响了——可能和飞行员们一样,它也不想接受现实。有几次,博南稍微往下调整了机头,结果失速警报再次响起,这让他更加困惑。博南曾想采用制动刹车系统,他担心飞机飞得太快——事实恰恰相反,不是太快,而是太慢,飞机自己的爬行速度不到60节,约每小时70英里(约113千米),而它坠落的速度是其两倍。飞行员们完全懵了,开始争论飞机到底是在爬升还是在坠落。
1702416404
1702416405
没有争出所以然,困惑仍旧占据着上风。博南和罗伯特大吵起来,都试图控制飞机。迪布瓦加入了论战,三个人你一言我一语地争相说话。随着他们的争吵,飞机越来越接近海面,机头仍然高高抬起。
1702416406
1702416407
罗伯特:“注意你的速度!飞机在上升!快下降!下降!下降!。”
1702416408
1702416409
博南:“我是在下降!”
1702416410
1702416411
罗伯特:“不对,你在上升!”
1702416412
1702416413
博南:“在上升?好吧,那我们下降。”
1702416414
1702416415
自始至终没有人说:“飞机正在失速,立刻调整机头向下俯冲!”
1702416416
1702416417
晚上11时13分40秒,罗伯特对博南大喊“上升……上升……上升……上升……”,博南回答说他已经将操纵杆拉到底而且一直没有松手,其实这和解除失速的正确操作截然相反。此时,自动驾驶系统已经关闭了两分钟,距离迪布瓦第一次离开驾驶舱休息也快12分钟了。如果迪布瓦一直都在驾驶舱,如果他注意到了博南的操作,他可能会早点发现问题。
1702416418
1702416419
终于,站在罗伯特和博南身后的迪布瓦反应过来了:“不,不,不……别上升!……不,不。”
1702416420
1702416421
这时,罗伯特也反应过来了,宣布他来操控,他迅速调整机头朝下俯冲,终于机体下坠的速度慢了下来。但是一切都太迟了,他晚了大约一分钟,在这一分钟的时间里,飞机又下降了3350米。骤降的飞机和大西洋漆黑的海水之间,已经没有足够的距离令他们的命运再重新起飞了。
1702416422
1702416423
博南默默接替了罗伯特,他内心极度恐慌,只有再一次尝试攀升。罗伯特和迪布瓦都已意识到这架飞机正在坠落,但谁也没有说出来,只有博南还不清楚,恐怕他连自己到底做了什么都不知道。博南生前的最后一句话是:“到底发生了什么?”
1702416424
1702416425
4秒钟之后,飞机以每小时200千米的速度撞向大西洋海面,机上228名乘客和机组人员全部遇难。
1702416426
1702416427
2013年去世的厄尔·维纳(Earl Wiener)在航空安全方面有着极大声望,他提出了关于航空和人为错误的“维纳法则”。其中一条是,电子设备解决了小麻烦却制造了大麻烦。维纳的意思是:虽然自动化能纠正常见的人为错误,但它会时不时地制造大麻烦。维纳很有远见,维纳法则的适用范围已经超越了航空业。
1702416428
1702416429
几年前,位于加州奥克兰附近的圣莱安德罗警察局在未经车主允许的情况下给两辆小汽车拍摄了至少112张照片,车主名叫迈克尔·卡茨拉卡比(Michael Katz-Lacabe),是当地居民。这些照片最终出现在了法庭上,倒不是因为卡茨拉卡比是一个恐怖分子或黑社会组织成员,而是因为卡茨拉卡比向法院申请了公开这些照片。警察局猛拍卡茨拉卡比的车子,并非怀疑他涉嫌犯罪。其实车子附近有一个监控,每一辆经过的汽车都会被拍下来,卡茨拉卡比的车也一样。之后,电脑会读取车辆的电子信息,记录牌照号码,并附注拍摄时间和地点。卡茨拉卡比先生的女儿也被拍了下来,她们一个8岁,另一个5岁,拍照的时候她们就在车子旁边。
1702416430
1702416431
警察局将卡茨拉卡比先生的汽车和孩子的照片,连同其他数百万张照片一起,送到了由美国联邦政府管理的北加州地区情报中心。这里的工作人员将使用硅谷魔法球科技有限公司开发的一款软件,一秒钟能够搜索上亿张牌照。这样一个具有强大识别和分析能力的数据库在打击犯罪领域潜力无限,但是与此同时它的潜力也被用在了见不得光的地方。卡茨拉卡比告诉《福布斯》(Forbes)的记者安迪·格林伯格(Andy Greenbery):政府工作人员可能会回放数据库里的照片,窥探各种隐私,比如有人下班后没回家,他的车子却出现在别人老婆的房子前,有人去过医用大麻诊所,有人去了计划生育中心,有人参加了游行抗议。
1702416432
1702416433
近年来,人们对这种强大科技的优势和风险存在明显争议,也展开了不少讨论。然而,从维纳法则出发,有一个风险却被广泛忽略了:科技失效虽然罕见但确实存在,当它真的发生,我们又该怎么办呢?
1702416434
1702416435
圣诞节期间,英国公民维克多·汉金斯(Victor Hankins)收到一件不太友好的“礼物”:一张罚单。通常情况下,你是这样收到罚单的:你回到停车的地方,发现一张票据压在挡风玻璃的雨刮器底下作为对你乱停乱放的惩罚。汉金斯先生不是这样,他是在门垫上发现了一封来自当地政府的信。信中显示,2013年12月20日下午8点8分14秒,他的车在约克郡的布拉德福市堵塞了公交车站,他的违规行为被一辆刚好路过、装有摄像头的交通执法车拍了下来。计算机自动识别了汽车牌照,在数据库中找到了汉金斯先生的地址,然后一个“证据包”自动生成,其中包括场景视频、违规时间和地点。在信中,布拉德福市议会要求汉金斯先生支付罚款,否则将会面临法庭诉讼。这封信同样是由计算机程序自动生成、打印并寄出的。似乎一切都很完美,然而汉金斯先生的车并没有非法停放,只是被困在了堵塞的道路中。汉金斯向当地的市议会发起了投诉。
1702416436
1702416437
按理说这种高科技的存在目的是解放人类的双手,让我们有时间做更有趣的事,比如检查异常情况——给汉金斯先生开的错误罚单就是一种异常。但是,官僚主义者和法航的飞行员一样,他们很相信这些高科技,觉得高科技不会出错。布拉德福的市议会一开始就驳回了汉金斯先生的投诉,汉金斯先生以打官司相威胁,市议会才礼貌性地承认错误并道歉。这不由得使人想起一个老笑话:人非圣贤孰能无过,但人类犯错很多情况下还有救,高科技犯错可能就没救了。
1702416438
1702416439
就在汉金斯先生的汽车被拍照的同一天,谷歌公布了一个中枢网络系统,可以识别由谷歌街景车拍摄的门牌照片。谷歌的研究小组称,该系统只需一个小时便可以读取法国每个门牌号的信息,准确率96%,这令人啧啧称奇。然而4%可不是一个小数字,法国有2500万户家庭,换句话说,一小时内错误识别的门牌号高达百万户。
1702416440
1702416441
换个角度想,4%的错误率也有一定积极作用,这意味着人们不敢百分之百仰赖高科技和自动化。物流巨头UPS(联合包裹速递服务公司)和联邦快递公司绝不会希望25个包裹当中就有一个送到了错误地址,这会砸了它们的金字招牌。如果警察经常因为错误判断而吓到战战兢兢的无辜者,那么警务督察就会严肃对待来自无辜市民的投诉。要是警务督察发现某位警察参与的每25个案件中就有一件被搞砸,这位警察就必须出席听证会为自己辩护。
[
上一页 ]
[ :1.702416392e+09 ]
[
下一页 ]