打字猴:1.70241646e+09
1702416460
1702416461 科技失灵带来的无奈有时让人哭笑不得。2012年3月,三名在澳大利亚旅游的日本学生用GPS(全球定位系统)导航开车到北斯特拉布鲁克观光。不知为什么,GPS没有检测出行驶路线被太平洋的海水淹没了14.5千米。旅行途中有意外发生也是常情,不过三名学生的反应却非常滑稽。他们沿着已经失灵的GPS导航的路线,把车开到了海边,跨过一片泥滩,朝着大海开去。海浪拍打着他们驾驶的“现代”汽车,情况不妙。终于,他们尴尬地发现自己被困了。路过的渡船上,乘客们惊讶地看着伫立在水中的车和人。学生们弃车上岸。车是报废了。“我们还想再来一次澳大利亚,”一名学生说,“这里的人都很友好,即便是今天。”
1702416462
1702416463 这几个人的经历的确好笑。但值得思考的是,三个具有行为思考能力的人,怎么可能跟着GPS的荒诞指示开进太平洋?[3]自动化系统往往使我们陷入被动,我们不经大脑地接受任何指示。举例来说,在有些国家,器官捐赠是默认的,也就是说,每个人都是初始的器官捐献者,除非他们在注册表单上打钩,选择退出,于是几乎所有人都默认了这一设定。而在另一些国家,公民则须通过在注册表单上打钩来选择成为器官捐赠者,所以登记率要低得多。规定不同,我们的决定就会完全不同,公司养老金政策也是同样的道理。有时候这些决定至关重要,甚至能够改变我们的生活。
1702416464
1702416465 一旦计算机给出相应的建议,人们便会不假思索地接受,心理学家将这种现象称为“自动化偏差”。不管是布拉德福的移动执法车,还是美国的禁飞名单,都存在自动化偏差。
1702416466
1702416467 把汽车开进海里是自动化偏差的一个极端例子,而大多数GPS使用者是通过更加温和的方式感受到自身存在的自动化偏差。第一次使用GPS的时候,你会小心谨慎。你会检查地图,可能还会将行驶路线打印出来,上路之前会尽量了解地形,估算着旅程需要多长时间。不过,有了几次成功出行的经历,你就被GPS降服了。既然GPS能找到更迅捷、可靠的路线,自己还费那么大劲干吗呢。
1702416468
1702416469 GPS很少让用户失望,但是一旦让你失望了,那必定是刻骨铭心的。这种悲剧第一次发生在我身上的时候,我正驱车前往约克市中心的一个酒店。约克市是一个美丽的中世纪风格的城市,它被古老的城墙包围,因此交通流量受到了管制。我到达的时候已是深夜,然后发现前方道路因为施工禁行了。GPS没有得到实时更新,指示我继续往前开。幸运的是,我没有听从GPS的指示,朝一辆向我驶来的蒸汽压路机开过去。在那一刻,我意识到:我太依赖GPS了,连一个备用计划也没准备。我既不知道自己在哪儿,也不知道酒店在哪儿,我感到自己走投无路。那时候还没有智能手机,我也没带地图。最后,我只好漫无目的地驾驶,希望GPS能重新规划出一条新路线。
1702416470
1702416471 后来经过了几次顺畅的旅行,GPS又重新获得了我的信任。连续几年它都不负所望,出色地完成了任务,直到最近,就在我打算去乡下参加一场婚礼的时候,它又伤了我的心。我不知道目的地的具体位置,只知道大致方向和邮编。可当我把邮编输入GPS系统,它没有任何反应。就这样,GPS又一次辜负了我。我不知道它究竟出了什么问题,也无法预测何时它会再次失灵。从事直觉决策研究的心理学家加里·克莱因(Gary Klein)总结道:“当计算机程序为你做出决策时,人们往往拒绝思考,不会想怎么去改善它。但GPS之类的计算机程序很难进行自我诊断,也就是说很难找到自己失误的原因。随着人们对它的依赖程度越来越大,人们自身的判断力就会减弱,这反过来又加强了他们的依赖性。这个过程形成了一个恶性循环。如果总是计算机程序来做决定,人就会变得被动,不再怀疑,失去警惕。”
1702416472
1702416473 克莱因等研究决策的专家们认为,许多软件工程师开发的应用程序总是想代替我们做决定,这让问题进一步恶化。如果我们打开软件的目的只是希望得到一些信息和帮助,我们就得费一番功夫阻止应用程序为我们做决定。什么意思呢?例如,我们不想被导航牵着鼻子走,想自己寻找最佳路线,于是我们打开导航软件,想查看一下地图或者看看有哪些路线可供选择。但是这些功能藏得太深,要花费一番工夫才能找到。相反,“开始导航”的字样却总是那么显眼,迫不及待地想替我们做决定,想牵着我们的鼻子走。
1702416474
1702416475 类似的软件随处可见。我们担心未来某一天机器人会抢走我们的饭碗,却没有意识到机器人已经在一步一步抢走我们的决定权。在如今的经济环境下,超级大仓库已经很常见。在那里,工人必须快速地将货品从货架上取走,搬到包装和发货的地方。他们头戴一种特殊的头盔,头盔里装有软件,通过头盔他们可以接收一位名叫“詹妮弗”的虚拟指挥官的指令。詹妮弗会告诉他们去哪里,做什么。詹妮弗掌管着仓库的一切,再微不足道的细节也不放过。詹妮弗能将一个大的指令分成若干个更小的,以便尽量减少失误。比如,如果工人需要从货架上取下18本书,詹妮弗会指挥工人分4次完成:5本、5本、5本、3本。在这样的条件下工作,工人沦为了长着肉身的机器。詹妮弗剥夺了工人的思考权,在它眼里,工人只不过是一双双廉价且麻利的手。
1702416476
1702416477 2007—2008年那场使世界经济陷入衰退的金融危机,其实就好比一位心不在焉的司机将车开进了太平洋。危机爆发的原因之一是一种叫作债务抵押债券(CDO)的金融产品。这种金融产品结构复杂,其价值和美国房地产市场的健康程度成正比。华尔街的金融天才在金融风暴来临之前,或许已经看到房价飞涨背后的房地产泡沫,即使美国历史上还没有出现过全国范围内的同步崩溃。要是这些金融天才能够将自己的预测告诉电脑,也许电脑就能近一步估算房地产泡沫破裂对CDO价值造成的灾难性影响,不过这一切都只是事后的幻想罢了。电脑并没有这些天才所独有的金融智慧,它不知道金融风暴即将席卷全球。
1702416478
1702416479 如何合理利用计算机程序,同时降低它出错的风险呢?心理学家丽贝卡·普里西克(Rebecca Pliske)发现,经验丰富的气象学家会在分析数据、做出专业预测后,再对比计算机的预测,看看自己是否有什么疏忽。(通常情况下,气象学家和电脑的预测一样。)与空客A330的飞行员不一样,这些资深的气象学家更愿意利用自己的专业知识预测天气,而不是全部依靠电脑,所以他们能一直保持高水准。但是,年青一代的气象学家和老一辈不同,他们更相信电脑而不是自己。一旦老一辈退休,人类将永远失去其在专业领域的宝贵经验,电脑出错时也将束手无策。
1702416480
1702416481 我们已经讨论过汽车的GPS系统和飞机的自动驾驶系统存在的问题,将这两点考虑在一起,你就会明白自动驾驶汽车的缺点。
1702416482
1702416483 克里斯·厄姆森(Chris Urmson)是谷歌自动驾驶汽车的项目负责人,他希望自动驾驶汽车能尽快批量生产,这样他的儿子就不用考驾照了。2020年,他的大儿子就满16岁了,厄姆森觉得不能再等了。和飞机的自动驾驶系统不同,自动驾驶汽车不需要驾驶员。这种汽车没有方向盘,不少人担心如果哪一天它们也往海里跑,可得找个方法及时从车里跳出去啊!
1702416484
1702416485 自动驾驶汽车遭遇的反对声音不少,小厄姆森想开上自动驾驶汽车恐怕还得等一段时间。卡内基梅隆大学的自动驾驶专家拉杰·拉杰库马尔(Raj Rajkumar)认为,要研发出可靠的自动驾驶汽车至少还要一二十年。在此之前,我们可以尝试让自动驾驶程序负责简单的路况,而复杂的路况还是交给司机吧。
1702416486
1702416487 “自动驾驶程序会不断改进,能够处理的路况也会越来越复杂,直到有一天完全不需要司机。最后一步将是一个由量变到质变的微小飞跃,它的出现几乎很难察觉。”拉杰库马尔在一个广播节目中说,“即便如此,意外还是有可能发生。”这听上去可不怎么吉利,却在情理之中。当路况变得复杂时,汽车便将驾驶权交给司机。乍一听,没毛病啊!可是,如果我们期待汽车能够判断何时交出控制权,就等于说,我们期待它能清楚地判断自己的局限,知道自己什么时候搞得定,什么时候搞不定。这些问题即便是人类自己都弄不清楚,你还指望电脑!
1702416488
1702416489 退一步讲,即便电脑准确判断出何时交出驾驶权,这时候驾驶员又该如何处理呢?连法航训练有素的飞行员在自动驾驶系统关闭时都不能正确应对突发情况,更别说普通人了。密歇根大学的安·普拉丹(Anuj K.Pradhan)说:“人类还没有习惯自动驾驶汽车,需要我们上的时候,可能真反应不过来。”
1702416490
1702416491 当自动驾驶系统把控制权交给司机的时候,多半是在极具挑战的突发情况下。当空客A330的自动驾驶系统关闭时,三名法航的飞行员只有两到三分钟的时间来弄清楚他们应该如何应对。想象一下,我们坐在自动驾驶汽车里玩手机,突然汽车发出“自动驾驶模式退出”的警报,我们立刻丢下手机准备接手,却看见一辆公交车迎面开来,越来越近、越来越近……
1702416492
1702416493 安·普拉丹提出只有那些已有多年驾驶经验的司机,才有资格驾驶自动汽车。不过,这很难从根本上解决问题。无论驾驶员有多少年的经验,一旦退居二线让电脑接手,他的技能就会逐渐退化。普拉丹的提议细想起来让人不寒而栗:我们先让新手在其最容易发生事故的阶段驾驶手动车,等他们积累了一定的驾驶经验,再把他们放进自动驾驶汽车,然后过不了多久,疏于练习的他们又会退化成新手。
1702416494
1702416495 厄尔·维纳说:“电子设备解决了小麻烦却制造了大麻烦。”了解了飞机的自动驾驶系统和谷歌的自动驾驶汽车之后,我们还可以补充说:正是因为电子设备逐一排除了所有小错误,反而给大错误可乘之机。为何如此?科技在解放双手的同时,剥夺了我们练习专业技能的机会,一旦真正的危机到来,我们便会因为专业技能的退化而无计可施。
1702416496
1702416497 维纳清楚地权衡了自动化的利弊。有了GPS,我不需要在旅行前规划驾驶路线,确实节省了一些时间。但是,对GPS的依赖也让我付出了代价,就比如那次乡村婚礼,当我最终赶到教堂的时候,新郎已经入场正在等候新娘,我满是歉意。“GPS给我节省的时间真的能弥补它给我造成的失望吗?”我问自己。鉴于后来我又开始信任GPS,我当时的答案应该是肯定的。
1702416498
1702416499 数据库的使用同样涉及利弊的权衡。虽然它能帮助交警查处违规停车,帮助警察阻止潜在恐怖分子登机,但是它也会“诬陷”好人,被误会的受害者还得努力证明自己的清白:“我没有违规停车,当时正在堵车。”“这不是一个恐怖组织,这只是一个留学生校友会。”而他们的解释却显得那么苍白、没有可信度。自动化给大多数人带来的便利能弥补它给少数人制造的麻烦吗?这个问题虽然没有简单的答案,但它至少可以提醒我们去倾听这少部分受害者,同时找到改进办法。
1702416500
1702416501 再回到电传操纵系统,它带来的利弊比数据库容易权衡。20世纪70年代末以前,每年至少发生25架商用飞机坠毁事故。2009年发生的空难只有8起,其中就包括法航447航班,从25起到8起,安全性明显提高了。成本效益的分析结果不言自明:计算机系统已经大大减少了空难次数,法航447号航班的付出是值得的。
1702416502
1702416503 有没有一种方法能将人的反应能力、判断力、专业知识和计算机完美结合,进一步降低事故的发生呢?最好的方式便是抛弃全自动化,采用半自动化,让系统和人工合作,同时让系统及时给出反馈。法航447航班的飞行员一共听到了75次失速警报,却不以为然。如果驾驶舱内有一个大屏幕能够显示出高高抬起的机头,驾驶员可能就能意识到出事了。同样,如果两位飞行员能够通过自己手中的操纵杆感受到另一位驾驶员的操作动作,也许经验更丰富的罗伯特就能早一些发现博南的错误。警报的确能告诉飞行员他的操作不对,但是警报很容易被忽视,它只能刺激人的耳朵,而对视觉和身体的刺激可能更能引起重视。
1702416504
1702416505 一些高级飞行员在训练初级飞行员时,往往不允许他们使用自动驾驶系统,防止他们因为疏于练习而荒废飞行技能。这听起来不错。但是,如果初级飞行员只是在绝对安全的时候才关闭自动驾驶,他们就没有机会练习高难度的挑战。如果他们在有挑战性的情况下关闭自动驾驶仪,又很可能引发事故,这可不是他们想要的结果。
1702416506
1702416507 另一种解决方案是调换计算机和人的角色。可以让飞行员驾驶飞机,计算机在一旁监督,遇到紧急状况时,计算机再插手,而不是反过来。毕竟计算机永不会疲倦,随时保持着耐心和超高水准。有人可能会说,既然是这样,为什么不让计算机唱主角,人唱配角呢?因为这样会降低人的专业知识和技能。心理学家丽贝卡·普里西克针对优秀气象学家的研究发现,他们都是先自己预测,然后才参考计算机的意见。这种方法并非放之四海而皆准,但值得我们进一步探索。
1702416508
1702416509 如果非要反过来,让人去监管计算机,那么如何才能让人随时保持警惕和注意力变成了一个难题。目前,需要人类监督的自动化系统除了飞机的自动驾驶系统外,还有自动分拣仓库、高铁和美国军用无人机。指挥无人机听上去像一个令人兴奋的工作,但大部分时候可能非常无聊。无人机可能在阿富汗上空盘旋,而它的飞行指挥官可能正在内华达州印度斯普林斯的克里奇空军基地嚼着M&;M’s巧克力豆,昏昏欲睡。突然一个激灵,他清醒了,这时需要立刻决定是否击杀潜在目标。
[ 上一页 ]  [ :1.70241646e+09 ]  [ 下一页 ]