1700044405
1700044406
对汽车公司而言,稍好一点的结局就是采取“苹果模式”,那样汽车公司仍能掌控汽车产品研发和销售的全局。将来的消费者中总会有不满足于大众性交通工具的,有些消费者还是想要购买为特定用途定制设计的自有高价车型,比如移动办公室,或者充当离开家后的专属迷你居所,另外还要镶上鲜明易识别的个人Logo。想要购买这些昂贵专属车型的消费者往往特征鲜明——一掷千金而面不改色,他们通常会有单独的度假别墅,或者去旅游时宁愿包架飞机也不会去坐普通民航客机。由于销售的焦点是整车的质量,既包括硬件也包括软件,那么就仍需维持与软件公司的合作关系。如果苹果模式行得通,汽车行业里的实际生产者还是能够从未来的汽车产业里获取小部分市场份额。
1700044407
1700044409
以人类为主导
1700044410
1700044411
在无人驾驶汽车领域,偏爱渐进变革方式的不只有汽车公司。美国运输部和汽车工程师学会(Society of Automotive Engineers,SAE)分别给出了各自对向全自动化驾驶演变的发展路线概要。虽然阶段划分上略微有差异,但是它们有着共同的前提:最好的发展路线要以一系列循序渐进的阶段推进——而不是谷歌式的直接跨越——即汽车搭载的“驾驶员辅助”软件只是临时接管驾驶,一旦出现特殊情况就得立即将驾驶权交回人类驾驶员。
1700044412
1700044413
我们并不认为渐进式的演变是无人驾驶汽车最好发展路线。很多原因表明,人类和机器人不应该轮流掌握方向盘。然而,还是有些专家认为最优模式就是人类与软件共享方向盘,并且人类要维持主人的地位,软件只提供仆人般的辅助,比如,麻省理工学院的机器人学家大卫·敏德尔(David Mindell)。敏德尔是一位文笔优秀的作家,同时也是当前机器人领域的一名专家和勤于思考的评论员。他指出:“对无人驾驶汽车而言,最大的挑战将在于自动操作和驾驶员之间的权利交接。”在人机之间微妙博弈的过程中,敏德尔坚信最好的人工智能软件一定要服从于人类领航员或驾驶员。敏德尔声称,研发能够对环境作出恰当反应的智能软件,能帮助人类与机器的正确结合。在他的构想中,人与软件组合后发挥的效力要优于两者各自单打独斗。
1700044414
1700044415
在工程师眼里,这种以人机配合为基础的软件其实就是人类为主导(human in the loop)的软件。在一些情况下,将人与电脑结合确实能产生出乎意料的效果。在手术过程中,熟练的外科医生利用机械臂可以达到超出常人的精准操作。当今,民航客机使用的也是人类主导软件,而且很多商业领域和军用领域也是如此。坚持由人做决策的观点自有其独特的吸引力。将人类的最佳能力与机器的最佳能力精心结合在一起,这实在是一个诱人的思维试验,就如同幻想挑选出各个位置的最佳职业足球员组成一支足球梦之队。机器准确、不知疲倦、善于分析、擅长侦测规律、执行计算以及精准测量;人类擅长做决策,在看似无关的物体或事件之间做联想,从过往经验中学习提升。
1700044416
1700044417
理论上看,如果将人与一台智能机器组合,至少应该有一位认真负责、技术娴熟的驾驶员。毕竟,在自动化过程中由人类决策的优势,是可能将人和机器的特长发挥到最好。但实际上,只有当各自(人和软件)的责任界定清晰并保持规范一致的情况下,人类的决策才有可能在无人驾驶汽车上发挥作用。不幸的是,汽车行业人员和联邦运输部人员提出的模型里并没有在人和软件之间的责任上作出标准清晰的设定。而他们的建议方案里,在树立维持人类决策的前提时,给出的责任非但不清晰,而且存在责任转嫁。
1700044418
1700044419
渐进式演变策略的核心假设在于,当有突发情况出现时,应该有警示或震动提醒驾驶员需立刻坐回驾驶位以处理情况。这种向全自动化驾驶发展的渐进式前进路线可能看似合理安全,然而事实上,从部分自动化到全自动化的阶段式演变路线存在风险。机器与人可以在某些情况下有效合作,但驾驶并不属于这种情况。驾驶汽车之所以不适合由人类主导,原因之一在于驾驶是单调乏味的。当一件事变得单调乏味时,人们就十分乐意转交机器执行,所以人们会急切地放弃驾驶责任。
1700044420
1700044421
在海军参加军官训练时,我就认识到优秀管理的核心原则之一,就是不要将一个关键性任务分给两个人去做,这是一种被称为“责任分散(Split Responsibility)”的典型管理失误。从根本上讲,责任分散引发的问题,在于负责完成任务的不同成员可能会觉得遗漏一些事项也不要紧,他们会理所当然地认为其他人会弥补上。如果双方都不深究,就会导致任务失败。如果人和机器在驾驶过程中存在责任分散,其结果将是灾难性的。
1700044422
1700044423
尽管敏德尔推崇人机合作,但他也曾向我们讲述过一个因人机责任分散导致的惨痛事故。
1700044424
1700044425
2009年,法国航空447号班机坠入大西洋,葬送了机上228人的性命。事后对飞机上黑匣子分析后发现,坠机的原因既不是恐怖袭击也不是机器故障,问题出在由自动驾驶模式向机组成员转交控制权的空当。在飞行中,飞机的自动驾驶软件被冰覆盖住意外关机了。机组成员还跟往常一样处于困倦的状态中,突然被召回来控制飞机。面对突如其来的紧急情况,驾驶员接二连三犯下致命错误,最终导致飞机一头扎进海里。
1700044426
1700044427
敏德尔将447号班机的事故视为“权力切换失败”的案例。谷歌公司则将人类对自动驾驶软件的过度依赖视为“愚蠢的行为”。谷歌公司2015年10月份的月度报告中,对几年前员工在乘坐早期研发出的无人驾驶汽车出行时的一些行为进行了描述。
1700044428
1700044429
2012年秋天,谷歌的几名员工被授权可以在上班路上经过高速公路路段时,启动他们研发用的自动驾驶功能。这个方案的预想是由驾驶员开车上高速,并线后把车固定到一条车道后,打开自动驾驶功能。公司最初就提醒每位员工这项技术还属于早期研发阶段,他们需要全程保持对车子和路况的关注。车上还搭载了摄像机以便全程记录乘客和汽车的状态。一次实验过后,员工们对自动驾驶汽车给出了全面的肯定。所有人都在描绘享受到的便利,不用在上下班时间烦闷地困在高速公路上,到家后能精神焕发地与家人共度快乐时光。然而,当工程师团队回看这些车载录像时,问题出现了。大部分人的注意力都从方向盘上移开了,他们做着简单放松活动,享受这片刻的自由。有的人甚至完全离开了驾驶员座椅,爬去后排座椅上找手机充电器。
1700044430
1700044431
谷歌公司报告中,我们已经看到了人类的本性,这也是典型的责任分散,或者工程师将其称为“自动化偏见(Automation Bias)”:一旦看到技术有效,人们就会很快地信任技术。结果就是,当人们被鼓励交出驾驶权去享受放松时,他们很难再投入到驾驶任务中了。
1700044432
1700044433
因此,谷歌认为无人驾驶汽车的发展过程中是没有中间地带的——人和机器不应该共同掌控方向盘,这种观点看似有风险,但考虑到消费者的人身安全,这又确实是最谨慎明智的发展路线。自动化会在两方面削弱驾驶员的能力:首先,诱导驾驶员投入另一件事,比如看书或看视频,而这会直接将驾驶员的注意力从道路上引开;其次,损害了驾驶员的情境意识,或者说妨碍驾驶员对驾驶环境中关键因素进行识别,并做出迅速恰当的反应。两个因素结合起来,会导致分心的驾驶员完全不知道车外面发生了什么,这足以清晰地说明在驾驶中责任分散是十分危险的行为。
1700044434
1700044435
先进技术能够将人们从乏味任务中释放是一个很大的诱惑,而人们需要一些数据实例来接受这种诱惑。通用汽车公司和美国联邦公路管理局(FHA)资助弗吉尼亚理工大学开展了一项相关研究。研究人员对驾车行驶在测试道路上的12名驾驶员进行了评估。每辆测试汽车都装有两类驾驶员辅助软件:一个用于车道保持辅助系统;另一个是管理加速、减速的自适应巡航控制。研究旨在测试,当具备了能够维持车道、控制车速以及掌控刹车的驾驶员辅助技术后,驾驶员的反应速度是怎样的。为了观察评估驾驶员在研究中的活动情况,每辆车都装有数据收集和记录设备。
1700044436
1700044437
12名参加者的年龄在25~34岁之间,均是从密歇根州底特律市的普通市民中招募的,并提供80美元的参加补贴。研究者要求驾驶员假装要做长途旅行,并且对他们带手机进行测试驾驶也不加阻拦,还为其提供触手可及的读物、食物饮料以及娱乐媒体。当参加者进行测试时,研究者会向驾驶员说明还有一名试验人员来做乘客搭乘测试车。另外,还会告知驾驶员试验人员有事情要做,需要在行程中就完成,所以试验人员在行程中大部分的时间里要盯着笔记本电脑里的DVD录像。
1700044438
1700044439
给12名参加者设定的场景是在测试跑道上模拟日常的高速公路驾驶,研究人员用设备对他们的反应和行为进行评估记录。研究者的目的有两个:其一,衡量其他事情的诱惑性,比如吃东西、看书或看视频;其二,评估在软件能负责大部分驾驶行为时,测量驾驶员的注意力转移程度。也就是说,研究者想要测试自动化驾驶技术是否会诱发驾驶员作出不安全的驾驶行为,例如精神不集中、握着方向盘时做其他事情,又或者丧失情境意识、失去对驾驶环境中关键因素的识别能力。
1700044440
1700044441
同车的试验人员“假装工作”的状态,结合自适应巡航控制软件和车道保持软件的出色发挥,诱导参加测试的人员误以为很安全,他们无须再花精力去专心驾驶。在将近三个小时的测试驾驶行程中,启用了几种不同的自动驾驶辅助技术,结果证明,大多数驾驶员在有技术辅助他们驾驶的时候,都不自觉地犯下了三种以上常见的危险驾驶问题:到后座拿东西,打电话,以及收发邮件。车道保持辅助系统尤其容易诱发驾驶员分心。开启车道保持辅助系统时,多达58%的驾驶员会在开车时看DVD。还有25%的驾驶员会利用空当找些东西阅读,这些行为将车祸的风险提升了3.4倍。同时,驾驶员的视觉注意力也会下降。当车道保持辅助系统接手方向盘时,驾驶员的注意力就会完全游离。
1700044442
1700044443
总体来看,在三小时的行程中,驾驶员的注意力有33%的时间没有集中在道路上。更为危险的是,驾驶员经常会做出长达两秒以上的“目光远眺”,这种可能带来致命危险的行为在整个研究过程中发生了3325次。还算庆幸的是这些危险性的目光远眺总共占用的时间只有8%。
1700044444
1700044445
12个人确实是一个较小的试验样本,因此还需更多相关研究。研究中一个比较乐观的发现是,虽然所有驾驶员在驾驶中都想阅读、吃东西、看电影或者发邮件,但还是有些人能抵抗住诱惑。尽管还需要更多研究支持,但该研究还是发现并非所有的驾驶员都会那么快放弃自己的责任和义务。正如研究者总结的:“本研究发现由于个性和兴趣差异,在驾驶员辅助技术的应用上存在很大个体差异,这意味着自动驾驶系统对驾驶员的影响不能一概而论。”
1700044446
1700044447
而这个过程中无疑还存在一个临界点,使得自动驾驶技术并没有给驾驶员带来安全,反而引发更多危险。设想下在弗吉尼亚理工大学的研究中,如果12名参加者是坐在一辆全自动化驾驶的汽车中行进三小时,那么很有可能他们做其他事情的概率和强度会增大,以致里面的人会完全睡过去或者沉浸到发邮件的过程中。那么当突发事件出现,驾驶权需要快速交接时,完全心不在焉或处在沉睡中的驾驶员根本不可能有能力接管方向盘,这就是全自动化驾驶的危害。
1700044448
1700044449
宾夕法尼亚大学也开展过一项研究,研究人员与30名青少年进行了一场开放式讨论,论题是“驾驶过程中年轻驾驶员的手机使用问题”。讨论中出现了两个常见观点:
1700044450
1700044451
一个是青少年承认他们知道开车时收发消息的危险,但有时还是会做。而即使是最初声称自己开车时不用手机的人,也极不情愿地承认在等红灯时可能还是会发个消息。另一点就是青少年对于哪些行为算是“开车时发消息”,哪些行为不是,有着自己的一套分类界定系统。例如,他们认为开车时刷下推特就不算“开车时发消息”,自拍也不能算。
1700044452
1700044453
让驾驶员和软件系统共同掌控方向盘的另一种风险则在于,不经常使用的技能会退化。就像是447号班机的飞行员,如果汽车驾驶员有机会躲在方向盘后休息,他们一定不会放过这个机会。可是,如果驾驶员有好几个星期不开车,或者几个月甚至几年不开车,那么当在紧急情况下需要他们接手方向盘时,他们不仅不知道车外发生了什么,驾驶技术也可能早就生疏了。
1700044454
[
上一页 ]
[ :1.700044405e+09 ]
[
下一页 ]