1707567850
1707567851
要是所有的汽车都是无人驾驶的,它们就能相互交流并以最高的效率无危险地解决这些问题。但在至少还会存在半个世纪的人机混合交通中,汽车必须学会像人一样行为。“我们必须将社会行为嵌入这些汽车当中。”劳尔说。
1707567852
1707567853
但是,应该怎么做呢?如何给机器嵌入一种安全的不确定性呢?对法律多大尺度的偏离是允许的呢?谁来决定无人驾驶汽车可以有多激进呢?是技术监督协会,还是联邦议会?又以什么为标准?
1707567854
1707567855
然而,比许可问题还要紧迫的是机器伦理学的问题。假设汽车的解析能力已强到足够区分交通参与者们的年龄,而一场事故已无法避免——那么汽车是不是该保护一个小孩而撞向退休者?而它又该如何解释自己的举动?又或者一只猫突然横穿街道时,汽车是不是该让道?一个动物得有多大,才能使无人驾驶汽车为它让路,像鹿一样大?或者横穿街道的是一个人——如果一次避让动作会给车上的5位乘客带来生命危险,是不是就该碾过这个人?
1707567856
1707567857
这可不是科幻小说。马库斯·毛雷尔,布伦瑞克工业大学研究车载电子系统的教授,该技术领域的先驱之一,已经在授课过程中与学生讨论过这类问题。“这是一个将会越发重要的题目:汽车究竟应该依据哪一种伦理学行驶呢?”
1707567858
1707567859
汽车的伦理学发端于一些小问题:无人驾驶汽车应不应该在交通中顺势而行——通常是指,该不该比规定的速度稍微快些?可以快多少?时速快3公里,5公里或是7公里?或者这取决于具体的交通情况?那么在深夜三点空荡荡的高速公路上又该如何呢?又比如一辆无人驾驶汽车运送着一位伤患——那它是不是就可以开得再快些?可以再快多少?
1707567860
1707567861
劳尔教授提出了另一个问题:一辆无人驾驶汽车正在等红灯,探测器发现其后方正有一辆汽车正高速地撞来——为了避免事故,这辆停着的汽车是不是就该闯红灯,甚至冒着自己也引起一次事故的危险?它需要依据什么进行考虑——是乘客的数量,还是乘客的年龄或是其经济能力?
1707567862
1707567863
怎样从技术上解决这类问题是一回事,而使人更加不安的是另一个问题,即我们的制度应该如何应对这种全新的需求带来的负担。如今,人们要对一些以前全凭应变能力解决的情况做出预先规定。
1707567864
1707567865
我们的制度是围绕着人作为有决断力的主体而建立起来的,因此它们不必,也不可能对人进行编程。制度以法律的形式只对个体行为的框架进行了规范。我们相信人的理智、经验和责任感,相信人会根据情境做出正确的事情。如果这些不奏效,我们还可以进行事后惩罚或者直接赦免他们。
1707567866
1707567867
这种方式极大地减轻了制度的负担,我们能够对大部分的事情做模糊化处理,不做澄清,也不加以定义。决定权在人手中,人可以自行做出决定。对待人可以像对待黑匣子一样。而机器的运转方式不同。它们的行为准则和方式必须一个字一个字地编写到程序里去。一条法律规定必须成为一个有待精确编程的预设。为了能够进行这样的编写,我们必须将所有的规则,包括涉及伦理的,提前加以确定。原本对于不同情境的个人化处理,如今变成了制度的公开决断。
1707567868
1707567869
我们必须为机器进行双重意义的编码:我们必须将意图写入法律,同时写入控制机器的软件。这听起来明确而简单,实际上却并非如此。因为只有将现在存在于第一层编码,也就是法律编码里的所有不清楚和不确定完全排除,我们才有写第二层编码,也就是软件代码的可能。而软件代码不容许语义的含混,代码必须明确表达意见,这样机器才能照着它说的做。那种模糊的存在,诸如人的自由或是直觉,在这里是没有容身之地的。机器不是自由的,因此在我们给它们做出的规定里,我们就没有了自由空间。
1707567870
1707567871
最近,4位美国科学家做了一次引起轰动的实验,让我们初步领略了与上述问题有关的困难。他们预先假设:“我们将很快进入这样一个时代——那时,机器人将被编入程序,以遵守法律或贯彻法律的执行。”这些机器人可能是机器警察和军事机器人;也可能是装在每辆车里的电子行驶日志,一旦驾驶员超速,它便会自动开出罚单。但是怎样编写这样的系统呢?
1707567872
1707567873
为了得出结论,科学家们一共招募了52位程序员,要求他们各自写出对每次超速都能加以惩罚的软件。程序员们为此获得了一台车载电脑上的数据,数据记录了一次通过丘陵地带的超过一小时的行驶过程。程序员们同时获得了沿路不同的限速数据。此外,这些程序员们被分成了三组:第一组需要遵循法律原文;第二组遵照法律意图;第三组则由科研人员给出编程指令的细节,比如在发现违规情况时酌情处理。
1707567874
1707567875
结果差异巨大。“法律原文”组的程序在时长一小时的行驶过程中平均开出了490张罚单,“法律意图”组的程序则平均开出了1.5张罚单,而第三组的程序连一张罚单都没开出来。程序员个体之间的差异甚至更大:一位程序员给这次短短的行驶过程开出了932张罚单,而许多人只开出了一两张。
1707567876
1707567877
差异因何而来?实验结果表明,几乎所有的预先规定都能以不同的方式被解释和编写。仅对“如何界定违规”这一问题就有许多不同的答案。某人在限速每小时50公里的区域时速快了两公里,然后将降到48公里,而后又加速到54公里,之后又降速到47公里。他违规了多少次呢?因为两次超过了限速而算作两次违规,还是因为加入了对违规时间间隔的考虑,而将两次违规算在一起从而只算一次违规?那么两次超速行为间隔多久,才能被算作一次超速呢?程序员们有的选择30秒,有的选择30分钟。又或者,因为驾驶员一直在宽容限度之内行驶,所以在本例中一次违规行为都没有?那么这个宽容限度又该是多少呢?
1707567878
1707567879
还有许多其他的问题。一位程序员开出的罚单以此为依据:看驾驶员在违规时有无收到系统的警告,因为他在收到警告后有几秒钟的时间调整行驶速度。这样的反馈系统会大大改变罚单的数量。另外一位程序员建议,惩戒视情况而定:针对深夜空荡荡的高速公路上的违规行为的惩戒应该与白天繁忙的城市交通中的有所不同。另一个影响罚单数量的重要因素,是程序员们选择何种粒度的数据。行车记录中的速度精确到了小数点后6位,但在进一步的观察中科学家发现,程序员在编写程序时行车速度只精确到了每小时0.6公里。也就是说,程序员如何取整数值,也能造成巨大的差别。
1707567880
1707567881
这些问题中没有一个是不能解决的。但这个实验非常清楚地表明,如果我们要将法律条文编程输入智能机器,我们的制度会碰到一种巨大的对于决断的需求。因为影响可能会非常重大,所以必须顾及每一个微小的细节。此外,对机器的预先设定还必须不断地与技术的进步相适应。
1707567882
1707567883
而且这个罚单实验只涉及了可以做决定的问题。伦理上的进退维谷被绕开了。但是别忘了:一辆无人驾驶汽车需要在交通事故无法避免的情况下决定是撞向5个小孩还是一个退休者。一位汽车驾驶员或许会凭直觉决定,而无人驾驶汽车依凭的则是一种做决定的程序——这套程序或许也是在随机地进行决断。然而问题在于,我们会不会接受这样一种“可疑的道德”。我们需要更加明确的规则。而我在此感兴趣的,不是这些规则长什么样,而是达成一个决定需要经由怎样的制度之路。
1707567884
1707567885
这样一个根本的伦理选择或许只有联邦议会才能做出。但想象一下与此相关的辩论场面:议员们在制定生或死的标准!民众代表在议论人的相对价值!
1707567886
1707567887
这样的讨论或许会使参与者在价值观上的根本不同得以体现。一群议员会以康德的义务伦理学为证,根据这种理论,每个人的尊严都是不可伤害的。另外一群议员会从功利主义的角度加以辩论,将5个孩子的生命看得比一个退休者的更重。还有一些人将会提出亚里士多德式的问题,即我们想借由规则实现和提倡怎样的公民道德。数千年来,人类一直在争论这些问题,却没有得到一个具有普遍约束力的答案。数字化社会的粒度要求的正是这样的答案。
1707567888
1707567889
所以翻滚着涌向诸如议会和法院这类机构的是一波无法抉择的决定,是一场无法解决的问题的海啸。我们现在或许能够提出反对,将这样一场关于死亡或偏爱的辩论排除在德国之外。德国的法律禁止对人的生命进行比较,主流观点认为每个人都有着同样的“最高价值”。因此5个孩子并不比一个退休者具有更高的价值。这就是所谓的“禁止抵消原则”。然而在德国法律的一些规定中,受害者的数量也会导致罪犯量刑上的不同——当然是在谋杀案中,或者在危害公共安全的情况(《德国刑法典》第3章第2节条款22)或是紧急状况中。杀害5个人确实比杀害一个人更严重。
1707567890
1707567891
我们也不能永远用未来敷衍自己。有些问题今天就已经出现了,比如自主的攻击型无人机。佐治亚理工学院的罗纳德·阿金受美国军方所托,在无人机程序中写入《日内瓦公约》的条例。相较而言,公约清楚明了,有对宗教场所和医院进行保护的清楚说明。阿金教会无人机不断地从法律角度检验它们的选择:飞行,射击空地上的坦克,发现建筑物前的坦克,检视建筑物,辨认出建筑物为清真寺后停止攻击。阿金借助在阿富汗战争中得到的数据对他的程序进行检验,大部分时候,程序就像一个人类操作员一样做着决策。他将此视为一个向机器植入伦理学的例证。
1707567892
1707567893
如果有关规则的陈述是一个确定的句子,那么植入看起来就是可行的;若我们想找到让机器以之为根据而行动的伦理学,阿金的模型对我们的用处就很有限了。针对这些极为困难的情况,我们发展出了具有创造性同时也很暧昧的解决方式。比如在刑法中,流行的方式是禁止一种行为,却不对其进行惩戒。我们就是这样对待堕胎这一行为的。类似的还有一些哲学家的建议:当恐怖分子劫持一架客机撞向核电厂时,如果士兵们将其击落,不应受到法律的处罚,尽管根据主流的刑法原则无法为他们的行为辩护。我们就是这样使例外与规则和平共处,用背离补充规范。一方面,我们解决了问题;而另一方面,问题又没有得到解决。对于人来说这样行得通,机器却不行。
1707567894
1707567895
由此,我们可以得出结论,我们还不会那么快地从责任中解脱出来——目前坐在汽车方向盘之后的,还是我们自己。但我们还有多长时间呢?第一批无人驾驶汽车迟早会行驶在高速公路上——我们不能永远欠自己一个答案。
1707567896
1707567897
1707567898
1707567899
[
上一页 ]
[ :1.70756785e+09 ]
[
下一页 ]