打字猴:1.70756783e+09
1707567830
1707567831 当社会学家们谈到“institution”一词时,他们指的并非是平日所说的具体机构或者什么全德汽车俱乐部,而是人们以之校准自己行为的社会制度。这些社会制度是构成我们社会的基础:法律、宗教、传统属于这个范畴,而婚姻或民族国家也概莫能外。这些制度有一个共同点:它们的稳定通常归功于一些经常不被察觉、也不会被质疑的根本区别。
1707567832
1707567833 我们作为人的形象建立在对自由与必然的区分上。人类是自主的,而机器不是自主的,它是被操控的。但一个自主的机器应该属于哪类呢?我们的法律体系(和哲学传统)在传统上将主体与客体区别开来:主体做出行为,客体承受行为 ——但一个行为着的客体算什么呢?对法律而言,这种不确定的区分将引发一个又一个难解之题。
1707567834
1707567835 相对而言,责任问题一目了然。一辆无人驾驶汽车常年兢兢业业地工作着,它学会了辨识环境,它小心翼翼地行驶着——忽然有一天它将一位街边的老太太撞倒,致其不幸重伤,谁来负责呢?是汽车生产商,是软件的编写者(而软件也在不断“自我学习”,只能有限地被编程者控制),还是汽车经销商,抑或是车主?或者干脆就是汽车本身?这倒也没那么不合情理,激进的专家还未就此问题展开过讨论。
1707567836
1707567837 这类责任问题在某些法律体系中(比如英美的普通法)更为棘手,而在某些法律体系中(在德国的法律中,有所谓的产品—生产商责任)相对容易解决。但不管在哪里,都有一点让人非常忧心:可能的肇事者链变得越来越长,而且很难再被一一辨析清楚。此外,软件由成百上千名程序员编写,无时无刻不在更新。这样的一团糟可能带来的结果是,一次事故之后,正如一位专家担心的那样,“所有人都会被控告”,而出于某种惧怕心理,最后无人担责。微粒社会中将泛滥着各式各样的起诉。
1707567838
1707567839 另外一个结果可能是,出现全新的法律,将自学型的机器和智能机器人归为某种有权能的主体。所谓的法律人工代理或者电子人在大多数情况下,可能与它们的生产者和编程者一道成为责任主体。这类方案极端而富有争议,距离实现还有很长的路要走。此外,它们对于坚持只将人视作有责任能力的主体的德国法律而言,是完全陌生的。机器不断增长的自主性将会强有力地碾压现有的法律体系。
1707567840
1707567841 比责任问题更亟待解决的是许可问题。或许在2017年,最迟到2020年,德国的汽车生产商就将使带有自动导航装置的顶尖车型行驶在高速公路上。高速公路虽然是汽车的“跑道”,但路况清楚明了:大家的行驶方向都一样,没有横向交通,探测器能前瞻到很远的地方。因此那里应该是无人驾驶汽车事业开始的地方。
1707567842
1707567843 然而根据现有法律,无人驾驶汽车是拿不到准入许可的:欧洲经济委员会法规第79条规定,时速达到12公里以上时,无人驾驶程序必须自动关闭。结果就是,德国汽车制造商也许不能将它们最先进的汽车提供给本土市场,而仅能投放到中国或是瑞典——那些没有签署1968年《维也纳道路交通公约》的国家。这会使董事会产生一个可怕的想法:德国,是技术上的落后者。
1707567844
1707567845 现在,已有一些公司向当局提出改变法律的迫切呼吁,但这实现起来并不容易:必须在国际上达成一致并修订权威的1968年《维也纳道路交通公约》,这势必是耗时长久而且艰辛的,而且还得知道往什么方向修订,最好是将未来的进步也考虑在内。为此,可能必须放弃道路交通法的基本思想——人决定着所有的交通事件。一个如此重大的问题在迄今为止的法律史上从未有过。而要求法学家和技术的进步保持步调一致,在目前看来也是不太可能的事。
1707567846
1707567847 此外,随着汽车自动化的不断发展,工程师们越来越注意到,事实上汽车必须像人一样行为。这是对智能革命和自主机器的巨大讽刺之一。自动化汽车需要一种“社会化的编程”。当一辆无人驾驶汽车驶近一个交通繁忙的十字路口,如果没有人的干预,它很有可能无法继续前进。因为它严格遵守道路交通规则,但没有人会这么死板。
1707567848
1707567849 人们在开车经过十字路口时会一点点向前试探,以表明我们的行驶意图。我们会不断地试探边界的所在,如果法律允许,我们还会更激进。而在任何情况下,无人驾驶汽车的行驶都是保守的。软件里没有更激进的设定。“这永远不会被技术监督协会接受。”大众汽车自动驾驶项目领导人劳尔·罗杰斯教授这样说道。类似的事情还会发生在高速公路的入口或是建筑工地前变窄的路段:我们(人)会不断地一点一点挤着向前。
1707567850
1707567851 要是所有的汽车都是无人驾驶的,它们就能相互交流并以最高的效率无危险地解决这些问题。但在至少还会存在半个世纪的人机混合交通中,汽车必须学会像人一样行为。“我们必须将社会行为嵌入这些汽车当中。”劳尔说。
1707567852
1707567853 但是,应该怎么做呢?如何给机器嵌入一种安全的不确定性呢?对法律多大尺度的偏离是允许的呢?谁来决定无人驾驶汽车可以有多激进呢?是技术监督协会,还是联邦议会?又以什么为标准?
1707567854
1707567855 然而,比许可问题还要紧迫的是机器伦理学的问题。假设汽车的解析能力已强到足够区分交通参与者们的年龄,而一场事故已无法避免——那么汽车是不是该保护一个小孩而撞向退休者?而它又该如何解释自己的举动?又或者一只猫突然横穿街道时,汽车是不是该让道?一个动物得有多大,才能使无人驾驶汽车为它让路,像鹿一样大?或者横穿街道的是一个人——如果一次避让动作会给车上的5位乘客带来生命危险,是不是就该碾过这个人?
1707567856
1707567857 这可不是科幻小说。马库斯·毛雷尔,布伦瑞克工业大学研究车载电子系统的教授,该技术领域的先驱之一,已经在授课过程中与学生讨论过这类问题。“这是一个将会越发重要的题目:汽车究竟应该依据哪一种伦理学行驶呢?”
1707567858
1707567859 汽车的伦理学发端于一些小问题:无人驾驶汽车应不应该在交通中顺势而行——通常是指,该不该比规定的速度稍微快些?可以快多少?时速快3公里,5公里或是7公里?或者这取决于具体的交通情况?那么在深夜三点空荡荡的高速公路上又该如何呢?又比如一辆无人驾驶汽车运送着一位伤患——那它是不是就可以开得再快些?可以再快多少?
1707567860
1707567861 劳尔教授提出了另一个问题:一辆无人驾驶汽车正在等红灯,探测器发现其后方正有一辆汽车正高速地撞来——为了避免事故,这辆停着的汽车是不是就该闯红灯,甚至冒着自己也引起一次事故的危险?它需要依据什么进行考虑——是乘客的数量,还是乘客的年龄或是其经济能力?
1707567862
1707567863 怎样从技术上解决这类问题是一回事,而使人更加不安的是另一个问题,即我们的制度应该如何应对这种全新的需求带来的负担。如今,人们要对一些以前全凭应变能力解决的情况做出预先规定。
1707567864
1707567865 我们的制度是围绕着人作为有决断力的主体而建立起来的,因此它们不必,也不可能对人进行编程。制度以法律的形式只对个体行为的框架进行了规范。我们相信人的理智、经验和责任感,相信人会根据情境做出正确的事情。如果这些不奏效,我们还可以进行事后惩罚或者直接赦免他们。
1707567866
1707567867 这种方式极大地减轻了制度的负担,我们能够对大部分的事情做模糊化处理,不做澄清,也不加以定义。决定权在人手中,人可以自行做出决定。对待人可以像对待黑匣子一样。而机器的运转方式不同。它们的行为准则和方式必须一个字一个字地编写到程序里去。一条法律规定必须成为一个有待精确编程的预设。为了能够进行这样的编写,我们必须将所有的规则,包括涉及伦理的,提前加以确定。原本对于不同情境的个人化处理,如今变成了制度的公开决断。
1707567868
1707567869 我们必须为机器进行双重意义的编码:我们必须将意图写入法律,同时写入控制机器的软件。这听起来明确而简单,实际上却并非如此。因为只有将现在存在于第一层编码,也就是法律编码里的所有不清楚和不确定完全排除,我们才有写第二层编码,也就是软件代码的可能。而软件代码不容许语义的含混,代码必须明确表达意见,这样机器才能照着它说的做。那种模糊的存在,诸如人的自由或是直觉,在这里是没有容身之地的。机器不是自由的,因此在我们给它们做出的规定里,我们就没有了自由空间。
1707567870
1707567871 最近,4位美国科学家做了一次引起轰动的实验,让我们初步领略了与上述问题有关的困难。他们预先假设:“我们将很快进入这样一个时代——那时,机器人将被编入程序,以遵守法律或贯彻法律的执行。”这些机器人可能是机器警察和军事机器人;也可能是装在每辆车里的电子行驶日志,一旦驾驶员超速,它便会自动开出罚单。但是怎样编写这样的系统呢?
1707567872
1707567873 为了得出结论,科学家们一共招募了52位程序员,要求他们各自写出对每次超速都能加以惩罚的软件。程序员们为此获得了一台车载电脑上的数据,数据记录了一次通过丘陵地带的超过一小时的行驶过程。程序员们同时获得了沿路不同的限速数据。此外,这些程序员们被分成了三组:第一组需要遵循法律原文;第二组遵照法律意图;第三组则由科研人员给出编程指令的细节,比如在发现违规情况时酌情处理。
1707567874
1707567875 结果差异巨大。“法律原文”组的程序在时长一小时的行驶过程中平均开出了490张罚单,“法律意图”组的程序则平均开出了1.5张罚单,而第三组的程序连一张罚单都没开出来。程序员个体之间的差异甚至更大:一位程序员给这次短短的行驶过程开出了932张罚单,而许多人只开出了一两张。
1707567876
1707567877 差异因何而来?实验结果表明,几乎所有的预先规定都能以不同的方式被解释和编写。仅对“如何界定违规”这一问题就有许多不同的答案。某人在限速每小时50公里的区域时速快了两公里,然后将降到48公里,而后又加速到54公里,之后又降速到47公里。他违规了多少次呢?因为两次超过了限速而算作两次违规,还是因为加入了对违规时间间隔的考虑,而将两次违规算在一起从而只算一次违规?那么两次超速行为间隔多久,才能被算作一次超速呢?程序员们有的选择30秒,有的选择30分钟。又或者,因为驾驶员一直在宽容限度之内行驶,所以在本例中一次违规行为都没有?那么这个宽容限度又该是多少呢?
1707567878
1707567879 还有许多其他的问题。一位程序员开出的罚单以此为依据:看驾驶员在违规时有无收到系统的警告,因为他在收到警告后有几秒钟的时间调整行驶速度。这样的反馈系统会大大改变罚单的数量。另外一位程序员建议,惩戒视情况而定:针对深夜空荡荡的高速公路上的违规行为的惩戒应该与白天繁忙的城市交通中的有所不同。另一个影响罚单数量的重要因素,是程序员们选择何种粒度的数据。行车记录中的速度精确到了小数点后6位,但在进一步的观察中科学家发现,程序员在编写程序时行车速度只精确到了每小时0.6公里。也就是说,程序员如何取整数值,也能造成巨大的差别。
[ 上一页 ]  [ :1.70756783e+09 ]  [ 下一页 ]