1707567749
1707567750
此外,像桑斯坦承认的那样,这些正在出现的群体一点儿也不稳定。某个人的基本特点“可能每年都在变化,原则上他们可能每天,甚至每个小时都在改变”。某位公民可能很快就不知道自己当前处于什么样的法律状态。法律自身可能会被解析,从而对特定的公民而言变得不可理解。法院可能也要花费大量精力关注各种不同的法律状态。这种碎片化的复杂状态可能只有利用全新的方法才能掌握。
1707567751
1707567752
这种公民的产生方法与之前完全不同。决定公共福利标准的不再是议会或者民选代表,而可能是机器。这种计算无论何时都将是动态的,而且将依赖于输入,也就是说计算结果会因输入系统中的数据和变量不同而发生改变。此外,系统更新和技术进步也可能影响机器的计算。
1707567753
1707567754
这种社会的基本原则就是由程序算法导致的、并非本意的歧视。差异革命似乎已经将民主笼罩起来。我们以后可能会陷入一种非常复杂的,由差异、身份和牵涉群体组成的关系网。我认为,并不排除有一天我们的民主体制会建立在程序算法的基础上,但是至少在当前,“我们如何与这样一种碎片化的公众打交道”这一问题还没有完全解决。谁也不知道这些程序算法的计算过程是不是公正或者公平的,这些程序算法在进行计算时是否有倾向性或者发生了扭曲。如果这些程序算法被认为是合法的,如何对其进行公正核查?
1707567755
1707567756
而以上这些思考的要点在于,那些我描绘的虚拟场景在很多领域早已成为现实。政策的程序算法化已经在进行了。我们的一只脚已经踏进了未来,只是我们还不知道自己在其中发挥了怎样的作用。
1707567757
1707567758
警务人员已经在根据算法对于再犯罪可能性的计算结果决定应该释放还是继续监禁在押囚犯,社会福利工作人员也在使用基于统计的方法为那些穷困的人提供标准化服务。但是那些贫困程度稍轻的人,或者那些由于不可见的原因而被程序算法忽视的人又该怎么办呢?
1707567759
1707567760
在“反恐斗争”中,尚待完善的预测系统已经投入使用。荷兰就在搜集所有入境者的个人信息数据,通过算法进行分析后将其按照危险等级加以分类。美国国土安全部根据居住地址、账户变动、购票途径、驾照、购票记录、座位和饮食偏好以及其他很多数据,为部分或者所有可能飞往美国的乘客设定了一个风险参数值,这个数值将决定是否要对其包裹进行特别检查,是否要在其入境时进行盘问或者是否要拒绝其签证。程序算法的数据输入和结果输出都是在神不知鬼不觉中秘密进行的。
1707567761
1707567762
这种做法的目的就是使风险单体化。一位高级官员曾透露:“我们利用数据,目的在于关注真实的个人行为,而不是针对种族或者民族。这样我们就避免了粗暴的偏见。”程序算法在这里充当的是假定的公正仲裁者。事实上,决定一个人是否可以入境的权力已不再属于正常的法律范畴。导致这种改变的不是可靠的证据,也不是法官,而是一种由程序算法和变量编织而成的不可思议的网。
1707567763
1707567764
顺着这个思路,接下来就该将小概率事件视作确定事件。这种做法早在2001年“9·11”恐怖袭击事件发生后就开始实践了。美国前副总统切尼制定了“1%规定”,根据这个规定,即使发生恐怖袭击的可能性只有1%,人们也必须将其视作一定会发生的恐怖袭击进行处理。这会造成逻辑混乱:那些原本需要权衡斟酌的可能性将会变成确定性,可能发生的事将变成事实。这就是全面控制的梦想:不仅控制现在,而且控制未来。
1707567765
1707567766
这种做法不仅早已适用于可能发生的恐怖袭击,而且渗透到国家的日常行为当中。对此,最好的例子就是预测性监管。这正是蓝色远景公司利用蔬菜和牙膏所做的事情,只不过这种做法现在由国家应用到犯罪问题上了。由监控摄像头、犯罪统计、天气预报、经济指标、重大事件记录、发薪日以及更多方面信息所组成的大量数据将被处理后用于预测,预测何时何地可能发生哪些犯罪行为。
1707567767
1707567768
由机器给出的预测结果是极端微粒化的。关键的不是那些每个人都可能给出的模糊的表述——比如凌晨两点半在里波巴恩街区(德国汉堡市某红灯区中心街区)会出现更多的小偷——而是尽可能地给出有关犯罪行为、犯罪时间和犯罪地点的详细说明。越来越多的美国城市已经在使用这样的系统,欧洲也正在着力开发这样的系统。在美国首都华盛顿,警察机关正在运用一种软件,这种软件会计算出哪些在押囚犯应该被释放。
1707567769
1707567770
这些初步的成功将会被夸大,但是这些系统还太不成熟,它们还不能告诉人们应该如何适应这些程序算法:这些预测可能导致犯罪分子致力于强化他们的不可预测性。
1707567771
1707567772
但是,这种适应性反应不是绝对的:一旦这些系统建立起来,它们将彻底改变这个社会。从传统的“犯罪后处理”,即在发现犯罪行为后采取行动,变为“犯罪前处理”,即预防那些尚未发生的犯罪行为。事后的惩处会被事前的行为管理替代,在这种行为管理中,比如警察的出现,会吓退可能的犯罪行为。而这将导致人们陷入逻辑的深渊:如果预测的犯罪没有出现,这到底是证明了预测(以及采取的相应措施)的可靠性呢,还是证明了预测的不可靠性呢——这种犯罪不是从未发生吗?
1707567773
1707567774
无论如何,这种做法都与无罪推定的原则相悖。一旦在犯罪行为发生前搜索潜在罪犯,那么毫无例外地,所有公民都将是可疑的。此前的调查关注的是某种违法行为的发生范围,而现在的调查会将关注范围扩展至我们能够接触到的所有数据。这会涉及所有的公民,就像英国议会在一份引人注目的自我批评的文件中所断定的那样:此后,“每位公民都将被视作不可信赖和不值得信赖的人。如果我们为了验证猜测而持续地搜集关于大众的数据,他们可能会做出错误的事情,从而促使人们认为作为公民的我们是不能信任的”。
1707567775
1707567776
这种具有指向性的不信任会导致无止境的数据搜集,我们直到“斯诺登事件”发生后才意识到美国国家安全局已然在这样做了。欧盟国家也已扩大了自己的权限,允许政府搜集分析部分公民的数据,从中得出它们需要的结论。所以在欧盟,个人数据该如何保护令人担忧,因为司法和其他国家部门在搜集个人数据时,可以不受常规约束。“保护公民权免受数据饥渴的国家侵害”正系统地陷入失效的境地。国家使得我们在面对国家本身时失去保护,同时建立了一种新形式的控制,就像著名的社会学家加里·马克斯所写的那样:“这种新形式的控制象征着,操控比强制更好,计算机芯片比监狱的高墙更好,远程的、不可见的过滤器比手铐和管制服更好。”
1707567777
1707567778
这种微粒化的社会正在对现行的惩戒手段进行解析。虽然法律和惩罚还会继续存在,但是它们将因为持续的监控、风险计算和未雨绸缪而得到补充和瓦解。国家行动的标准将不再是已经发生的事情,而是那些可能发生的事情,国家将不断地通过使人察觉不到的措施规范人们的行为。
1707567779
1707567780
因此,微粒社会中的民主和公正将不只是通过对选战和选民的解析而被改造,也可以通过行政机构正在采用的那些以程序算法为基础的预测机制被改造。而在此过程中,控制权的分布是极其不对称的。公民将会被评测,但他们不能反过来去评测那些评测他们的机构。数字化事物本身的这种矛盾也会给民主蒙上一层迷雾。而且就像我们将在下一章看到的那样,这种矛盾将会挑战法治国家的制度,使其陷入最危险的境地。
1707567781
1707567782
[1]所谓喷壶原则,是指在福利或者补贴分配中,没有对目标群体的实际需求进行甄别,也没有对需要的轻重缓急加以考虑,只是像喷壶一样将补贴或者福利喷洒给目标群体。——译者注
1707567783
1707567784
1707567785
1707567786
1707567788
微粒社会:数字化时代的社会模式 第四章 超负荷的制度
1707567789
1707567790
为什么我们失去了原本的法律
1707567791
1707567793
双重进程:解析—解体
1707567794
1707567795
三月的某一天,天气阴冷。我任由一辆大众帕萨特带着自己穿过柏林的大街小巷。它做得很棒。在限速每小时50公里的路段,它就开到时速50公里;遇到红灯它就停,同时车内电脑还会提示一声“红灯”;如果一位行人突然出现在道路上,它会立即停下来。没有驾驶员的干预,这辆帕萨特完全是自动行驶的。要是拿掉车顶上洗衣桶大小的激光扫描仪,拆下后轮上引人注目的转动测量器,再移走写着“德国制造”的标识,这辆柏林自由大学的汽车就一点儿也不显眼了。
1707567796
1707567797
车身内部也几乎没什么改变——除了挡风玻璃上的5台微型摄像机,以及驾驶员用来随时关闭自动驾驶程序的两个红色紧急按钮。驾驶员名叫弗里茨·乌尔布里希,顶着一头乱蓬蓬的浅金色的头发,身高2.04米,挤在他几乎不怎么把控的方向盘后边。这辆研究用车需要有人能够随时对之进行干预。副驾驶座上,保罗将一台常见的商务笔记本电脑放在膝盖上——对汽车的操控而言,强大的计算能力并不必要。
1707567798
[
上一页 ]
[ :1.707567749e+09 ]
[
下一页 ]