打字猴:1.707567723e+09
1707567723 微粒社会:数字化时代的社会模式 [:1707566658]
1707567724 微粒社会:数字化时代的社会模式 不测性政策
1707567725
1707567726 我们来做一个大胆的设想。假如国家也开始根据计算机给出的评分采取微粒化的行动。举例来说,国家不再根据统一确定的标准分配福利,而是基于流动的程序算法评价。有些药品只会分配给那些经过测算会严格遵循医嘱而且其生活方式正朝着有利于健康的方向转变的公民。用于刺激经济的税收优惠只会面向那些乐于消费的人,这样资金就会重新流向实体经济而不是进入储蓄账户。那些根据其评分推测会比预定时间更快还清联邦助学贷款的学生,要么会得到更多的支持,要么会得到更加优惠的条件——毕竟,国家需要承担的风险变小了,也节约了资金。
1707567727
1707567728 从经济学的角度看,这样一种国家形式的评分将比目前居于主导地位的喷壶原则[1]更有意义,它可以避免药品浪费,从而提高财政补贴的效率。但是即使能够产生这样的效果,仍然存在一个严肃的问题:我们会想要并且容忍这样一种政策吗?我们会接受平等的基本原则,被众多的概率计算操纵吗?或者我们会不会认为这是一种应该受到谴责的歧视?就算我们能够接受它,那么我们也能接受由算法对公民选举进行加权计算这种极端案例吗?这当然也是可以想象的:每个公民的投票都可以根据特定的标准计算,比如按照社会责任心或者孩子的数量,又或者其社会贫困情况(这会排除富裕公民的影响)。
1707567729
1707567730 在法律面前,所有公民都是平等的,法律不会根据一个人的名誉去评判他。这是我们民主体制的基本理念。数百年来,这种民主体制一直在反对贵族精英的特权以及所有关于人类不平等的理念。但是如果这种评分制的出现使得这种不平等清楚可见并且可以预测的话,那么它对于民主体制来说又意味着什么呢?
1707567731
1707567732 这并不是全新的问题。一个引发了一场车祸但没有前科的人所受到的惩罚,肯定与一个引发了车祸的声名狼藉的街头流氓受到的惩罚不一样。保险公司对两者的处理也会非常不同。甚至国家都不能免于这些故意的歧视。当前讨论得最多的案例就是妇女比例问题(比如监督机构中的妇女比例),它反对的是性别歧视——对一种性别持积极态度,而对另一种持消极态度——目的在于实现一种更加公平的分配。而对收入更高的人征收更高的税也是一种完全被接受的不平等行为,其目的在于争取更大的公平。
1707567733
1707567734 状态算法分析从更高程度解析了这个原则。算法分析不但能够区分群体——诸如妇女、高收入者,而且还能区分个体。在此基础上,微粒化的歧视,即单体化的歧视将被美化。
1707567735
1707567736 这种形式的政策已经有了首批赞同者,这些人并不像人们猜想的那样来自那些提供数据分析服务的大型数据公司,其中一位甚至是激进的哈佛大学教授,这位教授长期以来服务于美国总统奥巴马。卡斯·桑斯坦教授致力于研究如何能够激励人们做出对于自身有益的行为。他抱怨说,在学校餐厅里,放在靠前位置的是那些诸如薯条和可乐的高热量、容易致人发胖的食物,而不是那些健康的食物。如果将蔬菜水果放在餐厅柜台的显眼位置,他发现学生们会更多地选取这些食物。桑斯坦称其为:创造一种“选择结构”,即预设个体选择,从而使人们能够做出某种更加有利的决定。
1707567737
1707567738 桑斯坦乐于引用的另外一个案例来自德国。在德国,只有大约12%的公民愿意捐献器官,而在奥地利这一比例接近99%。为什么会有这么大的差距呢?是因为德国人更缺乏同情心吗?还是因为存在文化差异呢?都不是,而是因为在奥地利每个人都默认有义务捐献器官,除非他明确表示反对捐献。而在德国,情形恰恰相反:捐献器官并非每个人的义务,除非他明确表达了捐献的意愿。奥地利的基本理念是义务捐献除非决定退出,而德国的基本理念是非义务捐献除非决定加入。这种不同的“选择结构”解释了两国在捐献意愿上的巨大差距。
1707567739
1707567740 桑斯坦要问的是,如果这种“选择结构”不是针对全体人民而是单体化地针对个体而设置的话,又将会出现什么样的情况呢?如果人们像另外两位法学家宣称的那样,形成了“微粒化的个性化偏好”,又会出现什么样的情况呢?
1707567741
1707567742 基于消费行为、风险偏好、年龄、职业以及许多其他数据,个体在退休金和医疗保险方面的支付信息很可能被暗中获取。比如购置房屋或者昂贵商品的合同中可能会自动生成个性化条款:针对那些谨慎、消息灵通的人,商品的退货权可能会被取消,而相应地,他们会在购买价格上享受优惠。
1707567743
1707567744 桑斯坦据此推断:“因为对于有关决定的知识的了解增多而形成的个人基本特点,将在未来深刻地影响我们的生活。”他从中主要看到两大优势:一方面,国家将会公正地对待每个人;另一方面,“好”公民不必再为问题公民的错误行为提供补贴。每个人所得到的都与他自己的行为相称。但是这会是一个优势,还是会将我们当前流行的公正理念搅得混乱不堪呢?
1707567745
1707567746 然而,在每个案例中,桑斯坦都忽视了一个重大缺陷:相对于当前的体制,决定性的差异并不在于有多少人处于一个规则之下,而在于他们各自如何被理解。较大的群体诸如高收入群体或者女性群体可以在之前得到很好的定义,定义的标准是清晰的,对于所有参与者而言都是透明的,而且这些群体自身也是真正稳定的。虽然个别人的收入会偶然下降,或者有些女性会改变其性别,但是总体来看,我们与之打交道的是可信赖的群体。
1707567747
1707567748 而在程序算法中,谁属于哪个群体并不清楚。要么没有特点,要么特点很容易改变。由程序算法生成的个体特征智能到令人吃惊——这种特征难以或者根本就无法理解。我们也面临着一种全新形式的“平等”。假设健康得分为7(区间为1—10)的人将被允许使用某些特定药品,那么绝对有可能两个同样得了7分的人,几乎在所有方面都有差异,只是计算结果使得他们“一致”了。因此,受优待和受歧视的群体主要是在计算的过程中才能被区分开来。法律将不再是为平等的人而撰写,我们需要生产出“平等者”,使得他们服从这样的规则。
1707567749
1707567750 此外,像桑斯坦承认的那样,这些正在出现的群体一点儿也不稳定。某个人的基本特点“可能每年都在变化,原则上他们可能每天,甚至每个小时都在改变”。某位公民可能很快就不知道自己当前处于什么样的法律状态。法律自身可能会被解析,从而对特定的公民而言变得不可理解。法院可能也要花费大量精力关注各种不同的法律状态。这种碎片化的复杂状态可能只有利用全新的方法才能掌握。
1707567751
1707567752 这种公民的产生方法与之前完全不同。决定公共福利标准的不再是议会或者民选代表,而可能是机器。这种计算无论何时都将是动态的,而且将依赖于输入,也就是说计算结果会因输入系统中的数据和变量不同而发生改变。此外,系统更新和技术进步也可能影响机器的计算。
1707567753
1707567754 这种社会的基本原则就是由程序算法导致的、并非本意的歧视。差异革命似乎已经将民主笼罩起来。我们以后可能会陷入一种非常复杂的,由差异、身份和牵涉群体组成的关系网。我认为,并不排除有一天我们的民主体制会建立在程序算法的基础上,但是至少在当前,“我们如何与这样一种碎片化的公众打交道”这一问题还没有完全解决。谁也不知道这些程序算法的计算过程是不是公正或者公平的,这些程序算法在进行计算时是否有倾向性或者发生了扭曲。如果这些程序算法被认为是合法的,如何对其进行公正核查?
1707567755
1707567756 而以上这些思考的要点在于,那些我描绘的虚拟场景在很多领域早已成为现实。政策的程序算法化已经在进行了。我们的一只脚已经踏进了未来,只是我们还不知道自己在其中发挥了怎样的作用。
1707567757
1707567758 警务人员已经在根据算法对于再犯罪可能性的计算结果决定应该释放还是继续监禁在押囚犯,社会福利工作人员也在使用基于统计的方法为那些穷困的人提供标准化服务。但是那些贫困程度稍轻的人,或者那些由于不可见的原因而被程序算法忽视的人又该怎么办呢?
1707567759
1707567760 在“反恐斗争”中,尚待完善的预测系统已经投入使用。荷兰就在搜集所有入境者的个人信息数据,通过算法进行分析后将其按照危险等级加以分类。美国国土安全部根据居住地址、账户变动、购票途径、驾照、购票记录、座位和饮食偏好以及其他很多数据,为部分或者所有可能飞往美国的乘客设定了一个风险参数值,这个数值将决定是否要对其包裹进行特别检查,是否要在其入境时进行盘问或者是否要拒绝其签证。程序算法的数据输入和结果输出都是在神不知鬼不觉中秘密进行的。
1707567761
1707567762 这种做法的目的就是使风险单体化。一位高级官员曾透露:“我们利用数据,目的在于关注真实的个人行为,而不是针对种族或者民族。这样我们就避免了粗暴的偏见。”程序算法在这里充当的是假定的公正仲裁者。事实上,决定一个人是否可以入境的权力已不再属于正常的法律范畴。导致这种改变的不是可靠的证据,也不是法官,而是一种由程序算法和变量编织而成的不可思议的网。
1707567763
1707567764 顺着这个思路,接下来就该将小概率事件视作确定事件。这种做法早在2001年“9·11”恐怖袭击事件发生后就开始实践了。美国前副总统切尼制定了“1%规定”,根据这个规定,即使发生恐怖袭击的可能性只有1%,人们也必须将其视作一定会发生的恐怖袭击进行处理。这会造成逻辑混乱:那些原本需要权衡斟酌的可能性将会变成确定性,可能发生的事将变成事实。这就是全面控制的梦想:不仅控制现在,而且控制未来。
1707567765
1707567766 这种做法不仅早已适用于可能发生的恐怖袭击,而且渗透到国家的日常行为当中。对此,最好的例子就是预测性监管。这正是蓝色远景公司利用蔬菜和牙膏所做的事情,只不过这种做法现在由国家应用到犯罪问题上了。由监控摄像头、犯罪统计、天气预报、经济指标、重大事件记录、发薪日以及更多方面信息所组成的大量数据将被处理后用于预测,预测何时何地可能发生哪些犯罪行为。
1707567767
1707567768 由机器给出的预测结果是极端微粒化的。关键的不是那些每个人都可能给出的模糊的表述——比如凌晨两点半在里波巴恩街区(德国汉堡市某红灯区中心街区)会出现更多的小偷——而是尽可能地给出有关犯罪行为、犯罪时间和犯罪地点的详细说明。越来越多的美国城市已经在使用这样的系统,欧洲也正在着力开发这样的系统。在美国首都华盛顿,警察机关正在运用一种软件,这种软件会计算出哪些在押囚犯应该被释放。
1707567769
1707567770 这些初步的成功将会被夸大,但是这些系统还太不成熟,它们还不能告诉人们应该如何适应这些程序算法:这些预测可能导致犯罪分子致力于强化他们的不可预测性。
1707567771
1707567772 但是,这种适应性反应不是绝对的:一旦这些系统建立起来,它们将彻底改变这个社会。从传统的“犯罪后处理”,即在发现犯罪行为后采取行动,变为“犯罪前处理”,即预防那些尚未发生的犯罪行为。事后的惩处会被事前的行为管理替代,在这种行为管理中,比如警察的出现,会吓退可能的犯罪行为。而这将导致人们陷入逻辑的深渊:如果预测的犯罪没有出现,这到底是证明了预测(以及采取的相应措施)的可靠性呢,还是证明了预测的不可靠性呢——这种犯罪不是从未发生吗?
[ 上一页 ]  [ :1.707567723e+09 ]  [ 下一页 ]