1703949122
管理变革2:个人动因VS预测分析
1703949123
1703949124
在法庭上,个人对自己的行为负有责任。一番公正的审讯之后,审判员会做出公平公正的判决。然而,在大数据时代,关于公正的概念需要重新定义以维护个人动因的想法:人们选择自我行为的自由意志。简单地说,就是个人可以并应该为他们的行为而非倾向负责。
1703949125
1703949126
在大数据时代之前,这是明显而基本的自由权利。事实上,明确到不需要进行说明。毕竟,我们的法律体系就是这样运作的:通过评判人们过去的行为使之为其行为承担责任。然而,有了大数据,我们就能预测人的行为,有时还能十分准确。这诱使我们依据预测的行为而非实际行为对人们进行评定。
1703949127
1703949128
大数据洞察
1703949129
1703949130
身处大数据时代,我们必须拓宽对公正的理解,必须把对个人动因的保护纳入进来,就像目前我们为程序公正所做的努力一样。如若不然,公正的信念就可能被完全破坏。
1703949131
1703949132
通过保证个人动因,我们可以确保政府对我们行为的评判是基于真实行为而非单纯依靠大数据分析。从而,政府只能依法对我们过去的真实行为进行追究,而不可以追究大数据预测到的我们的未来行为;或者,在政府评判我们过去的行为时,也应该防止单纯依赖大数据的分析。例如,在对两家涉嫌操纵价格的公司进行调查时,我们完全可以借助大数据分析先作出大概判定,然后监管机构再以传统手段立案和进行调查。不过,当然不能只因为大数据分析预测它们可能犯罪,就判定其有罪。
1703949133
1703949134
相似的原理应当运用到政府领域之外,比如公司在进行关乎我们个人利益的重大决策时——雇用与解雇,同意按揭或者拒发信用卡。如果他们单纯依据大数据预测作出这些决策,特定的防护措施就必须到位。
1703949135
1703949136
●第一,公开原则。因为这将直接影响到个人,所以必须公开用来进行预测分析的数据和算法系统。
1703949137
1703949138
●第二,公正原则。具备由第三方专家公证的可靠、有效的算法系统。
1703949139
1703949140
●第三,可反驳原则。明确提出个人可以对其预测进行反驳的具体方式(这类似于科学研究中披露任何可能影响研究结果的因素的传统)。
1703949141
1703949142
●最重要的是,要确保个人动因能防范“数据独裁”的危害——我们赋予数据本不具备的意义和价值。
1703949143
1703949144
保护个人责任也同样重要。也许这一点很具有吸引力——社会无论何时做出关乎他人的决策时,都不再需要决策者们承担责任。相反,它会将重心转移到风险管理上,即评测可能性以及对其进行风险评估。有了所有看似客观的数据,对我们的决策过程去情绪化和去特殊化,以运算法则取代审判员和评价者的主观评价,不再以追究责任的形式表明我们的决策的严肃性,而是将其表述成更“客观”的风险和风险规避,听起来都是不错的主意。
1703949145
1703949146
比如说,大数据强烈诱使我们隔离那些被预言将会犯罪的人们,以减少风险的名义对其进行不断审查,即使他们确实在为尚不需承担责任的事情接受惩罚。设想一下,“预测警务”的运算法则鉴定某个青少年在未来五年内很可能犯重罪。结果,当局决定派遣一名社会工作者每月拜访他一次以对其进行监视,并尽力帮助他解决问题。如果该少年及其亲属、朋友、老师或雇主将这种拜访视为一种耻辱(这种情况极有可能发生),那么这就起到了惩罚的作用,的确是对未发生的行为的惩罚。然而,如果这种拜访完全不被视为惩罚,而只是为了减少问题出现的可能,即作为一种将风险降至最低的方式(在这里指的是将破坏公共安全的犯罪风险减到最小),情况照样好不到哪儿去。社会越是用干预、降低风险的方式取代为自己的行为负责,就越会导致个人责任意识的贬值。主张预测的国家是保姆式的国家,而且远不止如此。否认个人为其行为承担责任实际上就是在摧毁人们自由选择行为的权利。
1703949147
1703949148
如果国家做出的许多决策都是基于预测以及减少风险的愿望,就不存在所谓个人的选择了,也不用提自主行为的权利。无罪,无清白。如此一来,世界不止不会进步,反而在倒退。
1703949149
1703949150
大数据洞察
1703949151
1703949152
大数据管理的基本支撑是保证我们依然是通过考虑他人的个人责任对其进行评判,而不是借助“客观”数据处理去决定他们是否违法。只有这样,我们才是把其当作人来对待——当作有行为选择自由和通过自主行为被评判的人。这就是从大数据推论到今天的无罪推定原则。
1703949153
1703949155
管理变革3:击碎黑盒子,大数据算法师的崛起
1703949156
1703949157
目前,计算机系统做出决策的方式是基于程序明确设定所需遵循的规则。这样,如果它们的决策出错(这是不可避免的),我们就可以回过头来找出计算机做出错误决策的原因。“为什么外部感应器遭遇空气湿度激增的情况时,智能飞行系统使飞机上升了5度?”等。现在的计算机编码能被解码、检查,并且可以解读其决策依据——无论多么复杂,至少对于懂得如何解码的人不存在问题。
1703949158
1703949159
然而,有了大数据分析,这种追踪会变得愈发困难。对人们而言,进行预测分析的计算机系统往往过于复杂,根本无法理解。但当计算机按程序设置明确执行一系列指令时,情况就不一样了。例如1954年早期,在IBM将俄文译成英文的翻译程序中,人们就能轻松理解一个单词译成另一个单词的原因。但是,对于谷歌利用几十亿页的翻译数据开发出的翻译系统,当其将英文单词“light”译成“光”而不是“重量轻”时,就不可能清楚地解释如此选择的原因,毕竟这个预测分析是基于海量数据和庞大的统计计算之上的。
1703949160
1703949161
大数据的运作是在一个超出我们正常理解的范围之上的。例如,谷歌所确定的与流感相关的检索词条是通过测试了4.5亿个数学模型而得出的。而辛西亚·鲁丁最初为判断沙井盖是否会着火设定了106个预测器,因此才能向联合爱迪生电力公司的经理解释为何程序要求优先检查某个沙井盖。“可解释性”正如在人工智能界所称的一样,对于不仅想知道“是什么”更想知道“为什么”的人类来说非常重要。可是,如果系统自动生成的不是106个预测器,而是601个的话,那该怎么办呢?虽然其中大部分都没有多大用途,但是一旦汇聚起来就能提高模型的准确性,而预测的基础就会变得惊人地复杂。如此的话,辛西亚·鲁丁如何能说服联合爱迪生电力公司的经理再分配它们本就不多的预算呢?
1703949162
1703949163
在这些背景下,我们能看到大数据预测、运算法则和数据库有变为黑盒子的风险,这个黑盒子不透明、不可解释、不可追踪,因而我们对其信心全无。为了防止这些情况的出现,大数据将需要被监测并保持透明度,当然还有使这两项得以实现的新型专业技术和机构。它们将为许多领域提供支持,在这些领域里社会需要检测预测结果并能够为被其错误引导的人群提供弥补方法。
1703949164
1703949165
社会发展出现过很多这种情况,当一个特定领域变得特别复杂和专门化之后,就会催生出对运用新技术的专门人才的迫切需求。在一个多世纪以前,法律、医学、会计以及工程学领域都经历过这种转型。不久前,计算机安全和隐私顾问的突然兴起,证实了公司都在遵循由一些组织确立的行业最佳做法,如国际标准化组织,它是为满足这个领域对准则的需要而自发形成的。
1703949166
1703949167
大数据洞察
1703949168
1703949169
大数据将要求一个新的人群来扮演这种角色,也许他们会被称作“算法师”。他们有两种形式:在机构外部工作的独立实体和机构内部的工作人员——正如公司有内部的会计人员和进行鉴证的外部审计师。
1703949170
[
上一页 ]
[ :1.703949121e+09 ]
[
下一页 ]