打字猴:1.70756795e+09
1707567950
1707567951 哲学家温迪·楚指出,程序将会成为一切“不可见的却又有着巨大影响力的事物”的“强有力的隐喻”,“从基因密码到市场的‘看不见的手’,从意识形态到文化”。
1707567952
1707567953 与此相应地,有关电脑的类比也在被广泛地使用。据说,我们的基因密码也“是数字化的,正如电脑代码一般”。还有作者认为,我们的文化也是可以再编程的,我们的大脑就是一台由神经元构成的电脑,进化就是对我们的“编程”,而基因密码每天都在被不断写入:“我们才是机器人,不断被写入新的基因,却对此茫然无知。”
1707567954
1707567955 一切都是电脑,人也不例外。但首先,这种想法是错误的;其次,我们也不愿接受这样的想法。它其实把一些最为世俗的东西神化了。但是电脑并不神秘,恰恰相反:原则上它比人容易看穿,因为我们能对它的每个计算步骤的源头进行追溯。这在实践中绝非易事,在原理上却是可行的。
1707567956
1707567957 假设我们要决定由谁享受一份社会福利,同时确保没有社会群体受到亏待。要是由人来决定,虽然出于好意,但他们可能还是会做出非常不公正的选择,因为他们受着深深固化且无意识的偏见的蛊惑。与此相对,程序隐瞒不了它的标准。我们可以核查是否所有数据都已输入;运行数据测试;为了理解运算过程,还可以删除数据或是输入其他数据。这可绝不简单:在搞懂程序的过程中,理论和实践上都存在着很多障碍。但程序的所有决定在原则上都比人更规矩,而且可以追根溯源。对电脑的神秘幻想掩盖了这个简单的事实。
1707567958
1707567959 程序在隐秘中运行的原因,不在于它们不可理解,而在于它们被隐藏了。它们被秘密地隐藏起来,程序的所有“谜团”都在于此。那些编写它们的机构,从脸谱网到德国大型电商Zalando,从银行到大学,从社会福利部门到特工组织,将它们视作企业或是国家机密,像保护金矿一样保护着它们。
1707567960
1707567961 程序的不透明正是这种保密的结果。我们不知道它们在干什么,因此我们有正当理由对数字化感到巨大的不快。我们被看穿了,却又无法回看过去。但这种不透明是人为制造的,是权力的表达而非程序的本质。看清这一点至关重要:我们必须停止将程序神化为“有魔法的力量”——因为这样我们只是正中了那些用不透明来为程序掩护的人的下怀。相应地,问题来了——我们怎样才能在将程序变得透明、对审查开放的同时,又不忽视公司和国家对于保密的正当诉求。这是微粒社会的关键问题之一,因为它直接涉及微粒社会的权力结构。
1707567962
1707567963 幸运的是,这件事情并没有像它平常被描述的那样令人绝望。奥地利研究人员维克托·迈尔–舍恩伯格和英国记者肯尼思·库克耶在其值得一读的《大数据时代》一书中提出了可能是最有启发的建议。他们将希望寄托在所谓的程序审查师身上。这些人不是鲁道夫·斯坦纳学院的电脑专家,而是计算机工程师、数学家以及统计学家,他们的任务是审查所有类型的程序:在公司,在行政部门,在大学。正如会计师之于收支平衡表,他们的存在只为程序。像会计师一样,程序审查师负有公正和认真负责的义务,必须对错误和欺诈行为担责。
1707567964
1707567965 舍恩伯格和库克耶以会计师为蓝本设计这个新的职业分支并非偶然。会计师也出现在一个存在着剧烈变革和社会复杂性迅速增长的时代。在19世纪末的工业化进程中,公司成长为大型康采恩(一种高级垄断组织形式)和企业集团,不再能被人们看清,它们——正如今天的程序一样——高度不透明地运行着权力,会计师的工作因此变得必要。自1870年德意志帝国确立了对股份制公司进行审查的责任之后,会计师这项职业不断发展,其造就的关于精确和保密的职业道德,甚至被写进了法律。今天,这种审查形式显得如此理所当然,以致我们都忘了这种行为在当时受到了怎样的争议,而应当强制企业公开账目这一思想,在当时又是如何令人感到匪夷所思。
1707567966
1707567967 因此,企业或许必须承担起使自己的程序接受审查的义务。计算机学家阿努帕姆·达塔在他的多项工作中证明,如何在不检查所有运算步骤的情况下,发现程序对隐私的侵犯。于是,一家公司甚至不必公开每个细节,仍然能让审查得以实现。这些检查的技术都是高度复杂的,但在这里,它们和通常的会计工作也没有什么本质上的不同。
1707567968
1707567969 斯坦福大学教授爱德华·费尔顿也在开发类似的方法。他将自己的方法称为负责算法。他的重点是,不仅对私人的,还要对国家的程序进行透视。例如,机场的一个程序要决定哪些旅客需要接受额外的检查。这应严格地遵循随机原则,但果真如此吗?这个程序会不会系统地歧视特定群体?怎样才能一方面对此加以确定,一方面又不将(机场)程序的运行机制公之于众,从而白白地教会潜在的恐怖分子如何避开检查?费尔顿提出了一些解决之道,其目的在于让国家程序保持机密的同时,又能接受审查。大量的程序由此得以在公正的基础上得到审查,而又不至于以一种有弊端的方式被公开。
1707567970
1707567971 实例表明:透明是可以实现的,只是还缺乏标准化的方法。簿记的正确与否之所以更容易检验,是因为所有的收支平衡表遵循着同样的范式,有着同样的目标。而被编写的程序则高度个别化地运行着,服务着完全不同的目的。问题在于,一个独立的程序审查师团队是否有能力审查一个大企业如谷歌的程序,更不用说能否理解了。审查是极端复杂的,目前我们甚至还不知道在此过程中需要尤其注意些什么。程序的中立性或者无党派性意味着什么?它可能存在吗?比起不公正的程序,公正程序的特点究竟为何,是什么将好的程序与坏的程序相区别?坏是对谁而言,公平是依据怎样的标准,公正又是凭着怎样的理论?
1707567972
1707567973 这并不是说要反对有关程序审查师和负责算法的想法,而是要将挑战挑明。透视程序的制度肯定是复杂的,集巨大权限于一身,而且有着灵活的指导方针与标准。这是可能的,也应该是目标所在——只是目前,这超出了我们的视野。
1707567974
1707567975 另一方面,自数字于4 000年前出于管理的目的在美索不达米亚被发明以来,会计师们还是给自己的出现预留了一些时间。有关程序的问题从出现到现在还不到60年,而问题的大规模出现也就是近20年的事。而现在,现存制度解体的速度,已经超过了新制度创建的速度。所以说,在程序拥有者和程序涉及者的不对称性方面,或许不会出现立马的改变。
1707567976
1707567977
1707567978
1707567979
1707567980 微粒社会:数字化时代的社会模式 [:1707566664]
1707567981 微粒社会:数字化时代的社会模式 关于数据保护
1707567982
1707567983 没有哪种机制像数据保护一样面临着解体的威胁。德国研究机器人法的唯一一位教授、维尔茨堡大学的埃里克·希尔根多夫教授认为,20世纪70年代才出现的数据保护,在实质上是“一种贯彻不力”,他同时自负地补充道:“而德国法律最不能忍受的,就是贯彻不力。”
1707567984
1707567985 可以不夸张地说:数据保护就它目前的形式而言,已经过气了。它的种种前提已然不对,它的类别已然失效。数据已经使保护机制解体了。
1707567986
1707567987 程序所加工处理的东西,就是数据。如果说程序是骨架,数据就是肉或者脂肪。脂肪层正变得越来越厚,因为数据在越来越多的地方产生着:在电子邮件、电话、视频和图片里;在上网、看电视和在社交媒体上进行互动时;在看医生、开车和乘飞机时;在度假、工作和运动时;在机器之间的交流中(这种交流产生着目前全球大部分的数据),在工厂里;通过卫星,通过服饰;在读电子书时,在用iPad(苹果平板电脑)学习时。大量的数据创造出了一个数据保护还未做好准备的世界,这个世界对数据保护而言,过分苛求了。
1707567988
1707567989 这里并不是想就数据保护和个人隐私问题进行详细的议论。但我想简要地指出,数据保护这一机制是如何解体的,以及我们该向何处探寻新的保护。
1707567990
1707567991 旧的数据保护将个人数据与非个人数据区分开来。这看似有道理,毕竟要保护的就是个人。只是随着大数据的到来,原以为匿名的数据也会泄露个人信息。只要数据足够多,对个人的识别就是件轻而易举的事情。其实在今天,几乎所有的数据都以这样或那样的方式与个人相关——只是对它们的处理必须按照法律的意志进行或是加以严格的限制,然而这却是徒劳的。
1707567992
1707567993 类似的情况也发生在禁止原则上。禁止原则要求:对涉及个人数据的处理需要征得相关人的同意。这听上去也不错,只是在实际操作中行不通:我们通常不看或是看也看不懂,就在应用程序或某项服务的无比长的同意声明中点击了确定按钮。就算我们看懂了,我们也只能选择使用这项服务或是不用。对数据隐私控来说,脸谱网、推特、WhatsApp根本没有区别。现在的我们被微粒化地把握着,却不能微粒化地回应,只能非黑即白地表示赞成或是拒绝。
1707567994
1707567995 实际上,世界上每一种数据法都建立在对于数据的个人控制这一思想的基础上。只是我们完全没有能力进行这种控制。这也源于我们的易受操纵性:研究表明,只要诱使人们以为他们已经掌控了数据,那么他们就会以慷慨得多的方式处理数据。就像拉斯韦加斯的赌客处理他们的钱一样。
1707567996
1707567997 法律也要求数据量的最小化,即应尽可能少地进行数据抓取。但这是不是我们事实上想要的呢?或者说在某些领域,我们不正是为了获得尽可能精确的认识而需要尽可能多的数据吗?比如在健康预防方面,在交通指挥或是在智能电网中——为保证源自可再生能源的电力供应,必须获取尽量多的数据。另外,在难于看透的大数据迷云中,单个用户也经常比在数据贫乏的环境中能够更好地隐藏自己。
1707567998
1707567999 最后,我们当前的法律对数据用途进行了严格的限定。数据只可以用于之前商定好的用途。但谁又能预先知道数据将会有什么用途呢?谁在之前就能猜到,必应上的提问有助于发现两种药物致命的交互作用?用途限定也会使数据处理可能带来的益处受到局限,可能成为认识和革新的障碍。
[ 上一页 ]  [ :1.70756795e+09 ]  [ 下一页 ]