1704026863
为了回应民众对科技逐步侵犯我们隐私的担忧,很多欧洲政府成立了强大的隐私监管部门。但是在这些监管部门的成立过程中,他们遇到了双重问题。第一,大多数这种大数据技术不会通过国家收集信息或者分配信息。如果这个应用或者其他的大数据程序,并且在一个像美国这样利商、自由的环境中储存数据,那么很多公司的工作设想会是它们只需要在美国的法律管辖范围内运作。第二,当各国坚决反对本国公司研发与隐私监管部门相悖的产品时,它们实际是在慢慢退出全球经济发展最快的细分市场之一的竞争。限制未来经济中的数据读取无异于在农业时代管控土地使用,或者在工业化时代限制工厂的产品生产。这些国家发现自己进退两难:为了保护公众利益要实行监管。个人和团体权益的确必须保护,但这就意味着要减少投资、放缓经济增长。
1704026864
1704026865
不管我们是否想要尊重更多的个人隐私,我们现在已经无法穿越回去,也无法真正像教科书里规定的那样保护隐私。哈佛大学计算机科学教授马戈·塞尔泽在2015年达沃斯世界经济论坛上说道:“我们过去对隐私的定义已经行不通了……我们对隐私的惯常看法已经不复存在。”随着传感器、随时随地收集数据的设备和网络的普及,我们可能要摒弃这种用一切办法阻止数据收集的想法。相反,我们可能要集中精力用适当的方法有所保留地使用数据,也就是说,明确规定数据能被保留多长时间和监管数据的使用方式,而数据能否被出售则取决于数据的主人是否同意。
1704026866
1704026867
塞尔泽指出,如今,我们的任何一点信息对那些想要它的人来说随手可得,我们的生活的确还享有部分隐私,但我们也必须捍卫更多的隐私。而且我认为最好的办法就是制定规则,确保数据保留和合理使用。我们大多数人的健康信息仍是隐私,但是对这种隐私的需要将随着基因学的兴起而增加。约翰·奎肯布什是哈佛大学计算生物学和生物信息学教授,他解释说:“只要基因数据出现,那这种信息基本上是可辨别的。我能擦除你的地址、社会保险号以及所有其他的社会符号,但是我必须要消除掉可分析的数据信息之后,才能隐去你的基因信息。”
1704026868
1704026869
基因信息被广泛利用的危险不言而喻。所有有关我们的身份、我们家人的信息这些最私密的基因数据可能会被政府或企业使用,它们不单单会用来制造精密机器,还会用作其他。随着基因信息易手的是我们最私密的数据,因此如果这种交易能让我们从救生疗法中获益,那么我们要做的就是建立严格的制度,规定基因数据的保留和使用方式。
1704026870
1704026871
如果10年后世界上没有我们现在所知晓的“隐私”这个东西,那标准规范也将改变。在一个没有隐私的世界里,人人都将成为丑闻的主角。在那个世界中,对可耻行为的定义也会改变。回想1992年的总统大选,当时比尔·克林顿是否吸食大麻的问题闹得沸沸扬扬,成为他竞选总统的最大阻力。然而到了2008年,巴拉克·奥巴马那段公认的吸食大麻和可卡因的过去却不成问题。同样的事件,16年后标准却不一样了。
1704026872
1704026873
未来15年,随着我们的生活更多被大数据技术占领,各种标准规范将会进一步改变。我们今天认为的可耻行为在将来可能随处可见、不再有新闻价值。我们将不断刷新对人类不可靠性的认知底线,因为我们每个人都会有错误和轻率之举保存在无法磨灭的数据中。即便有了这些新的标准规范,我们仍需要努力保护基因组这种重要信息不要公开。随着大数据不断侵犯隐私,我们需要做点什么来保护我们的隐私。
1704026874
1704026875
被量化的自我
1704026876
1704026877
隐私只是大数据带给人们的众多担忧中最先涌现的一个,因为它与我们的生活密不可分。还有很多其他合理的抗议,是针对新出现的由量化自我和量化社会带来的危险。
1704026878
1704026879
哲学上,很长时间以来,人们都在担心随着机器人和自动化的出现,机器会变得更人性化,它们可能会代替我们的工作,毫不夸张地说代替一切,进而代替“我们”。
1704026880
1704026881
在大数据时代,新的忧患是人类会变得更像机器。我记得奥巴马的竞选阵营中有人曾说过:“我们发现基本上我们的勇气一文不值。”随着我们的本能被算法代替,我们可能会过上更高效的生活,但是我们也不禁担忧,一些人类独有的特质——爱、自发性、自治权——可能会因此变得更糟。
1704026882
1704026883
随着大数据的不断普及,它会慢慢地不再是一个时尚用语。而当大数据不断深入我们生活的方方面面,它将和行为科学结合,通过指导我们日常选择的一系列数字推手,巧妙地改变我们的习惯和期望。
1704026884
1704026885
我记得在读大学的时候,每天都会站在衣橱前纠结今天应该穿什么。而在未来,计算机程序会扫描你的衣橱,询问你今天约会对象的外貌,然后推荐橱柜里最适合你的衣服,非常方便。当然,它也可能会向你推销其他更适合这个约会场合的衣服。试想一下,如果Good2Go购买了这种算法询问数据集,然后根据你之前约会的地点帮你推荐下一个目的地,那你即将见到的约会对象可能曾通过某个交友网站的系统与你配过对,也可能是你在领英上结交的客户。
1704026886
1704026887
我们交给计算的所有东西都不再由缘分决定。这些算法大都沉寂无声,它们温柔地指导我们做出选择。但是我们不知道为什么要这样做,这些算法又是怎么运行的。因为它们都涉及公司的知识产权,所以我们自然不知情。
1704026888
1704026889
虽然让算法帮助选择约会的衣服搭配听起来好像有点牵强,但我不禁要问:在上面的例子里,难道用算法挑选衣服会比利用交友网站的算法来寻找约会对象的想法更不靠谱吗?像我们的约会和恋爱对象这种我们生活中的大问题当然应该更多由人类自己决定,而不是依靠算法。然而我们早已把它们交给了计算机决定,据估计,在美国,有1/3的夫妇是通过网上交友认识的。
1704026890
1704026891
里昂·维森特尔等评论家警告称:“对信息的信仰是另一种迷信,是另一种扭曲的极权主义,是另一种虚伪的解脱。某种程度上来说,科技正在让我们变成聪明的傻瓜。”我们不仅面临信息泄露的危险,更重要的是,我们在逐渐丧失创造力和我们的物主身份,这不仅仅是一个选择的问题。我们所使用的手机应用程序,谁才拥有这些不断产生的数据的所有权?是正在使用这个应用、不断形成新数据的用户,是应用的研发者,是生产手机的那些公司,还是负责转换数据的互联网服务提供者?可能是他们中的任何人,也可能他们全都是,这取决于用户认同的服务。当你在使用Good2Go时,有两种赞同行为同时生效:一种是同意发生性行为;第二种是允许这个应用的研发者出售你的信息。
1704026892
1704026893
大数据几乎无处不在,但是冲突也不少,甚至在精细农业领域也是如此。大多数大型农业经营企业要求有许可协议,允许它们有自己的关于农民的数据,而且可以随便地使用这些信息。有了农场的专门数据,这些企业如今拥有更大的权力为一块块土地定价、洞察农场绩效和土地价值。它们自行为种子和服务定价,所以只要定高价让农民支付,但又不会太脱离市场价就可以。以此类推,Square只要通过查看它的记录,就能够了解信誉和声誉好的小公司,农业经营企业对农民的财富全然知晓,甚至可能利用它的洞察力来剥削农民的财富。为解决这个问题,普渡大学一个研究小组率先成立了农业数据联盟(the Open Ag Data Alliance),该组织承诺“所有农场活动的数据,不论是农民自己、农场主还是机器生成、输出的,农民都可以查看,通过这个中心指导原则,形成以农民为中心的操作方式”。
1704026894
1704026895
如今谁拥有数据至关重要,就像农业时代有土地、工业时代有工厂一样。数据是信息时代的原材料。
1704026896
1704026897
哑数据
1704026898
1704026899
虽然大数据威力无穷,但是它依然有短板,有些甚至在可预见的未来不会有重大发展。举个例子,机器擅长处理那些人类觉得困难的事(比如连续工作24小时,或者快速解决一道复杂的数学题),同样,人类擅长处理那些机器觉得困难的事(比如创造力,或者理解社会和文化背景),这个老生常谈的问题在大数据时代仍然不会有什么改变。
1704026900
1704026901
《纽约时报》的专栏作家戴维·布鲁克斯指出,数据无法分析社会交往,也不会识别社会背景:“人类非常善于讲故事,编造各种原因。而数据分析完全不擅长叙述、应对突发状况,随便一本小说它都无法厘清。”
1704026902
1704026903
分析庞大的数据库时,常常会得出几乎完美的机器翻译,但也会产生大量的虚假信息。数据库越大、价值越高,正确的相关信息与虚假的相关信息就越多。大部分大数据程序都不擅长辨别虚假的相关信息。使用大数据举一反三应该先评估大数据所做的这个测试,但这经常被忽略,尤其在利用大数据完成实时交易时,不论是股票交易、供应链的调整,还是录用决定。但是并不是所有大数据得到的趋势都现实存在或者存在于得到的变量中。而且所有数据分析做出的预测都应该有所谓的误差线,即预测中有多大的可能是来自对虚假的相关信息的错误估计。
1704026904
1704026905
通过和很多CEO、投资人交谈,我发现他们会忽略或者不设置误差线,他们像圣人一样谈论自己的数据算法。可惜他们不是。他们是人类,而人类常常会出错。大数据没有预测出2014年暴发的埃博拉病毒,而在发生后,有关感染地区的不实预测又铺天盖地涌来。它之所以没能提前察觉,主要是因为那些出现埃博拉的西非地区数据所使用的语言监管程序无法识别。哈佛大学的大数据监管项目全球疾病警报系统最终发现了病毒,因为它曾开通过一条法语新闻专线,在几内亚政府向世界卫生组织发出预警之后有过报道。在爆出埃博拉有传染性以后,疾病控制中心发布的一份数据预测称,到2015年底,利比里亚和塞拉利昂可能有140 000人受感染。然而最终的实际数据甚至都低于25 000人。大数据也会有重大失误。
1704026906
1704026907
人类如何利用大数据产生的推论也是对自身价值观的考验。当数据分析由一开始的无组织到后来的有组织,它所呈现的是渗入其算法中的价值观和偏见。比如,未来可能会有一个专门为人力资源专员设置的程序,要求公司招募的员工的健康指标和工作能力都要满足标准。那应该用预测分析来决定是否录用一个目前健康但将来有可能会患某种疾病的员工吗?这显然是种歧视。但是即使你不会公开说明这个疾病风险因素,你也会在工作中多关注他们。如果这位人事专员所在的公司是一家大型企业,而且只按照传统的录用标准招聘,比如招募的员工的工作时间和人脉,数据将对那些更易患病的人产生歧视,还有很多有争议的标准,包括对孕妇的歧视。
1704026908
1704026909
大数据所产生的相互关系很可能会加强负面偏见。因为大数据经常以历史数据、至少以现有数据为基础,这很容易对少数种族和少数民族这样的弱势群体再次产生歧视。一个人只要曾经在低收入地区生活过,很多算法中采用的倾向模式都会对此有所歧视。如果人力资源公司使用的算法会调查你的社交图谱,然后据此权衡比较求职者能带给公司的人脉,那就更难打破先入之见了。事实上,这些算法能够在一堆代码中隐藏这种偏见。
1704026910
1704026911
本质来看,大数据既没有灵魂,又不具有创造性。我们在不明就里的情况下被推着向前走。它剥夺我们的隐私,把我们的错误、秘密和丑闻公之于世。但它让墨守陈规和历史偏见愈加根深蒂固。它基本上不受监管,因为我们需要它促进经济发展,因为我们为管理它所付出的努力没有见效;大数据技术影响深远,它让全球196个主权国家超越国界。
1704026912
[
上一页 ]
[ :1.704026863e+09 ]
[
下一页 ]