打字猴:1.70402683e+09
1704026830
1704026831 帕兰提尔公司擅长数据管理,把大量甚至有时杂乱的数据转换为直观地图和图表。它针对阿富汗和伊拉克设计了多维地图,为了方便及时读懂不同的危险等级,地图上标出了时间、重要性和攻击目标等信息。该公司的技术不仅可以预测叛乱袭击,还能用来分析出路边炸弹、寻找贩毒团伙成员、追踪网络诈骗。卡普现在出行都会带一名体格健壮的贴身保镖,就算在硅谷的安全区域也是如此。
1704026832
1704026833 帕兰提尔公司也加入到了大公司的行列,利用它的分析程序帮助公司解决金融服务、法律研究、贷款诈骗和网络犯罪等问题。该公司的核心信条是“数据建模、数据汇总和数据可视化”。要想在复杂的环境中快速畅行,这三条规则至关重要,而且它们还代表了大数据的适用领域。它不仅能搜索数据库,数据被分析以后,它还用人们容易理解的方法汇总,之后形象化地呈现出来,然后人们才能利用自己的知识做出判断。在阿富汗作战的海军不会根据一张满是数据的电子表格判断哪个村庄的哪条街道可能会有埋伏。大数据的工作就是把这些数据抽丝剥茧,经过反复研究和总结,将结果用地图、图表或其他一些战士们能一看即懂的图片展示出来。帕兰提尔公司的目标是发现我们原来忽略的模式和用我们不会错过的方式呈现它们。公司一份投资者的招股说明书透露,为了让证券诈骗犯伯纳德·麦道夫认罪,该公司的软件曾被用来检索40年内有价值的记录。虽然说明书上并没有写明其收益,但是据报道这些数据的秘密用途现在占公司总收入的一大半。
1704026834
1704026835 亚历克斯·卡普认为公司的工作是神圣的。每次招聘时他都会说:“我们会告诉大家你可以帮忙拯救世界。”某种程度而言,这可能是对的,但是我不认为这种能力将一直受到压制,而且只会为公共利益工作。或许我们可以相信帕兰提尔公司不会参与任何不良项目,但是它无法让所有有着出色情报能力的公司同样洁身自好。最终会有一些模仿帕兰提尔公司的新公司出现,把它们优秀的绘图和定位能力用入歧途。与其用来寻找诈骗犯,不如把技术用来甄别哪些人容易被骗。这些技术自身没有价值立场,但是使用技术的人会根据自己的价值观和用途赋予它们立场。
1704026836
1704026837 我们会毫不犹豫地把全视分析程序应用于战场,以保护我们的战士,但是如果敌方也采用了同样的技术呢?前中情局网络专家吉姆·戈斯勒尔把大数据比作一场游戏,他说:“我们玩这个游戏,因为它能带给我们好处,但是在这个过程中我们也不断把自己暴露给大数据衍生出的先进算法,让它掌握我们的更多信息,而同时其他公司或者联邦政府可能也会掌握我们的很多信息,这当然是我们不想看到的。”
1704026838
1704026839 戈斯勒尔所指的“游戏”包括我们可以自由放弃的数据以及公司和政府记录在册的个人数据。我们经常放弃自己的信息来交换自由和便利的服务,往往还会加一句含糊的保密承诺,但是近年来,很明显,一旦我们的数据易手,就会被滥用。
1704026840
1704026841 人人都是丑闻主角
1704026842
1704026843 戈斯勒尔的发现变得更加棘手,因为数字数据尤其难以消除。我们很多人都是经历过一番辛酸才发现,数据一旦产生,就很难消失。
1704026844
1704026845 我的好友、前国务院同僚贾里德·科恩现在是谷歌智库的CEO。谷歌智库是谷歌于2010年创立的智囊团。贾里德最近初为人父,在这样一个数据不易消失的时代,他格外关注孩子的隐私。“这是父母最害怕的事,”他说,“不论你生在何处,沙特阿拉伯还是美国,孩子在很小的时候就会接触网络,而且比史上任何时候都更容易上网。他们在网上说的话、做的事远远超出了他们的生理年龄。如果一个9岁的孩子一开始在网上说了很多很蠢的话,那这个数据将会陪伴他的一生。再比如,一个10岁的沙特阿拉伯小姑娘在和一个同岁的小男孩聊天时,可能说了一些自己都不懂的不雅话语,但是这可能会像数字版的“红字”一样一直跟着她。当她长到22岁,这些内容就会被翻出来,结果就是血淋淋的。”我们在西维吉尼亚州的森林里跑步时,他向我吐露了他的担忧,但我从来没有这样想过。
1704026846
1704026847 贾里德指出,现在在孩子的成长过程中必须要经历这种“关于数据的谈话”,而且甚至应该在性启蒙教育前进行:“父母首先要和孩子好好谈谈数据的永存性、网络隐私和网络安全,之后再进行初步的性教育,因为很多年前这两者就密切相关了。每个父母必须仔细想想要怎么进行这第一次非常严肃的对话,他们当下做的事会如何对将来产生重要影响。”
1704026848
1704026849 贾里德的担忧更多,他还担心学校:“我们的教育体制关于孩子们的社交方式的处理必须要改变,”他说,“我记得在读小学的时候有健康课。老师们每天的工作就是吓唬我们不要使用毒品,再大一点就会吓唬我们不要进行不安全的性行为。这种吓唬学生不要做坏事的文化理念已经在教育体制中根深蒂固。学校也应该开设同样的课程帮助孩子理解数据永存性的风险,这样他们再做决定时就会更加理智。”
1704026850
1704026851 然而这种风险并不总是清清楚楚的,这让数据的永久性更加难以处理。比如,Good2Go这个手机应用的市场定位是一个“赞成应用程序”(consent app)。它的主页上是一对站在阴影中的年轻男女。他们正在一起看男子手中的手机。信息上是这样说的:“如果两个人一见钟情,这时就需要一个答案:我们可以发生性关系吗?这个性教育应用就代表同意。”这个应用程序背后的理念——鼓励男女在发生性关系前得到对方的“积极赞同”——是可取的。但是它仍然有漏洞:用户在登陆这个应用时要输入自己的姓名和手机号、清醒程度和“赞同”的准确时间。这会形成一条永远存在的记录,记录你的性伴侣、发生关系的时间以及你的状态,你是清醒的、微醉的还是喝多了。那Good2Go有权向营销商出售这些信息吗?答案是肯定的。这个应用程序的网站上并没有保密规定,即使你找到,上面也肯定写着公司“无法保证用户个人信息会被怎样处理、转移和使用”,即便这个应用消失了,数据依然存在。
1704026852
1704026853 这样看来,不仅是你曾经发过的邮件或者你的情史会一直困扰着你。你数学课不及格、你在学校打架或者你小时候被孤立,这些都会成为你的困扰。
1704026854
1704026855 在美国,教育部的一项调查让很多父母感到惊骇。这份调查列出了几百个关于学生的私人问题,希望老师作答。教育部解释说,这个数据想要提供帮助,以便因材施教,提高教育水平。很显然大数据所倡导的这种目标已经进入了教育界。但是父母们表示抗议,这是对孩子隐私的侵犯。
1704026856
1704026857 一些公司的行动与这种做法看似无关实则相关。它们大肆获得孩子的信息然后出售。一个名为风华正茂(inBloom)、价值1亿美元的数据库专门向私营企业透露保密的学生信息,在遭到家长的批评以后关闭了。
1704026858
1704026859 每隔几周就有新的例子出现,说明这样一个问题,我们的个人数据拥有更大的商业化价值。2013年,参议院商务委员会发布的一份报告揭露了一家出售有艾滋病、淋病等特殊疾病的家庭名单的公司。再比如,Medbase200这家总部位于伊利诺伊州的公司向制药公司出售销售数据,甚至要求每提供1 000个强奸受害者的名单就获得79美元的报酬。这些名单也包括家庭暴力的受害者、艾滋病病毒的感染者以及“同辈压力的受难者”——在《华尔街日报》一名记者开始调查这个问题时,他们的名字就被记了下来。
1704026860
1704026861 大数据的兴起再次提醒全世界将隐私作为公共政策领域的重大课题。但是很难让大数据技术和隐私的价值和解。监视和被监视都会导致困难产生。政府情报部门和执法机构都为通过监视得来的通信数据腾出了巨大的空间。一个虽然很少讨论但是对普通民众来说甚至更重要的问题是手机相机和可穿戴科技“从下面”截取我们的一言一行,使我们处于被监视中。我们会通过手机发布这些图片,因此我们的秘密和个人生活很可能会与全世界分享。这个问题不仅与政府、产业有关,同样与个人有关,因为他们现在拥有15年前军方才能拥有的技术。
1704026862
1704026863 为了回应民众对科技逐步侵犯我们隐私的担忧,很多欧洲政府成立了强大的隐私监管部门。但是在这些监管部门的成立过程中,他们遇到了双重问题。第一,大多数这种大数据技术不会通过国家收集信息或者分配信息。如果这个应用或者其他的大数据程序,并且在一个像美国这样利商、自由的环境中储存数据,那么很多公司的工作设想会是它们只需要在美国的法律管辖范围内运作。第二,当各国坚决反对本国公司研发与隐私监管部门相悖的产品时,它们实际是在慢慢退出全球经济发展最快的细分市场之一的竞争。限制未来经济中的数据读取无异于在农业时代管控土地使用,或者在工业化时代限制工厂的产品生产。这些国家发现自己进退两难:为了保护公众利益要实行监管。个人和团体权益的确必须保护,但这就意味着要减少投资、放缓经济增长。
1704026864
1704026865 不管我们是否想要尊重更多的个人隐私,我们现在已经无法穿越回去,也无法真正像教科书里规定的那样保护隐私。哈佛大学计算机科学教授马戈·塞尔泽在2015年达沃斯世界经济论坛上说道:“我们过去对隐私的定义已经行不通了……我们对隐私的惯常看法已经不复存在。”随着传感器、随时随地收集数据的设备和网络的普及,我们可能要摒弃这种用一切办法阻止数据收集的想法。相反,我们可能要集中精力用适当的方法有所保留地使用数据,也就是说,明确规定数据能被保留多长时间和监管数据的使用方式,而数据能否被出售则取决于数据的主人是否同意。
1704026866
1704026867 塞尔泽指出,如今,我们的任何一点信息对那些想要它的人来说随手可得,我们的生活的确还享有部分隐私,但我们也必须捍卫更多的隐私。而且我认为最好的办法就是制定规则,确保数据保留和合理使用。我们大多数人的健康信息仍是隐私,但是对这种隐私的需要将随着基因学的兴起而增加。约翰·奎肯布什是哈佛大学计算生物学和生物信息学教授,他解释说:“只要基因数据出现,那这种信息基本上是可辨别的。我能擦除你的地址、社会保险号以及所有其他的社会符号,但是我必须要消除掉可分析的数据信息之后,才能隐去你的基因信息。”
1704026868
1704026869 基因信息被广泛利用的危险不言而喻。所有有关我们的身份、我们家人的信息这些最私密的基因数据可能会被政府或企业使用,它们不单单会用来制造精密机器,还会用作其他。随着基因信息易手的是我们最私密的数据,因此如果这种交易能让我们从救生疗法中获益,那么我们要做的就是建立严格的制度,规定基因数据的保留和使用方式。
1704026870
1704026871 如果10年后世界上没有我们现在所知晓的“隐私”这个东西,那标准规范也将改变。在一个没有隐私的世界里,人人都将成为丑闻的主角。在那个世界中,对可耻行为的定义也会改变。回想1992年的总统大选,当时比尔·克林顿是否吸食大麻的问题闹得沸沸扬扬,成为他竞选总统的最大阻力。然而到了2008年,巴拉克·奥巴马那段公认的吸食大麻和可卡因的过去却不成问题。同样的事件,16年后标准却不一样了。
1704026872
1704026873 未来15年,随着我们的生活更多被大数据技术占领,各种标准规范将会进一步改变。我们今天认为的可耻行为在将来可能随处可见、不再有新闻价值。我们将不断刷新对人类不可靠性的认知底线,因为我们每个人都会有错误和轻率之举保存在无法磨灭的数据中。即便有了这些新的标准规范,我们仍需要努力保护基因组这种重要信息不要公开。随着大数据不断侵犯隐私,我们需要做点什么来保护我们的隐私。
1704026874
1704026875 被量化的自我
1704026876
1704026877 隐私只是大数据带给人们的众多担忧中最先涌现的一个,因为它与我们的生活密不可分。还有很多其他合理的抗议,是针对新出现的由量化自我和量化社会带来的危险。
1704026878
1704026879 哲学上,很长时间以来,人们都在担心随着机器人和自动化的出现,机器会变得更人性化,它们可能会代替我们的工作,毫不夸张地说代替一切,进而代替“我们”。
[ 上一页 ]  [ :1.70402683e+09 ]  [ 下一页 ]