1700412380
1700412381
技术人员也许确实夸大其词,但是他们并非玩世不恭。他们的确相信我们的生活变得越计算机化,我们就会越幸福。毕竟,这是他们自己的亲身经验。但是他们的抱负只不过是自私自利罢了。如果一项广为流行的技术要变得无形,首先,它必须在人们的生活中变得必不可少,以至于人们不能想象没有它的生活。只有当一项科技把我们生活的方方面面都包围时它才会从我们眼前消失。英特尔公司的首席技术官贾斯汀·拉特纳表示,他希望英特尔公司的产品能变成人们“生活环境”中非常重要的一部分,这样英特尔就能够为人们提供“无处不在的帮助”。可以肯定地说,让顾客们如此依赖电子产品也会为英特尔以及其他电脑公司带来更多的利润。对于做生意来说,让顾客依赖你的产品这一原则是至高无上的。
1700412382
1700412383
将一项复杂的技术融入人们的生活,这样就能节省许多劳力或脑力,这种前景对顾客和商家来说十分具有吸引力。《纽约时报》专栏作家尼克·比尔顿写道:“当技术不再成为我们的负担,我们就从中解放了。”但事情绝非如此简单。你不可能简单按一下开关就让一项技术变得无形。它只有在缓慢的文化接纳和个人适应改变之后才能消失。随着我们越来越习惯这项技术,它对我们造成的影响只会越来越大,而不是越来越小。我们也许不会去注意它对我们生活形成的限制,但是这些限制依然存在。就像法国社会学家布鲁诺·拉图尔指出的,一项为人熟知的技术的无形是“一种光污染”。我们重塑自己以适应这项技术,但这种重塑很难发觉。最初被我们用来实现某些特定意图的工具开始向我们身上强加它的意图,或者是其创造者的意图。拉图尔写道:“如果我们不能认识到一种技术的使用是如何大规模地取代、转变、修饰或是扭曲了最初的意图的话,不管这种技术多么简单,都只是因为我们按照改变方式的方法改变了目的,而且因为意愿松动,我们开始需要一些别的东西,与我们一开始想要的不同的东西。”
1700412384
1700412385
编程机器人汽车和士兵带来了一些伦理难题——谁操控着软件?谁负责选择优化目标?编码反映了谁的意图和利益?这些问题同生活自动化应用的发展息息相关。随着程序变得对我们越来越有影响力——影响我们工作的方式、看见的信息、旅行的途径、交往的方式,这些程序变成了一种远程控制。不像机器人或无人机,我们有拒绝软件指令和建议的自由。虽然要避免它们的影响很难。当我们发行一款应用的时候,我们希望能获得指导——我们使自己处于机器的照顾之下。
1700412386
1700412387
让我们细说下谷歌地图。当你在城市中旅游并使用这款应用时,它给你提供的不仅仅是导航参考,它会使你获得一种思考城市的方式。嵌入在这款软件中的是一种地点哲学,它反映了谷歌的商业利益、程序员的背景和偏见,以及软件在空间表现上的优势和局限性。谷歌在2013年推出了新版地图。它改变了展示城市的方式,这款地图是为每位谷歌用户量身定做的,它满足了每个人的不同需要和渴望,而这样做的基础就是谷歌之前在你身上搜集过的资料。这款应用会把附近的餐馆和你的社交好友推荐的其他目标点突出显示。它会给出你过去的导航选择。谷歌表示,用户的视野是“独一无二的,总是能够适应您当下的要求”。
1700412388
1700412389
这听起来很有吸引力,却很有局限性。谷歌选择了褊狭的个性化,过滤了意外发现的乐趣。它用算法消毒剂清理了一座城市所具有的各种传染性。可以说,看待一座城市的最重要的方式消失了——不仅仅是与朋友一起,而且是与一大群不同的陌生人一起分享公共空间。技术评论家耶夫根尼耶·莫洛佐夫评论道:“谷歌的都市生活方式是那些想要开着自动驾驶汽车去购物中心的人的生活方式。这十分功利主义,甚至是自私的,很少甚至根本没有考虑到公共空间的问题。在谷歌的世界里,公共空间只是横在你家房子与你想去的著名餐馆之间的东西。”便利性高于一切。
1700412390
1700412391
社交网络迫使我们以符合其背后公司利益和偏见的方式来呈现自己。通过Facebook的大事年表和其他的纪录片专题可以看出,Facebook鼓励用户将个人的公共形象和身份融为一体。它希望将他们锁在一个单一的、统一的“自我”里,贯穿始终,从孩童时代到生命终点。这符合公司创始人对于自我及其可能性的狭隘概念。马克·扎克伯格说过:“你拥有一种身份。以前,你在工作好友或同事以及熟人面前呈现的是不同的形象,这种日子也许马上就要到头了。”他甚至认为“拥有两重身份就是不诚实的表现”。这种观点一点儿也不出人意料,同Facebook想要将用户包装成整齐划一的数据集卖给广告商的愿望相吻合。对于公司来说,让人们觉得不应该太注重个人隐私就会给公司带来额外利益。如果拥有一重以上的身份就表明不诚实,那么,渴望保持某些不同于公众观点的想法或行动显示出的就是性格的懦弱。但是我们可以粉碎Facebook通过软件强加给我们的自我概念。自我很少是确定的,它有种千变万化的品质。它形成于自我探索中,随着环境而变化。这在人们年轻时尤为如此,那时,一个人的自我概念是不固定的,它要经历测试、实验和修正。特别是在人生早期,束缚在一种身份里可能会阻止个人成长和个人实现。
1700412392
1700412393
每种软件都包含了这样的隐含假定。在自动化智能查询中,搜索引擎会优先考虑流行性和新近性,而不是观点的多样性、论证的精确性或是表达的质量高低。就像所有的分析程序一样,它们偏爱那些倾向数据分析的标准,而对那些需要审美经验或其他主观判断的标准毫不在乎。论文自动评分算法鼓励学生们去死记硬背写作技巧。这些程序检测不出语气,对知识的细微差别也丝毫不感兴趣,对创造性的表达也十分抗拒。故意破坏语法规则可能会让读者感到高兴,但电脑对此绝不姑息。不管是推荐电影还是推荐潜在恋爱对象的引擎都在迎合我们已经明确的欲望,而不是向我们推荐新奇意外的事物。它们认为我们更喜欢熟悉的习惯,而不是冒险;它们认为我们更喜欢可预见的事物,而不是奇思妙想。家庭自动化的技术把照明、暖气、烹饪以及娱乐程序化,一丝不苟,家庭生活被强加了一种准时准点的心态。它们不露声色地鼓励人们去适应已建立好的惯例和日程,让家变得更像工作场所。
1700412394
1700412395
对于软件的偏见还可以扭曲社会决策和个人决策。谷歌在推销无人驾驶汽车时表示,虽然不能完全杜绝交通事故,但无人驾驶汽车的确能够大大减少事故发生。巴斯蒂安·特龙在2011年的演讲中说道:“你们可知道行车事故是造成年轻人死亡的头号原因?你们又是否意识到这些事故大多是人为疏忽,而不是机器错误,因此,这些死亡是否可以通过机器来避免?”特龙的话很有说服力。在管理危险活动方面,例如开车,社会长期以来都优先考虑安全性,每个人都肯定技术革命在减少事故和受伤风险中所扮演的角色。但即使这样,事情也不像特龙说的那样是非分明。目前来说,无人驾驶汽车避免事故和死亡的能力依旧是理论上的。就像我们看到的,机器与人为错误之间的关系很是复杂,很少以我们期待的那种方式呈现出来。而且社会的目标也永远不是一维的。甚至需要重新审视我们的安全需求。我们一直都知道,需要权衡法律和行为准则——安全和自由的权衡,保护自己和置自己于危险之中的权衡。我们允许、有时甚至鼓励人们进行带有危险性的嗜好、运动和其他追求。我们知道,充实的人生并不是完全孤立的人生。即使在设定高速公路的速度限制的时候,我们也在权衡安全和其他目的。
1700412396
1700412397
这样的权衡很难,而且通常在政治上具有争议,它们塑造了我们生活的社会。问题是,我们是否愿意将选择的权利转交给软件公司?当我们将自动化视作弥补人为疏忽的灵丹妙药的时候,我们排除了其他的选项。匆忙投向无人驾驶汽车的怀抱也许不仅仅会剥夺个人自由和责任,还会妨碍我们去探索降低交通事故发生概率的其他方式,例如加强驾驶员教育或是推广公共交通。硅谷对高速公路安全的担忧虽然坦诚,但也是有选择性的,这一点值得我们注意。近年来,因使用移动电话和智能手机而分心已成为造成车祸的一大原因。美国国家安全委员会的一项分析指出,在2012年美国公路上发生的车祸事故中,有1/4都是因为使用手机造成的。谷歌以及其他顶尖科技公司几乎没有做出任何努力来开发一款意在阻止人们在开车的时候使用手机接听电话、收发短信,或是使用应用程序的软件,而这绝对比建造一辆可以自动驾驶的汽车有意义得多。谷歌甚至派它的说客前往州政府,以图阻止通过禁止员工佩戴谷歌眼镜以及其他分散注意力的眼部佩戴设备的法案。电脑公司可以为社会做出重要贡献,我们对此应该表示欢迎,但是我们不应该把这些公司的利益与我们的自身利益混淆起来。
1700412398
1700412400
代码背后的商业动机
1700412401
1700412402
如果你不理解软件编写人员的商业、政治、智力和道德动机,也不了解数据自动处理所固有的局限性,那么你很容易就会被技术操控。正如拉图尔所说,我们冒险用他人的意念替换自己的想法,却没有意识到其实这种交换已经发生了。我们越是让自己向技术靠拢,冒的风险就越大。
1700412403
1700412404
我们不在意室内管道,总是忽略它们的存在,是因为我们已经习惯了。虽然我们无法修好漏水的水龙头或是罢工的马桶,但我们明白为什么会有这些管道以及它们的功能。同理,我们对大多数技术视而不见正是因为它们太普遍了。它们的运作方式以及背后的假设和利益都非常明显,或者至少是人们可以察觉到的。技术可能带来意想不到的效果——室内管道改变了人们对卫生和隐私的观点,但是它们并没有什么隐藏的动机。
1700412405
1700412406
但是,要是让信息技术隐形可就是另外一回事了。虽然我们意识到,信息技术存在于生活中,但是对我们来说,计算机系统还是非常艰涩难懂的。在许多情况下,软件代码作为商业机密被保护起来,我们无法窥见。即使我们能看到代码,也很少有人能明白其中的含义。我们不懂代码语言。而流入算法的数据也被隐藏起来了,它们通常存储在远端的守卫森严的数据中心里。我们不知道如何收集数据,不知道收集数据的目的,也不知道谁能够访问这些数据。现在,软件和数据不再存储在个人硬盘里,而是通过云存储的方式被集中起来,我们甚至无法确定计算机系统的工作原理在什么时候发生了变化。大众化的程序每时每刻都在进行升级改版,而我们却没有意识到。昨天使用的应用程序,可能今天就变了样。
1700412407
1700412408
现代世界一直都非常复杂。它被分割成一个个技术和知识的专有领域,经济系统和其他体系交错,现代世界拒绝人们进行任何尝试去了解它的全貌。而现在,这种复杂程度比以往任何时候都要强,连“复杂”本身都藏了起来。在精心设计的简洁的屏幕后面,在用户友好的界面背后,它悄悄掀起了面纱。用政治学家兰登·温纳的话来说,我们被“隐匿的电子复杂性”包围了。人们之间的“关系和联系”曾经是“人类世界的一部分”,表现为人与人、人与物的直接互动,现在却“被抽象掩盖了”。当那种神秘的技术被隐藏起来,我们最好应该提高警惕。在这一点上,技术的种种假设和意图已经渗透到人类自身的愿望和行为中。我们再也无法分辨软件是在帮助我们还是在控制我们。我们握着方向盘,却分不清是谁在驾驶。
1700412409
1700412410
[1]TEP指technology(科技)、entertainment(娱乐)、design(设计)的英文缩写,是美国一家私有非营利机构,该机构以它组织的TED会议著称,会议宗旨是“值得传播的创意”。——编者注
1700412411
1700412412
[2]Pebble是由硅谷创业公司Pebble Technology公司设计的一款兼容iPhone和Android(安卓智能操作系统)手机的智能手表,用户可以直接通过Pebble手表查看设备中的短信。——编者注
1700412413
1700412414
1700412415
1700412416
1700412418
1700412419
玻璃笼子:自动化时代和我们的未来
1700412420
1700412421
1700412422
1700412423
1700412424
玻璃笼子:自动化时代和我们的未来 第九章 事实是,劳动让我们有存在感
1700412425
1700412426
1700412427
1700412428
1700412429
[
上一页 ]
[ :1.70041238e+09 ]
[
下一页 ]