1700412243
1700412244
我问过帕拉休拉曼,他是否认为未来社会对自动化的使用会更加明智,在计算机计算和人类判断之间、对效率的追求和技能的发展之间寻得一个更好的平衡。他停了片刻,苦笑道:“我不抱希望。”
1700412245
1700412247
盗墓者的启示
1700412248
1700412249
我陷入了困境。我不得不同疯狂的盗墓者赛斯·布里亚斯达成盟约,别无选择。我们在白骨顶教堂边上的墓地会面,刚见面不久,赛斯就提醒我:“我不吃饭,不睡觉,不洗漱,这些对我都无所谓。”他说的时候没有一丝傲慢的情绪。他了解我所找寻的人的行踪,可以为我引路,但作为交换,他要我帮他用马车把几具刚刚过世的人的尸体运送到荒凉的鬼镇,这会途经克里奇利农场。我驾着赛斯的马车,他坐在后面,在尸体身上搜刮值钱的东西。这次旅途可真是考验。在路上,我们遇到了埋伏着的拦路抢劫的强盗,但是靠着武器(我几乎是徒手)最后成功逃脱,但是当我尝试跨越那座快要垮塌的桥时,尸体的重心发生了偏移,马脱缰了。马车倾斜跌入山涧,我落到一块火山岩上,昏死过去,鲜血喷涌而出来模糊了我的双眼。我经历了炼狱般的几秒钟,然后清醒过来,但还要再次忍受这折磨。尝试了六七次以后,我绝望了,我认为不可能完成这项任务。
1700412250
1700412251
我玩的这个射击类游戏叫《荒野大镖客》,采用自由世界模式,设计精良,游戏情景设置在20世纪初西南边境虚构的领地——新奥斯汀。游戏剧情是纯佩金帕式。开始游戏时,玩家扮演一名原来是亡命徒的坚忍的农场工人,名叫约翰·马斯顿,他的右脸有两道标志性的又深又长的疤痕。联邦机构扣押了马斯顿的妻儿作为人质,威胁他去寻找原来的犯罪同伙。要完成这个游戏,玩家需要引领枪手锻炼各种技能和熟练度,这些项目的难度会随着级别的升高而增加。
1700412252
1700412253
又尝试了几次,我终于越过了这座桥,背后跟着那吓人的“货物”。事实上,在Xbox[1]连着的平板电视前,我已经度过了极度混乱的几小时,现在我成功地完成了游戏的所有任务,大概50多项。作为奖励,我目击了游戏里的角色约翰·马斯顿被强迫他执行任务的机构枪杀。游戏的结局令人毛骨悚然,但是在游戏之外,我获得了一种满足感。我用套索套过野马,射杀过草原狼,还扒过它的皮,劫过火车,玩扑克牌也小胜过一把,同墨西哥革命分子并肩作战,从喝醉的蠢货手里营救过妓女,并且,完全依照《日落狂沙》(Wild Bunch)的样子,用格林机关枪把一伙暴徒送上了天。我曾接受过考验,但是凭借中年人的经验,我应对了这些挑战。虽然我并没有取得史诗性的胜利,但确实是赢了。
1700412254
1700412255
从没玩过电子游戏的人可能会讨厌这种游戏,这是可以理解的,毕竟有的游戏比较血腥,但没玩过电子游戏可是人生的一大憾事。游戏里充满创造性并兼具美感,最好的游戏可以作为软件设计的模型。这些游戏体现了应用如何鼓励人们培养技能,而不是导致技能退化。要熟练掌握一个电子游戏的操作,玩家必须完成逐级增加难度的各项挑战,不断突破自己的技能极限。每项任务都有一个目标,如果完成得好就会获得奖励,在游戏过程中还会有即时反馈(例如“血”喷涌而出),这通常都是出于本能。游戏刺激了心流,激励玩家重复复杂的操作,直到这个操作变成他们的本能动作。玩家学到的技能可能微不足道。例如,如果操控塑料控制杆驾驶虚拟马车穿过虚拟的桥梁前提是他会掌握得很透彻,并且能够在下一项任务或下个游戏里运用掌握的操作技能,玩家会成为专家,享受欢乐时光。
1700412256
1700412257
同平日个人生活中使用的软件相比,电子游戏是个例外。大多数的流行应用、小工具和线上服务的设计初衷都是出于便捷性,或者,用设计者的话来说是“可用性”。只需要触摸几下,刷一下,或是点击几次,程序就能熟悉某项研究或实践。就像自动化系统会反复进行预先设定的活动。例如工业和商业领域使用的自动化系统,设计人员精心设计,将人类思维的负担转嫁给计算机。即使是音乐家、音乐制作人、电影制作人和摄影师使用的高端程序也对应用的简易性有很高的要求。原来需要专家的专业技术才能实现的复杂的音频和视频效果,现在也能通过按按钮或拖动滑块来实现了。人们不再需要了解操作背后的概念原理,因为它们已经融入了软件程序。这非常有利于扩大软件使用群体——那些不付出努力就能有所收获的人。但是为了迎合业余爱好者而付出的成本会贬低专家的身份。
1700412258
1700412259
彼得·莫霍兹是一位受人敬仰的软件设计咨询师,他建议程序员追求产品“弱化摩擦”和“简洁”。他说,成功的设备和应用将技术的复杂性掩藏在用户友好界面背后。他们将使用者承担的认知负担最小化:“简单的事情不需要过多思考。选择少了,也就不需要思考。”正如克里斯托夫·范宁韦根关于食人族和传教士的实验证明,这个秘诀可以创造应用,能够绕过学习、技能培养和记忆的思维过程。从认知层面来说,工具不需要我们付出什么,也不会给我们带来什么回报。
1700412260
1700412261
莫霍兹所谓的“它只是工作而已”的设计哲学有很多优势。探索在数字时钟上设定闹钟,更改无线路由器的设置或是学会微软Word编辑软件工具条的功能,都可以体会简洁的重要意义。有些产品过于复杂,浪费了时间,却带不来什么好处。我们不需要样样精通,这是事实,但是当软件程序员编写的程序脚本涉及知识性探究和社会依附性时,却无法降低摩擦性。这不仅耗尽了我们的专业技能,也让我们忽视了专业技能的重要性,不再重视技能的培养。几乎所有的文字和信息应用都使用了可以复核和纠正拼写错误的算法。拼写检查工具具有提示功能,会将可能的错误进行高亮处理,以引起你的注意,有时还会给你正确的拼写方式建议。你可以一边使用一边学习。现在,工具融入了自动纠错功能,我们一出现错误,工具就会立刻悄悄地改过来,不提醒使用者。没有反馈,没有“摩擦”。你什么也看不到,什么也学不到。
1700412262
1700412263
或者我们看看谷歌的搜索引擎。最初,谷歌搜索呈现在你面前的只是一个空的文本框,除此之外什么也没有。这个界面就是一个体现简洁性的典型例子,但是谷歌搜索服务仍然要求用户思考要搜索的内容,要有意识地组合、优化关键词组,才能得到最佳结果。现在,再也不需要这样了。2008年,公司推出了谷歌提示(Google Suggest)服务,这是一个自动完成程序,通过预测算法推测用户所要搜寻的内容。现在,只要你在搜索框内输入一个字母,谷歌就会给出一组建议,告诉你怎么填写你的问题。每输入一个字母,跳出来的建议就会更新一次。在谷歌公司的极度关怀背后,是对效率不懈的、近乎偏执的追求,例如遁世的自动化观点。谷歌认为,人类认知是老旧的、不准确的,这种复杂的生物程序最好交给计算机来控制。2012年,发明家、未来主义者雷·库兹韦尔就任谷歌工程总监,他表示:“我设想,几年以后,你不用实际搜索,就可以得到大部分问题的答案。”谷歌“就是知道这是用户想得到的答案”。最终目标是实现搜索的完全自动化,将人类的主观意志清理出局。
1700412264
1700412265
社交网络,例如Facebook,好像也有着相同的驱动力。通过对潜在好友的统计“发现”,提供“喜欢”按钮和其他可以表达情绪的可点击的按钮,将耗时的人类关系自动化,他们实现了复杂人际关系的流水化。Facebook创始人马克·扎克伯格(Mark Zuckerberg)将此称为“无缝分享”——剔除了社交中的自觉努力。但是,把速度、生产力和标准化的想法强加给我们的人际关系也让人感到厌恶。人和人之间最有意义的关系并不能通过市场上的交易实现,也不是程式化的数据交换。人类并不是网格上的结点。人类的关系要求信任、礼貌和牺牲,但是,在技术统治论者看来,这些都代表着低效率和麻烦。社会依附关系中没有了摩擦并不能加强人和人之间的关系,只会弱化关系。这看起来更像是顾客和产品之间的关系——建立容易,破裂也容易。
1700412266
1700412267
就像事事操心的家长,他们永远也不会让孩子去独立完成某事,谷歌、Facebook和其他个人软件制造商最终都贬低甚至擦除了某些人类的特质,至少在过去,这些特质是一个完整的、旺盛的生命所必不可少的:独创性、好奇心、独立性、坚持不懈和勇气。可能在未来,我们只能间接地通过屏幕里的虚拟人物在幻想世界里冒险来感受这些品质,就像约翰·马斯顿那样。
1700412268
1700412269
[1]微软公司开发的电子游戏平台。——编者注
1700412270
1700412271
1700412272
1700412273
1700412275
1700412276
玻璃笼子:自动化时代和我们的未来
1700412277
1700412278
1700412279
1700412280
1700412281
玻璃笼子:自动化时代和我们的未来 第八章 内心的低语
1700412282
1700412283
1700412284
1700412285
1700412286
1700412287
1700412288
1700412290
玻璃笼子:自动化时代和我们的未来 12月中旬一个寒冷、雾气蒙蒙的星期五晚上,公司的节日晚会结束,你驾车回家。事实上,你是在搭车回家。你最近买了人生中的第一台自动驾驶汽车——由谷歌编程、梅赛德斯制作的eSmart电子轿车,软件就安装在方向盘上。你从自动调节的LED车前灯发出的光亮可以知道,路面有的地方结了冰,而且你知道,多亏了不断自动调节的仪表盘,汽车相应地调节车速和牵引设置。一切都进展顺利。你放松下来,思绪回到了晚上那夸张的欢宴。但是,当你离家只有几百码了,行驶过一段树木茂盛的路段时,突然,一只动物冲到路上,停了下来,正对着车。你认出来那是邻居家的比格猎狗,它总是挣脱绳索跑出来。
1700412291
1700412292
你的机器人司机会怎么做?它会紧踩刹车吗?为了救这条狗而冒着打滑失去控制的风险?或者,它会把“脚”从刹车片上移开,牺牲这条狗,确保你和这辆车的安全?它将如何对所有的变量和可能性进行分类整理、权衡利弊,瞬间给出答案?如果算法计算出踩刹车,则狗获救的概率是53%,但是有18%的可能会毁坏车,4%的可能你会受伤,这是不是就得出结论,应该救那条狗呢?软件自行运算,它能够同时兼顾现实后果和道德后果,将一组数据转化为决策吗?
[
上一页 ]
[ :1.700412243e+09 ]
[
下一页 ]