打字猴:1.70041226e+09
1700412260
1700412261 莫霍兹所谓的“它只是工作而已”的设计哲学有很多优势。探索在数字时钟上设定闹钟,更改无线路由器的设置或是学会微软Word编辑软件工具条的功能,都可以体会简洁的重要意义。有些产品过于复杂,浪费了时间,却带不来什么好处。我们不需要样样精通,这是事实,但是当软件程序员编写的程序脚本涉及知识性探究和社会依附性时,却无法降低摩擦性。这不仅耗尽了我们的专业技能,也让我们忽视了专业技能的重要性,不再重视技能的培养。几乎所有的文字和信息应用都使用了可以复核和纠正拼写错误的算法。拼写检查工具具有提示功能,会将可能的错误进行高亮处理,以引起你的注意,有时还会给你正确的拼写方式建议。你可以一边使用一边学习。现在,工具融入了自动纠错功能,我们一出现错误,工具就会立刻悄悄地改过来,不提醒使用者。没有反馈,没有“摩擦”。你什么也看不到,什么也学不到。
1700412262
1700412263 或者我们看看谷歌的搜索引擎。最初,谷歌搜索呈现在你面前的只是一个空的文本框,除此之外什么也没有。这个界面就是一个体现简洁性的典型例子,但是谷歌搜索服务仍然要求用户思考要搜索的内容,要有意识地组合、优化关键词组,才能得到最佳结果。现在,再也不需要这样了。2008年,公司推出了谷歌提示(Google Suggest)服务,这是一个自动完成程序,通过预测算法推测用户所要搜寻的内容。现在,只要你在搜索框内输入一个字母,谷歌就会给出一组建议,告诉你怎么填写你的问题。每输入一个字母,跳出来的建议就会更新一次。在谷歌公司的极度关怀背后,是对效率不懈的、近乎偏执的追求,例如遁世的自动化观点。谷歌认为,人类认知是老旧的、不准确的,这种复杂的生物程序最好交给计算机来控制。2012年,发明家、未来主义者雷·库兹韦尔就任谷歌工程总监,他表示:“我设想,几年以后,你不用实际搜索,就可以得到大部分问题的答案。”谷歌“就是知道这是用户想得到的答案”。最终目标是实现搜索的完全自动化,将人类的主观意志清理出局。
1700412264
1700412265 社交网络,例如Facebook,好像也有着相同的驱动力。通过对潜在好友的统计“发现”,提供“喜欢”按钮和其他可以表达情绪的可点击的按钮,将耗时的人类关系自动化,他们实现了复杂人际关系的流水化。Facebook创始人马克·扎克伯格(Mark Zuckerberg)将此称为“无缝分享”——剔除了社交中的自觉努力。但是,把速度、生产力和标准化的想法强加给我们的人际关系也让人感到厌恶。人和人之间最有意义的关系并不能通过市场上的交易实现,也不是程式化的数据交换。人类并不是网格上的结点。人类的关系要求信任、礼貌和牺牲,但是,在技术统治论者看来,这些都代表着低效率和麻烦。社会依附关系中没有了摩擦并不能加强人和人之间的关系,只会弱化关系。这看起来更像是顾客和产品之间的关系——建立容易,破裂也容易。
1700412266
1700412267 就像事事操心的家长,他们永远也不会让孩子去独立完成某事,谷歌、Facebook和其他个人软件制造商最终都贬低甚至擦除了某些人类的特质,至少在过去,这些特质是一个完整的、旺盛的生命所必不可少的:独创性、好奇心、独立性、坚持不懈和勇气。可能在未来,我们只能间接地通过屏幕里的虚拟人物在幻想世界里冒险来感受这些品质,就像约翰·马斯顿那样。
1700412268
1700412269 [1]微软公司开发的电子游戏平台。——编者注
1700412270
1700412271
1700412272
1700412273
1700412274 玻璃笼子:自动化时代和我们的未来 [:1700411249]
1700412275
1700412276 玻璃笼子:自动化时代和我们的未来
1700412277
1700412278
1700412279
1700412280
1700412281 玻璃笼子:自动化时代和我们的未来 第八章 内心的低语
1700412282
1700412283
1700412284
1700412285
1700412286
1700412287
1700412288
1700412289 玻璃笼子:自动化时代和我们的未来 [:1700411250]
1700412290 玻璃笼子:自动化时代和我们的未来 12月中旬一个寒冷、雾气蒙蒙的星期五晚上,公司的节日晚会结束,你驾车回家。事实上,你是在搭车回家。你最近买了人生中的第一台自动驾驶汽车——由谷歌编程、梅赛德斯制作的eSmart电子轿车,软件就安装在方向盘上。你从自动调节的LED车前灯发出的光亮可以知道,路面有的地方结了冰,而且你知道,多亏了不断自动调节的仪表盘,汽车相应地调节车速和牵引设置。一切都进展顺利。你放松下来,思绪回到了晚上那夸张的欢宴。但是,当你离家只有几百码了,行驶过一段树木茂盛的路段时,突然,一只动物冲到路上,停了下来,正对着车。你认出来那是邻居家的比格猎狗,它总是挣脱绳索跑出来。
1700412291
1700412292 你的机器人司机会怎么做?它会紧踩刹车吗?为了救这条狗而冒着打滑失去控制的风险?或者,它会把“脚”从刹车片上移开,牺牲这条狗,确保你和这辆车的安全?它将如何对所有的变量和可能性进行分类整理、权衡利弊,瞬间给出答案?如果算法计算出踩刹车,则狗获救的概率是53%,但是有18%的可能会毁坏车,4%的可能你会受伤,这是不是就得出结论,应该救那条狗呢?软件自行运算,它能够同时兼顾现实后果和道德后果,将一组数据转化为决策吗?
1700412293
1700412294 如果路中间的狗不是邻居家的宠物而是你自己的宠物该怎么办?如果还是这个情境,马路中央不是一条狗而是个小孩呢?想象一下,早上上班途中,翻阅着一夜积累下来的邮件,自动驾驶汽车载着你穿过桥梁,车速一直保持在每小时40英里。一群学生也在朝桥这边走。他们在你车道旁边的人行道上奔跑。这些小孩看起来年龄不是很小,行为举止也比较乖巧,旁边还有大人照看。没有什么危险信号,但是车还是慢慢降低了速度,因为计算机为了确保安全宁可犯点儿错误。突然,孩子们打闹起来,有一个小男孩被推到了路中央。而此时,你正忙着发短信,没有留意到正在发生的事情。你的汽车必须做出判断:要么急打轮,冲出现有车道,变到反向车道上,这可能会要了你的命,要么就会撞到小孩。软件会给方向盘下达怎样的指令?如果程序知道你的孩子坐在车后面配有传感器的座椅上,这会影响它的决定吗?如果反向车道有车辆迎面驶来呢?如果对面驶来的是校车呢?艾萨克·阿西莫夫的机器人法则第一条——“机器人不能伤害人类,也不能无所作为,让人类受到伤害”听起来很合理,让人备感安慰,但是现实世界要比法则中假设的世界复杂得多。
1700412295
1700412296 纽约大学心理学教授盖里·马库斯表示,自动驾驶汽车时代的到来不仅“标志着人类又一项技能的终结”,还昭示着一个新时代的到来,在这个时代里,机器必须拥有“道德体系”。有的人可能认为,现在已经进入了这个时代。在一些小的方面,我们已经开始将道德决策交给计算机,这是个不祥的征兆。想想现在比较普遍的机器人吸尘器伦巴。伦巴分不清灰尘和虫子。它不加区分,全都吞下去。如果一只蟋蟀经过,就会被伦巴吸进去而丧命。许多人在吸尘的时候,也会从蟋蟀身上轧过。他们不重视虫子的生命,至少当虫子入侵了他们的家园时是如此。但是其他人会停下手中的工作,捡起蟋蟀,带到门口放生。(古老的印度宗教——耆那教的信徒认为伤害生命是一种罪过;他们非常注意,不杀害或伤害昆虫。)当我们按下伦巴的按钮,让它开始在地毯上工作时,我们就给了它权力,代表我们做出了道德的选择。机器人割草机,比如LawnBott和Automower,每天都要和比它们更高等生命的死亡打交道,包括爬虫、两栖动物和小型哺乳动物。在割草的时候看到一只蟾蜍或者前方地上有一群老鼠的话,大多数人都会有意地躲开,如果他们偶然碰到了,就会觉得很恶心。而机器人割草机会杀了这些动物,不会有任何不安。
1700412297
1700412298 到目前为止,关于机器人和其他机器的道德问题一直停留在理论层面,科幻小说或想象中的事情也只是在哲学范围内进行试验。对道德的考量经常会影响工具的设计——枪有保险栓,车有限速器,搜索引擎有过滤装置,但是机器不需要有思维意识。它们不需要实时调整运行状况以应对各种各样的道德问题。在过去,如果出现技术使用的道德问题,人们会插手干预,把事情调查清楚。在未来,却无法始终做到这一点。因为机器人和计算机感知世界和自动执行的能力越来越强,它们不可避免地会面临没有正确选择的局面。它们不得不自己解决令人苦恼的决定。而如果不能自动做出道德的选择,也就不可能实现人类活动的完全自动化。
1700412299
1700412300 当遇到道德伦理判断时,人类会暴露许多缺点。我们经常犯错误,有时候是出于混乱或粗心大意,而有时是出于故意。很多人争辩说,相比于人类立即做出的决定,机器人分拣选项、预估可能性和衡量后果的速度非常快,这使得它们的选择更明智。这是事实。在某些情况下,特别是在只是钱或其他财产受到威胁时,能够对可能性进行快速计算就足够了,就能以此做出行动判断,带来最优结果。虽然可能会造成交通事故,但一些人类司机在交通灯刚变红时会快速闯过马路。计算机却永远不会这么匆忙地做出决定。但是,两难境地并不会这么容易就得到解决。要用数学的方法解开这些难题,你就会面临一个更基本的问题:在道德模糊的局势下,谁决定什么是“最优的”或“理性的”选择?谁将为设计了机器人而感到自责?是机器人的制造商吗?机器人的主人?软件程序员?政客?政府法规?哲学家?还是保险承保人?
1700412301
1700412302 没有完美的道德算法,我们不能将道德伦理简化成一组人人都赞同的规则。哲学家为此努力了几个世纪,但都失败了。即使是冷冰冰的功利计算也具有主观性,计算结果取决于决策者的价值观和利益。车辆保险公司的理性选择——牺牲狗的性命,可能不会是你的选择,当你要撞向邻居家的宠物时,无论是有意还是自然反应,你都不会这样做。政治科学家查尔斯·罗宾说:“在机器人时代,我们和从前一样被道德绑架,甚至比以往更严重。”
1700412303
1700412304 尽管如此,我们仍要编写算法。计算出摆脱道德困境的方法可能有点异想天开,甚至让人厌恶,但是这并不会改变现实——机器人和软件代理商正在算计如何摆脱道德的两难境地。除非直到人工智能具备些许意识,能够感知或至少模拟人类情绪,例如喜爱和后悔,否则我们那些靠计算运作的“亲戚”就会无路可走。我们可能会后悔在没想好如何赋予自动化道德感之前,就让他们进行涉及伦理道德的行为,但光是后悔不会让我们摆脱困境。道德系统要依靠我们。如果自动化机器要在这个世界大行其道,我们就要把道德代码完美地转化为软件代码。
1700412305
1700412306 伦理的挑战:杀缪机器
1700412307
1700412308 再假设另一番情景。你是一名陆军上校,手下的士兵有人类也有机械战士。你有一个排的由计算机控制的“机器人狙击手”,它们驻扎在城市的各个街角和楼顶上,共同守卫这座城市,抵抗一个游击队的攻击。这时候出现了一个人,经验告诉你他很可疑。机器人根据实际情况,结合历史行为模式数据库信息进行了全面分析,立刻计算出这个人有68%的可能性是叛乱分子,正准备引爆炸弹,他只有32%的可能性是个无辜的路人。这时候,一辆人员运输车载着十几名士兵沿着这条路驶过来。如果这里已经安置了炸弹,那个人随时可能引爆它。战争没有暂停键。机器人也不能运用人类判断,只能做出行动。软件会给机器人下达什么样的指令?射击还是不采取行动?
1700412309
[ 上一页 ]  [ :1.70041226e+09 ]  [ 下一页 ]