1700412264
1700412265
社交网络,例如Facebook,好像也有着相同的驱动力。通过对潜在好友的统计“发现”,提供“喜欢”按钮和其他可以表达情绪的可点击的按钮,将耗时的人类关系自动化,他们实现了复杂人际关系的流水化。Facebook创始人马克·扎克伯格(Mark Zuckerberg)将此称为“无缝分享”——剔除了社交中的自觉努力。但是,把速度、生产力和标准化的想法强加给我们的人际关系也让人感到厌恶。人和人之间最有意义的关系并不能通过市场上的交易实现,也不是程式化的数据交换。人类并不是网格上的结点。人类的关系要求信任、礼貌和牺牲,但是,在技术统治论者看来,这些都代表着低效率和麻烦。社会依附关系中没有了摩擦并不能加强人和人之间的关系,只会弱化关系。这看起来更像是顾客和产品之间的关系——建立容易,破裂也容易。
1700412266
1700412267
就像事事操心的家长,他们永远也不会让孩子去独立完成某事,谷歌、Facebook和其他个人软件制造商最终都贬低甚至擦除了某些人类的特质,至少在过去,这些特质是一个完整的、旺盛的生命所必不可少的:独创性、好奇心、独立性、坚持不懈和勇气。可能在未来,我们只能间接地通过屏幕里的虚拟人物在幻想世界里冒险来感受这些品质,就像约翰·马斯顿那样。
1700412268
1700412269
[1]微软公司开发的电子游戏平台。——编者注
1700412270
1700412271
1700412272
1700412273
1700412275
1700412276
玻璃笼子:自动化时代和我们的未来
1700412277
1700412278
1700412279
1700412280
1700412281
玻璃笼子:自动化时代和我们的未来 第八章 内心的低语
1700412282
1700412283
1700412284
1700412285
1700412286
1700412287
1700412288
1700412290
玻璃笼子:自动化时代和我们的未来 12月中旬一个寒冷、雾气蒙蒙的星期五晚上,公司的节日晚会结束,你驾车回家。事实上,你是在搭车回家。你最近买了人生中的第一台自动驾驶汽车——由谷歌编程、梅赛德斯制作的eSmart电子轿车,软件就安装在方向盘上。你从自动调节的LED车前灯发出的光亮可以知道,路面有的地方结了冰,而且你知道,多亏了不断自动调节的仪表盘,汽车相应地调节车速和牵引设置。一切都进展顺利。你放松下来,思绪回到了晚上那夸张的欢宴。但是,当你离家只有几百码了,行驶过一段树木茂盛的路段时,突然,一只动物冲到路上,停了下来,正对着车。你认出来那是邻居家的比格猎狗,它总是挣脱绳索跑出来。
1700412291
1700412292
你的机器人司机会怎么做?它会紧踩刹车吗?为了救这条狗而冒着打滑失去控制的风险?或者,它会把“脚”从刹车片上移开,牺牲这条狗,确保你和这辆车的安全?它将如何对所有的变量和可能性进行分类整理、权衡利弊,瞬间给出答案?如果算法计算出踩刹车,则狗获救的概率是53%,但是有18%的可能会毁坏车,4%的可能你会受伤,这是不是就得出结论,应该救那条狗呢?软件自行运算,它能够同时兼顾现实后果和道德后果,将一组数据转化为决策吗?
1700412293
1700412294
如果路中间的狗不是邻居家的宠物而是你自己的宠物该怎么办?如果还是这个情境,马路中央不是一条狗而是个小孩呢?想象一下,早上上班途中,翻阅着一夜积累下来的邮件,自动驾驶汽车载着你穿过桥梁,车速一直保持在每小时40英里。一群学生也在朝桥这边走。他们在你车道旁边的人行道上奔跑。这些小孩看起来年龄不是很小,行为举止也比较乖巧,旁边还有大人照看。没有什么危险信号,但是车还是慢慢降低了速度,因为计算机为了确保安全宁可犯点儿错误。突然,孩子们打闹起来,有一个小男孩被推到了路中央。而此时,你正忙着发短信,没有留意到正在发生的事情。你的汽车必须做出判断:要么急打轮,冲出现有车道,变到反向车道上,这可能会要了你的命,要么就会撞到小孩。软件会给方向盘下达怎样的指令?如果程序知道你的孩子坐在车后面配有传感器的座椅上,这会影响它的决定吗?如果反向车道有车辆迎面驶来呢?如果对面驶来的是校车呢?艾萨克·阿西莫夫的机器人法则第一条——“机器人不能伤害人类,也不能无所作为,让人类受到伤害”听起来很合理,让人备感安慰,但是现实世界要比法则中假设的世界复杂得多。
1700412295
1700412296
纽约大学心理学教授盖里·马库斯表示,自动驾驶汽车时代的到来不仅“标志着人类又一项技能的终结”,还昭示着一个新时代的到来,在这个时代里,机器必须拥有“道德体系”。有的人可能认为,现在已经进入了这个时代。在一些小的方面,我们已经开始将道德决策交给计算机,这是个不祥的征兆。想想现在比较普遍的机器人吸尘器伦巴。伦巴分不清灰尘和虫子。它不加区分,全都吞下去。如果一只蟋蟀经过,就会被伦巴吸进去而丧命。许多人在吸尘的时候,也会从蟋蟀身上轧过。他们不重视虫子的生命,至少当虫子入侵了他们的家园时是如此。但是其他人会停下手中的工作,捡起蟋蟀,带到门口放生。(古老的印度宗教——耆那教的信徒认为伤害生命是一种罪过;他们非常注意,不杀害或伤害昆虫。)当我们按下伦巴的按钮,让它开始在地毯上工作时,我们就给了它权力,代表我们做出了道德的选择。机器人割草机,比如LawnBott和Automower,每天都要和比它们更高等生命的死亡打交道,包括爬虫、两栖动物和小型哺乳动物。在割草的时候看到一只蟾蜍或者前方地上有一群老鼠的话,大多数人都会有意地躲开,如果他们偶然碰到了,就会觉得很恶心。而机器人割草机会杀了这些动物,不会有任何不安。
1700412297
1700412298
到目前为止,关于机器人和其他机器的道德问题一直停留在理论层面,科幻小说或想象中的事情也只是在哲学范围内进行试验。对道德的考量经常会影响工具的设计——枪有保险栓,车有限速器,搜索引擎有过滤装置,但是机器不需要有思维意识。它们不需要实时调整运行状况以应对各种各样的道德问题。在过去,如果出现技术使用的道德问题,人们会插手干预,把事情调查清楚。在未来,却无法始终做到这一点。因为机器人和计算机感知世界和自动执行的能力越来越强,它们不可避免地会面临没有正确选择的局面。它们不得不自己解决令人苦恼的决定。而如果不能自动做出道德的选择,也就不可能实现人类活动的完全自动化。
1700412299
1700412300
当遇到道德伦理判断时,人类会暴露许多缺点。我们经常犯错误,有时候是出于混乱或粗心大意,而有时是出于故意。很多人争辩说,相比于人类立即做出的决定,机器人分拣选项、预估可能性和衡量后果的速度非常快,这使得它们的选择更明智。这是事实。在某些情况下,特别是在只是钱或其他财产受到威胁时,能够对可能性进行快速计算就足够了,就能以此做出行动判断,带来最优结果。虽然可能会造成交通事故,但一些人类司机在交通灯刚变红时会快速闯过马路。计算机却永远不会这么匆忙地做出决定。但是,两难境地并不会这么容易就得到解决。要用数学的方法解开这些难题,你就会面临一个更基本的问题:在道德模糊的局势下,谁决定什么是“最优的”或“理性的”选择?谁将为设计了机器人而感到自责?是机器人的制造商吗?机器人的主人?软件程序员?政客?政府法规?哲学家?还是保险承保人?
1700412301
1700412302
没有完美的道德算法,我们不能将道德伦理简化成一组人人都赞同的规则。哲学家为此努力了几个世纪,但都失败了。即使是冷冰冰的功利计算也具有主观性,计算结果取决于决策者的价值观和利益。车辆保险公司的理性选择——牺牲狗的性命,可能不会是你的选择,当你要撞向邻居家的宠物时,无论是有意还是自然反应,你都不会这样做。政治科学家查尔斯·罗宾说:“在机器人时代,我们和从前一样被道德绑架,甚至比以往更严重。”
1700412303
1700412304
尽管如此,我们仍要编写算法。计算出摆脱道德困境的方法可能有点异想天开,甚至让人厌恶,但是这并不会改变现实——机器人和软件代理商正在算计如何摆脱道德的两难境地。除非直到人工智能具备些许意识,能够感知或至少模拟人类情绪,例如喜爱和后悔,否则我们那些靠计算运作的“亲戚”就会无路可走。我们可能会后悔在没想好如何赋予自动化道德感之前,就让他们进行涉及伦理道德的行为,但光是后悔不会让我们摆脱困境。道德系统要依靠我们。如果自动化机器要在这个世界大行其道,我们就要把道德代码完美地转化为软件代码。
1700412305
1700412306
伦理的挑战:杀缪机器
1700412307
1700412308
再假设另一番情景。你是一名陆军上校,手下的士兵有人类也有机械战士。你有一个排的由计算机控制的“机器人狙击手”,它们驻扎在城市的各个街角和楼顶上,共同守卫这座城市,抵抗一个游击队的攻击。这时候出现了一个人,经验告诉你他很可疑。机器人根据实际情况,结合历史行为模式数据库信息进行了全面分析,立刻计算出这个人有68%的可能性是叛乱分子,正准备引爆炸弹,他只有32%的可能性是个无辜的路人。这时候,一辆人员运输车载着十几名士兵沿着这条路驶过来。如果这里已经安置了炸弹,那个人随时可能引爆它。战争没有暂停键。机器人也不能运用人类判断,只能做出行动。软件会给机器人下达什么样的指令?射击还是不采取行动?
1700412309
1700412310
如果说我们作为平民百姓,还没有面临自动驾驶汽车和其他自动化机器人带来的道德影响,但在军队里,情况就完全不同。近几年,国防部门和军校一直在研究将生死权交给战地机器人的方法及其带来的影响。无人驾驶飞机投射导弹和炸弹已经很常见了,例如“捕食者无人机”和死神无人机。它们已经成了人们热议的焦点。持不同观点的人都颇有道理。支持者认为,无人机可以让士兵和飞行员免受危险,同传统的搏斗和轰炸比起来,无人机可以通过精准的攻击降低伤亡和破坏程度。而反对者认为,无人机攻击是政府支持的暗杀行为。他们指出,爆炸通常会造成平民伤亡,更不用说引起的恐慌了。但是,无人机并不是自动化的,而是需要人类远程控制。飞机的飞行和监视功能可以自行运转,但是开火的决定是由士兵下达的,士兵坐在计算机前,观察着实时录像反馈,严格执行上级的命令。按照现在的部署来说,携带导弹的无人机同巡航导弹和其他武器没什么区别,仍然需要人来发动攻击。
1700412311
1700412312
如果由计算机来扣动扳机,那情况就会大有不同。完全自动化的计算机控制的杀人机器——军方称之为致命的自动化机器人(LAR),现在来看在技术上是可行的,并且很多年前就已经实现了。环境传感器可以对战场进行高分辨率的精准扫描,自动射击装置广泛使用,控制机枪射击或发射导弹的编码也不难写。对于计算机来说,开火决定同股票交易或将邮件转入垃圾邮箱的指令没什么两样。算法只是算法。
1700412313
[
上一页 ]
[ :1.700412264e+09 ]
[
下一页 ]