1700412275
1700412276
玻璃笼子:自动化时代和我们的未来
1700412277
1700412278
1700412279
1700412280
1700412281
玻璃笼子:自动化时代和我们的未来 第八章 内心的低语
1700412282
1700412283
1700412284
1700412285
1700412286
1700412287
1700412288
1700412290
玻璃笼子:自动化时代和我们的未来 12月中旬一个寒冷、雾气蒙蒙的星期五晚上,公司的节日晚会结束,你驾车回家。事实上,你是在搭车回家。你最近买了人生中的第一台自动驾驶汽车——由谷歌编程、梅赛德斯制作的eSmart电子轿车,软件就安装在方向盘上。你从自动调节的LED车前灯发出的光亮可以知道,路面有的地方结了冰,而且你知道,多亏了不断自动调节的仪表盘,汽车相应地调节车速和牵引设置。一切都进展顺利。你放松下来,思绪回到了晚上那夸张的欢宴。但是,当你离家只有几百码了,行驶过一段树木茂盛的路段时,突然,一只动物冲到路上,停了下来,正对着车。你认出来那是邻居家的比格猎狗,它总是挣脱绳索跑出来。
1700412291
1700412292
你的机器人司机会怎么做?它会紧踩刹车吗?为了救这条狗而冒着打滑失去控制的风险?或者,它会把“脚”从刹车片上移开,牺牲这条狗,确保你和这辆车的安全?它将如何对所有的变量和可能性进行分类整理、权衡利弊,瞬间给出答案?如果算法计算出踩刹车,则狗获救的概率是53%,但是有18%的可能会毁坏车,4%的可能你会受伤,这是不是就得出结论,应该救那条狗呢?软件自行运算,它能够同时兼顾现实后果和道德后果,将一组数据转化为决策吗?
1700412293
1700412294
如果路中间的狗不是邻居家的宠物而是你自己的宠物该怎么办?如果还是这个情境,马路中央不是一条狗而是个小孩呢?想象一下,早上上班途中,翻阅着一夜积累下来的邮件,自动驾驶汽车载着你穿过桥梁,车速一直保持在每小时40英里。一群学生也在朝桥这边走。他们在你车道旁边的人行道上奔跑。这些小孩看起来年龄不是很小,行为举止也比较乖巧,旁边还有大人照看。没有什么危险信号,但是车还是慢慢降低了速度,因为计算机为了确保安全宁可犯点儿错误。突然,孩子们打闹起来,有一个小男孩被推到了路中央。而此时,你正忙着发短信,没有留意到正在发生的事情。你的汽车必须做出判断:要么急打轮,冲出现有车道,变到反向车道上,这可能会要了你的命,要么就会撞到小孩。软件会给方向盘下达怎样的指令?如果程序知道你的孩子坐在车后面配有传感器的座椅上,这会影响它的决定吗?如果反向车道有车辆迎面驶来呢?如果对面驶来的是校车呢?艾萨克·阿西莫夫的机器人法则第一条——“机器人不能伤害人类,也不能无所作为,让人类受到伤害”听起来很合理,让人备感安慰,但是现实世界要比法则中假设的世界复杂得多。
1700412295
1700412296
纽约大学心理学教授盖里·马库斯表示,自动驾驶汽车时代的到来不仅“标志着人类又一项技能的终结”,还昭示着一个新时代的到来,在这个时代里,机器必须拥有“道德体系”。有的人可能认为,现在已经进入了这个时代。在一些小的方面,我们已经开始将道德决策交给计算机,这是个不祥的征兆。想想现在比较普遍的机器人吸尘器伦巴。伦巴分不清灰尘和虫子。它不加区分,全都吞下去。如果一只蟋蟀经过,就会被伦巴吸进去而丧命。许多人在吸尘的时候,也会从蟋蟀身上轧过。他们不重视虫子的生命,至少当虫子入侵了他们的家园时是如此。但是其他人会停下手中的工作,捡起蟋蟀,带到门口放生。(古老的印度宗教——耆那教的信徒认为伤害生命是一种罪过;他们非常注意,不杀害或伤害昆虫。)当我们按下伦巴的按钮,让它开始在地毯上工作时,我们就给了它权力,代表我们做出了道德的选择。机器人割草机,比如LawnBott和Automower,每天都要和比它们更高等生命的死亡打交道,包括爬虫、两栖动物和小型哺乳动物。在割草的时候看到一只蟾蜍或者前方地上有一群老鼠的话,大多数人都会有意地躲开,如果他们偶然碰到了,就会觉得很恶心。而机器人割草机会杀了这些动物,不会有任何不安。
1700412297
1700412298
到目前为止,关于机器人和其他机器的道德问题一直停留在理论层面,科幻小说或想象中的事情也只是在哲学范围内进行试验。对道德的考量经常会影响工具的设计——枪有保险栓,车有限速器,搜索引擎有过滤装置,但是机器不需要有思维意识。它们不需要实时调整运行状况以应对各种各样的道德问题。在过去,如果出现技术使用的道德问题,人们会插手干预,把事情调查清楚。在未来,却无法始终做到这一点。因为机器人和计算机感知世界和自动执行的能力越来越强,它们不可避免地会面临没有正确选择的局面。它们不得不自己解决令人苦恼的决定。而如果不能自动做出道德的选择,也就不可能实现人类活动的完全自动化。
1700412299
1700412300
当遇到道德伦理判断时,人类会暴露许多缺点。我们经常犯错误,有时候是出于混乱或粗心大意,而有时是出于故意。很多人争辩说,相比于人类立即做出的决定,机器人分拣选项、预估可能性和衡量后果的速度非常快,这使得它们的选择更明智。这是事实。在某些情况下,特别是在只是钱或其他财产受到威胁时,能够对可能性进行快速计算就足够了,就能以此做出行动判断,带来最优结果。虽然可能会造成交通事故,但一些人类司机在交通灯刚变红时会快速闯过马路。计算机却永远不会这么匆忙地做出决定。但是,两难境地并不会这么容易就得到解决。要用数学的方法解开这些难题,你就会面临一个更基本的问题:在道德模糊的局势下,谁决定什么是“最优的”或“理性的”选择?谁将为设计了机器人而感到自责?是机器人的制造商吗?机器人的主人?软件程序员?政客?政府法规?哲学家?还是保险承保人?
1700412301
1700412302
没有完美的道德算法,我们不能将道德伦理简化成一组人人都赞同的规则。哲学家为此努力了几个世纪,但都失败了。即使是冷冰冰的功利计算也具有主观性,计算结果取决于决策者的价值观和利益。车辆保险公司的理性选择——牺牲狗的性命,可能不会是你的选择,当你要撞向邻居家的宠物时,无论是有意还是自然反应,你都不会这样做。政治科学家查尔斯·罗宾说:“在机器人时代,我们和从前一样被道德绑架,甚至比以往更严重。”
1700412303
1700412304
尽管如此,我们仍要编写算法。计算出摆脱道德困境的方法可能有点异想天开,甚至让人厌恶,但是这并不会改变现实——机器人和软件代理商正在算计如何摆脱道德的两难境地。除非直到人工智能具备些许意识,能够感知或至少模拟人类情绪,例如喜爱和后悔,否则我们那些靠计算运作的“亲戚”就会无路可走。我们可能会后悔在没想好如何赋予自动化道德感之前,就让他们进行涉及伦理道德的行为,但光是后悔不会让我们摆脱困境。道德系统要依靠我们。如果自动化机器要在这个世界大行其道,我们就要把道德代码完美地转化为软件代码。
1700412305
1700412306
伦理的挑战:杀缪机器
1700412307
1700412308
再假设另一番情景。你是一名陆军上校,手下的士兵有人类也有机械战士。你有一个排的由计算机控制的“机器人狙击手”,它们驻扎在城市的各个街角和楼顶上,共同守卫这座城市,抵抗一个游击队的攻击。这时候出现了一个人,经验告诉你他很可疑。机器人根据实际情况,结合历史行为模式数据库信息进行了全面分析,立刻计算出这个人有68%的可能性是叛乱分子,正准备引爆炸弹,他只有32%的可能性是个无辜的路人。这时候,一辆人员运输车载着十几名士兵沿着这条路驶过来。如果这里已经安置了炸弹,那个人随时可能引爆它。战争没有暂停键。机器人也不能运用人类判断,只能做出行动。软件会给机器人下达什么样的指令?射击还是不采取行动?
1700412309
1700412310
如果说我们作为平民百姓,还没有面临自动驾驶汽车和其他自动化机器人带来的道德影响,但在军队里,情况就完全不同。近几年,国防部门和军校一直在研究将生死权交给战地机器人的方法及其带来的影响。无人驾驶飞机投射导弹和炸弹已经很常见了,例如“捕食者无人机”和死神无人机。它们已经成了人们热议的焦点。持不同观点的人都颇有道理。支持者认为,无人机可以让士兵和飞行员免受危险,同传统的搏斗和轰炸比起来,无人机可以通过精准的攻击降低伤亡和破坏程度。而反对者认为,无人机攻击是政府支持的暗杀行为。他们指出,爆炸通常会造成平民伤亡,更不用说引起的恐慌了。但是,无人机并不是自动化的,而是需要人类远程控制。飞机的飞行和监视功能可以自行运转,但是开火的决定是由士兵下达的,士兵坐在计算机前,观察着实时录像反馈,严格执行上级的命令。按照现在的部署来说,携带导弹的无人机同巡航导弹和其他武器没什么区别,仍然需要人来发动攻击。
1700412311
1700412312
如果由计算机来扣动扳机,那情况就会大有不同。完全自动化的计算机控制的杀人机器——军方称之为致命的自动化机器人(LAR),现在来看在技术上是可行的,并且很多年前就已经实现了。环境传感器可以对战场进行高分辨率的精准扫描,自动射击装置广泛使用,控制机枪射击或发射导弹的编码也不难写。对于计算机来说,开火决定同股票交易或将邮件转入垃圾邮箱的指令没什么两样。算法只是算法。
1700412313
1700412314
2013年,南非法学家克里斯托夫·海恩斯作为联合国大会法外执行、立即执行和强制执行决议的记录员,就军队机器人的现状和未来展望公布了一份报告。报告客观谨慎,让人看了感到阵阵寒意。海恩斯写道:“政府能够制造LAR,但是也声明,根据目前情况来看,不会在武装冲突或其他场合使用。”但是,海恩斯又提出,武器的历史表明,我们不应该过分相信这些保证。“回想一下,飞机和无人机最开始应用于武装冲突只是出于监察目的,因为可能带来负面影响,所以不能用于攻击。而后来的情况表明,当技术具有更多明显的优势时,最初的想法就被抛弃了。”一旦一种新的武器问世,总是会伴随着军备竞赛。从这一点来看,“特权阶层的权力会阻碍人类采取相应的控制”。
1700412315
1700412316
在许多方面,同平民生活相比,战争存在固有模式。有交战规则、指挥体系和界限分明的双方。杀戮不仅是可以接受的,甚至还受到鼓励。即使是出于道德的战争,也会带来些无法解决的问题,或者至少必须抛开道德顾虑才能解决这些问题。2008年,美国海军委任加州理工大学的道德和新兴科技小组编写一份白皮书,回顾LAR带来的道德问题,并列出设计军用“道德自动化机器人”的方法。伦理学家认为,有两种基本的方式,可以为机器人编写计算机程序,做出道德决策:自上而下和自下而上。自上而下的方式是指,提前编写好控制机器人决策的所有规则,机器人只需遵守这些规则,“不需要改变,也不用具有灵活性”。阿西莫夫在尝试制定机器人道德体系时发现,这个体系听起来很简单,但其实不然。我们无法预测机器人可能遭遇的所有情况。自上而下变成的“严格性”会弄巧成拙,学者写道:“当出现某些事件或局势,是程序员没有预见的或设想不充分的,就会导致机器人无法工作,或犯下可怕的错误,这正是因为机器人是受规则束缚的。”
1700412317
1700412318
而自下而上的编程方法是指机器人被嵌入一些基本的规则,然后投入使用。这种方式利用机器的自学技术,培养机器人自己的道德编码,并根据遇到的新环境加以调整。“就像个孩子,机器人面临纷繁复杂的局势,通过尝试和错误(以及反馈),学习认识新事物以及行为禁忌”。机器人遇到的困境越多,道德判断就越合理。但是,自下而上的编程方法会带来更严重的问题。首先,这是无法实现的。我们还没有发明出来能够做出道德决策的精密且稳定的机器自学算法。其次,在攸关生死的情况下,也不允许尝试或犯错误。自下而上这种编程方法本身就是不道德的。再次,我们无法保证计算机衍生出来的道德可以反映人类的道德,或同人类的道德标准相适应。带着机关枪和自学算法走上战场,机器人只会失去控制。
1700412319
1700412320
伦理学家指出,人类可以将自上而下和自下而上两种方式结合起来,用于道德决策。人类社会里有法律和其他束缚,可以引导和控制人类的行为;许多人为了遵守宗教和文化训诫而规范自己的决定;无论是天生与否,个人的道德观,都会影响具体的行为规范。经验有时也会产生影响。人类在不断成长的过程中也在学习如何成为道德生物,同不同情况下的道德决策做斗争。我们远非完美,但是大多数人拥有道德判断力,可以灵活应对我们未曾遇过的困境。机器人拥有道德的唯一方式就是以我们为参照,采取综合编程方式,既遵守规则,也要通过实际经历学习。但是创造拥有这种能力的机器远远超出了我们的技术能力范畴。伦理学家总结道:“最终,我们也许能够创造出拥有道德智慧的机器人,既能保持自下而上系统动态、灵活的道德感,调节不同的输入,也能根据自上而下原则,影响选择和行为评估。”但是,在这之前,我们需要研究如何编写计算机程序来打造这种“超理性能力”——拥有情绪、社交技能、意识并且“在这个世界上拥有具身”。换句话说,我们得成为上帝。
1700412321
1700412322
军队可不会等那么久。美国陆军战争学院杂志《参变量》(Parameters)上发表了一篇文章,在文中,军事战略家、退伍陆军中校托马斯·亚当斯表示:“逻辑引导的完全自动化系统的出现是不可避免的。”得益于自动武器的速度、尺寸和灵敏性,战争“正脱离人类的感官领域”并且“在人类反应速度之外徘徊”。很快,战争会变得“过于复杂”,“人类难以理解”。亚当斯回应坚持以技术为中心的民用软件设计师,他表示,人类成了军事体系里最薄弱的一环,并且人类对战争决策“有意义的控制”将是下一个消失的对象。“当然,有一种解决办法,就是接受相对较慢的信息处理速度,这是在军事决策中保留人的参与所付出的代价。但是问题在于,反对者最终会发现,要打败以人为中心的系统就必须要设计出另一个系统,不受人类限制。”最终,亚当斯认为,我们会认为“战术战争是属于机器的,根本不适合人类”。
1700412323
[
上一页 ]
[ :1.700412274e+09 ]
[
下一页 ]