打字猴:1.700412296e+09
1700412296 纽约大学心理学教授盖里·马库斯表示,自动驾驶汽车时代的到来不仅“标志着人类又一项技能的终结”,还昭示着一个新时代的到来,在这个时代里,机器必须拥有“道德体系”。有的人可能认为,现在已经进入了这个时代。在一些小的方面,我们已经开始将道德决策交给计算机,这是个不祥的征兆。想想现在比较普遍的机器人吸尘器伦巴。伦巴分不清灰尘和虫子。它不加区分,全都吞下去。如果一只蟋蟀经过,就会被伦巴吸进去而丧命。许多人在吸尘的时候,也会从蟋蟀身上轧过。他们不重视虫子的生命,至少当虫子入侵了他们的家园时是如此。但是其他人会停下手中的工作,捡起蟋蟀,带到门口放生。(古老的印度宗教——耆那教的信徒认为伤害生命是一种罪过;他们非常注意,不杀害或伤害昆虫。)当我们按下伦巴的按钮,让它开始在地毯上工作时,我们就给了它权力,代表我们做出了道德的选择。机器人割草机,比如LawnBott和Automower,每天都要和比它们更高等生命的死亡打交道,包括爬虫、两栖动物和小型哺乳动物。在割草的时候看到一只蟾蜍或者前方地上有一群老鼠的话,大多数人都会有意地躲开,如果他们偶然碰到了,就会觉得很恶心。而机器人割草机会杀了这些动物,不会有任何不安。
1700412297
1700412298 到目前为止,关于机器人和其他机器的道德问题一直停留在理论层面,科幻小说或想象中的事情也只是在哲学范围内进行试验。对道德的考量经常会影响工具的设计——枪有保险栓,车有限速器,搜索引擎有过滤装置,但是机器不需要有思维意识。它们不需要实时调整运行状况以应对各种各样的道德问题。在过去,如果出现技术使用的道德问题,人们会插手干预,把事情调查清楚。在未来,却无法始终做到这一点。因为机器人和计算机感知世界和自动执行的能力越来越强,它们不可避免地会面临没有正确选择的局面。它们不得不自己解决令人苦恼的决定。而如果不能自动做出道德的选择,也就不可能实现人类活动的完全自动化。
1700412299
1700412300 当遇到道德伦理判断时,人类会暴露许多缺点。我们经常犯错误,有时候是出于混乱或粗心大意,而有时是出于故意。很多人争辩说,相比于人类立即做出的决定,机器人分拣选项、预估可能性和衡量后果的速度非常快,这使得它们的选择更明智。这是事实。在某些情况下,特别是在只是钱或其他财产受到威胁时,能够对可能性进行快速计算就足够了,就能以此做出行动判断,带来最优结果。虽然可能会造成交通事故,但一些人类司机在交通灯刚变红时会快速闯过马路。计算机却永远不会这么匆忙地做出决定。但是,两难境地并不会这么容易就得到解决。要用数学的方法解开这些难题,你就会面临一个更基本的问题:在道德模糊的局势下,谁决定什么是“最优的”或“理性的”选择?谁将为设计了机器人而感到自责?是机器人的制造商吗?机器人的主人?软件程序员?政客?政府法规?哲学家?还是保险承保人?
1700412301
1700412302 没有完美的道德算法,我们不能将道德伦理简化成一组人人都赞同的规则。哲学家为此努力了几个世纪,但都失败了。即使是冷冰冰的功利计算也具有主观性,计算结果取决于决策者的价值观和利益。车辆保险公司的理性选择——牺牲狗的性命,可能不会是你的选择,当你要撞向邻居家的宠物时,无论是有意还是自然反应,你都不会这样做。政治科学家查尔斯·罗宾说:“在机器人时代,我们和从前一样被道德绑架,甚至比以往更严重。”
1700412303
1700412304 尽管如此,我们仍要编写算法。计算出摆脱道德困境的方法可能有点异想天开,甚至让人厌恶,但是这并不会改变现实——机器人和软件代理商正在算计如何摆脱道德的两难境地。除非直到人工智能具备些许意识,能够感知或至少模拟人类情绪,例如喜爱和后悔,否则我们那些靠计算运作的“亲戚”就会无路可走。我们可能会后悔在没想好如何赋予自动化道德感之前,就让他们进行涉及伦理道德的行为,但光是后悔不会让我们摆脱困境。道德系统要依靠我们。如果自动化机器要在这个世界大行其道,我们就要把道德代码完美地转化为软件代码。
1700412305
1700412306 伦理的挑战:杀缪机器
1700412307
1700412308 再假设另一番情景。你是一名陆军上校,手下的士兵有人类也有机械战士。你有一个排的由计算机控制的“机器人狙击手”,它们驻扎在城市的各个街角和楼顶上,共同守卫这座城市,抵抗一个游击队的攻击。这时候出现了一个人,经验告诉你他很可疑。机器人根据实际情况,结合历史行为模式数据库信息进行了全面分析,立刻计算出这个人有68%的可能性是叛乱分子,正准备引爆炸弹,他只有32%的可能性是个无辜的路人。这时候,一辆人员运输车载着十几名士兵沿着这条路驶过来。如果这里已经安置了炸弹,那个人随时可能引爆它。战争没有暂停键。机器人也不能运用人类判断,只能做出行动。软件会给机器人下达什么样的指令?射击还是不采取行动?
1700412309
1700412310 如果说我们作为平民百姓,还没有面临自动驾驶汽车和其他自动化机器人带来的道德影响,但在军队里,情况就完全不同。近几年,国防部门和军校一直在研究将生死权交给战地机器人的方法及其带来的影响。无人驾驶飞机投射导弹和炸弹已经很常见了,例如“捕食者无人机”和死神无人机。它们已经成了人们热议的焦点。持不同观点的人都颇有道理。支持者认为,无人机可以让士兵和飞行员免受危险,同传统的搏斗和轰炸比起来,无人机可以通过精准的攻击降低伤亡和破坏程度。而反对者认为,无人机攻击是政府支持的暗杀行为。他们指出,爆炸通常会造成平民伤亡,更不用说引起的恐慌了。但是,无人机并不是自动化的,而是需要人类远程控制。飞机的飞行和监视功能可以自行运转,但是开火的决定是由士兵下达的,士兵坐在计算机前,观察着实时录像反馈,严格执行上级的命令。按照现在的部署来说,携带导弹的无人机同巡航导弹和其他武器没什么区别,仍然需要人来发动攻击。
1700412311
1700412312 如果由计算机来扣动扳机,那情况就会大有不同。完全自动化的计算机控制的杀人机器——军方称之为致命的自动化机器人(LAR),现在来看在技术上是可行的,并且很多年前就已经实现了。环境传感器可以对战场进行高分辨率的精准扫描,自动射击装置广泛使用,控制机枪射击或发射导弹的编码也不难写。对于计算机来说,开火决定同股票交易或将邮件转入垃圾邮箱的指令没什么两样。算法只是算法。
1700412313
1700412314 2013年,南非法学家克里斯托夫·海恩斯作为联合国大会法外执行、立即执行和强制执行决议的记录员,就军队机器人的现状和未来展望公布了一份报告。报告客观谨慎,让人看了感到阵阵寒意。海恩斯写道:“政府能够制造LAR,但是也声明,根据目前情况来看,不会在武装冲突或其他场合使用。”但是,海恩斯又提出,武器的历史表明,我们不应该过分相信这些保证。“回想一下,飞机和无人机最开始应用于武装冲突只是出于监察目的,因为可能带来负面影响,所以不能用于攻击。而后来的情况表明,当技术具有更多明显的优势时,最初的想法就被抛弃了。”一旦一种新的武器问世,总是会伴随着军备竞赛。从这一点来看,“特权阶层的权力会阻碍人类采取相应的控制”。
1700412315
1700412316 在许多方面,同平民生活相比,战争存在固有模式。有交战规则、指挥体系和界限分明的双方。杀戮不仅是可以接受的,甚至还受到鼓励。即使是出于道德的战争,也会带来些无法解决的问题,或者至少必须抛开道德顾虑才能解决这些问题。2008年,美国海军委任加州理工大学的道德和新兴科技小组编写一份白皮书,回顾LAR带来的道德问题,并列出设计军用“道德自动化机器人”的方法。伦理学家认为,有两种基本的方式,可以为机器人编写计算机程序,做出道德决策:自上而下和自下而上。自上而下的方式是指,提前编写好控制机器人决策的所有规则,机器人只需遵守这些规则,“不需要改变,也不用具有灵活性”。阿西莫夫在尝试制定机器人道德体系时发现,这个体系听起来很简单,但其实不然。我们无法预测机器人可能遭遇的所有情况。自上而下变成的“严格性”会弄巧成拙,学者写道:“当出现某些事件或局势,是程序员没有预见的或设想不充分的,就会导致机器人无法工作,或犯下可怕的错误,这正是因为机器人是受规则束缚的。”
1700412317
1700412318 而自下而上的编程方法是指机器人被嵌入一些基本的规则,然后投入使用。这种方式利用机器的自学技术,培养机器人自己的道德编码,并根据遇到的新环境加以调整。“就像个孩子,机器人面临纷繁复杂的局势,通过尝试和错误(以及反馈),学习认识新事物以及行为禁忌”。机器人遇到的困境越多,道德判断就越合理。但是,自下而上的编程方法会带来更严重的问题。首先,这是无法实现的。我们还没有发明出来能够做出道德决策的精密且稳定的机器自学算法。其次,在攸关生死的情况下,也不允许尝试或犯错误。自下而上这种编程方法本身就是不道德的。再次,我们无法保证计算机衍生出来的道德可以反映人类的道德,或同人类的道德标准相适应。带着机关枪和自学算法走上战场,机器人只会失去控制。
1700412319
1700412320 伦理学家指出,人类可以将自上而下和自下而上两种方式结合起来,用于道德决策。人类社会里有法律和其他束缚,可以引导和控制人类的行为;许多人为了遵守宗教和文化训诫而规范自己的决定;无论是天生与否,个人的道德观,都会影响具体的行为规范。经验有时也会产生影响。人类在不断成长的过程中也在学习如何成为道德生物,同不同情况下的道德决策做斗争。我们远非完美,但是大多数人拥有道德判断力,可以灵活应对我们未曾遇过的困境。机器人拥有道德的唯一方式就是以我们为参照,采取综合编程方式,既遵守规则,也要通过实际经历学习。但是创造拥有这种能力的机器远远超出了我们的技术能力范畴。伦理学家总结道:“最终,我们也许能够创造出拥有道德智慧的机器人,既能保持自下而上系统动态、灵活的道德感,调节不同的输入,也能根据自上而下原则,影响选择和行为评估。”但是,在这之前,我们需要研究如何编写计算机程序来打造这种“超理性能力”——拥有情绪、社交技能、意识并且“在这个世界上拥有具身”。换句话说,我们得成为上帝。
1700412321
1700412322 军队可不会等那么久。美国陆军战争学院杂志《参变量》(Parameters)上发表了一篇文章,在文中,军事战略家、退伍陆军中校托马斯·亚当斯表示:“逻辑引导的完全自动化系统的出现是不可避免的。”得益于自动武器的速度、尺寸和灵敏性,战争“正脱离人类的感官领域”并且“在人类反应速度之外徘徊”。很快,战争会变得“过于复杂”,“人类难以理解”。亚当斯回应坚持以技术为中心的民用软件设计师,他表示,人类成了军事体系里最薄弱的一环,并且人类对战争决策“有意义的控制”将是下一个消失的对象。“当然,有一种解决办法,就是接受相对较慢的信息处理速度,这是在军事决策中保留人的参与所付出的代价。但是问题在于,反对者最终会发现,要打败以人为中心的系统就必须要设计出另一个系统,不受人类限制。”最终,亚当斯认为,我们会认为“战术战争是属于机器的,根本不适合人类”。
1700412323
1700412324 阻止LAR最困难的一点不是机器人在战术上是否能够发挥作用,而是部署了机器人以后,除了机器自身所具有的外在的道德,还会有一些其他伦理优势。人类战士具有基本的本能,在激烈、混乱的战场上,这种本能会触动人的内心,而机器人则没有这种本能。它们不会感到压力、沮丧或涌动的冲动情绪。克里斯托夫·海恩斯写道:“一般来说,机器人不会表现出复仇、慌乱、愤怒、怨恨、偏见或恐惧。除此之外,如果没有特殊编写的程序,机器人也不会故意给平民带来伤害,例如折磨拷问。机器人也不会强奸人。”
1700412325
1700412326 机器人不会撒谎,也不会掩饰自己的行为。我们可以通过编程,让它们“留下数字轨迹”,这样有助于提高军队的责任感。最重要的是,用LAR发动战争可以避免本国士兵伤亡。杀手机器人既能杀人也能救人。一旦人们清楚地认识到自动化士兵和武器可以降低子女在战争中遇害或致残的可能性,就一定会迫使政府实现战争自动化。用海恩斯的话来说,机器人缺乏“人类判断、常识、大局观、揣摩行为背后的意图的能力以及价值观理解力”,这一缺点可能最终并不重要。事实上,虽然机器人在道德方面存在欠缺,但还是具有其自身的优势。如果机器具有人类的思考和感知特性,我们就不会那么乐观地把它们送上战场,看着它们毁灭了。
1700412327
1700412328 路途越来越艰险。海恩斯指出,机器人士兵在军事和政治上的优势也给它们带来了道德困境。部署LAR不仅会改变战争和小规模冲突的方式。政客和将军最初决定是否参战的考虑也会发生变化。造成灾难性的平民伤亡一直是阻止战争、促进和谈的一大因素。因为LAR将降低“武装冲突的人类成本”,公众会“越来越远离”军事争论,“把是否派遣军队的决定作为一个经济或外交问题,交给政府去解决,这就促成了军事冲突‘标准化’。可能因此,LAR就会降低国家参战或采取致命性武器的门槛,这样一来,军事冲突就不再是解决问题的最终手段”。
1700412329
1700412330 每一种新式武器的诞生都会改变战争的本质,能够远程发射或引爆的武器,例如弹射器、地雷、迫击炮、导弹,一般都具有非常大的威力,既包括预期威力,也包括未预料到的影响。自动杀戮机器的影响可能远远超过了之前所有的武器。机器人自发开出的第一枪将震惊全世界。它将改变战争,甚至可能彻底改变这个社会。
1700412331
1700412332 玻璃笼子:自动化时代和我们的未来 [:1700411251]
1700412333 深层自动化
1700412334
1700412335 机器人杀手和无人驾驶汽车给社会和伦理带来了挑战,指向一些同自动化发展方向相关的重要信息,这让人感到不安。以前,人们错误地认为,替代性神话就是指一项工作可以分成若干个独立的任务,并且,可以在不改变整个工作本质的前提下,实现各个小任务的自动化。这个定义需要得到扩展。随着自动化范围的扩大,我们不断认识到,社会可以被分成若干个独立的活动领域——例如工作、休闲或政府范畴的活动领域,在不改变整个社会性质的前提下,可以实现每个活动领域的自动化。世间万物都是相连的——改变了武器就改变了战争,当计算机网络使联系清晰化,事物之间的联系也会变得更紧密。从某些程度来讲,自动化达到了一种临界值。自动化开始塑造社会规范、人们的假设和伦理道德。人们看待自身和看待他人关系的方式各不相同,随着技术角色的不断变化,人们会调整个人能动性和责任感。人们的行为也发生变化。人们希望计算机能起到辅助作用,但是,当人们无法获得计算机的帮助时,就会感到迷茫。软件承担了计算机科学家约瑟夫·魏泽鲍姆所说的“强迫性要务”,“人们必须依靠软件才能打造自己的世界。”
1700412336
1700412337 20世纪90年代,互联网泡沫开始膨胀,人们兴奋地讨论“普适计算”。很快,专家警告人们,微型芯片将渗入各个角落——嵌入工厂机器和仓库货架,附着在办公室、商店和家里的墙上,埋在地下,悬浮在空气中,内置到购买的商品里,编织进衣物,甚至在我们的身体里游荡。微型计算机装配了传感器和收发器以后,可以测量所有我们可以想到的变量,从金属属性到土壤温度到血糖变化,计算机通过互联网将读数传送给数据处理中心,在数据处理中心里,更大型的计算机将对数字进行处理,输出指令,保证一切都保持规范性和同步化。计算将无处不在;自动化将环绕在周围。我们生活在电脑技术狂的天堂,整个世界是一台可以编程的机器。
1700412338
1700412339 这场狂潮的一大源头就是施乐帕克研究中心,据传说,史蒂夫·乔布斯的麦金塔电脑的灵感就来自这间位于硅谷的研究实验室。施乐帕克研究中心的工程师和信息学家公布了一组报告,描述了在未来,计算机将深入“日常生活的每一个角落”,“无法同生活分离”。我们甚至对周围正在进行的计算毫无察觉。我们被数据包围,享受着软件的服务,以至于我们不再为信息过载而感到焦虑,“一切都是那么平静”。这听起来像是田园般的生活。但是,施乐帕克研究中心研究员不是盲目乐观。他们也表示,可以预见到这个世界将会令人感到担忧。他们担心无处不在的计算系统会成为专制独裁者隐秘的理想场所。该实验室首席技术专家马克·维瑟1999年在《IBM系统期刊》(IBM System Journal)上发表了一篇文章,他写道:“如果计算系统无边无形,就很难知道谁在掌控,事物之间存在怎样的联系,信息的流向,以及信息的使用情况。”我们会对运行该系统的人员和公司给予充分的信任。
1700412340
1700412341 人们对无处不在的计算感到兴奋可能过于草率,同样,焦虑也没有必要。20世纪90年代的技术还不能把世界变成机器可读的模式,在互联网泡沫破灭之后,投资者没有心情再提供资金,去到处安装昂贵的微型芯片和传感器了。但是,在随后的15年里,情况发生了很大变化。现在,经济方程式已和以往大不相同。计算设备和高速数据传送的成本大幅下降。许多公司,例如亚马逊、谷歌和微软已经设计出了数据处理的实用程序。他们建立了云计算网格,能够通过高效集中的设备收集和处理大量信息,然后传送给智能手机、平板电脑上运行的应用,或是传送给机器的控制电路。制造商投资数十亿美元为工厂配备联网的传感器,技术巨头(如通用电气、IBM和思科)希望引领创建“物联网”,他们争相制定结果数据的分享规则。计算机现在非常普及,即使是世界微微抽动一下,也会被计算机用二进制数据流记录下来。我们可能并不是“沉浸在平静之中”,但确实浸泡在数据里。现在看来,施乐帕克研究中心好像就是先知。
1700412342
1700412343 工具和基础设施之间存在很大差别。当大量系统和网络运行以后,工业革命才达到顶峰。19世纪中期的铁路建设扩大了公司所辐射的市场范围,为机械化大生产和越来越大的规模经济提供了动力。几十年后,电网的诞生开启了工厂装配线的进程,工厂可以采用并且支付得起各种形式的电器设备,这推动了消费主义,工业化走进了千家万户。新的运输网、电网、电报、电话以及随之诞生的广播系统改变了社会。它们改变了人们工作、娱乐、旅行、教育甚至构建社区和家庭的方式。它们改变了生活的步伐和本质机理,远远超出了工厂蒸汽机械的影响。
1700412344
1700412345 托马斯·休斯在《能量之网》(Networks of Power)一书中回顾了电网的诞生所带来的影响,他写道,工程文化、商业文化以及最终的大众文化会进行自我重塑,以适应新系统。他表示:“人类和各个机构体系在发展自身特性时会迎合技术的特征。人类、思想和组织体系之间的系统性互动,无论是技术层面的还是非技术的,都引发了一种超级系统——社会技术系统,它四通八达且流动性大。”从这一点看来,无论是电力行业、生产模式还是相关的人类生活,技术动量都站稳了脚跟。“通用系统是传统动量的聚合。它的发展平缓,系统变化也只是功能更加多样了。”发展进程找到了最佳方式。
[ 上一页 ]  [ :1.700412296e+09 ]  [ 下一页 ]