打字猴:1.703966706e+09
1703966706 这是一个好的开始,但我们可以做得更好。
1703966707
1703966708 科幻作家艾萨克·阿西莫夫(Isaac Asimov)几十年前就在思考这个挑战。在20世纪40年代,他提出了“机器人三定律”(Three Laws of Robotics),将其作为他的小说中机器人的伦理规范。阿西莫夫定律是有优先级的,第一条优先于第二条,第二条优先于第三条。第一,机器人不应该做出伤害人类的事情,也不应该通过不作为来伤害人类。第二,它们必须服从人类的命令。第三,它们要保护自己。对于思考人机交互来说,阿西莫夫定律是一个易用的、很有启发性的工具,而且对于构思一个这种交互陷入道德和技术困境的故事来说也是一个有效的工具。然而,它们并没有充分体现研究人员和科技公司在构建计算机、机器人或软件工具时首先应该阐明的价值观或设计原则。它们也没有讨论人类必须在下一个时代拥有怎样的能力,在那个时代,人工智能和机器学习将是一股更广泛的经济推动力。
1703966709
1703966710 对风险进行思考的并不只有阿西莫夫一个人。发明家和创业家埃隆·马斯克甚至说,如果不给人类的大脑增加一个数字智能层——你的皮质和计算机人工智能之间的高带宽,那么我们都会变得和家猫差不多。计算机先驱艾伦·凯(Alan Kay)则表示:“预测未来的最好方法就是创造未来。”从人工智能的角度来说,他的意思基本上是,不要预测未来会是什么样子了,而要以一种有原则的方式创造未来。我同意这个观点。和任何软件设计上的挑战一样,一个平台在建立之初就应该采取这种有原则的做法。从软件开发的角度来说,人工智能正在成为第三运行时——也就是下一个系统,程序员在这个系统之上构建和执行应用程序。个人计算机是微软开发应用程序的第一运行时,这些应用程序包括Office工具套件——Word、Excel和PowerPoint等。今天,Web是第二运行时。而在人工智能和机器人的世界中,生产力和沟通工具是为一个全新的平台构建的,这个平台所做的事情不仅仅是管理信息,还包括从信息中学习,与物理世界交互。
1703966711
1703966712 如今,人们正在决定第三运行时的面貌。比尔·盖茨在1995年春季发布的备忘录《互联网浪潮》(Internet TidalWave)中,预见了互联网对连接、硬件、软件开发和商业的影响。20多年后的今天,我们正在展望一波新的浪潮——人工智能浪潮。那么当我们为即将到来的海啸做准备时,应当用什么样的通用设计原则和价值观来指导我们思考、设计和开发呢?
1703966713
1703966714 有几个人牵头提出了这个问题。麻省理工学院媒体实验室的辛西娅·布雷扎尔(Cynthia Breazeal)致力于探索人工智能和机器人技术的人性化方法。她认为,技术人员经常忽略设计中的社交和行为元素。辛西娅在最近的一次访谈中说,虽然人类是所有物种中最具社交性和情感的,但我们基本上没有花费什么时间来思考技术设计中的同理心问题。她说:“毕竟,我们总是通过沟通和协作来体验这个世界。如果我们对与我们合作的机器感兴趣,那么我们就不能忽视人性化的方法。”
1703966715
1703966716 在我们推动人工智能发展的过程中,最重要的步骤就是对人工智能设计达成一个伦理和同理心的框架——这是开发那种不仅规定了技术要求,还规定了伦理和同理心的系统的一种方法。为此,我已经考虑了人工智能设计的原则和目标,我们应该作为一个行业、一个社会来对此进行讨论和辩论。
1703966717
1703966718 人工智能的设计初衷必须是为人类提供帮助。即使我们研发的是更加自主的机器,我们也需要尊重人类的自主权。协同机器人(co-bots)应该承担一些危险的工作,比如采矿,从而为人类工人提供安全网和保障。
1703966719
1703966720 人工智能必须是透明的。不仅仅是技术专家,我们所有人都应该明白技术是如何运作的,其规则是怎样的。我们想要的机器不仅是智能的,而且是可以让人理解的;不仅仅是人工智能,而是共生智能。这种技术对人类很了解,但人类也必须了解技术是如何看待和分析世界的。如果你的信用评分出了错,你却无法纠正它怎么办?当社交媒体收集有关你的信息,却得出了错误的结论,这时就会需要透明度。伦理和设计是息息相关的。
1703966721
1703966722 人工智能必须最大限度地提高效率,同时又不会损害人的尊严。它应该保护文化,赋能于多样性。为了确保达成这样的结果,这些系统在设计时需要人们进行更广泛、更深入和更加多样化的参与。未来的价值观和美德不应该由技术行业来决定,也不应该仅仅由北美、西欧和东亚这些富强之地的居住者来控制。每个文化背景的人都应该有机会参与塑造人工智能设计中固有的价值观和宗旨。人工智能必须警惕社会和文化偏见,确保研究具有适用性和代表性,让那些有缺陷的思维方法不会在故意或无意中导致歧视长存。
1703966723
1703966724 人工智能在设计上必须注重智能隐私,能够为个人和群体信息提供精密的保护,程度要足以赢得人们的信任。
1703966725
1703966726 人工智能必须具备算法问责制,这样人类就可以撤销那些引发意外伤害的做法。我们必须为预料之中的和预料之外的情况设计这些技术。
1703966727
1703966728 这些伦理方面的考虑有很多都是结合在一起的,比如在我们的数字体验中就是如此。越来越多的算法会根据你以前的行为和偏好来影响你的体验——我们阅读什么内容,我们遇到什么人,我们可能会“点赞”什么东西。我们每天都会收到数百次这样的建议。我觉得这就提出了一个问题:在这样一个世界里,自由意志意味着什么,它又是如何影响到在观念上差异悬殊的用户和社区的?在设计内容和信息平台时,社会的多样性和包容性有什么作用?在理想情况下,我们很清楚自己的数据是如何运用于个性化内容和服务的,我们应该可以控制这些数据。但随着我们越来越多地进入一个复杂的人工智能世界,事情就并不总是那么容易了。我们如何保护自己和社会免受信息平台的不利影响——这些平台越来越多地建立在人工智能之上——是优先考虑互动度和广告收入,还是优先考虑事实、意见和情境的社会多样性可以带给我们的宝贵教益?这是一个重大问题,需要进行更多的思考。
1703966729
1703966730 但对人类来说,也有一些“务必”做到的事情,特别是需要清楚地考虑到未来世代必须优先考虑和培养的技能。为了不和时代脱节,我们的后代将需要:
1703966731
1703966732 •同理心——同理心在机器中难以复制,在人类与人工智能的世界中,它将是无价的。对合作和建立关系来说,感知别人的想法和感受是一种至关重要的能力。如果我们希望利用技术来满足人类的需要,我们人类就必须培养更深入地理解和尊重彼此的价值观、文化、情感和驱动力的能力,来发挥引导作用。
1703966733
1703966734 •教育——有些人认为,由于人类寿命的延长,出生率下降,在教育上的支出也会减少。但我认为,创造和管理我们今天还不能理解的创新,需要我们增加对教育的投入,以获得更高层次的思维方式和更公平的教育成果。大规模实施新技术需要知识和技能,而培养这些知识和技能是一个艰难的社会问题,需要很长时间才能解决。动力织布机是在1810年发明的,但由于缺乏训练有素的技术人员,这个发明花了35年的时间才转变了服装行业的面貌。
1703966735
1703966736 •创造力——人类最出类拔萃的技能之一就是创造力,这一点不会改变。机器将丰富和增强我们的创造力,但人类创造事物的动力将一直处于中心位置。小说家裘帕·拉希里(Jhumpa Lahiri)在一次采访中被问及,为什么她拥有如此特别的英语文采,新作品却要使用她的第三语言意大利语来写,她回答说:“继续寻找,这不就是创造力的要义吗?”
1703966737
1703966738 •判断和问责——我们可能愿意接受计算机生成的诊断或法律决定,但我们仍然希望对结果负责的是人类。
1703966739
1703966740 在接下来的一章中,我们将更加详细地讨论这一点,但是世界各地很多人正在关注的经济不平等问题怎么办呢?自动化会或多或少地带来平等吗?一些经济思想家建议我们不要担心,因为在整个历史上,技术进步一直在让大多数工人变得更富有,而不是更贫穷。另一些人则警告说,经济冲击将会变得非常严重,所以创业者、工程师和经济学家应该采取这样一种做法:承诺只设计为人力工作提供方便的技术,而不是取代人力的技术。他们建议,我们的商业领袖必须用一种负责任和创造性的思维,来代替节约人力和自动化的心态,我同意这个看法。
1703966741
1703966742 人工智能发展的轨迹及其对社会的影响才刚刚开始。要真正把握这个即将到来的时代的意义,我们还需要从多个部分进行深入分析。人工智能领域的先驱埃里克·霍维茨是我的同事,在微软研究部门工作,多年来他一直在探究这些问题。埃里克和他的家人帮助斯坦福大学的“人工智能百年研究”项目筹集了资金,在未来的一个世纪里,该项目将定期报告随着智能计算能力提升而引发的近期和长期社会经济、法律和伦理问题,社会对机器智能的感知如何变化,以及人类和计算机的关系可能会有怎样的变化。
1703966743
1703966744 该项目的专家小组在第一份报告《2030年的人工智能与生活报告》(Artificial Intelligence and Life in 2030)中指出,到2030年,人工智能和机器人技术将应用在“世界各地那些难以吸引年轻人的行业中,比如农业、食品加工业、订单履行中心和工厂”。该报告没有发现有任何理由担心人工智能是对人类的一种迫在眉睫的威胁,“目前,没有任何具有自我维持长远目标和意图的机器被开发出来,也不可能在不远的将来被开发出来”。
1703966745
1703966746 虽然目前还没有明确的路线图,但在以前的工业革命中,我们已经看到社会转型并不总是能顺利度过每个阶段。第一,我们发明和设计了转型的技术,我们今天就处在这个阶段。第二,我们为未来进行改造。我们很快就会进入这个阶段。比如,无人驾驶飞行员将需要进行培训;将传统汽车转化为自动驾驶车辆需要进行重新设计和重建。第三,我们在各种失真、不和谐和错位中找出道路。这个阶段将提出新的挑战。当机器可以更好地阅读X光片时,放射科医生的工作要怎么做?当计算机可以从数以百万计的文件中识别出人类无法识别的法律模式,律师的工作又会是什么?
1703966747
1703966748 每一个转型阶段都提出了艰难的挑战。但是,如果我们拥有正确的价值观和设计原则,如果我们为人类所需的技能做好了准备,那么在我们改变世界的同时,人类和社会也会蓬勃发展。
1703966749
1703966750 《纽约时报》撰稿人、认知科学家、哲学家科林·艾伦(Colin Allen)总结说:“我们可以设想出自主程度越来越高的机器,它们需要的人类照管越来越少,同样我们也可以设想出一些机器,对于涉及伦理的事情,它们的控制装置的敏感程度也越来越高。肯定没有完美的机器,但是一定会有更好的机器。”
1703966751
1703966752 人工智能、机器人,甚至量子计算,它们都是可以与人类协同工作以获得更大成果的机器的最新例子。历史学家戴维·麦卡洛(David McCullough)曾讲过19世纪末20世纪初自行车技工、“重于空气飞行器”的创新者威尔伯·莱特(Wilbur Wright)的故事。麦卡洛描述了威尔伯如何使用人的能力——他的头脑、身体和灵魂——来让滑翔机飞行。从远处拍摄的粗颗粒老胶片未能捕捉到他的坚持和决心。但是,如果我们放大胶片,就会看到他肌肉紧绷、聚精会神,看到当人与机器一起飞行时充盈在空中的创新精神。当他在基蒂霍克创造新的历史时,人是在和机器合作,而不是在和机器对抗。
1703966753
1703966754 今天,我们并没有把航空技术看成是“人工飞行”——它就是飞行。同样,我们也不应将技术智能视为“人工的”东西,而应把它看成是用来增强人类能力的智能。
1703966755
[ 上一页 ]  [ :1.703966706e+09 ]  [ 下一页 ]