1704611440
对于布林斯乔德而言,之所以需要回归从头到尾有逻辑的人工智能,是因为依靠“数学上令人费解”的统计工具本质上是愚蠢的行为。“你希望系统能够阐述其行为的依据和正确性吗?”他说:“我们应该希望更加复杂的人工智能系统能够证明,它们根据获得的输入,其所作所为是正确的决定。”
1704611441
1704611442
有逻辑的人工智能可能意味着《连线》和《快公司》的篇章中那种引人注意的技术推出过程应该放慢,但布林斯乔德认为,创造具有清晰推理过程的人工智能是最重要的,因为这个过程事后可以分析。近斯关于有逻辑的人工智能的一个例子出现在位于纽约哈德逊河东岸的布林斯乔德实验室中。这个展示中,一台计算机尽力破解“三个智者”出的难题,实验由三个小型类人机器人辅助进行:这一实验可能意味着人工智能自我意识的萌芽。在这个难题中,三个机器人被告知,两个机器人服用了停止说话的“哑药”。它们的任务是找出其中仍然可以说话的那个机器人。三个机器人都试图说“我不知道”,但只有一个实际发出声音。当它听到自己的机器声音时,这个机器人明白它就是那个没有被禁止发声的机器人。“对不起,我现在知道了。”它说,“我能证明我没有吃哑药。”随后它写下了关于这个难题的有条理的数学证明,并把它保存起来。布林斯乔德进行了相同测试的不同版本,或者任何旨在解决其他哲学难题的测试,他认为这些测试将形成一个人工智能可以利用的日益完善的技巧或功能指令系统。
1704611443
1704611444
由于围绕用于战争的自动人工智能武器进行的工作越来越多,人们迫切需要像布林斯乔德这样的工作项目。2014年,在塔夫茨大学和布朗大学成立了一个多学科综合小组,小组和布林斯乔德合作,获得了海军研究办公室的资助,去探索能否为可能用于战争的自主机器人赋予是非感。尽管这种探索得到的不是一个“友好的人工智能”,但它可能会使机器人在战场上做出符合伦理的决定。设想一下,比如,一个正将伤兵运往战地医院的机器人军医遇到另一个腿上受伤的士兵。权衡停止执行救助任务的利弊,能否在战场采用牵引疗法止疼以及其他难题,对于人类来说已然是个难以驾驭的复杂问题了,更不用说对于机器了。
1704611445
1704611446
这样的问题可能越来越成为常态。设想一下,如果一个生产自动驾驶汽车的公司决定,当其生产的车辆检测到前方即将发生碰撞时,它的车辆可以猛地驶出道路,从而保护驾驶员,这将会发生什么情况呢?这一操作非常合理,如果是人类在驾驶车辆,多数人也会做出这样的决定。然而,如果你的车正停在红灯前,但这时它发现后面的一辆车快速驶来,这时将会怎样?你的车知道可能要发生追尾事故,随后它就驶出了马路……并正好冲进了一群放学回家的学生当中。司机避开了一个小追尾和潜在的会扭伤脖子的事故,但结果却是三个学生死于非命、两人受伤。即使最忠诚的车迷也难以为这种成本和收益的互换进行辩护。而这些正是人工智能研究人员开始认真对待的问题。
1704611447
1704611448
1704611449
1704611450
1704611452
人工智能:改变世界,重建未来 人工智能的权利
1704611453
1704611454
随着我们将越来越多的工作交给人工智能,我们可能最后需要面对人工智能的权利问题。许多作家已经提出了这个问题,但是在主流目光集中到这一点之前,它依然远落后于人工智能是否会为人类带来危险这个问题。举例来说,英国技术作家比尔·汤普森(Bill Thompson)因其每周的BBC新闻专栏而闻名,他认为将艾萨克·阿西莫夫的第一法则(机器人不得伤害人,也不得见人受到伤害而袖手旁观)写进超级人工智能的代码中有些类似于“为奴隶戴上枷锁或把大猩猩装进笼子,它也折射出我们的信念,即人工智能应该且必须永远服务于人类,而不能成为一种自主的心灵”。如果有人提议将这一条法则作为控制未来人工智能的政策,他认为:“我们在道义上有责任反对它。”
1704611455
1704611456
就像人类有与其人工智能助手结婚的权利,我不认为人工智能的公民权利在未来10年内会成为一个大众讨论的话题,但它是个值得考虑的话题。就像如果我们建立一个具有基本意识的生物仿真神经网络,那么强迫它为我们开车或优化搜索排名是对的吗?这使人联想起道格拉斯·亚当斯著名小说《宇宙尽头的餐馆》(The Restaurant at the End of the Universe)中的场景,在书中他描述了一个未来主义的电梯:天狼星控制系统公司的快乐人体垂直传送器。读者获悉,将今天的电动卷扬机驱动电梯与这种人工智能控制的电梯相比,就像“将一包混合坚果与天狼星国立精神病医院的整个西翼大楼相提并论”。天狼星控制系统公司快乐人体垂直传送器有点像第三章说的智能物联网设备,通过预测未来而工作。它甚至在你意识到自己要进入电梯之前,就会出现在正确的楼层去接你,“这样一来,也就免去了等电梯时人们被迫要进行的所有那些单调乏味的交谈、放松以及相互结识”。
1704611457
1704611458
但是,种智能电梯很快就厌倦了这种上上下下,产生了斜向运行的念头并付诸试验。道格拉斯·亚当斯将之称为“存在主义式的抗议”。讨论囚禁人工智能是否符合伦理这可能看起来有些可笑,但如果科学家成功开发出了一种人工智能,其行为与我们主张的以符合伦理的方式对待的真正生命体更为类似,那么这种讨论就不会那么可笑了。多年来,许多人工智能标准都已经发生了改变,我们对于“什么可以称之为意识”的看法也发生了变化。举一个著名的例子,法国哲学家、数学家勒内·笛卡儿曾经描写了他认为在建造一种机器时会遇到的挑战,而这种机器就是我们今天称为人工智能的机器。在1637年发表的《谈谈方法》(Discourse on the Method)中,笛卡儿写道:
1704611459
1704611460
如果有一些机器跟我们的身体一模一样,并且尽可能不走样地模仿着我们的动作,我们还是有两条非常可靠的标准来判明它们并不因此就是真正的人。第一条是:……它决不能把这些字排成不同的组合以恰当地和人对答,而这是最愚蠢的人都能办到的。第二条是:那些机器虽然可以做许多事情,做得跟我们每个人做的一样好,甚至更好,却决不能做别的事情。从这一点可以看出,它们的活动所依靠的并不是认识。
1704611461
1704611462
笛卡儿认为在有灵魂的思想者与一个没有灵魂却栩栩如生的非思想机器之间存在重大区别。“我思故我在。”是笛卡儿著名的人类自我辩解。对于笛卡儿来说,在灵魂尺度上,动物多少表现得有些糟糕。因此,一些笛卡儿的追随者决定四处踢狗。他们的论据是,由于无法达到“最驽钝的人”的思考水平,狗没有灵魂,因此它们的吠叫只是简单的机械反应。
1704611463
1704611464
这个标准即使用于人类自身,也存在诸多问题。你只需要看看理论上关于子宫里的胎儿或靠生命维持技术而生存的脑死亡患者是否有生命的辩论有多激烈,你就会明白这个主题有多大的不确定性。人工智能是否有权追求生活、自由和幸福的问题并不是一个需要我们现在就回答的问题,但如同向计算机植入道德,或考虑如何解决潜在的危险软件一样,总有一天我们要面对这个问题。
1704611465
1704611466
就像奇点一样,预测即将来临的事物并不像我们想象的那么简单。
1704611467
1704611468
1704611469
1704611470
1704611472
人工智能:改变世界,重建未来 结论 当机器变得更加智能
1704611473
1704611474
2016年1月24日,星期天,人工智能先驱马文·明斯基因脑溢血辞世,享年88岁。他是当年达特茅斯人工智能大会组织者中最后一位离世者,约翰·麦卡锡2011年去世,纳森内尔·罗彻斯特(Nathaniel Rochester)和克劳德·香农于2001年去世。报纸随后发表对明斯基所做工作的赞颂——“他证明了向计算机传授常识推理的可能性,为人工智能领域打下了基础”。《连线》杂志一改传统风格,决定发表由人工智能创业公司Automated Insights开发的人工智能编辑编写的讣告,效果非常好。
1704611475
1704611476
明斯基的去世具有象征意义,它宣告了第一代欣然认为自己从事的是人工智能工作的研究人员的终结。但是,当他的死讯传到博客和技术论坛后,人们认为他远不是过去年代一个落满灰尘的遗迹。自明斯基和他挑选的一群雄心勃勃的年轻计算机科学家聚集在新英格兰大学校园,整整一个夏季致力于解决机器智能问题的那一年到2016年,已经整整60年。今天,这种乐观主义在我们看来也许是非常天真的行为,但我们不能否认他付诸行动的动力。
1704611477
1704611478
我们可能还没有达到人工智能中产生强人工智能的临界点,但是我们不能忽视人工智能取得的成就。一些成就就是明证,不管是人工智能打败象棋世界冠军还是在《危险边缘》节目中打败人类大脑。然而,人工智能在很多其他方面也发挥了重要作用,比如发现新药、传播全球人类可获取的有用信息,使机器翻译越来越快和越来越容易,等等。明斯基可能在人们真正利用神经网络之前过早地摒弃了它,但他的其他想法仍然广为流传。20世纪80年代中期,他出版了《思维的社会》(The Society of Mind)一书,认为“智能不是任何单一机制的产品,而是源自各种资源丰富的实体的互动”。如我们在第三章所看到的内容,这种想法正推动着Jawbone和Nest Labs等智能设备制造者的工作:不仅专注于创造独立的智能小器械,还要使整个物联网能够共同工作从而实现目标。
1704611479
1704611480
技术公司如今成为人工智能研究的主要投资者,它们之间的竞争比以往更加激烈。马文·明斯基去世的那一周,Facebook的马克·扎克伯格在其拥有15.5亿用户的社交网站上发了一条新闻链接,该新闻称人工智能试图破解围棋(围棋是一种中国棋盘游戏,目的是比对手占据更多的地盘)。围棋的规则容易学习,但是棋盘上可落子的位置数目却非常惊人,比宇宙中原子的总数量还多。“20年来,科学家一直努力教计算机在围棋中获胜,”扎克伯格写道,“我们已经接近目标,过去6个月,我们已经制造了一个人工智能,它仅用0.1秒就可以落子,而且其性能和之前花费多年建立的系统一样好。”对于Facebook来说,这是值得炫耀的事,尽管这个纪录并没保持太久。仅10小时后,谷歌宣布DeepMind制造了一个人工智能,它不仅可以打败所有既有的围棋程序,还首次打败了人类职业级棋手。从那时起,一切都突飞猛进。直至2016年3月,世界一流围棋棋手李世石(Lee Sedol)在韩国一家酒店的房间迎战谷歌的阿尔法围棋(AlphaGo),全球6 000万人观看了这场比赛。在比赛的最后,阿尔法围棋以四比一击败李世石。
1704611481
1704611482
当然,并不是所有人工智能引起的变化都是美好的。未来几年,人工智能也将成为取代许多职业和摧毁人类谋生之道的“罪魁祸首”,尽管人工智能也将创造新的、以前人类劳动者不曾想到的工作机会。许多人也会对在战争中使用机器智能大加批评,不管是航空无人机还是陆地机器人战士。后者的典型代表是谷歌的“大狗”(Big Dog),“大狗”是四条腿的机器狗,能够运载约400磅的装备,但是因为它的汽油动力引擎噪声太大,美国海军陆战队当前推迟了“大狗”在战争中的使用。除了一些灾难性的风险,对于大多数人而言,最迫切的人工智能问题是其对隐私的攻击,这种攻击伴随着谷歌这样的实体公司的崛起而产生。由神经网络驱动的会思考的机器需要进行数据训练,每当我们使用如谷歌搜索、Siri或其他人工智能工具的服务时,我们都使这些机器变得更加智能。
1704611483
1704611484
1956年,人工智能以一门学科的形式出现,而今天的人工智能不再像当年那样轮廓清晰。即使是当年,研究人员也在竭尽全力控制人工智能的应用范围,努力基于诸多不同研究兴趣,创造出一个有机的整体。但是,在2016年这仍是完全不可能的。像谷歌这样的搜索巨头,其主要收入来源是以人工智能系统换取广告收益,而研究人员的目的是通过人工智能去理解人类的大脑,对这二者要如何进行协调?除了相关的技术外,什么能够将无人驾驶汽车与像搜索引擎巨头一样把我们进行分门别类的人脸识别安全系统结合在一起?
1704611485
1704611486
我在撰写本书结论部分时网上还流传着两个故事,它们证明了人工智能今天所呈现的分化。(我对谷歌快讯进行了设定,让其不断扫描互联网,从而获得人工智能的相关信息。就这样,我自然而然地发现了这两个故事。)第一个故事讲的是近期的一场辩论。在这个故事里,一群直言不讳、心怀忧虑的科学家和武器专家对机器人的风险提出了警告,这些机器人配备了人工智能,正在设法走向战场屠杀人类。
1704611487
1704611488
第二个故事从表面来看相对轻松些,讲述了居住在敦提的苏格兰计算机程序员安迪·赫德(Andy Herd)的工作,他进行了一个创新的人工智能实验,为20世纪90年代情景喜剧《老友记》(Friends)创作脚本。“我把《老友记》的每一集脚本都输入了一个循环神经网络,然后让计算机学习创作新的剧本。”赫德在推特中写道。这与我讲述的谷歌Deep Dream工程的创造性工作有些类似,结果有些奇怪。就像《野兽日报》(Daily Beast)一篇文章中指出的那样,赫德承认他的软件仍旧需要完善,从而使他的计算机不再创作出奇怪的剧本,比如计算机创作的一集剧本中,所有的演员都兴奋地挤在一张床上,而莫尼卡(Monica)不知道向谁大喊:“胆小鬼,鲍勃(Bob)!”
1704611489
[
上一页 ]
[ :1.70461144e+09 ]
[
下一页 ]