打字猴:1.701071323e+09
1701071323
1701071324 我们先从让这个命题流行起来的奇点理论说起,奇点在硅谷都快成一种新的信仰了。埃隆·马斯克(Elon Musk)、比尔·盖茨,甚至斯蒂芬·霍金(Stephen Hawking)都公开表示了对人工智能的担忧。雷·库兹韦尔预测,机器智能会在不久的将来超越人类,创造出一种人类根本无法理解的超级智能。他预计,2027年,计算机将可以模拟人类大脑;2029年,计算机将能拥有和人类一样的智能;2045年,当机器人的智能超越人脑智能并可以自己繁衍时,奇点就会出现。
1701071325
1701071326 很多人相信奇点很快就会到来,也相信如果人类与他们生产的机器完全融合,如果人的智能能够完全转移到计算机上,奇点就能够让我们实现永生。这种“信仰”是建立在五个“信条”上的。第一,人工智能正在并已经产生卓越成果;第二,技术进步在不断加速;第三,技术正在创造超越人类的智能;第四,人类可以从比我们更聪明的机器中获益;第五,通过图灵测试的机器至少像人类一样聪明。《智能的本质》一书中解释了为什么我不同意这五点。
1701071327
1701071328 第一,对“人工智能正在并已经产生卓越成果”这一事实的验证。人们对人工智能总是过于乐观。1965年,伟大的数学家赫伯特·西蒙(Herbert Simon)曾写下:“20年内,机器将可以胜任人类可以做的任何事情。”这一天迄今为止还没有到来。
1701071329
1701071330 人工智能始于1955年[1950年,阿兰·图灵(Alan Turing)提出了机器能否思考这个命题,编程语言LISP的发明者约翰·麦卡锡(John McCarthy)在1955年提出用“人工智能”定义该领域]。最初,神经网络是最受青睐的技术,但是,我们的大脑有成千上万的神经元,要建造和模拟那样巨大的神经网络几乎是不可能的任务。
1701071331
1701071332 因此,神经网络很快被另一种被称为“基于知识”的技术所取代了。理解这种“基于知识”的人工智能最简单的方法就是弄明白信息和知识的区别。在一个基于信息的系统里,一定有一个包含问题答案的数据库。比如,当有人问:“谁是美国的总统?”或“罗马在哪里?”这个系统会从数据里查找出“奥巴马”和“意大利”。但是,如果有人问:“你认为下一任总统会是谁?”或者“亚特兰蒂斯(传说沉没于大西洋的岛屿)在哪里?”基于信息的系统就无法运转了。此时,就需要基于知识的系统来“思考”,这个系统需要利用所有已有的知识来“猜”出问题的可能答案,就好像我们人类那样。
1701071333
1701071334 这种基于知识的人工智能一直流行到20世纪90年代。实际结果却一直不尽如人意,因为给人类的庞大知识体系编码是一件无比困难的事。因此,人工智能在那段时间备受冷落,被认为只不过是不切实际的理论研究而已,人工智能进入了“冬天”。
1701071335
1701071336 我认为人们重新开始相信“人工智能”是从2011年开始的,这一年,IBM的超级计算机“沃森”(Watson)击败了哥伦比亚广播公司著名智力竞赛节目《危险边缘》(Jeopardy)的人类冠军,人工智能一时名声大噪。
1701071337
1701071338 2012年,吴恩达(Andrew Ng,现为百度首席科学家)领导的“谷歌大脑”项目,让机器系统能够以非常低的错误率在海量图像中识别猫,2012年也因此被我们看成人工智能领域真正的里程碑。
1701071339
1701071340 这是如何实现的呢?图片网站ImageNet(http://www.image-net.org/)是一个被人们贴好标签的海量图片数据库,每年,来自全世界的人工智能团队都会进行图像识别竞赛,并根据错误率打分。2012年,一种新的技术“深度学习” [通常来说,大家认为深度学习的观点是杰夫·辛顿(Geoffrey Hinton)在2006年提出的,他在神经网络领域进行了长达30年的研究]使得图像识别的错误率迅速下降到一个很低的数值,并在之后不断下降,甚至接近人类的水平。
1701071341
1701071342 2014年,斯坦福大学以人工智能实验室主任李飞飞(Feifei Li)为主导的科学家团队开发了一个机器视觉算法,该算法能够通过对图像进行分析,然后用语言对图像中的信息进行描述。在此之前,其实已经有可以识别人脸的软件算法,但是斯坦福大学的系统(同时期的项目还有雅虎的Flickr)可以识别出图像中的场景,比如两个人在公园里玩飞盘等。
1701071343
1701071344 可以说,杰夫·辛顿等人在基于神经网络的基础上提出深度学习后,人工智能才再次流行,因为它确实能够识别人脸、声音乃至场景了!
1701071345
1701071346 人工智能近年来引人关注的还有“图灵测试”的突破。1950年,阿兰·图灵在一篇论文中提出了机器能够骗过人类,让人类误以为机器是人类的想法,这是“图灵测试”的本体。图灵认为,如果30%的被测试人都不能区分放在黑箱子里的机器到底是人还是机器时,这台机器就通过了图灵测试。
1701071347
1701071348 2014年6月7日,聊天程序“尤金·古斯特曼”(Eugene Goostman)在英国皇家学会举行的“2014图灵测试大会”上冒充一个13岁乌克兰男孩骗过了33%的评委,通过了图灵测试。这并不是计算机软件第一次成功骗过了很多人,但这是人类第一次可以在测试中随意提问任何问题。
1701071349
1701071350 2016年,谷歌的AlphaGo(阿尔法围棋)战胜人类围棋冠军带给世人一阵惊呼。
1701071351
1701071352 人工智能目前的局限
1701071353
1701071354 这些“成就”真的非常了不起吗
1701071355
1701071356 和早期电脑能够做的事情相比,机器今天确实可以识别语音、人脸、图像乃至场景,识别一只猫确实让人印象深刻。但总的来说,我对人工智能这些年取得的成就的看法与那些新闻头条正相反。
1701071357
1701071358 在说AlphaGo之前,先从人工智能可以识别图片上的猫这个“大新闻”说起,谷歌的团队需要将16 000个计算机处理器连接起来,构建一个超大规模的神经网络,还需要让它事先看过海量的猫的图片,结果是,它对猫的判断准确率实际上比小孩还低。再对比一下,一只老鼠要花多长时间去识别一只猫呢?
1701071359
1701071360 美国国家航空航天局的火星探测器“好奇号”(Curiosity Rover)是目前最高端、最昂贵的机器人之一,自2012年8月降落火星开始探测任务以来引来大量媒体关注。但是,2013年,美国国家航空航天局的一个行星科学家克里斯·麦凯私下里跟我感慨,“‘好奇号’要花200天做的事情,人类研究者一个下午就能轻松搞定”。
1701071361
1701071362 再比如,2014年,日本研发出一个骑自行车的机器人primer V2,很快就在媒体上火了起来。各大媒体纷纷对这个机器人能够像人一样灵活地拐弯、双脚着地刹车、举手与人说“嗨”等惊呼不已。其实,这有什么稀奇呢?看起来像人的机器模仿人做的事情,古时候就有这种发明了,尤其是中国的古时候!
1701071363
1701071364 大部分这些进步其实都是围绕“识别”做文章,也大都发生在神经网络领域。神经网络的局限性是,它背后是“模式匹配”的运作原理,真正的含义还是“识别”,这意味着要很好地利用基于神经网络的深度学习技术,你需要把你所有的问题转换成一个“识别”问题,这不是不可能,只是让人感觉有些怪,比如,你需要把谁将是下一任美国总统的问题转换成一个模式识别问题。
1701071365
1701071366 神经网络用的是数据统计方法,只有已经具备了很多案例,然后再“猜”下一个案例时才能良好运行。翻译软件就是个很好的例子,它会自动翻译不是因为它真的掌握了这门语言,而是每当有人给出新的句子,它就从成千上万已经被别人翻译好的数据库里“学习”,根据已有的翻译来“猜”这一句的意思,意思就是“识别”出最有可能的已有翻译。
1701071367
1701071368 统计的方法能产生一个合理的结果,但它永远不知道为什么。这也是为什么机器由此学习到的技巧不能应用到其他领域。当今世界最著名、最具影响力的哲学家之一约翰·塞尔(J.R.Searle)一直坚持认为,不管机器看起来能做什么,那都不是它做的,即机器根本意识不到自己做了某事。塞尔在1980年用“中文书”的例子来说明,如果你给我一本包含几乎所有关于中国问题的答案的书,然后你用中文问我一个问题,我可以从书中找到正确的答案。但是,我仍然不懂中文。也就是说,当我用中文回答你时,我实际并不是用中文回答你。
1701071369
1701071370 人工神经网络的应用也是如此:计算机可能会找到正确的答案,但它不知道为什么。翻译软件可能会正确地将英文翻译成中文,但它仍然不懂英文,也不懂中文。
1701071371
1701071372 也就是说,我们可以教会神经网络识别很多东西,却无法教会它们理解这些东西的含义,更谈不上让机器具有人类敏锐的洞察力。比如,机器可以识别出“有人在商店里拿了一件东西”,但他们什么时候可以识别出“有人从商店里偷了一件东西”?但人类可以通过看同样的照片分辨出小偷在商店拿东西和顾客正常购物的区别,这种能力我们根本无法训练人工神经网络来实现。
[ 上一页 ]  [ :1.701071323e+09 ]  [ 下一页 ]