打字猴:1.701071337e+09
1701071337
1701071338 2012年,吴恩达(Andrew Ng,现为百度首席科学家)领导的“谷歌大脑”项目,让机器系统能够以非常低的错误率在海量图像中识别猫,2012年也因此被我们看成人工智能领域真正的里程碑。
1701071339
1701071340 这是如何实现的呢?图片网站ImageNet(http://www.image-net.org/)是一个被人们贴好标签的海量图片数据库,每年,来自全世界的人工智能团队都会进行图像识别竞赛,并根据错误率打分。2012年,一种新的技术“深度学习” [通常来说,大家认为深度学习的观点是杰夫·辛顿(Geoffrey Hinton)在2006年提出的,他在神经网络领域进行了长达30年的研究]使得图像识别的错误率迅速下降到一个很低的数值,并在之后不断下降,甚至接近人类的水平。
1701071341
1701071342 2014年,斯坦福大学以人工智能实验室主任李飞飞(Feifei Li)为主导的科学家团队开发了一个机器视觉算法,该算法能够通过对图像进行分析,然后用语言对图像中的信息进行描述。在此之前,其实已经有可以识别人脸的软件算法,但是斯坦福大学的系统(同时期的项目还有雅虎的Flickr)可以识别出图像中的场景,比如两个人在公园里玩飞盘等。
1701071343
1701071344 可以说,杰夫·辛顿等人在基于神经网络的基础上提出深度学习后,人工智能才再次流行,因为它确实能够识别人脸、声音乃至场景了!
1701071345
1701071346 人工智能近年来引人关注的还有“图灵测试”的突破。1950年,阿兰·图灵在一篇论文中提出了机器能够骗过人类,让人类误以为机器是人类的想法,这是“图灵测试”的本体。图灵认为,如果30%的被测试人都不能区分放在黑箱子里的机器到底是人还是机器时,这台机器就通过了图灵测试。
1701071347
1701071348 2014年6月7日,聊天程序“尤金·古斯特曼”(Eugene Goostman)在英国皇家学会举行的“2014图灵测试大会”上冒充一个13岁乌克兰男孩骗过了33%的评委,通过了图灵测试。这并不是计算机软件第一次成功骗过了很多人,但这是人类第一次可以在测试中随意提问任何问题。
1701071349
1701071350 2016年,谷歌的AlphaGo(阿尔法围棋)战胜人类围棋冠军带给世人一阵惊呼。
1701071351
1701071352 人工智能目前的局限
1701071353
1701071354 这些“成就”真的非常了不起吗
1701071355
1701071356 和早期电脑能够做的事情相比,机器今天确实可以识别语音、人脸、图像乃至场景,识别一只猫确实让人印象深刻。但总的来说,我对人工智能这些年取得的成就的看法与那些新闻头条正相反。
1701071357
1701071358 在说AlphaGo之前,先从人工智能可以识别图片上的猫这个“大新闻”说起,谷歌的团队需要将16 000个计算机处理器连接起来,构建一个超大规模的神经网络,还需要让它事先看过海量的猫的图片,结果是,它对猫的判断准确率实际上比小孩还低。再对比一下,一只老鼠要花多长时间去识别一只猫呢?
1701071359
1701071360 美国国家航空航天局的火星探测器“好奇号”(Curiosity Rover)是目前最高端、最昂贵的机器人之一,自2012年8月降落火星开始探测任务以来引来大量媒体关注。但是,2013年,美国国家航空航天局的一个行星科学家克里斯·麦凯私下里跟我感慨,“‘好奇号’要花200天做的事情,人类研究者一个下午就能轻松搞定”。
1701071361
1701071362 再比如,2014年,日本研发出一个骑自行车的机器人primer V2,很快就在媒体上火了起来。各大媒体纷纷对这个机器人能够像人一样灵活地拐弯、双脚着地刹车、举手与人说“嗨”等惊呼不已。其实,这有什么稀奇呢?看起来像人的机器模仿人做的事情,古时候就有这种发明了,尤其是中国的古时候!
1701071363
1701071364 大部分这些进步其实都是围绕“识别”做文章,也大都发生在神经网络领域。神经网络的局限性是,它背后是“模式匹配”的运作原理,真正的含义还是“识别”,这意味着要很好地利用基于神经网络的深度学习技术,你需要把你所有的问题转换成一个“识别”问题,这不是不可能,只是让人感觉有些怪,比如,你需要把谁将是下一任美国总统的问题转换成一个模式识别问题。
1701071365
1701071366 神经网络用的是数据统计方法,只有已经具备了很多案例,然后再“猜”下一个案例时才能良好运行。翻译软件就是个很好的例子,它会自动翻译不是因为它真的掌握了这门语言,而是每当有人给出新的句子,它就从成千上万已经被别人翻译好的数据库里“学习”,根据已有的翻译来“猜”这一句的意思,意思就是“识别”出最有可能的已有翻译。
1701071367
1701071368 统计的方法能产生一个合理的结果,但它永远不知道为什么。这也是为什么机器由此学习到的技巧不能应用到其他领域。当今世界最著名、最具影响力的哲学家之一约翰·塞尔(J.R.Searle)一直坚持认为,不管机器看起来能做什么,那都不是它做的,即机器根本意识不到自己做了某事。塞尔在1980年用“中文书”的例子来说明,如果你给我一本包含几乎所有关于中国问题的答案的书,然后你用中文问我一个问题,我可以从书中找到正确的答案。但是,我仍然不懂中文。也就是说,当我用中文回答你时,我实际并不是用中文回答你。
1701071369
1701071370 人工神经网络的应用也是如此:计算机可能会找到正确的答案,但它不知道为什么。翻译软件可能会正确地将英文翻译成中文,但它仍然不懂英文,也不懂中文。
1701071371
1701071372 也就是说,我们可以教会神经网络识别很多东西,却无法教会它们理解这些东西的含义,更谈不上让机器具有人类敏锐的洞察力。比如,机器可以识别出“有人在商店里拿了一件东西”,但他们什么时候可以识别出“有人从商店里偷了一件东西”?但人类可以通过看同样的照片分辨出小偷在商店拿东西和顾客正常购物的区别,这种能力我们根本无法训练人工神经网络来实现。
1701071373
1701071374 再比如,自动翻译软件可以语调不改地翻译出“这里有炸弹”,而懂外语的翻译者只要看一眼这个句子,就会脸色大变,马上大喊“所有人快出去!”
1701071375
1701071376 神经网络之所以在20世纪60年代被遗弃是因为当时没有足够快的电脑,随着电脑的普及和运算速度的不断提高,如今的神经网络才有能力来执行大规模计算。某种程度上,“深度学习”是被便宜的计算能力成就的。当然,神经网络的算法也有很多进步,杰夫·辛顿和其他研究者不断在开发更加高效的算法,但如果没有成千上万的计算机来完善神经网络,这一切都将无从谈起。
1701071377
1701071378 号称在电视益智节目中打败人类冠军的IBM计算机沃森需要85 000瓦特的能量。谷歌AlphaGo确实战胜了人类围棋冠军,但是鲜有人注意到,AlphaGo需要消耗440 000瓦特的计算能量。即便如此,除了会下围棋,AlphaGo还会做什么呢?相比之下,人类大脑将惊人的计算能量装入一个狭窄的空间,只使用了20瓦特的能量,而且,人类的大脑还能做其他数不清的事情。如果有人能使用20瓦特的能量制造出一个能同时做两件事的机器人,我才真的觉得了不起,才是不可思议的大进步。注意不能作弊,不能把扫地的机器人和做三明治的机器人放在一个大铁盒里,就宣称机器人能做两件事了,我们人类可没有长出一百万个大脑来做一百万件事情。
1701071379
1701071380 靠大量计算能力取得的成果称不上多有创意,有时候我开玩笑说这是“摩尔定律的诅咒”。过去在人工智能领域的科学家不断有很多有趣的、富有创造性的想法涌现,因为当时的电脑运算速度慢、体积大且价格不菲,要想让它变“智能”必须绞尽脑汁地想尽各种方法。
1701071381
1701071382 我对此体会尤其深刻。20世纪80年代我们做人工智能研究时,哪怕非常简单的“推理”都需要庞大且贵重的机器,有时甚至需要一些专业机器,比如LISP机(20世纪70年代进入市场并广泛应用的人工智能机,一种直接以LISP语言的系统函数为机器指令的通用计算机),然而很多实验依然很难开展,尤其是在神经网络领域。但如今的人工智能创业者可以使用计算能力快、价格也便宜的机器,可以将很多机器并联起来测试非常复杂的模型,他们不需要多有创意就可以取得很大的进展。
1701071383
1701071384 如今的超级计算机能用很简单的方法迅速找到问题的答案。实际上,靠搜索引擎基本上就可以找到大部分问题的答案,简单到人们已经不用思考,不需要有多少创意。在某种程度上,这种强大的计算能力正在让人们失去用更有创造性的方法完善智能机器的动力。而且,即便这种“暴力破解”(brute force)的方法,也很快要面临瓶颈了,“摩尔定律”正在面临挑战,电脑计算能力的提升并不会像人们想象的那样继续一路高歌猛进。
1701071385
1701071386 深度学习如今变得如此流行,AlphaGo的辉煌战绩也是深度学习成就的。但是,如果认真分析深度学习的这些成功案例,你会意识到,它们的成功除了依赖大量的高速计算机处理器,还依赖海量的大数据,即人类提供的学习样本。成功识别猫的故事是在ImageNet这个图片大数据库之后才成为可能的,AlphaGo的成功也是基于收集整理了人类围棋大师们积累下来的成千上万的着数。
[ 上一页 ]  [ :1.701071337e+09 ]  [ 下一页 ]