1704610129
1704610130
1704610132
人工智能:改变世界,重建未来 欢迎来到深度学习领域
1704610133
1704610134
神经网络在21世纪中叶迎来了又一次重大进展。2005年,杰夫·辛顿在多伦多大学任教,此前不久,他一直在英国伦敦大学学院工作,在那里建立了盖茨比计算神经科学组。这时,人们已经清楚地认识到,互联网能够生成大量数据集,这在10年前是想都不敢想的。如果说以前的研究人员面临的问题是没有足够的数据来对系统进行适当的训练,那么互联网的兴起则大大改善了这一状况。如今,据国际数据公司等研究公司估测,目前网上在线数据量约为4.4泽字节[1]。记者史蒂夫·洛尔(Steve Lohr)在其所著的极为有趣的《数据论》一书中指出,如果能将这些数据输入iPad Air(苹果超薄平板电脑)中,那么产生的堆栈将能够覆盖地球到月球距离的2/3。
1704610135
1704610136
然而,就像地球虽然有大量的水,但并不是所有水都可以喝一样,这些数据中好多都是未标记的。当数据集较小时,研究人员可以将主要精力放在正确标记所有数据上,这对训练系统来说更加有用。然而,随着数据量的增加,研究人员就无法再这样做。例如,2013年3月,网络相册Flickr共有8 700万注册用户,他们每天上传超过350万张新图片。从理论上看,这对那些想要建造一个能够识别图片的神经网络的人们来说是一个天大的好消息,但同样也提出了挑战。正如我们所看到的,训练神经网络最简单的方法就是向其展示大量图片,然后指出每张图片都是什么。通过标记图片,训练员既提供了输入(图片),又提供了输出(描述)。神经网络就可以反向传播,以纠正错误。这就是我们所了解的“监督式学习”。但是,流通中还有许多未标记或没有正确标记的图片,计算机如何对其进行识别呢?
1704610137
1704610138
幸运的是,杰夫·辛顿掀起了一场“非监督式学习”的革命,这种学习方式无须向计算机提供任何标记。机器能够访问的只有输入,无须解释它看到的是什么。首先,这听起来像是机器无法通过这种方式学习。如果没有得到明确的解释,即使是最智能的神经网络也不会知道某物到底是什么。实际上,辛顿发现的是“非监督式学习”可以用来训练上层特征,而且每次只能训练一层。这一发现成为“深度学习”的催化剂,而“深度学习”就是当前人工智能最炙手可热的领域。
1704610139
1704610140
我们可以将深度学习网络想象成工厂的一条生产线。输入原材料后,它们将随着传送带向下传递,后续的各个站点或层会分别提取不同的高级特性。为了继续完成一个图像识别网络的案例,第一层将用来分析像素亮度。下一层将根据相似像素的轮廓来确定图中存在的所有边界。之后,第三层将用来识别质地和形状等。到达第四层或第五层时,深度学习网络已经创建了复杂特性检测器。这时,它就能够了解4个轮子、挡风玻璃和排气管通常是同时出现的,眼睛、鼻子和嘴也是同时出现的。它不知道的仅仅是汽车和人脸都是什么样的。深度学习网络能够识别的许多特性可能都和手头的任务无关,但是其中有一些特性却是和手头任务高度相关的。
1704610141
1704610142
辛顿解释道:“训练这些特性检测器时,每次训练一层,这一层都试图在下面一层找到结构模式。之后,就可以在顶部贴上标签并使用反向传播来进行微调。”结果深深震撼了人工智能界。辛顿回忆道:“其中涉及一些数学问题,这总会给人们留下深刻的印象。”
1704610143
1704610144
有关深度学习的消息迅速传开。辛顿实验室的两名成员乔治·达尔(George Dahl)和阿卜杜勒–拉赫曼·穆罕默德(Abdel-rahman Mohamed)迅速论证了该系统不仅能够进行图像识别,还能够进行语音识别。2009年,俩人将其新创建的语音识别神经网络与已经使用了30多年的行业标准工具放到一起一较高下,结果是,深度学习网络获得了胜利。这时,谷歌邀请辛顿的一位博士生纳瓦迪普·杰特列(Navdeep Jaitly)修补谷歌的语音识别算法。看了一眼之后,他建议用深度神经网络取代整个系统。尽管一开始持怀疑态度,但杰特列的老板最终同意让他尝试一下。事实证明,新的程序比谷歌精心调试数年的系统表现还要出色。2012年,谷歌将深度学习语音识别程序嵌入安卓移动平台,错误率与之前相比立刻下降了25%。
1704610145
1704610146
那年夏天,辛顿终于收到了谷歌的电话。这个搜索巨头邀请他夏天到位于加利福尼亚州山景城的校园工作。尽管辛顿当时已经64岁了,谷歌却将他定为“实习生”,因为员工必须严格服从公司政策,即必须在公司工作好几个月之后才能被授予“访问科学家”的头衔。尽管如此,辛顿仍然加入了由20岁出头的年轻人组成的实习生组。他甚至还戴上了新实习生们专用的上面带有螺旋桨图案的帽子,被称作“新谷歌人”(Nooglers)。辛顿说:“我一定是史上最老的实习生。”当时,他开玩笑似的表示,那些并不知道他是谁的年轻同事肯定是把他当作“老笨蛋”了。
1704610147
1704610148
辛顿在谷歌的工作涉及为其他潜在的应用提出有关深度学习的建议。那年夏天的工作进展得十分顺利,第二年,谷歌正式聘用了辛顿。除他之外,谷歌还聘请了他的两名研究生,辛顿和这两名研究生共同创建了一家名为“DNNresearch”的公司。辛顿在一篇声明中写道:“我会继续在多伦多大学兼职任教,在那里我还有很多出色的研究生,但是在谷歌我能够看到我们如何处理超大型计算。”
1704610149
1704610150
在神经网络领域孤独地耕耘了30年后,杰夫·辛顿最终在世界最大的人工智能公司发挥了重要作用。
1704610151
1704610152
1704610153
1704610154
1704610156
人工智能:改变世界,重建未来 人工智能新主流
1704610157
1704610158
如今,深度学习神经网络已经成为人工智能的主流,其强调的理念可以追溯到麦卡洛克和皮茨。尽管该理念仍然是对大脑工作模式的一种模拟(我们将在后续章节中探讨更多关于大脑的生物力学模型),但神经网络能够解决问题的广泛性却令人惊叹。传统人工智能一直表现良好,直到后来研究人员才发现现实世界与其完美模型并不匹配。与传统人工智能不同的是,神经网络不仅能够处理规律性事物,还能够处理规则以外的情况。正如20世纪80年代的NETtalk一样,这使其成为处理语言等棘手问题的最佳选择。深度学习神经网络还擅长处理所谓的“分布表征”,这意味着其具有模拟同一表征空间中两个相似但独立的领域(例如语言和图像)的能力。从本质上来讲,这意味着神经网络能够以类比的方式进行思考,这一点是传统人工智能无法企及的。
1704610159
1704610160
杰夫·辛顿说道:“现在我们看到的许多事物都在使用神经网络。根据经验,如果你想完成一项任务,并且你知道这项任务涉及大量知识,这意味着如果你要学着做这件事,你将需要大量相关的参数。在这种情况下,深度学习将是更好的选择。”
1704610161
1704610162
令人印象深刻的应用程序随处可见。2011年,就在辛顿加入谷歌之前的那个夏天,谷歌工程师杰夫·迪安(Jeff Dean)、格雷格·科拉多(Greg Corrado)和斯坦福大学计算机科学家吴恩达(Andrew Ng)共同推出了“谷歌大脑”(Google Brain)项目。谷歌大脑项目都在谷歌公司半公开的实验室“谷歌X”中进行,使用深度学习网络识别高水平概念,例如通过分析视频网站YouTube的视频中静止的图像来识别猫,而之前并不向它解释猫到底是什么。(巧合的是,这实际上就是弗兰克·罗森布拉特半个世纪前对《纽约客》杂志说过的“神经网络终有一天能够实现”的那个目标。)
1704610163
1704610164
听起来一台知道猫为何物的计算机并没有什么新奇的,但是通过深度学习实现计算机的视觉能力,在现实世界中却拥有广泛的用途。一家名为“Dextro”的初创企业使用深度学习创造出了更好的在线视频搜索工具。Dextro的神经网络并不依靠关键词标签,而是通过扫描直播的视频来分析音频和图像。举例来说,如果用这个神经网络搜索英国前首相戴维·卡梅伦,那么不仅能够搜出与保守党有关的视频,就连提到英国首相的视频也能够搜到。
1704610165
1704610166
与此同时,Facebook(脸谱网)使用深度学习自动为图像设置标签。2014年6月,这一社交网络平台发布了一篇文章,介绍其称之为“DeepFace”的面部识别技术。凭借深度学习的能力,Facebook算法几乎和人脑一样准确,无论光线和相机角度如何,都能够对比两张照片并查看其显示的是否是同一个人。此外,Facebook还使用深度学习创建了另外一种技术,该技术能够为盲人用户描述图像,例如,一张图片上显示的是某人在一个夏日骑着自行车穿过英国的乡间小路,该技术能够用语音将这一情景描述出来。
1704610167
1704610168
其他一些项目将深度学习和机器人学结合起来。美国马里兰大学的一组研究人员给机器人放了一段YouTube上的烹饪视频,这样就教会了机器人如何烹饪一顿简餐。这一过程中没有任何直接人为的输入,只要提供正确的餐具,机器人就可以直接复制视频中显示的任务,而且准确率非常高。长远来看,类似的机器人深度学习也可以应用于军事维修等领域。
1704610169
1704610170
目前已经证明,深度学习在翻译领域是必不可少的。2012年12月,微软的研发总监里克·雷斯特(Rick Rashid)展示了一款震撼人心的英汉语音识别和翻译系统。通用翻译器这样如同“星际迷航”的英雄梦一样的技术即将实现,这项技术意味着在不久的未来,我们无须会说法语、俄语或日语就能够在法国餐馆点菜、在俄罗斯坐出租车或在日本谈生意。更加令人印象深刻的是,深度学习系统能够将说话者的语音划分为基本的音素,然后将这些音素重新组合成需要的语言,最后以说话者的声音将语言“说”出来。微软解释道:“你的平板电脑或智能手机将分析你所说的意思,将其翻译成听者能够理解的语言,并用你的声音以听者熟悉的发音、音色和音调表达出来。”
1704610171
1704610172
有趣的是,虽然我们一直在对基本的技术进行调整,但如今许多重大进步仍可以追溯到戴维·鲁梅尔哈特和杰夫·辛顿在20世纪80年代发明的反向传播算法。这些年来唯一改变的是计算能力,而计算能力反过来意味着更强大的神经网络和更多隐藏层。仅“谷歌大脑”项目就将16万个计算机处理器连接起来,创建了一个拥有10亿多连接的人造大脑。可用训练数据集的规模也在大幅增长。前些年使用的数据相对较少,与其相比,如今用于教神经网络思考的信息数不胜数,举例来说,Facebook的面部识别系统就是通过分析740万张图像来训练系统的,这些图片是Facebook 12.3亿活跃用户的脸。
1704610173
1704610174
神经网络不是如今实践中用到的唯一一种人工智能(我们将在后面的章节探讨其他人工智能),其优势将人工智能推到了胜利的顶峰。与传统人工智能不同的是,神经网络不再局限于简单的实验室环境。
1704610175
1704610176
实际上,下一章将探讨的内容是,当人工智能超越我们通常所说的计算机系统的限制并跟随我们一起进入现实世界时,到底会发生什么。
1704610177
1704610178
[1]1泽字节=270字节。——编者注
[
上一页 ]
[ :1.704610129e+09 ]
[
下一页 ]