打字猴:1.70004569e+09
1700045690
1700045691 为了更好地训练感知器,每次操作员按下“错误”的按钮,感知器就会接收到一个很差的评级:A单元中通向错误灯泡的电线的电阻增大。几次训练过后,机器就不再轻易连上A单元中的部分导线,避免得出错误的答案。那么,下一次当A单元再次接收到从第一层光线传感器过来的电流,R单元的人工神经元达到阈值的可能性降低。由于R单元没有达到阈值,不能放电,在下次,系统就能识别出这是放电可能性较低的模式。如果机器得出正确的答案,则不需要做任何的调整,就像学生得到老师的肯定:“干得好,继续努力。”
1700045692
1700045693 一台全新的、未经过任何调整的感知器,得出的答案大部分一定都是错的。整个训练过程需要不断重复,循环展示同一系列的图片,直到机器回答完全正确。在后来几十年中,神经网络研究人员会围绕这个主题进行大量不同的试验,尝试包括在机器回答正确的情况下强化连接,改变电线的连接方式,增加神经元的数量或重新排列节点。 
1700045694
1700045695 人类智慧取得成功的秘诀在于“练习,练习,再练习”。无论人工神经元网络接受何种形式的训练,机器学习也有相似的秘诀——“重复,重复,再重复”。为了学会识别圆形与方形之间的区别,感知器需要不断重复,直到机器设定好应对每个错误答案的电阻。现代的机器学习仍使用同样的技术,但人工训练的过程被自动化、电子化过程所取代,这个过程以数据输入为基础,向软件中不断输入大量数据。
1700045696
1700045697
1700045698
1700045699
1700045700 图9.2  ImageNet 2012年图片示例,相似的图片被排列在一起
1700045701
1700045702 来源:斯坦福大学Andrej Karpathy、Fei-Fei Li
1700045703
1700045704 相比之下,感知器的识别指令表是公认的非常有限的。与第四章中提到的移动机器人沙基类似,这款1959年的感知器也只能在非常有限的参数范围内运作。然而不同于“沙基”的是,该感知器的人工智能并非出自人类程序员之手。该感知器的机械系统是从人类“老师”的正误反馈中学习,摒弃了编程的方法,没有通过严谨的“自上而下”分析算法来分辨,比如说针对区别方形与圆形的算法。
1700045705
1700045706 当时,人们把感知器视为一项巨大的成功,向大众媒体宣传。罗森布拉特声称感知器能学习、掌握任何知识,掀起了轩然大波。《纽约客》杂志称赞感知器是一项重大的技术成就,1958年的《纽约时报》甚至把感知器称为一场革命,刊登了以《新型海军设备在实践中学习》(New Navy Device Learns by Doing)为题的文章。
1700045707
1700045708 感知器为罗森布拉特在人工智能发展史上赢得了一席之地。在我所教授的机器学习导论课程中,第一份作业就是重现罗森布拉特机器的软件。罗森布拉特的成功及其所带来的大众媒体的狂热,在竞争激烈的思想流派中再次激发了计算机科学界的愤怒。
1700045709
1700045710 无人驾驶:人工智能将从颠覆驾驶开始,全面重构人类生活 [:1700043821]
1700045711 第一次人工智能冬天
1700045712
1700045713 如果人工智能这一全新领域有越来越多的研究人员遵循罗森布拉特的方法,我们也许能早几十年在自动感知领域取得成功。然而,取得良好的开端后不久,感知器便失去了光环。原因之一是训练神经网络所需要的计算能力和传感数据仍然不足。原因之二是人为问题——政治反对。
1700045714
1700045715 在罗森布拉特和感知器的故乡伊萨卡(Ithaca),冬季黑暗和漫长。然而,没有一个伊萨卡冬天能比得上罗森布拉特取得首次成功后遭遇的“冬季”那么严寒。具有讽刺意味的是,反对者之首是罗森布拉特的高中同学马文·明斯基(Marvin Minsky),被称为“人工智能之父”的麻省理工学院计算机学教授。正值媒体为感知器的自主学习能力大肆欢庆之际,明斯基却公开质疑罗森布拉特的观点——感知器能学会任何技能。明斯基坚决否认这种说法的真实性,认为“感知器没有科学价值”。
1700045716
1700045717 人工智能研究的舞台从此拉开了两大主流学派长时期的理论之争:符号主义,主张由程序员编写代码搭建逻辑模型;神经网络,以机器学习为特点,通过数据驱动方法实现。作为人工智能研究资金的主要来源,军队一直密切观察哪一方在两大阵营斗争中占据上风。唯恐某一种人工智能范式垄断各界,那些为符号型人工智能呕心沥血的研究人员纷纷加入这场战争,坚信神经网络研究势必衰亡。
1700045718
1700045719 1969年,明斯基向罗森布拉特发起最后一击,携手麻省理工学院同事西蒙·派珀特(Seymour Papert)出版了《认知器演算法》(Perceptrons)一书。这本著作内容丰富,其中提及一项数学证明,旨在证实“感知器无法学会人工智能领域中任何一个简单的模式”:异或运算模式(XOR pattern)。就像音乐家使用C调音阶对乐器进行测试和热身,人工智能研究者通常用异或运算模式来测试机器学习算法。乐器出现任何的跑调情况都将如实反映在C调音阶上。如果连简单的异或运算模式都学不会,这就说明机器学习效率极低。
1700045720
1700045721 异或运算模式展现的是,所谓的逻辑互斥操作。如果两个字节不相同,操作员返回“1”;如果两个字节相同,则返回“0”。
1700045722
1700045723 明斯基和派珀特并没有真正地把异或运算模式应用到罗森布拉特的感知器上。他们采用数学建模的办法。他们用并不复杂的证据证明,不管经过多长时间的训练,罗森布拉特的感知器都无法学会模式识别。因为这个建模结果,明斯基和派珀特宣称,感知器无法学会识别任何模式,就连基础的模式也无法识别。
1700045724
1700045725 争论双方都有道理。确实,诚如明斯基指出,如果只凭借自己学习,感知器所能学会的非常有限。同时罗森布拉特也并没有宣称感知器能学会任何技能。明斯基从字面上理解罗森布拉特的话,实际上罗森布拉特指的是一种理论化的、潜在、未来的机器学习能力,机器是由多层感知器层层叠加而成,而不指他所制造的“马克1号”。
1700045726
1700045727 具有讽刺意味的是,将近15年后,罗森布拉特的预言成真:计算能力的提高使神经网络的结构越来越精密,包含数十个电子层,层与层之间的连接节点高达数百万个。遗憾的是,在那个年代,罗森布拉特缺乏成熟的技术支持来回应明斯基和派珀特的挑战。多层感知器网络本可以证明罗森布拉特的正确,可在当时他的“感知器培训算法”只适用于单层感知器。
1700045728
1700045729 在这场激烈的理论之战发生的20世纪60年代末期,当时的计算机不仅体型庞大,而且计算速度缓慢。明斯基的理论获得了联邦科学基金会的认同,把明斯基的“自上而下”符号型人工智能范式视为最佳途径。结果,神经网络研究的资金被停止。
1700045730
1700045731 感知器项目戛然而止,所有曾经从事神经网络工作的研究员在这恶劣的学术环境下都不得不半途而废。此后不久,1971年夏,罗森布拉特于生日当天,在切萨皮克湾的一次船只事故中去世。他英年早逝,年仅43岁。而其高中同学兼竞争对手,明斯基日后成了符号型人工智能技术领域的发展先驱,研发出随后几十年内在人工智能领域独领风骚的技术。
1700045732
1700045733 讽刺的是,明斯基此后走上了罗森布拉特的道路,并在若干年后向媒体夸夸其谈人工智能技术的潜力。1970年的《生活》(Life)刊登了明斯基访谈内容,随后引起一阵轰动。明斯基发表了一次臭名昭著的声明:“在3~8年内,我们将研发出达到人类平均智力水平的机器。我指的是,机器人能阅读莎士比亚的作品,洗车、搞办公室政治、讲笑话、打架。到那时,机器能开始以良好的速度进行自学。几个月后它的学习水平将达到天才级别,再过几个月,它的能力将难以估量。”尽管随着时间的流逝,明斯基的想法被证明完全错误,但在当时的几年内这种说法还是兴盛一时。
1700045734
1700045735 在麻省理工学院的机器人博物馆里,明斯基被视为英雄,具有远见卓识。然而由于他的固执阻挠,破坏了人们对早期神经网络的探索,把人工智能研究带入漫长黑暗的“死胡同”长达几十年。20世纪70年代是符号型人工智能发展的黄金时期。大量的研究人员通过编程方法投入仿真人类智商研究,这也凸显了人类对大脑工作原理的无知。
1700045736
1700045737 无人驾驶:人工智能将从颠覆驾驶开始,全面重构人类生活 [:1700043822]
1700045738 神经网络研究的复兴
1700045739
[ 上一页 ]  [ :1.70004569e+09 ]  [ 下一页 ]