1704609874
人工智能:改变世界,重建未来 太空机器人沙基
1704609875
1704609876
虽然几乎没有人真正遇见,但人工智能在发展的过程中确实存在一些问题。和当前能与公众产生共鸣的某些领域一样,上述问题或多或少要归咎于新闻媒体。过度热情的表现是,人们经常写文章赞扬他们所取得的令人印象深刻的进步,好像他们已经造出了智能机器。例如,20世纪60年代的机器人沙基(SHAKEY)项目受到了大力宣传,人们将其视作世界上第一台通用机器人,它能够对自己的行为进行推理。这样一来,它就能够为模式识别、信息表示、问题解决和自然语言处理等不同领域设定基准。
1704609877
1704609878
尽管这已经足够使沙基艳惊四座,但记者们仍忍不住进行了一番修饰。1970年,当沙基在《生命》(Life)杂志上首次亮相的时候,它并没有被视为众多重要研究课题的结合体,而是以世界上第一个“电子人”的身份闪亮登场。《生命》杂志的记者将沙基卷入前一年登月引发的太空狂潮中,甚至称沙基能够“在不接受地球指令的情况下在月球上一次行走几个月”。
1704609879
1704609880
这是彻头彻尾的谎言,但是并非所有研究者都能够拒绝去迎合这一观点。20世纪70年代,在波士顿召开的一次会议上,一位研究者向媒体透露,仅需5年时间,像沙基这样的智能机器人就将在家庭中普及。一位年轻的同事激动地将他拉开,并对他说:“不要做这样的预测。以前有人这样做招来了麻烦。你低估了实现这一目标需要花费的时间。”这位研究者想都没想就回答道:“我不在乎。你看,我提到的所有日子都是在我退休后。”
1704609881
1704609882
人工智能工作者们并非一直这么激进,但有很多人都有这样的倾向。1965年,赫伯特·西蒙称,用不了20年,机器就能够“完成人类能做的任何工作”。不久以后,马文·明斯基补充道:“我们这一代人能够大体上解决创造人工智能的问题。”
1704609883
1704609884
1704609885
1704609886
1704609888
人工智能:改变世界,重建未来 “中文房间”实验
1704609889
1704609890
有关符号人工智能的哲学问题开始浮出水面。其中最著名的要数名为“中文房间”的思维实验。美国哲学家约翰·希尔勒(John Searle)提出该思维实验,质疑是否应将机器处理符号真正视为智能。
1704609891
1704609892
希尔勒提出,假设他被锁在一个房间里,房间里有很多中国书法作品。他并不懂中文,甚至无法将汉语与日语或其他毫无意义的字区分开来。希尔勒在房间中发现了一套规则,这些规则向他展示了一套与其他符号相对应的符号。随后,他被提问,并通过将问题符号和答案符号相匹配来回答这些问题。过了一会儿,希尔勒逐渐熟悉这项任务——尽管他仍然不清楚自己操作的这些符号到底是什么。希尔勒问,这种情况下能否说房间内的人“懂”汉语?他的答案是否定的,因为他完全缺乏意向性。他写道:“计算机可能有的这种意向性只存在于程序设计者、使用者、输入者以及对输出进行解读的人的思维中。”
1704609893
1704609894
如果说希尔勒是在指责人工智能研究者们像家长一样绞尽脑汁地炫耀孩子的才华,那么人工智能研究者们本身就面临着一个令人不愉快的事实:他们的孩子实际上并没有那么聪明。令人担忧的是,那些在实验室环境下表现不凡的工具并不能很好地适应现实状况。符号人工智能主要涉及自上而下建立以规则为基础的系统,该系统在实验室中表现出色,各元素都能够得到很好的控制。这些“微型世界”几乎不包含任何物质,因此可以采取的措施也十分有限。然而,一旦进入现实世界,在训练中表现优异的程序就像世界杯揭幕战中的英格兰队一样变得怯场了。
1704609895
1704609896
研究者们承认这些弱点的存在,并且将这些微型世界比作“一切事物都十分简单的仙境,如果以现实世界为前提,那么有关这些事物的陈述从字面上看就都变成了错的”。总的来说,人工智能一直在努力摆脱歧义性,但又缺少灵活抽象推理、数据计算和加工能力,而人工智能恰恰需要这些能力来理解其所展示的内容。任何没有事先明确说明的事物都有可能造成恐慌。美国作家约瑟夫·坎贝尔(Joseph Campbell)嘲讽道,这种人工智能与《圣经·旧约》一样,都是“规则太多,仁慈有限”。
1704609897
1704609898
1704609899
1704609900
1704609902
人工智能:改变世界,重建未来 莫拉维克悖论
1704609903
1704609904
结束这一不确定性面临着更大的问题,即人工智能研究者是否以正确的方式工作。就像玩拼图要从最困难的部分开始一样,人工智能研究者们设想,如果他们解决了复杂的问题,那么简单的问题就会迎刃而解。毕竟,如果你能让机器像数学天才一样下象棋,那么模仿婴儿学习又有多难呢?然而,事实证明这是相当难的。象棋是一项游戏,包含明确的说明、棋盘位置、合规或违规移动。象棋为棋手营造了一个静态世界,他们在这里拥有完整的信息,前提是他们能够看见棋盘,并且知道如何移动棋子。象棋是现实世界的一部分,但现实世界却与象棋截然不同。汉斯·莫拉维克(Hans Moravec)等研究者突然开始提出惊人的建议,例如“让计算机在智力测验中或在下跳棋时表现出成人水平相对容易一些,而让计算机在知觉和移动性方面达到一岁小孩的水平却是十分困难甚至是不可能的”。
1704609905
1704609906
将人工智能设定为关注生活中更复杂的事物,而排除对相对普通任务的关注,这可能与研究人工智能的人有关。在许多案例中,堪称“天才”的科学家们能够控制象棋或布尔逻辑(Boolean Logic)的微小细节,却缺少现实生活中的常识。有一则众所周知的趣闻:麻省理工学院一个名为西蒙·派珀特(Seymour Papert)的研究人员有一次将他的妻子忘在了纽约机场。当他意识到妻子没有陪在他身边时,飞机正在跨越大西洋。约翰·麦卡锡十分顽强地面对具有挑战性的问题,但是却因为经常忘记为资助他的各类机构填写进程报告而招致许多麻烦。据说麦卡锡在斯坦福大学讲授的课程“人工智能入门”并未受到重视,私下里被学生戏称为“听约翰叔叔讲故事”。都说什么样的人会干出什么样的事,这样看来,这些研究人员的人工智能项目都侧重于远大目标而非平凡(可能更实用)小事也就不足为奇了。
1704609907
1704609908
心理学家史蒂芬·平克(Steven Pinker)总结道:“人工智能研究的前35年得出的主要教训是,困难的问题容易解决,容易的问题很难解决。”
1704609909
1704609910
1704609911
1704609912
1704609914
人工智能:改变世界,重建未来 转变目标
1704609915
1704609916
在众多挑战的重重包围之下,传统人工智能开始出现问题。从20世纪70年代开始,随着之前几十年人们对人工智能乐观态度的逐渐消散,人们对该领域的热情也渐渐冷却下来。大幅缩减的预算使其首次遭遇了“人工智能的冬天”,而这样的情况不止一次发生。在美国,就连可爱的机器人沙基计划都被叫停,因为美国国防部意识到,其出钱资助的机器人项目并不能创造出他们需要的机器人间谍“詹姆斯·邦德”。暂且不说间谍这一点,沙基在战场上甚至无法发挥常规部队的作用!一名为该项目工作的研究人员回忆起沙基在斯坦福国际研究所(SRI)实验室中最后的日子。一位持怀疑态度的将军问一位创造沙基的研究人员:“能不能在上面安装一个36英尺长的刺刀?”
1704609917
1704609918
为应对这一状况,人工智能改变了其目标,按比例缩减了一些大型任务,集中力量处理那些通过采取措施就能够解决的问题。其中的一个例子就是电子游戏领域。人工智能从一开始就与电子游戏联系在一起,那时艾伦·图灵和克劳德·香农曾尝试打造一个自动象棋手。在当时的情况下,象棋就是一个微观世界,用来演示那些后来应用到现实世界的智能行为。电子游戏就是他们的最终目标。
1704609919
1704609920
人工智能研究不仅仅需要研究者的技能,还可以创造一定的收益。在莫斯科的苏联科学院计算机中心工作的28岁人工智能研究员阿列克谢·帕基特诺夫(Alexey Pajitnov)就是受益人之一。1984年6月,帕基特诺夫创建了一个简单的程序,用来测试实验室新的计算机系统。一个精明的商人将该系统命名为俄罗斯方块(Tetris)并拿到市场上销售,这款游戏在全世界范围内卖出了超过1.7亿个副本。
1704609921
1704609922
20世纪80年代,电子游戏变得更加复杂,人工智能专家也因此变得炙手可热。人工智能能够运用简单的规则模拟复杂的行为,这意味着电脑控制的人物也能有自己的想法。例如,在《主题公园》(Theme Park)游戏中,人工智能实体(指具有智能的任何实体,包括智能硬件和智能软件)聚集在使用者建造的公园周围,采取程序设计员从未明确标出过的路径行走。
[
上一页 ]
[ :1.704609873e+09 ]
[
下一页 ]