打字猴:1.704609887e+09
1704609887 人工智能:改变世界,重建未来 [:1704609560]
1704609888 人工智能:改变世界,重建未来 “中文房间”实验
1704609889
1704609890 有关符号人工智能的哲学问题开始浮出水面。其中最著名的要数名为“中文房间”的思维实验。美国哲学家约翰·希尔勒(John Searle)提出该思维实验,质疑是否应将机器处理符号真正视为智能。
1704609891
1704609892 希尔勒提出,假设他被锁在一个房间里,房间里有很多中国书法作品。他并不懂中文,甚至无法将汉语与日语或其他毫无意义的字区分开来。希尔勒在房间中发现了一套规则,这些规则向他展示了一套与其他符号相对应的符号。随后,他被提问,并通过将问题符号和答案符号相匹配来回答这些问题。过了一会儿,希尔勒逐渐熟悉这项任务——尽管他仍然不清楚自己操作的这些符号到底是什么。希尔勒问,这种情况下能否说房间内的人“懂”汉语?他的答案是否定的,因为他完全缺乏意向性。他写道:“计算机可能有的这种意向性只存在于程序设计者、使用者、输入者以及对输出进行解读的人的思维中。”
1704609893
1704609894 如果说希尔勒是在指责人工智能研究者们像家长一样绞尽脑汁地炫耀孩子的才华,那么人工智能研究者们本身就面临着一个令人不愉快的事实:他们的孩子实际上并没有那么聪明。令人担忧的是,那些在实验室环境下表现不凡的工具并不能很好地适应现实状况。符号人工智能主要涉及自上而下建立以规则为基础的系统,该系统在实验室中表现出色,各元素都能够得到很好的控制。这些“微型世界”几乎不包含任何物质,因此可以采取的措施也十分有限。然而,一旦进入现实世界,在训练中表现优异的程序就像世界杯揭幕战中的英格兰队一样变得怯场了。
1704609895
1704609896 研究者们承认这些弱点的存在,并且将这些微型世界比作“一切事物都十分简单的仙境,如果以现实世界为前提,那么有关这些事物的陈述从字面上看就都变成了错的”。总的来说,人工智能一直在努力摆脱歧义性,但又缺少灵活抽象推理、数据计算和加工能力,而人工智能恰恰需要这些能力来理解其所展示的内容。任何没有事先明确说明的事物都有可能造成恐慌。美国作家约瑟夫·坎贝尔(Joseph Campbell)嘲讽道,这种人工智能与《圣经·旧约》一样,都是“规则太多,仁慈有限”。
1704609897
1704609898
1704609899
1704609900
1704609901 人工智能:改变世界,重建未来 [:1704609561]
1704609902 人工智能:改变世界,重建未来 莫拉维克悖论
1704609903
1704609904 结束这一不确定性面临着更大的问题,即人工智能研究者是否以正确的方式工作。就像玩拼图要从最困难的部分开始一样,人工智能研究者们设想,如果他们解决了复杂的问题,那么简单的问题就会迎刃而解。毕竟,如果你能让机器像数学天才一样下象棋,那么模仿婴儿学习又有多难呢?然而,事实证明这是相当难的。象棋是一项游戏,包含明确的说明、棋盘位置、合规或违规移动。象棋为棋手营造了一个静态世界,他们在这里拥有完整的信息,前提是他们能够看见棋盘,并且知道如何移动棋子。象棋是现实世界的一部分,但现实世界却与象棋截然不同。汉斯·莫拉维克(Hans Moravec)等研究者突然开始提出惊人的建议,例如“让计算机在智力测验中或在下跳棋时表现出成人水平相对容易一些,而让计算机在知觉和移动性方面达到一岁小孩的水平却是十分困难甚至是不可能的”。
1704609905
1704609906 将人工智能设定为关注生活中更复杂的事物,而排除对相对普通任务的关注,这可能与研究人工智能的人有关。在许多案例中,堪称“天才”的科学家们能够控制象棋或布尔逻辑(Boolean Logic)的微小细节,却缺少现实生活中的常识。有一则众所周知的趣闻:麻省理工学院一个名为西蒙·派珀特(Seymour Papert)的研究人员有一次将他的妻子忘在了纽约机场。当他意识到妻子没有陪在他身边时,飞机正在跨越大西洋。约翰·麦卡锡十分顽强地面对具有挑战性的问题,但是却因为经常忘记为资助他的各类机构填写进程报告而招致许多麻烦。据说麦卡锡在斯坦福大学讲授的课程“人工智能入门”并未受到重视,私下里被学生戏称为“听约翰叔叔讲故事”。都说什么样的人会干出什么样的事,这样看来,这些研究人员的人工智能项目都侧重于远大目标而非平凡(可能更实用)小事也就不足为奇了。
1704609907
1704609908 心理学家史蒂芬·平克(Steven Pinker)总结道:“人工智能研究的前35年得出的主要教训是,困难的问题容易解决,容易的问题很难解决。”
1704609909
1704609910
1704609911
1704609912
1704609913 人工智能:改变世界,重建未来 [:1704609562]
1704609914 人工智能:改变世界,重建未来 转变目标
1704609915
1704609916 在众多挑战的重重包围之下,传统人工智能开始出现问题。从20世纪70年代开始,随着之前几十年人们对人工智能乐观态度的逐渐消散,人们对该领域的热情也渐渐冷却下来。大幅缩减的预算使其首次遭遇了“人工智能的冬天”,而这样的情况不止一次发生。在美国,就连可爱的机器人沙基计划都被叫停,因为美国国防部意识到,其出钱资助的机器人项目并不能创造出他们需要的机器人间谍“詹姆斯·邦德”。暂且不说间谍这一点,沙基在战场上甚至无法发挥常规部队的作用!一名为该项目工作的研究人员回忆起沙基在斯坦福国际研究所(SRI)实验室中最后的日子。一位持怀疑态度的将军问一位创造沙基的研究人员:“能不能在上面安装一个36英尺长的刺刀?”
1704609917
1704609918 为应对这一状况,人工智能改变了其目标,按比例缩减了一些大型任务,集中力量处理那些通过采取措施就能够解决的问题。其中的一个例子就是电子游戏领域。人工智能从一开始就与电子游戏联系在一起,那时艾伦·图灵和克劳德·香农曾尝试打造一个自动象棋手。在当时的情况下,象棋就是一个微观世界,用来演示那些后来应用到现实世界的智能行为。电子游戏就是他们的最终目标。
1704609919
1704609920 人工智能研究不仅仅需要研究者的技能,还可以创造一定的收益。在莫斯科的苏联科学院计算机中心工作的28岁人工智能研究员阿列克谢·帕基特诺夫(Alexey Pajitnov)就是受益人之一。1984年6月,帕基特诺夫创建了一个简单的程序,用来测试实验室新的计算机系统。一个精明的商人将该系统命名为俄罗斯方块(Tetris)并拿到市场上销售,这款游戏在全世界范围内卖出了超过1.7亿个副本。
1704609921
1704609922 20世纪80年代,电子游戏变得更加复杂,人工智能专家也因此变得炙手可热。人工智能能够运用简单的规则模拟复杂的行为,这意味着电脑控制的人物也能有自己的想法。例如,在《主题公园》(Theme Park)游戏中,人工智能实体(指具有智能的任何实体,包括智能硬件和智能软件)聚集在使用者建造的公园周围,采取程序设计员从未明确标出过的路径行走。
1704609923
1704609924 在某种意义上,电子游戏是传统人工智能的天堂。如果人工智能仅用于在射击游戏中模仿僵尸敌人,那么其行为是真的智能还是仅仅表现得很智能这类问题就是毫无意义的。
1704609925
1704609926
1704609927
1704609928
1704609929 人工智能:改变世界,重建未来 [:1704609563]
1704609930 人工智能:改变世界,重建未来 专家系统
1704609931
1704609932 人工智能的另一项新应用成为人们解决问题的工具。尽管人工智能擅长推理,但研究人员都知道,人工智能并不只有推理。为了创造出能够在现实生活中解决问题的人工智能,科学家们认为,他们需要一台能够将推理和知识相结合的机器。例如,一台应用于神经系统科学的电脑必须像合格的神经系统科学家一样,了解该学科的相关概念、事实、表述、研究方法、模型、隐喻和其他方面。
1704609933
1704609934 这意味着程序员突然需要担负起“知识工程师”的重任,他们必须充当各领域专家的角色,并且将他们的知识提炼成计算机能够读取的规则,生成的程序被称为“专家系统”。该系统是在广泛收集概率性规则“如果……那么……”的基础上建立的。有人曾经使用名为“DENDRAL”的专家系统进行过尝试,这个程序能够帮助有机化学家确定未知的有机分子。DENDRAL的创造者爱德华·费根鲍姆(Edward Feigenbaum)对最早记载人工智能历史的一位作家帕梅拉·麦考达克(Pamela McCorduck)说道:“有一段时间,人工智能领域的其他人都与我们保持一定的距离。我想他们可能不敢靠近DENDRAL,因为它涉及化学。但是人们还是会毫不吝啬地发出惊奇的感叹,因为它就像是化学界的博士一样。”
1704609935
1704609936 另一个类似的项目名为“MYCIN”,用于为脑膜炎等严重感染状况提供合适的抗生素用药剂量。MYCIN像一个真正的医生一样,能够将程序员之前收集的概率性证据汇总起来,并据此得出结论。人们不断对之前的经验进行归纳,直到它们变得像下面的“规则”:
[ 上一页 ]  [ :1.704609887e+09 ]  [ 下一页 ]