打字猴:1.700517669e+09
1700517669
1700517670 20世纪90年代初,发明家休·勒布纳(Hugh Loebner)赞助设立了勒布纳人工智能奖[3] (Loebner Prize)。该奖项旨在遴选在人机交互方面更具灵活性和说服力的程序。勒布纳是一名发明家,但是人工智能领域的门外汉。他邀请了一个评委小组在一段时间内分别与人类和人工智能进行互动,并判断哪一个是人工智能。如果一个程序能够获得半数评委的确认票,那么它的创建者将会获得一枚银质奖牌和2.5万美元的奖金。如果没有任何一款程序达到银奖的标准,那么奖金将归属于能使最多评委相信“它”是“人”的程序的创建者。
1700517671
1700517672 第一个通过扩展版图灵测试的程序将获得一枚金质奖牌和10万美元奖金。这个测试的内容包括破译和理解文本、视听组件等内容,通过标准是评委们无法将其与真正的人类区分开来。这样的程序出现意味着什么,目前还没有很明确的说明,但可能意味着你看到和听到的是机器人,但你仍然会确信它是人类。一旦此奖项被颁发出去,勒布纳人工智能奖就终止了。勒布纳乐于这样宣传:他所提供的金质奖牌是纯金的,不像奥运会奖牌那样是镀金的。
1700517673
1700517674 到目前为止,还没有任何一个程序获得了银牌,就更不用提金奖了。近来,在此赛事中取得较好成绩之一的是一个名为“三井”(Mitsuku)的聊天机器人程序,化名为米莉(Millie)——一位利兹大学的学生。它的作者是史蒂夫·沃斯维克(Steve Worswick)。他原本运营着一个音乐网站,后来给网站加了一个聊天机器人,结果他发现浏览者花了大量的时间与机器人聊天,于是他决定将所有精力集中在开发聊天机器人上。
1700517675
1700517676 在2013年[4] 获得第23届勒布纳人工智能奖银奖的“三井”,在与人们对话的时候,会对人们提出的问题给出一些非常有见地的回答:
1700517677
1700517678 问:你对特朗普有什么看法?
1700517679
1700517680 “三井”:据我所知,有超过50%的人担心特朗普会当选总统。如果真是这样的话,那么他们为什么要投票给他呢?
1700517681
1700517682 问:你还有什么别的看法吗?
1700517683
1700517684 “三井”:目前为止这就是我所知。
1700517685
1700517686 然而,很快“三井”对其他问题的应答就显示出了奇怪的运算失误:
1700517687
1700517688 问:34 957加70 764等于多少?
1700517689
1700517690 “三井”:34 957加70 764,嗯,对的,34 957是一种用羊奶制成的奶酪,但它并不怎么受人们欢迎。
1700517691
1700517692 在此之前,人与“三井”之间的对话交流都很顺畅,这让人对人工智能充满了信心和希望。但是,它现在却以这样奇怪的方式戛然而止了。如果你曾经和聊天机器人聊过天,那么你就用你跟它的对话有效地训练过它。其中一些聊天机器人的算法是通过存储人类对特定问题的反应来工作的,因此,如果聊天机器人在未来遇到类似的情况,它可以逆转角色,使自己应对起来更像是人类。但大多数算法都是基于ELIZA“如果……那么……”的规则和更为复杂的规则,因而,这些算法永远无法真正处理语言的多样性。我们需要理解语言是如何组合在一起的。
1700517693
1700517694 人工智能系统在尝试处理“自然语言”时,会在语言模糊性和语言情境方面存在一些问题。在勒布纳测试中通常会进行一组名为“威诺格拉德”的测试(该测试由斯坦福大学教授威诺格拉德提出),在这个测试中那些不能很好理解语言模糊性和语言情境方面问题的人工智能很快就会原形毕露。如下句中的“they”(他们):
1700517695
1700517696 The city councilmen refused the demonstrators a permit because they[feared/advocated]violence.
1700517697
1700517698 市议员们拒绝签署对示威者的许可,因为他们(害怕/主张)暴力。
1700517699
1700517700 此句填空的选择,很明显会根据“they”的指代不同而变化。基于对语境和过往经验的认知,人类知晓如何理解这个谜语似的句子,但是对于机器真的很难。“威诺格拉德”测试正是利用了“自然语言”的复杂性、丰富性和模糊性等特征。
1700517701
1700517702 “三井”在2017年的图灵测试中就遇到了这样的“威诺格拉德”测试[5] :
1700517703
1700517704 I was trying to open the lock with the key,but someone had filled the keyhole with chewing gum,and I couldn’t get it out.What couldn’t I get out?
1700517705
1700517706 我要用钥匙打开锁头,但有人用口香糖把钥匙孔填满了,我弄不出来它。阻止我弄出来的是什么?
1700517707
1700517708 The trophy doesn’t fit into the brown suitcase because it’s too small.What is too small?
1700517709
1700517710 奖杯不适合放进棕色的手提箱里,因为它太小了。什么太小了?
1700517711
1700517712 我们该如何培养驾驭语言复杂性的能力?人类所使用的代码是长久以来在与他人的语言交流中逐步形成的。从幼年开始,人类就在语言环境中浸染,在这个过程中我们不断地学习,不断地犯错,不断地再学习。有了机器学习的新工具,算法最终能学会怎样处理“自然语言”吗?互联网上有大量的可作为数据库使用的实例。所以,我们为什么不能将算法投入互联网任其自由发展,去学习驾驭语言的复杂性、模糊性呢?
1700517713
1700517714 语言学家们惊奇地发现,一个孩子想要理解其他人并与之互动,所需要的语言真的不用很多。诺姆·乔姆斯基(Noam Chomsky)认为语言天赋是我们与生俱来的,就好像我们是按照老式的自上而下的模型进行编程的,而不是从零开始学习。如果真的是这样,对机器学习来说,仅通对一个庞大的语言使用数据库来学习语言将会是非常困难的。
1700517715
1700517716 [1] 1902—1987,美国心理学家,人本主义心理学的主要代表人物之一。他从事心理咨询和治疗的实践与研究,主张“以当事人为中心”的心理治疗方法,首创非指导性治疗(案主中心治疗),强调人具备自我调整以恢复心理健康的能力。——译者注
1700517717
1700517718 [2] sick的意思有厌恶的、病态的、不舒服的、渴望的、生病的、恶心的,这里应取生病的意思。——译者注
[ 上一页 ]  [ :1.700517669e+09 ]  [ 下一页 ]