1700517647
1700517648
ELIZA:这对你很重要吗?
1700517649
1700517650
来访者:当然,很重要。
1700517651
1700517652
ELIZA:你似乎对这事很是乐观。
1700517653
1700517654
来访者:太荒谬了。
1700517655
1700517656
ELIZA:怎么了?什么太荒谬了?
1700517657
1700517658
来访者:为什么我现在不能使用电脑?
1700517659
1700517660
ELIZA:再跟我说说你的看法……客户。
1700517661
1700517662
来访者被这些含糊其辞的回答激怒了,他要求和操作员直接对话。他气愤地输入了如下内容:
1700517663
1700517664
来访者:请回电491-1850
1700517665
1700517666
因为他忘了用句号来结束句子,所以ELIZA没有回答他。他非常生气,拿起电话直接拨给了操作员,他以为他拨给了那个一直和他说话的人。他问道:“你为什么如此怠慢我?!”接到电话的实验室工作人员一头雾水。当来访者把对话复述给他听时,实验室工作人员哈哈大笑起来。来访者费了一番功夫才弄明白刚刚和自己交谈的是一台电脑。
1700517667
1700517668
也就是说,与ELIZA交谈没多久,人们就能察觉出它的回答有些地方不太对劲:应答的范围有限也不灵活,并且对以往的对话没有记忆、联想。之所以其在治疗情景中应用效果良好,是因为治疗通常取决于患者是否能解决他们自己的问题。作为医生的算法应能诊断病情,所以ELIZA并不擅长进行疾病诊断,但另一些算法可能会比你的全科医生更擅长疾病诊断。如果你对此很感兴趣,可以通过互联网上许多的在线版本对ELIZA进行测试。
1700517669
1700517670
20世纪90年代初,发明家休·勒布纳(Hugh Loebner)赞助设立了勒布纳人工智能奖[3] (Loebner Prize)。该奖项旨在遴选在人机交互方面更具灵活性和说服力的程序。勒布纳是一名发明家,但是人工智能领域的门外汉。他邀请了一个评委小组在一段时间内分别与人类和人工智能进行互动,并判断哪一个是人工智能。如果一个程序能够获得半数评委的确认票,那么它的创建者将会获得一枚银质奖牌和2.5万美元的奖金。如果没有任何一款程序达到银奖的标准,那么奖金将归属于能使最多评委相信“它”是“人”的程序的创建者。
1700517671
1700517672
第一个通过扩展版图灵测试的程序将获得一枚金质奖牌和10万美元奖金。这个测试的内容包括破译和理解文本、视听组件等内容,通过标准是评委们无法将其与真正的人类区分开来。这样的程序出现意味着什么,目前还没有很明确的说明,但可能意味着你看到和听到的是机器人,但你仍然会确信它是人类。一旦此奖项被颁发出去,勒布纳人工智能奖就终止了。勒布纳乐于这样宣传:他所提供的金质奖牌是纯金的,不像奥运会奖牌那样是镀金的。
1700517673
1700517674
到目前为止,还没有任何一个程序获得了银牌,就更不用提金奖了。近来,在此赛事中取得较好成绩之一的是一个名为“三井”(Mitsuku)的聊天机器人程序,化名为米莉(Millie)——一位利兹大学的学生。它的作者是史蒂夫·沃斯维克(Steve Worswick)。他原本运营着一个音乐网站,后来给网站加了一个聊天机器人,结果他发现浏览者花了大量的时间与机器人聊天,于是他决定将所有精力集中在开发聊天机器人上。
1700517675
1700517676
在2013年[4] 获得第23届勒布纳人工智能奖银奖的“三井”,在与人们对话的时候,会对人们提出的问题给出一些非常有见地的回答:
1700517677
1700517678
问:你对特朗普有什么看法?
1700517679
1700517680
“三井”:据我所知,有超过50%的人担心特朗普会当选总统。如果真是这样的话,那么他们为什么要投票给他呢?
1700517681
1700517682
问:你还有什么别的看法吗?
1700517683
1700517684
“三井”:目前为止这就是我所知。
1700517685
1700517686
然而,很快“三井”对其他问题的应答就显示出了奇怪的运算失误:
1700517687
1700517688
问:34 957加70 764等于多少?
1700517689
1700517690
“三井”:34 957加70 764,嗯,对的,34 957是一种用羊奶制成的奶酪,但它并不怎么受人们欢迎。
1700517691
1700517692
在此之前,人与“三井”之间的对话交流都很顺畅,这让人对人工智能充满了信心和希望。但是,它现在却以这样奇怪的方式戛然而止了。如果你曾经和聊天机器人聊过天,那么你就用你跟它的对话有效地训练过它。其中一些聊天机器人的算法是通过存储人类对特定问题的反应来工作的,因此,如果聊天机器人在未来遇到类似的情况,它可以逆转角色,使自己应对起来更像是人类。但大多数算法都是基于ELIZA“如果……那么……”的规则和更为复杂的规则,因而,这些算法永远无法真正处理语言的多样性。我们需要理解语言是如何组合在一起的。
1700517693
1700517694
人工智能系统在尝试处理“自然语言”时,会在语言模糊性和语言情境方面存在一些问题。在勒布纳测试中通常会进行一组名为“威诺格拉德”的测试(该测试由斯坦福大学教授威诺格拉德提出),在这个测试中那些不能很好理解语言模糊性和语言情境方面问题的人工智能很快就会原形毕露。如下句中的“they”(他们):
1700517695
1700517696
The city councilmen refused the demonstrators a permit because they[feared/advocated]violence.
[
上一页 ]
[ :1.700517647e+09 ]
[
下一页 ]