打字猴:1.700216887e+09
1700216887 心灵的未来 [:1700213096]
1700216888 心灵的未来 情感菜单
1700216889
1700216890 由于情感要通过外部编程赋予机器人,所以制造者需要提供一份精心选取的情感菜单,判断哪些必要,哪些有用,哪些有助于巩固主人与机器人之间的联系。
1700216891
1700216892 非常可能的是,机器人的程序中只包括几种人类情感,这取决于具体情境。也许机器人的主人最看重的是忠诚。我们希望自己的机器人忠实地完成自己的指令,毫无抱怨,希望它明白主人的意图,甚至预知这些意图。主人最不希望的是有自己态度的机器人,不希望它们回嘴、批评人类或抱怨。有益的批评很重要,但这些必须以一种建设性的、策略性的方式作出。另外,如果人们给出的指令相互矛盾,机器人应该知道只听从主人的指令,忽略其他人的所有指令。
1700216893
1700216894 同感是另外一种主人会看重的情感。有同感能力的机器人能够理解他人的问题,给他们提供帮助。通过理解面部运动,聆听声音语调,机器人能够判断出一个人是否处在困境中,并在可能的情况下提供帮助。
1700216895
1700216896 奇怪的是,恐惧也是一种有益的情感。进化赋予我们恐惧的感情并非偶然,它让我们避开危险的事物。即使机器人由钢铁制成,它们也应该害怕那些会对它们造成伤害的事物,如从高楼上掉落或被大火吞没。如果机器人完全无畏地毁了自己,它就什么用处都没有了。
1700216897
1700216898 但有些情感需要删除、禁止或严格管控,如愤怒。假设我们所制造的机器人有着强大的体力,如果它发脾气就会在家庭中和工作场所中造成巨大的问题。愤怒会影响它的职责,也会带来很大的财产损失。(愤怒进化出来的原始目的是表达我们的不满。这能够以理性的、冷静的方式实现,而不必愤怒。)
1700216899
1700216900 另外一种应该删除的情感是控制欲。爱发号施令的机器人只会带来麻烦,会挑战主人的判断和愿望。(这一点对后面的内容也很重要,我们将讨论机器人有一天是否会接管人类。)所以要使机器人听从主人的意愿,即便这不是最好的路径。
1700216901
1700216902 但是,也许最难传达的情感是幽默,这是把陌生人联系在一起的纽带。一个小笑话能够缓解紧张的局面,也会将其引爆。幽默的基本原理十分简单:其中包含一个出乎意料的妙语。但幽默的细微之处却包罗万象。事实上,我们总是会从一个人对某些笑话作何种反应来判断他的为人。如果人类把幽默作为一种测量器来评判别人,那么我们就能理解制造出可以听出笑话可不可笑的机器人的困难之处。例如,罗纳德·里根(Ronald Reagan)总统用妙语化解难题的功夫十分有名。他真的积攒了一大堆写有笑话、讽刺警句和俏皮话的卡片,因为他懂得幽默的力量。(有些博学之士认为他赢得与沃尔特·蒙代尔(Walter Mondale)的大选辩论,是因为当被问及他当总统是否太老了时,他的回答是他不会以对方的年轻攻击对方。)不过,不恰当的幽默会造成灾难性的后果(事实上有时也是一种精神疾病的征兆)。机器人需要知道和别人一起笑与嘲笑别人的差异。(演员们非常清楚笑的这两种属性。他们通过娴熟的技巧制造出代表幽默、讽刺、愉悦、愤怒、悲伤等不同情感的笑声。)所以,除非人工智能理论已经非常发达,不然机器人还是应该不要幽默和笑声为好。
1700216903
1700216904
1700216905
1700216906
1700216907 心灵的未来 [:1700213097]
1700216908 心灵的未来 给情感编程
1700216909
1700216910 在上面的讨论中,我们没有涉及究竟怎样把情感程序写入计算机这个难题。因为情感的复杂性,给它们编程可能需要分阶段进行。
1700216911
1700216912 首先,最容易的部分是通过分析人的面部、嘴唇、眼眉和声调等符号来识别情感。当今的面部识别技术已经能够编出一部情感词典,告诉我们特定面部表情传达什么特定含义。这个研究进程可以追溯到查尔斯·达尔文,他花了大量时间编纂记录人类和动物共有的情感。
1700216913
1700216914 其次,机器人必须能够对这种情感做出快速回应。这也比较简单。如果有人在笑,那么机器人也应该咧嘴笑。如果有人生气,那么机器人应该闪开,避免冲突。机器人的程序中会有一部情感的百科全书,这样它就能知道怎样对每个情感做出快速反应了。
1700216915
1700216916 第三个阶段也许是最为复杂的,因为它关乎确定原始情感背后的潜在动机。这非常困难,因为一种情感可以由不同的情景引发。笑可能意味着某人开心,也可能意味着他听了一个笑话或者看到别人摔了一跤。或者,还可能意味着这个人紧张、焦虑或侮辱别人。同样,如果某人尖叫,也许是有紧急情况,也许只不过是他开心或惊讶。确定情感背后的原因是一种甚至是人类自己都觉得有困难的事情。为达到这一点,机器人需要列出一种情感背后的各种可能原因,确定其中最能讲得通的一个。也就是说,要找出与数据最为匹配的情感原因。
1700216917
1700216918 第四,机器人确定了情感来源之后,它需要做出相应的反应。这也比较困难,因为通常会有几种可能的反应,错误的反应会使得情况更糟。机器人的程序中已经有了对原始情感作如何反应的清单。它还要计算出哪一种反应是当下情境中最适合的,这就意味着对未来进行模拟。
1700216919
1700216920
1700216921
1700216922
1700216923 心灵的未来 [:1700213098]
1700216924 心灵的未来 未来机器人会说谎吗?
1700216925
1700216926 一般情况下,我们会认为机器人总是冷冰冰地进行分析,富于理性,总是说真话。但是,如果要机器人融合到社会中,它们就可能必须学会说谎,或至少有策略地保留自己的意见。
1700216927
1700216928 在生活中,我们一天会遇到好几次必须说善意谎言的情况。如果别人问我们,他们长得怎么样,我们一般不敢说实话。善意的谎言就像润滑剂一样,能够使社会的运转更平滑。如果要我们突然完全说真话(就像《大话王》[Liar Liar]中金·凯利[Jim Carry]的角色),很可能会造成混乱,并伤害别人。如果你告诉别人他们的真实模样,或者你的真切感受,他们会觉得受到冒犯,老板会炒你的鱿鱼,情人会抛弃你,朋友会离你而去,陌生人会给你一巴掌。一些想法最好还是藏在心里。
1700216929
1700216930 同样,机器人可能也需要学习说谎或隐瞒事实,不然它们就会冒犯人类,被主人解雇。如果机器人在聚会上说实话,这可能让主人十分难堪,造成混乱。所以,如果有人询问它的意见,它应该学会闪烁其词,学会外交辞令和策略性语言。它要么回避问题,改换话题,说些陈词滥调,用问题回答问题,要么就说善意的谎言(这些都是现在的聊天机器人所擅长的)。这说明,机器人的程序中已经有了一张如何做出逃避性回应的清单,必须从中选择一种使事情最为简化的回应。
1700216931
1700216932 需要机器人完全说真话的少数场合之一是对主人的直接提问进行回答,主人可以理解这个答案可能真实而残酷。或许仅有的另外一个需要机器人说真话的场合是警察办案的时候,这时需要完全的真相。除此之外,机器人可以自由地说谎,或者隐瞒事实。这样,社会的车轮才会顺利转动。
1700216933
1700216934 换句话说,机器人必须社会化,就像十几岁的青少年一样。
1700216935
1700216936
[ 上一页 ]  [ :1.700216887e+09 ]  [ 下一页 ]