1700216872
心灵的未来 情感:确定什么是重要的
1700216873
1700216874
此外,人工智能研究者开始认识到情感可能是人类意识的关键。像安东尼奥·达马西奥(Antonio Damasio)博士这样的神经科学家发现,前额叶(负责理性思维)与情感中枢(例如边缘系统)的连接发生损坏时,病人就不能进行价值判断。即使进行最简单的决策(买什么东西,什么时候约会,用什么颜色的笔),他们都会陷入瘫痪,因为每件事对他们来说都具有相同的价值。因此,情感并不是什么无关紧要的奢侈品,它有着绝对的重要性,没有情感,机器人就无法确定什么是重要的和什么不是。所以,情感现在不再居于人工智能研究的边缘,而是占据了中心地位。
1700216875
1700216876
如果机器人遇到大火,它可能会首先抢救电脑资料,而不是抢救人,因为它的程序可能会认为有价值的文件不能复制,而工人总是有替代者。所以,关键的一点是,机器人的程序需要判断什么是重要的,什么是不重要的,而情感正是大脑用来快速确定这一点的捷径。因此,机器人的程序也应该建立这种价值体系:人的生命比物体更重要,应在紧急事件中先抢救儿童,价格高的物体比价格低的物体更有价值等。由于机器人并非天生就具有价值判断,所以必须给它上传一张庞大的价值判断清单。
1700216877
1700216878
然而,情感带来的问题是,它有时并不理性,而机器人具有数学般的精确性。所以硅意识与人类意识可能有着本质上的不同。例如,人类几乎无法控制情感,因为情感来得非常快,也因为它产生于人大脑的边缘系统,而非前额叶皮层。此外,人类情感经常带有偏见。无数的实验表明,我们倾向于高估那些长相俊美的人的能力。这些人在社会中很可能会有更好的前途,更好的就业,虽然他们的能力不一定比其他人强。正如常言道的:“美丽有特权。”
1700216879
1700216880
同样,硅意识也许并不考虑人类在交往中所使用的那些微妙的信号,比如身势语言。当我们进入房间时,年轻的人通常会礼让年长的人以表示尊敬,职位低的人会对上司格外礼貌。我们通过身体的移动、语词的选择以及我们的体态手势表现出尊敬。因为身势语言比语言本身更为古老,已经以精微的方式写进了我们的大脑中。如果要机器人与人类进行社交互动,那么它们就需要学会这些潜意识性的信号。
1700216881
1700216882
我们的意识受到进化过程中具体事物的影响,这是机器人不具备的,所以硅意识中可能不会出现人类意识中的缺陷或怪癖。
1700216883
1700216884
1700216885
1700216886
1700216888
心灵的未来 情感菜单
1700216889
1700216890
由于情感要通过外部编程赋予机器人,所以制造者需要提供一份精心选取的情感菜单,判断哪些必要,哪些有用,哪些有助于巩固主人与机器人之间的联系。
1700216891
1700216892
非常可能的是,机器人的程序中只包括几种人类情感,这取决于具体情境。也许机器人的主人最看重的是忠诚。我们希望自己的机器人忠实地完成自己的指令,毫无抱怨,希望它明白主人的意图,甚至预知这些意图。主人最不希望的是有自己态度的机器人,不希望它们回嘴、批评人类或抱怨。有益的批评很重要,但这些必须以一种建设性的、策略性的方式作出。另外,如果人们给出的指令相互矛盾,机器人应该知道只听从主人的指令,忽略其他人的所有指令。
1700216893
1700216894
同感是另外一种主人会看重的情感。有同感能力的机器人能够理解他人的问题,给他们提供帮助。通过理解面部运动,聆听声音语调,机器人能够判断出一个人是否处在困境中,并在可能的情况下提供帮助。
1700216895
1700216896
奇怪的是,恐惧也是一种有益的情感。进化赋予我们恐惧的感情并非偶然,它让我们避开危险的事物。即使机器人由钢铁制成,它们也应该害怕那些会对它们造成伤害的事物,如从高楼上掉落或被大火吞没。如果机器人完全无畏地毁了自己,它就什么用处都没有了。
1700216897
1700216898
但有些情感需要删除、禁止或严格管控,如愤怒。假设我们所制造的机器人有着强大的体力,如果它发脾气就会在家庭中和工作场所中造成巨大的问题。愤怒会影响它的职责,也会带来很大的财产损失。(愤怒进化出来的原始目的是表达我们的不满。这能够以理性的、冷静的方式实现,而不必愤怒。)
1700216899
1700216900
另外一种应该删除的情感是控制欲。爱发号施令的机器人只会带来麻烦,会挑战主人的判断和愿望。(这一点对后面的内容也很重要,我们将讨论机器人有一天是否会接管人类。)所以要使机器人听从主人的意愿,即便这不是最好的路径。
1700216901
1700216902
但是,也许最难传达的情感是幽默,这是把陌生人联系在一起的纽带。一个小笑话能够缓解紧张的局面,也会将其引爆。幽默的基本原理十分简单:其中包含一个出乎意料的妙语。但幽默的细微之处却包罗万象。事实上,我们总是会从一个人对某些笑话作何种反应来判断他的为人。如果人类把幽默作为一种测量器来评判别人,那么我们就能理解制造出可以听出笑话可不可笑的机器人的困难之处。例如,罗纳德·里根(Ronald Reagan)总统用妙语化解难题的功夫十分有名。他真的积攒了一大堆写有笑话、讽刺警句和俏皮话的卡片,因为他懂得幽默的力量。(有些博学之士认为他赢得与沃尔特·蒙代尔(Walter Mondale)的大选辩论,是因为当被问及他当总统是否太老了时,他的回答是他不会以对方的年轻攻击对方。)不过,不恰当的幽默会造成灾难性的后果(事实上有时也是一种精神疾病的征兆)。机器人需要知道和别人一起笑与嘲笑别人的差异。(演员们非常清楚笑的这两种属性。他们通过娴熟的技巧制造出代表幽默、讽刺、愉悦、愤怒、悲伤等不同情感的笑声。)所以,除非人工智能理论已经非常发达,不然机器人还是应该不要幽默和笑声为好。
1700216903
1700216904
1700216905
1700216906
1700216908
心灵的未来 给情感编程
1700216909
1700216910
在上面的讨论中,我们没有涉及究竟怎样把情感程序写入计算机这个难题。因为情感的复杂性,给它们编程可能需要分阶段进行。
1700216911
1700216912
首先,最容易的部分是通过分析人的面部、嘴唇、眼眉和声调等符号来识别情感。当今的面部识别技术已经能够编出一部情感词典,告诉我们特定面部表情传达什么特定含义。这个研究进程可以追溯到查尔斯·达尔文,他花了大量时间编纂记录人类和动物共有的情感。
1700216913
1700216914
其次,机器人必须能够对这种情感做出快速回应。这也比较简单。如果有人在笑,那么机器人也应该咧嘴笑。如果有人生气,那么机器人应该闪开,避免冲突。机器人的程序中会有一部情感的百科全书,这样它就能知道怎样对每个情感做出快速反应了。
1700216915
1700216916
第三个阶段也许是最为复杂的,因为它关乎确定原始情感背后的潜在动机。这非常困难,因为一种情感可以由不同的情景引发。笑可能意味着某人开心,也可能意味着他听了一个笑话或者看到别人摔了一跤。或者,还可能意味着这个人紧张、焦虑或侮辱别人。同样,如果某人尖叫,也许是有紧急情况,也许只不过是他开心或惊讶。确定情感背后的原因是一种甚至是人类自己都觉得有困难的事情。为达到这一点,机器人需要列出一种情感背后的各种可能原因,确定其中最能讲得通的一个。也就是说,要找出与数据最为匹配的情感原因。
1700216917
1700216918
第四,机器人确定了情感来源之后,它需要做出相应的反应。这也比较困难,因为通常会有几种可能的反应,错误的反应会使得情况更糟。机器人的程序中已经有了对原始情感作如何反应的清单。它还要计算出哪一种反应是当下情境中最适合的,这就意味着对未来进行模拟。
1700216919
1700216920
[
上一页 ]
[ :1.700216871e+09 ]
[
下一页 ]