1700216857
1700216858
Nao不仅有个性,事实上他能同时表现出几种个性。由于他能在与人类的互动中进行学习,而每次互动都是独一无二的,最终他会表现出不同的个性。例如,其中一种个性可能十分独立,不需要人类的关心。另一种个性可能非常胆小、恐惧,害怕屋子里的物体,总是需要人的关心。
1700216859
1700216860
Nao的项目负责人是哈特福德大学的计算机科学家,洛拉·加纳梅罗(Lola Cañamero)博士。为了展开这项很有雄心的计划,她研究了黑猩猩之间的互动。她的目的是尽可能地复制一个一岁大的黑猩猩的情感行为。
1700216861
1700216862
她认为这些情感机器人可以立即投入应用。就像布雷齐尔博士一样,她希望这些机器人可以减轻生病住院的儿童的焦虑。她说:“我们想研究不同的角色——机器人可以帮助儿童了解自己的治疗方案,向他们解释要做什么。我们希望帮助儿童控制自己的焦虑。”
1700216863
1700216864
另外一种可能性是,这些机器人可以成为疗养院中的陪伴。Nao可以成为医院员工很得力的助手。同时,像这样的机器人还可以成为儿童的玩伴,成为家庭中的一个成员。
1700216865
1700216866
圣迭戈附近的索尔克(Salk)生物科学研究所的泰伦斯·谢伊诺夫斯基(Terrence Sejnowski)博士说:“很难预测未来,但我们面前的计算机演变成一种社会机器人应该不会太遥远。你可以跟它说话,跟它谈情说爱,甚至可以对它发脾气,向它怒吼。它能够理解你,理解你的情感。”这些是容易做到的。困难的是评估机器人得到这些信息后会作出什么回应。如果主人生气不高兴,机器人应该把这种因素纳入到它的回应中。
1700216867
1700216868
1700216869
1700216870
1700216872
心灵的未来 情感:确定什么是重要的
1700216873
1700216874
此外,人工智能研究者开始认识到情感可能是人类意识的关键。像安东尼奥·达马西奥(Antonio Damasio)博士这样的神经科学家发现,前额叶(负责理性思维)与情感中枢(例如边缘系统)的连接发生损坏时,病人就不能进行价值判断。即使进行最简单的决策(买什么东西,什么时候约会,用什么颜色的笔),他们都会陷入瘫痪,因为每件事对他们来说都具有相同的价值。因此,情感并不是什么无关紧要的奢侈品,它有着绝对的重要性,没有情感,机器人就无法确定什么是重要的和什么不是。所以,情感现在不再居于人工智能研究的边缘,而是占据了中心地位。
1700216875
1700216876
如果机器人遇到大火,它可能会首先抢救电脑资料,而不是抢救人,因为它的程序可能会认为有价值的文件不能复制,而工人总是有替代者。所以,关键的一点是,机器人的程序需要判断什么是重要的,什么是不重要的,而情感正是大脑用来快速确定这一点的捷径。因此,机器人的程序也应该建立这种价值体系:人的生命比物体更重要,应在紧急事件中先抢救儿童,价格高的物体比价格低的物体更有价值等。由于机器人并非天生就具有价值判断,所以必须给它上传一张庞大的价值判断清单。
1700216877
1700216878
然而,情感带来的问题是,它有时并不理性,而机器人具有数学般的精确性。所以硅意识与人类意识可能有着本质上的不同。例如,人类几乎无法控制情感,因为情感来得非常快,也因为它产生于人大脑的边缘系统,而非前额叶皮层。此外,人类情感经常带有偏见。无数的实验表明,我们倾向于高估那些长相俊美的人的能力。这些人在社会中很可能会有更好的前途,更好的就业,虽然他们的能力不一定比其他人强。正如常言道的:“美丽有特权。”
1700216879
1700216880
同样,硅意识也许并不考虑人类在交往中所使用的那些微妙的信号,比如身势语言。当我们进入房间时,年轻的人通常会礼让年长的人以表示尊敬,职位低的人会对上司格外礼貌。我们通过身体的移动、语词的选择以及我们的体态手势表现出尊敬。因为身势语言比语言本身更为古老,已经以精微的方式写进了我们的大脑中。如果要机器人与人类进行社交互动,那么它们就需要学会这些潜意识性的信号。
1700216881
1700216882
我们的意识受到进化过程中具体事物的影响,这是机器人不具备的,所以硅意识中可能不会出现人类意识中的缺陷或怪癖。
1700216883
1700216884
1700216885
1700216886
1700216888
心灵的未来 情感菜单
1700216889
1700216890
由于情感要通过外部编程赋予机器人,所以制造者需要提供一份精心选取的情感菜单,判断哪些必要,哪些有用,哪些有助于巩固主人与机器人之间的联系。
1700216891
1700216892
非常可能的是,机器人的程序中只包括几种人类情感,这取决于具体情境。也许机器人的主人最看重的是忠诚。我们希望自己的机器人忠实地完成自己的指令,毫无抱怨,希望它明白主人的意图,甚至预知这些意图。主人最不希望的是有自己态度的机器人,不希望它们回嘴、批评人类或抱怨。有益的批评很重要,但这些必须以一种建设性的、策略性的方式作出。另外,如果人们给出的指令相互矛盾,机器人应该知道只听从主人的指令,忽略其他人的所有指令。
1700216893
1700216894
同感是另外一种主人会看重的情感。有同感能力的机器人能够理解他人的问题,给他们提供帮助。通过理解面部运动,聆听声音语调,机器人能够判断出一个人是否处在困境中,并在可能的情况下提供帮助。
1700216895
1700216896
奇怪的是,恐惧也是一种有益的情感。进化赋予我们恐惧的感情并非偶然,它让我们避开危险的事物。即使机器人由钢铁制成,它们也应该害怕那些会对它们造成伤害的事物,如从高楼上掉落或被大火吞没。如果机器人完全无畏地毁了自己,它就什么用处都没有了。
1700216897
1700216898
但有些情感需要删除、禁止或严格管控,如愤怒。假设我们所制造的机器人有着强大的体力,如果它发脾气就会在家庭中和工作场所中造成巨大的问题。愤怒会影响它的职责,也会带来很大的财产损失。(愤怒进化出来的原始目的是表达我们的不满。这能够以理性的、冷静的方式实现,而不必愤怒。)
1700216899
1700216900
另外一种应该删除的情感是控制欲。爱发号施令的机器人只会带来麻烦,会挑战主人的判断和愿望。(这一点对后面的内容也很重要,我们将讨论机器人有一天是否会接管人类。)所以要使机器人听从主人的意愿,即便这不是最好的路径。
1700216901
1700216902
但是,也许最难传达的情感是幽默,这是把陌生人联系在一起的纽带。一个小笑话能够缓解紧张的局面,也会将其引爆。幽默的基本原理十分简单:其中包含一个出乎意料的妙语。但幽默的细微之处却包罗万象。事实上,我们总是会从一个人对某些笑话作何种反应来判断他的为人。如果人类把幽默作为一种测量器来评判别人,那么我们就能理解制造出可以听出笑话可不可笑的机器人的困难之处。例如,罗纳德·里根(Ronald Reagan)总统用妙语化解难题的功夫十分有名。他真的积攒了一大堆写有笑话、讽刺警句和俏皮话的卡片,因为他懂得幽默的力量。(有些博学之士认为他赢得与沃尔特·蒙代尔(Walter Mondale)的大选辩论,是因为当被问及他当总统是否太老了时,他的回答是他不会以对方的年轻攻击对方。)不过,不恰当的幽默会造成灾难性的后果(事实上有时也是一种精神疾病的征兆)。机器人需要知道和别人一起笑与嘲笑别人的差异。(演员们非常清楚笑的这两种属性。他们通过娴熟的技巧制造出代表幽默、讽刺、愉悦、愤怒、悲伤等不同情感的笑声。)所以,除非人工智能理论已经非常发达,不然机器人还是应该不要幽默和笑声为好。
1700216903
1700216904
1700216905
1700216906
[
上一页 ]
[ :1.700216857e+09 ]
[
下一页 ]