打字猴:1.700216845e+09
1700216845 心灵的未来 [:1700213094]
1700216846 心灵的未来 情感机器人
1700216847
1700216848 认识一下Nao(瑙)机器人。
1700216849
1700216850 当他开心时,他会伸出手臂迎接你,期待着一个大大的拥抱。当他悲伤时,他会低垂着头,表现出孤独与绝望,两个肩膀向前耸着。当他受惊吓时,他会恐惧地退缩,需要有人拍拍他的头安慰他。
1700216851
1700216852 他与一个一岁的男孩没什么两样,只不过他是一个机器人。Nao大约1.5英尺(0.46米)高,造型与玩具店里的机器人差不多,比如变形金刚,不过他可是这个世界上最先进的情感机器人之一。他由英国哈特福德大学的科学家制造,该项研究得到了欧盟的资助。
1700216853
1700216854 制造者给他编入了表现开心、悲伤、恐惧、兴奋和骄傲等情感的程序。其他机器人只具备基本的传达情感的面部动作和语言行为,而Nao在肢体语言方面(如姿势和手势)已经有非常高超的水平。瑙(Nao)甚至还会跳舞。
1700216855
1700216856 与其他只掌握一种特定情感的机器人不同,Nao掌握一系列的情感回应方法。首先,Nao锁定观察者的面部,进行识别,然后记住他之前与这些人互动的情况。其次,他开始跟踪这些人的活动。例如,他可以跟踪他们的目光,判断出他们正在看什么。第三,他开始与这些人建立联系,学习怎样对他们的身势进行回应。例如,如果你对他微笑或拍拍他的头,他就知道这是一种积极的信号。因为他的大脑具有神经网络,他可以在与人类的互动中进行学习。第四,Nao在与人的互动中可以表现出情感回应。(他的情感回应都经过编程,就像录音机一样,但由他来决定选择哪种情感以用到具体情境中。)最后,随着Nao与某一个人互动的深入,他就会越深入地理解这个人的心情,他们之间的联系也变得越来越牢固。
1700216857
1700216858 Nao不仅有个性,事实上他能同时表现出几种个性。由于他能在与人类的互动中进行学习,而每次互动都是独一无二的,最终他会表现出不同的个性。例如,其中一种个性可能十分独立,不需要人类的关心。另一种个性可能非常胆小、恐惧,害怕屋子里的物体,总是需要人的关心。
1700216859
1700216860 Nao的项目负责人是哈特福德大学的计算机科学家,洛拉·加纳梅罗(Lola Cañamero)博士。为了展开这项很有雄心的计划,她研究了黑猩猩之间的互动。她的目的是尽可能地复制一个一岁大的黑猩猩的情感行为。
1700216861
1700216862 她认为这些情感机器人可以立即投入应用。就像布雷齐尔博士一样,她希望这些机器人可以减轻生病住院的儿童的焦虑。她说:“我们想研究不同的角色——机器人可以帮助儿童了解自己的治疗方案,向他们解释要做什么。我们希望帮助儿童控制自己的焦虑。”
1700216863
1700216864 另外一种可能性是,这些机器人可以成为疗养院中的陪伴。Nao可以成为医院员工很得力的助手。同时,像这样的机器人还可以成为儿童的玩伴,成为家庭中的一个成员。
1700216865
1700216866 圣迭戈附近的索尔克(Salk)生物科学研究所的泰伦斯·谢伊诺夫斯基(Terrence Sejnowski)博士说:“很难预测未来,但我们面前的计算机演变成一种社会机器人应该不会太遥远。你可以跟它说话,跟它谈情说爱,甚至可以对它发脾气,向它怒吼。它能够理解你,理解你的情感。”这些是容易做到的。困难的是评估机器人得到这些信息后会作出什么回应。如果主人生气不高兴,机器人应该把这种因素纳入到它的回应中。
1700216867
1700216868
1700216869
1700216870
1700216871 心灵的未来 [:1700213095]
1700216872 心灵的未来 情感:确定什么是重要的
1700216873
1700216874 此外,人工智能研究者开始认识到情感可能是人类意识的关键。像安东尼奥·达马西奥(Antonio Damasio)博士这样的神经科学家发现,前额叶(负责理性思维)与情感中枢(例如边缘系统)的连接发生损坏时,病人就不能进行价值判断。即使进行最简单的决策(买什么东西,什么时候约会,用什么颜色的笔),他们都会陷入瘫痪,因为每件事对他们来说都具有相同的价值。因此,情感并不是什么无关紧要的奢侈品,它有着绝对的重要性,没有情感,机器人就无法确定什么是重要的和什么不是。所以,情感现在不再居于人工智能研究的边缘,而是占据了中心地位。
1700216875
1700216876 如果机器人遇到大火,它可能会首先抢救电脑资料,而不是抢救人,因为它的程序可能会认为有价值的文件不能复制,而工人总是有替代者。所以,关键的一点是,机器人的程序需要判断什么是重要的,什么是不重要的,而情感正是大脑用来快速确定这一点的捷径。因此,机器人的程序也应该建立这种价值体系:人的生命比物体更重要,应在紧急事件中先抢救儿童,价格高的物体比价格低的物体更有价值等。由于机器人并非天生就具有价值判断,所以必须给它上传一张庞大的价值判断清单。
1700216877
1700216878 然而,情感带来的问题是,它有时并不理性,而机器人具有数学般的精确性。所以硅意识与人类意识可能有着本质上的不同。例如,人类几乎无法控制情感,因为情感来得非常快,也因为它产生于人大脑的边缘系统,而非前额叶皮层。此外,人类情感经常带有偏见。无数的实验表明,我们倾向于高估那些长相俊美的人的能力。这些人在社会中很可能会有更好的前途,更好的就业,虽然他们的能力不一定比其他人强。正如常言道的:“美丽有特权。”
1700216879
1700216880 同样,硅意识也许并不考虑人类在交往中所使用的那些微妙的信号,比如身势语言。当我们进入房间时,年轻的人通常会礼让年长的人以表示尊敬,职位低的人会对上司格外礼貌。我们通过身体的移动、语词的选择以及我们的体态手势表现出尊敬。因为身势语言比语言本身更为古老,已经以精微的方式写进了我们的大脑中。如果要机器人与人类进行社交互动,那么它们就需要学会这些潜意识性的信号。
1700216881
1700216882 我们的意识受到进化过程中具体事物的影响,这是机器人不具备的,所以硅意识中可能不会出现人类意识中的缺陷或怪癖。
1700216883
1700216884
1700216885
1700216886
1700216887 心灵的未来 [:1700213096]
1700216888 心灵的未来 情感菜单
1700216889
1700216890 由于情感要通过外部编程赋予机器人,所以制造者需要提供一份精心选取的情感菜单,判断哪些必要,哪些有用,哪些有助于巩固主人与机器人之间的联系。
1700216891
1700216892 非常可能的是,机器人的程序中只包括几种人类情感,这取决于具体情境。也许机器人的主人最看重的是忠诚。我们希望自己的机器人忠实地完成自己的指令,毫无抱怨,希望它明白主人的意图,甚至预知这些意图。主人最不希望的是有自己态度的机器人,不希望它们回嘴、批评人类或抱怨。有益的批评很重要,但这些必须以一种建设性的、策略性的方式作出。另外,如果人们给出的指令相互矛盾,机器人应该知道只听从主人的指令,忽略其他人的所有指令。
1700216893
1700216894 同感是另外一种主人会看重的情感。有同感能力的机器人能够理解他人的问题,给他们提供帮助。通过理解面部运动,聆听声音语调,机器人能够判断出一个人是否处在困境中,并在可能的情况下提供帮助。
[ 上一页 ]  [ :1.700216845e+09 ]  [ 下一页 ]