1701312606
包含表情的面孔在我们心中是什么样?
1701312607
1701312608
在表情研究领域,有一套叫作FACS的面部动作编码系统用于分析面部肌肉运动从而描述表情。比如在这个系统内,最为标准(切记这个只是他们发现的标准动作,很多别的组合也能够传递笑容,但是不见得会像这一个被广泛准确地判断)的“开心/愉快”表情应该是脸颊上升(眼角肌肉的体现)以及嘴角上升(脸颊一条肌肉提升)。在美剧《别对我说谎》中的专家Lightman博士(你没看错,就是Ekman教授参与的,拍的就是他心中的自己吧)能依靠这一套编码系统分辨别人的表情。不过我们的大脑既不是Lightman博士那样的“专家”的大脑,也不会这一套基于生理和解剖学的技术,依然能够很准确地判断别人的表情情绪,这是为什么呢?倘若肌肉是表情的因,大脑更倾向于从表情的果去推测表情,然后理解情绪。表情在我们眼里,最初应该是线条、颜色、明暗这样初级的信息,之后才被整体识别成为一组面部特征,最后才能被当作表情被特别的模块处理。
1701312609
1701312610
1701312611
1701312612
1701312613
红色高亮区域就是笑容所涉及的肌肉
1701312614
1701312615
就和判断面孔所代表的身份一样,大脑在“理解”表情传递的情绪之前先分析了面孔所传递的“地理信息”。我们可以这样理解,在最终“裁决”情绪的神经系统之前,大脑先要把看到的面孔通过视觉处理系统“翻译”为“裁判们”理解的“语句”。所以说这个系统还是挺复杂的。我们先谈一谈“翻译”的过程。
1701312616
1701312617
画自画像对于不擅长绘画的朋友肯定是困难的:比如我在足球游戏中对虚拟角色“捏脸”的过程,即通过调整数据刻画让游戏中的面孔的过程,都做不好,何谈画出自己的相貌(身份)?不过如果让你画一张笑脸,我相信多数人毫无问题。这就和现在我们用的网络表情一样,几条线段(比如:D以及^-^都能够传递笑容)方可传递出表情和情绪。倘若你还熟悉前面几章的内容,会不会觉得情绪信息只需要局部信息就足够?其实不是,这个例子恰恰反映表情情绪(相比身份)的多层次与复杂性。
1701312618
1701312619
我们先复习一下整体识别与局部识别的区别。整体识别强调我们在判断时把所有的局部融合成一个抽象的整体,然后不拘泥于细节地判断,而局部识别强调我们根据某些细节来判断。倘若几条线段便可以让我们产生对于面孔情绪的判断,我们可以说面孔情绪的判断层次不高,因为线条算是最基础的视觉信息;我们也可以说局部信息可以影响我们对于面孔表情的判断。在做判断之前,我们先看看前人的研究成果。
1701312620
1701312621
“合成面孔效应”是面孔整体识别的试金石,倘若要了解表情涉及整体还是局部识别便可以利用这个效应。Calder(考尔德)和同事就利用“合成面孔效应”,一张面孔的上下部分由两张包含不同情绪的面孔组成,检测面孔是不是整体识别的:观察参与实验的志愿者能不能搞清楚上下部分是什么情绪。他们发现相比连在一起的图片,判断分开的图片(无论上下部分)更快也更准确:因为一旦两张面孔部分连接在一起就会激活整体识别,所以上下半张脸的局部识别会被压抑;但是一旦面孔不是连接在一起就能破坏整体识别,因此判断半张面孔受到更少影响。但是当Calder教授把图片倒置过来之后,由于倒置面孔效应也能干扰整体识别,因而连接与分开的“合成面孔”差距被缩减了很多。因此在两种判断整体效应的“试金石”下,针对面孔表情的识别过程是整体识别的说法被强有力地支持。我们可以说人们判断面孔情绪时,会倾向于合并所有的信息,化作一个整体来判断。脑成像的数据也表明大脑挺喜欢通过表情上低空间频率部分判断“害怕”的情绪;而低空间频率信息即是整体识别的关键要素。不过判断情绪就完全依靠整体识别并且利用低空间频率信息吗?
1701312622
1701312623
相对面孔的身份部分(身份判断有时候也会依赖局部信息),面孔的情绪部分实在复杂。这里就有一个好例子:尽管先天性面孔失认症患者能够判断他人表情中的情绪,但是由于梭状回面孔区的失调(涉及整体识别),有些面孔失认症患者在整体识别能力上非常弱。虽然能够识别情绪,但不是利用整体识别,因而先天性面孔失认症患者的表情情绪更依靠局部信息补偿。在正常人身上,有时候局部信息也足够支持情绪判断。Smith(史密斯)与同事们也用“气泡脸技术”发觉基本表情情绪的判断分别依赖于不同的局部:比如“高兴”的表情依赖于嘴唇传递,但是“害怕”的表情依靠眼睛传递。
1701312624
1701312625
1701312626
1701312627
1701312628
这一些面孔部分是传递这几种表情情绪的必要区域。图片来自Smithet al.,2005
1701312629
1701312630
再回忆下戴着眼罩的侠客佐罗,遮住眼睛部分便能让人不好辨认身份,但是余下的嘴还是能传递一部分表情。当然,由于(这本书前半部分提到过的)整体识别以及眼睛、眉毛在情绪中的作用,被遮盖情况下表情识别会慢不少也难不少,但还是可以判断。局部识别也是判断情绪中很重要的部分。大家想一想,有时候表情不适合摆出来,但是局部的变化足以传递情绪:领导说错话之后,台下的你们肯定不敢笑出声,互相看一下睁大的眼睛和高耸的眉毛就能互相传递你们复杂的情感。对于局部识别,有几组科学家做出了巧妙的研究。眼睛可以传情达意,最重要的一点就是巩膜(眼白)与瞳孔黑白对比。Whalen(惠伦)与同事就利用这点做了一个核磁共振实验:那么我们只看眼白部分能不能也体会到情绪呢?他们选取了“高兴”与“害怕”两种情绪,它们由于眼部活动不同,露出来的巩膜大小差距最显著。他们发现尽管图片只被呈现17毫秒,人们脑中的杏仁核(参与害怕体验的一个脑区)会被接近四倍地激活。也就是说大脑可以通过一小部分的重要信息判断出面孔所传递的情绪。其实整体识别也源自局部的信息,尤其是整体信息缺失时我们的大脑的一些部分(杏仁核)可以利用有限的信息做出准确判断。
1701312631
1701312632
1701312633
1701312634
1701312635
很明显,害怕的表情中眼睛的形状和对比度不同
1701312636
1701312637
不光是面孔上的一部分足以激发判断情绪的神经系统活跃,简单几道曲线也可以让我们真切地感觉到开心或者悲伤。之前我提到过“适应后效”的研究,这种研究方法可以像脑成像一样,从行为上探究神经系统的工作原理。它本是我们大脑用来最大化适应环境的一套被动手段,现在被科学家用来研究大脑。“适应后效”的原理可以用下面一个(不恰当的)例子来理解:大脑接收到一波刺激之后,相对应的区域神经会“疲倦”,因此它们立即判断同样的刺激时,会因为神经活跃性降低以及引发的复杂处理模式变化而产生改变:吃了一粒糖之后,同样的糖不见得会那么甜;当我们看多了笑容,面无表情的面孔会看起来有点不开心。徐红教授和她的同事就用适应后效探讨了下局部信息对于“高兴”和“悲伤”的影响。众所周知,开心时我们嘴角向上弯,悲伤时嘴角向下弯;那这一个低层次的曲线会不会影响我们的情绪判断呢?结果竟然是可以,看了凹的曲线,之后的面孔看起来都不甚开心,看到了凸的曲线,面孔看起来会显得开心一些。这个实验不光突出局部识别对于面孔的影响,甚至强调了跨层次的影响:曲线最为直接地表现了初级视觉皮层的信息比较低级,面孔作为复杂抽象的数据,依靠大量系统便显得比较高级。其实我认为,曲线产生了低层次的适应后效,让嘴角看起来不那么弯,因而在整体识别之时感觉起来不弯的嘴角改变了情绪判断,也就彰显后效。所以说整体识别还是情绪判断的重点,但是局部识别参与很多;同时由于情绪的处理横跨视觉信息的多个层次,所以也有多层次性。看起来简单的面孔,在判断表情情绪时却不简单:在我们心中,每张面孔上的情绪都是立体的饱满的,是横跨空间分辨率的,也就是横跨了线到面甚至立体图形的维度。
1701312638
1701312639
尽管用手遮住嘴巴也可能让人判断出来你的身份,而且用手遮盖你的嘴巴也不能完全遮盖住你的笑容。所以下次倘若你的领导说错话了,你还是忍住别笑比较好,遮不住啊(整体信息和局部信息都足以判断情绪)。
1701312640
1701312642
大脑是怎么加工表情情绪的?
1701312643
1701312644
科学的目标肯定不只是发现现象(能判断面孔情绪),还要理解原理(大脑怎么编码);不过在这之前还是要先理解大脑哪些系统参与情绪识别。相比通过面孔判断身份,判断表情传递的情绪更加复杂和多层次。然而大脑也需要更加复杂的系统去分辨一张面孔所传递的信息:也就是面孔上转瞬即逝的那一部分信息。按照Haxby与同事的面孔分析的神经模型判断表情情绪需要至少两个步骤:第一步是核心系统对于面孔的视觉信息加工和描述,第二步就是拓展系统中一些分布的大脑区域对于已经分析好的视觉信息进行解读和理解。
1701312645
1701312646
相对于判断面孔身份,加工面孔所传递的情绪需要复杂的神经活动。相比身份的判断是后天学习的,我们人类在出生后不久(36个小时的时候,完全没有社会经验,也没有人传授他们判断情绪的秘诀)就能够判断和模仿情绪。可见情绪判断的重要和复杂。在判断以及理解情绪的时候,不光是大脑皮层(cortical)上的神经区域参加了活动,甚至皮层下的(subcortical)神经系统也参与了工作。许多有大脑的动物都有皮层下组织,它参与维系生命的基础活动,在情绪判断的时候快速,不需要注意力的参与,且稍显粗糙;而皮层组织只有少数动物才有(比如青蛙就没有,它在进化历程的近期才出现),较需要意识才能进行处理,速度虽慢但是判断准确。这两套互补的情绪系统可以应付生活中的各种情况,从突如其来的灾难到细致揣摩上意都能用到。下面,让我们逆向与大脑的发育进化历史先从皮层上的神经系统开始讲。
1701312647
1701312648
自从科学家们发现猴脑颞叶皮层存在“专门服务”于理解面孔表情、情绪的细胞之后,科学家们更想要搞清楚表情这样一种社交中必不可少的信息到底会在脑海中如何被处理:表情情绪在大脑中是否被专门的系统处理,如果有,它们在哪儿。正如Bruce和Young教授的面孔模型所说,表情与身份应该是面孔所能提供的两种不同信息的代表。因而,不少科学家都致力于区分身份与表情处理的大脑区域。前几章我们已经知道梭状回面孔区(fusiform face area)配合上前颞叶(anterior temporal)是大脑分析一张面孔属于谁的主要位置。通过猕猴脑中的实验科学家发现大脑中颞上沟(superior temporalsulcus)对于通过面部识别身份的变化没有明显反馈(比如说看到张三和看到李四,颞上沟兴奋没有差异,唯独有表情的面孔才能激发它活跃兴奋。比如相比没有情绪的面孔,有无论什么情绪的面孔都能激起颞上沟的活跃)。人脑和猴脑虽然相近,但是由于我们的大脑更为复杂,功能更多,还是有所差异:在人脑中类似于猴脑对于表情活跃的区域是后颞上沟(pSTS)而非整个颞上沟(分别是在核磁共振精度提升之后更清晰)。颞上沟不只对情绪表情有反应,它对眼睛、动态,甚至身份信息都有活跃。毕竟它紧邻中颞叶皮层,直接接收到动态的信息,所以表情和眼动信息在它那儿一视同仁,都是一样动态的信息,无非是前者在我们看来传递情绪,后者传递注意罢了。也有科学家认为后颞上沟不仅自身设计情绪判断,还作为情绪信息的中枢,汇总融合表情情绪信息(甚至声音情绪信息)。总而言之,后颞上沟是表情情绪信息判断的一个重要节点,也是面孔识别中三个重要的中枢之一。
1701312649
1701312650
1701312651
1701312652
1701312653
这条红红的脑区就是颞上沟,它足够让我们判断别人的情绪。按照最新的理解,颞上沟参与动态、动作的理解,表情也是一种动态信息,也能表达之后此人会有什么样的行为。这没准儿就是颞上沟参与情绪的原因
1701312654
[
上一页 ]
[ :1.701312605e+09 ]
[
下一页 ]