1701312194
大脑为了面孔“尽力了”
1701312195
1701312196
在了解大脑“眼中”的面孔之前,我们先粗略地了解一下大脑会如何加工我们所看到的面孔。对于面孔的识别,隶属于视觉识别,这要归功于我们大脑内处理面孔的复杂结构。在大脑里,进行初步视觉处理后,还有不少针对面孔活跃的神经区域。
1701312197
1701312198
让我们回到1982年,Mishkin(米休金)和Ungerleider(昂格莱德)教授在猴子的脑损伤实验中得到了改变视觉研究的成果。这个结果又称为双通道假设理论,即大脑在处理视觉信息的时候会把信息分成两组分别处理。在视觉刺激被初级视觉皮层分析之后会被分为两束。一束叫作背侧通路(dorsal stream),向上传递到顶叶皮层(靠近头顶的位置);它主要传递视觉刺激的空间方面的信息(where),放在面孔角度就是面孔有什么动态,朝向什么位置,离我们有多远,在说什么话。另一束叫作腹流(ventral stream),向下传递到颞叶皮层(靠近耳朵的那个位置);它主要传递视觉刺激的内容方面信息(what),放在面孔上就是这个人是谁,他是怎么样一个人,他与我们有什么关系。这个划分为科学家指明道路:大脑在处理视觉信息时不是一股脑儿放到“处理中心”分析,而是会根据材料略做划分。而在另一个方面,我们可以发现大脑在识别一张图片时,会有广泛的激活。更不要说是面孔信息了。
1701312199
1701312200
1701312201
1701312202
1701312203
图中所示的就是视觉处理的初级阶段。再之后这些分散的信息会被重新整合。这一章着重讲图上过程完结之后大脑做了什么
1701312204
1701312205
1701312206
1701312207
1701312208
紫色部分是下颞叶,箭头代表了腹流,关乎“是什么”;绿色部分为后顶叶,箭头代表了背流,关乎“在哪里”。通过这两条通道我们能够理解周围的世界
1701312209
1701312210
在这之后,随着技术的提升,我们对于视觉识别的理论了解得越来越清晰:复杂的协同工作帮助我们识别看到的东西。倘若我们观察整个大脑,在做判断时大脑没有什么地方能够闲下来。所以说不要相信一些文学作品中“大脑没有完全利用”的说辞。上述的两束信息流只不过是开始,之后整个大脑会如同点燃的烟火一般完全燃烧起来。
1701312211
1701312212
丰富的视觉研究成果(从理论上以及方法上)帮助了人类对于面孔识别的研究:面孔也是一种视觉刺激,那么它会不会也被不同的脑区处理呢?是怎么样处理呢?这就是Bruce和Young两位教授在1986年根据面孔识别中实际的功能差异,把面孔识别划分出的两类:这个人是谁,这个人摆出了什么表情。在他们的观点中,身份判断以及情绪判断有着截然不同的功效,自然不太可能按照同一个处理方式去处理;进一步讲,唇语阅读等内容也应该更靠近于瞬息万变的表情,但是远离万变不离其宗的身份。当时虽然没有充足的脑成像研究,但是他们大胆假设面孔会有不同的区域识别。
1701312213
1701312214
在20世纪80年代,猕猴的单电极研究发现了不少有趣的结果。单电极就是把一根电极深入大脑直接“窃听”一个神经的活跃。由于要侵入大脑,此方法往往局限于动物研究。比如说Perret(佩雷)教授发现猕猴的颞叶部分有些细胞只对面孔产生反应,对于车子、房子什么的没兴趣。这一些研究被科学界采纳:大脑的确对于面孔比较特殊,甚至进化出专门用于面孔识别的区域。不过猴子再和人类相似,我们也不能把猴脑的研究成果直接搬到人脑上,哪怕结构相似,很多细节之处复杂的差异也会导致不一样的结果。
1701312215
1701312216
到了1997年,马萨诸塞理工学院的Kanwisher教授在人脑中发现了一些不一样的东西:梭状回面孔区(Fusiform Face Area,简称FFA)。此区域也在人脑的颞叶,位置偏下,需要从下往上看才能看清楚。这个区域在人察觉到人脸的时候就有频率稳定的活跃。之后Kanwisher教授做了进一步对比实验,确定这个区域涉及面孔的身份识别:判断“他是谁”就依靠这个区域。返回去看,这个区域的失调也是面孔失认症的源头。同时,在20世纪末,不少学者也发现判断面孔的一些细节的时候也会动用不同的脑区,比如说杏仁核(amygdala)、脑岛、颞上沟等等。当时以Kanwisher教授为首的一群科学家就认为人类在判断面孔的时候会“启用”一些非常特殊的大脑区域进行判断。
1701312217
1701312218
不过这个假说很快为Haxby的新模型所吸收包含,最终成为现在广受使用的神经模型假说(distributed neural system)。2000年,Haxby(哈克斯比)、Hoffman(霍夫曼)以及Gobbini(戈比尼)三位科学家总结神经科学的研究成果,在Bruce和Young的功能模型基础上提出了基于神经系统模型。Haxby与同事扩展了Bruce和Young的研究,并且用翔实的研究成果指出:我们的大脑是通过分布开的不同神经系统识辨面孔。这个模型与Kanwisher教授的“特殊”模块处理面孔的假设并不矛盾,应当说互为补充。在下一节我会细细介绍这个假说。
1701312219
1701312221
识别面孔的神经模型
1701312222
1701312223
可能对我们来说一张面孔就是一张面孔,平淡无奇。但是,在科学家那里就是研究的宝藏:在他们眼中身份信息可以帮助人们判断对方的身份,从而采取不同的策略,而表情信息能够表达每个人内心的想法。它们在功能上隶属两个层面,相互都有着很大差异。既然能归为两类信息,科学家们自然会推论两类信息应该有不同的处理系统去处理。根据无数科学家用脑成像和行为科学的研究,Haxby教授和同事提出了一个激动人心的假说:大脑内有三个(几乎只对面孔产生兴趣)核心模块配合若干个(也参与其他大脑活动)拓展区域完成面孔判断,既包含处理稳定的信息(比如身份),又包含易变化的信息(比如表情)。按照这个既被广为接受,又被补充的假说,我们可以了解到为了读一张面孔,大脑有多么努力。
1701312224
1701312225
从核心模块功能来看,一张面孔的身份信息会被梭状回面孔区(FFA)处理,相对,表情信息会被颞上沟(STS)处理。虽然梭状回面孔区和颞上沟都在颞叶之上,但是位置一上一下,而且功能完全不同。其实,有一定神经科学基础的朋友们大致也能理解这两个区域的区别。颞上沟(STS)其实紧邻中颞叶(MT/V5)皮层以及中颞上(MST)皮层:MT皮层最重要的功能就是处理运动、动作信息。而中颞上皮层也类似于中颞叶皮层,进一步分析动作信息。颞上沟孜孜不倦地从这两个相关皮层获得动态图像的信息,也难怪它会处理关于面孔中相对“变化多端”的情绪甚至是唇语这部分要素。相对应的,梭状回面孔区身处颞下叶,它的“邻居们”几乎都和某种识别有所关联:在猕猴脑内,FFA所在的地方,颞下皮层对于面孔,甚至不同朝向的面孔有着特别的反应;它的其他“邻居”也分别与场景识别,还有肢体动作息息相关。这么说来,真的是不是一家人不进一家门,识别瞬息万变或者长久不变的信息的脑区都“聚集”在不同的地方,这些“地方”都有着生理背景原因:大脑也不会凭空委任一些脑区参与一些活动;相反,大脑的“安排”正是基于这些脑区有“能力履职”。
1701312226
1701312227
1701312228
1701312229
1701312230
图来自Haxby&Gobbini(2011)。标注了OFA、FFA以及STS这三个核心模块。你看,都在脑袋后面、侧面,基本就在大家耳朵后面的位置
1701312231
1701312232
不光是核心模块参与面孔的识别,不少涉及其他活跃的大脑区域也参与进面孔的识别。比如说杏仁核(amygdala)就会参与一些负面情绪的判断,也会参与判断来者是否有威胁。比如有一位叫作SM的病人,她的杏仁核受损之后便再也感受不到“害怕”的情绪。不光杏仁核,脑岛(insula)作为一个关乎进食行为的脑区,也会在判断他人情绪的时候活跃;同样,奖惩系统会对不同长相的面孔有不一样的兴奋。涉及判断他人想法以及目的的前扣带回皮层(APC)也会对不同的面孔产生不一样的活跃。前、中颞叶皮层涉及对于面孔的记忆,会随着梭状回面孔区的活跃参与身份的判断活动。这些大脑区域(所谓的拓展区域)都会随着核心区域的活跃一起工作,从而完成对于面孔的判断。这一部分会在之后的章节分开介绍。
1701312233
1701312234
在处理面孔信息的时候大脑的许多模块纷纷参与其中,那么它们之间是怎么样的关系呢?Haxby教授在提出这个模型的时候,强调了大脑在处理面孔时参与的区域是离散分布的(distributed);因而,自然而然地,会有人误以为这些脑区有可能是“各自为政”。事实上,这个推论是错误的。首先,这些脑区的活跃有着时间线上的先后顺序,反映了视觉信息传递的前后性,并不是各自“看心情”才有活跃。其次,这些大脑区域看似分离,其实关联紧密,很多不同的面孔识别任务都会依赖同一个脑部区域。与其把这些脑区比作一个公司内的若干个部门,我更愿意把它们比喻成整个广告部门:其中也有能力迥异的员工,并且,他们不同的搭配和安排可以给所有的甲方完成各种各样的广告设计。
1701312235
1701312236
科学家们在科学模型的建立上永远在追求完善,他们也反思面孔处理模块的分布式假说是不是完全准确,会不会由于研究水平的限制而有缺陷。绝大多数科学家都对完善这一模型保持了开放的态度:心理学作为一门科学有着可证伪性,因而每一个假设都有被推翻的可能。Calder和Young教授在2005年的一篇综述中描述了他们的担忧,他们并不反对这个模型,但是强调了模块本身并不是非黑即白的区分,他们也针对该如何更好地用实验完善和理解提出了建议。同样,Behrmann(贝尔曼)和Plaut(普劳特)在2013年的一篇综述里也提到了这一点,他们没有盲从之前的模型,用实验解释了大脑处理面孔的区域并不各自为政,也不是只有一份工作:它们除了在“本职工作上尽心尽责”,也会对其余的视觉信息产生反应。因此他们建议把“模块”这样听起来很独立、分离的描述性词汇改成“处理圈”,这样强调了整合性但是没有抹杀分布性。所以说,不同的大脑区域的确参与了面孔识别这个“大工程”,但是它们不是完全隔离,相反它们的“私交”很不错,在处理不同内容的时候各自形成小圈子,高效但是不浪费地完成工作。举个例子,一个喜好变化信息的颞上沟(STS)积极参与了情绪识别,可以说是情绪“专家”,它在处理面孔情绪的时候会积极地与“面孔工程师们”合作,也就是会和V4皮层、中颞叶皮层、丘脑、杏仁核一起合作处理面孔情绪;但是转战到声音情绪的时候,它会和“声音工程师们”处理问题,会从A1皮层等相对应区域交接班。所以说这样的脑区并不是“各自为政”,相反它们的组织和处理就足够让很多只会分析KPI的人力资源专员汗颜了。
1701312237
1701312238
在Haxby与同事的模型中,如此多层面的面孔信息不是被一个大的“中央处理器(CPU)”处理,也不是被若干个高度单一用途的“传感器”逐个处理,而是每个层面都会被不同的脑区所处理。当然这并不是暗示每个人的大脑都暗中排布着若干个平行的“处理器”分析不同面部信息;他们的模型指出大脑拥有许多处理模块,在针对面孔处理时,大脑“聘用”三个专门对于面孔有兴趣的、专一性的模块以及不少通用性很强的模块进行分析:举个例子,专业摄像机上有摄像头还有读卡器,其中摄像头就是专一性模块,只用来拍摄,而读卡器功能广泛,它们协同在一起可以起到拍照并记录的作用。回到面孔处理模型上,大脑通过采取不同的核心模块并使其配合其余的延伸模块,最大化地合理利用脑区进行多种多样的面孔信息分析。虽然说不同信息有很大差异,但是不少信息都有着相似的通道进行处理。比如说,表情或者面孔朝向甚至唇语都是属于变化的信息,针对它们的判断都会被颞上沟(STS)这个核心处理模块加工,然后依次与其余的延伸模块进行进一步加工,从而获得完整的识别。仔细一想,这样大脑就会把加工过程中相似的部分进行“合并同类项”,的确是高效,也节省了处理空间。
1701312239
1701312240
通过面孔,每一位读者都能得到大量的信息,而面孔本身也不是“平板”一张,相反,它拥有多层次的信息。在这一章,我们先谈一谈大脑是怎么处理身份信息和表情情绪信息的,而其他内容会在之后章节作为本书的重点详细分析,循序渐进。毕竟在绝大多数科学家眼中,身份信息和表情信息算是人际交往中最重要的组成部分;透彻地研究能够极大程度地帮助我们理解大脑在人际交往中的功能。所以在某种程度上,人们对面孔的身份识别以及表情情绪识别有着最炙热的研究兴趣,也有着最丰富的研究成果。面部表情和身份的确区别很大,不过绝大多数人可以在不知道对方身份的情况下判断对方的情绪,同时大多数人可以在一群有着相同表情的人中寻找出熟悉的人。换句话说,如果你熟悉我,你不会因为我做出了什么奇怪的表情就认不出来我是谁;同时,你可能只熟悉我不熟悉我的表哥,但当你看到我表哥的时候,你依旧可以轻松地判断出来我表哥的表情是开心还是悲伤。科学家们在这两个问题上可谓绞尽脑汁。在谈论这两个问题的区别之前,我们先谈一谈它们的共性,那就是情绪还有身份都是被一种叫作整体识别的方式主导。
1701312241
[
上一页 ]
[ :1.701312193e+09 ]
[
下一页 ]