打字猴:1.70131221e+09
1701312210 在这之后,随着技术的提升,我们对于视觉识别的理论了解得越来越清晰:复杂的协同工作帮助我们识别看到的东西。倘若我们观察整个大脑,在做判断时大脑没有什么地方能够闲下来。所以说不要相信一些文学作品中“大脑没有完全利用”的说辞。上述的两束信息流只不过是开始,之后整个大脑会如同点燃的烟火一般完全燃烧起来。
1701312211
1701312212 丰富的视觉研究成果(从理论上以及方法上)帮助了人类对于面孔识别的研究:面孔也是一种视觉刺激,那么它会不会也被不同的脑区处理呢?是怎么样处理呢?这就是Bruce和Young两位教授在1986年根据面孔识别中实际的功能差异,把面孔识别划分出的两类:这个人是谁,这个人摆出了什么表情。在他们的观点中,身份判断以及情绪判断有着截然不同的功效,自然不太可能按照同一个处理方式去处理;进一步讲,唇语阅读等内容也应该更靠近于瞬息万变的表情,但是远离万变不离其宗的身份。当时虽然没有充足的脑成像研究,但是他们大胆假设面孔会有不同的区域识别。
1701312213
1701312214 在20世纪80年代,猕猴的单电极研究发现了不少有趣的结果。单电极就是把一根电极深入大脑直接“窃听”一个神经的活跃。由于要侵入大脑,此方法往往局限于动物研究。比如说Perret(佩雷)教授发现猕猴的颞叶部分有些细胞只对面孔产生反应,对于车子、房子什么的没兴趣。这一些研究被科学界采纳:大脑的确对于面孔比较特殊,甚至进化出专门用于面孔识别的区域。不过猴子再和人类相似,我们也不能把猴脑的研究成果直接搬到人脑上,哪怕结构相似,很多细节之处复杂的差异也会导致不一样的结果。
1701312215
1701312216 到了1997年,马萨诸塞理工学院的Kanwisher教授在人脑中发现了一些不一样的东西:梭状回面孔区(Fusiform Face Area,简称FFA)。此区域也在人脑的颞叶,位置偏下,需要从下往上看才能看清楚。这个区域在人察觉到人脸的时候就有频率稳定的活跃。之后Kanwisher教授做了进一步对比实验,确定这个区域涉及面孔的身份识别:判断“他是谁”就依靠这个区域。返回去看,这个区域的失调也是面孔失认症的源头。同时,在20世纪末,不少学者也发现判断面孔的一些细节的时候也会动用不同的脑区,比如说杏仁核(amygdala)、脑岛、颞上沟等等。当时以Kanwisher教授为首的一群科学家就认为人类在判断面孔的时候会“启用”一些非常特殊的大脑区域进行判断。
1701312217
1701312218 不过这个假说很快为Haxby的新模型所吸收包含,最终成为现在广受使用的神经模型假说(distributed neural system)。2000年,Haxby(哈克斯比)、Hoffman(霍夫曼)以及Gobbini(戈比尼)三位科学家总结神经科学的研究成果,在Bruce和Young的功能模型基础上提出了基于神经系统模型。Haxby与同事扩展了Bruce和Young的研究,并且用翔实的研究成果指出:我们的大脑是通过分布开的不同神经系统识辨面孔。这个模型与Kanwisher教授的“特殊”模块处理面孔的假设并不矛盾,应当说互为补充。在下一节我会细细介绍这个假说。
1701312219
1701312220 看脸 [:1701311737]
1701312221 识别面孔的神经模型
1701312222
1701312223 可能对我们来说一张面孔就是一张面孔,平淡无奇。但是,在科学家那里就是研究的宝藏:在他们眼中身份信息可以帮助人们判断对方的身份,从而采取不同的策略,而表情信息能够表达每个人内心的想法。它们在功能上隶属两个层面,相互都有着很大差异。既然能归为两类信息,科学家们自然会推论两类信息应该有不同的处理系统去处理。根据无数科学家用脑成像和行为科学的研究,Haxby教授和同事提出了一个激动人心的假说:大脑内有三个(几乎只对面孔产生兴趣)核心模块配合若干个(也参与其他大脑活动)拓展区域完成面孔判断,既包含处理稳定的信息(比如身份),又包含易变化的信息(比如表情)。按照这个既被广为接受,又被补充的假说,我们可以了解到为了读一张面孔,大脑有多么努力。
1701312224
1701312225 从核心模块功能来看,一张面孔的身份信息会被梭状回面孔区(FFA)处理,相对,表情信息会被颞上沟(STS)处理。虽然梭状回面孔区和颞上沟都在颞叶之上,但是位置一上一下,而且功能完全不同。其实,有一定神经科学基础的朋友们大致也能理解这两个区域的区别。颞上沟(STS)其实紧邻中颞叶(MT/V5)皮层以及中颞上(MST)皮层:MT皮层最重要的功能就是处理运动、动作信息。而中颞上皮层也类似于中颞叶皮层,进一步分析动作信息。颞上沟孜孜不倦地从这两个相关皮层获得动态图像的信息,也难怪它会处理关于面孔中相对“变化多端”的情绪甚至是唇语这部分要素。相对应的,梭状回面孔区身处颞下叶,它的“邻居们”几乎都和某种识别有所关联:在猕猴脑内,FFA所在的地方,颞下皮层对于面孔,甚至不同朝向的面孔有着特别的反应;它的其他“邻居”也分别与场景识别,还有肢体动作息息相关。这么说来,真的是不是一家人不进一家门,识别瞬息万变或者长久不变的信息的脑区都“聚集”在不同的地方,这些“地方”都有着生理背景原因:大脑也不会凭空委任一些脑区参与一些活动;相反,大脑的“安排”正是基于这些脑区有“能力履职”。
1701312226
1701312227
1701312228
1701312229
1701312230 图来自Haxby&Gobbini(2011)。标注了OFA、FFA以及STS这三个核心模块。你看,都在脑袋后面、侧面,基本就在大家耳朵后面的位置
1701312231
1701312232 不光是核心模块参与面孔的识别,不少涉及其他活跃的大脑区域也参与进面孔的识别。比如说杏仁核(amygdala)就会参与一些负面情绪的判断,也会参与判断来者是否有威胁。比如有一位叫作SM的病人,她的杏仁核受损之后便再也感受不到“害怕”的情绪。不光杏仁核,脑岛(insula)作为一个关乎进食行为的脑区,也会在判断他人情绪的时候活跃;同样,奖惩系统会对不同长相的面孔有不一样的兴奋。涉及判断他人想法以及目的的前扣带回皮层(APC)也会对不同的面孔产生不一样的活跃。前、中颞叶皮层涉及对于面孔的记忆,会随着梭状回面孔区的活跃参与身份的判断活动。这些大脑区域(所谓的拓展区域)都会随着核心区域的活跃一起工作,从而完成对于面孔的判断。这一部分会在之后的章节分开介绍。
1701312233
1701312234 在处理面孔信息的时候大脑的许多模块纷纷参与其中,那么它们之间是怎么样的关系呢?Haxby教授在提出这个模型的时候,强调了大脑在处理面孔时参与的区域是离散分布的(distributed);因而,自然而然地,会有人误以为这些脑区有可能是“各自为政”。事实上,这个推论是错误的。首先,这些脑区的活跃有着时间线上的先后顺序,反映了视觉信息传递的前后性,并不是各自“看心情”才有活跃。其次,这些大脑区域看似分离,其实关联紧密,很多不同的面孔识别任务都会依赖同一个脑部区域。与其把这些脑区比作一个公司内的若干个部门,我更愿意把它们比喻成整个广告部门:其中也有能力迥异的员工,并且,他们不同的搭配和安排可以给所有的甲方完成各种各样的广告设计。
1701312235
1701312236 科学家们在科学模型的建立上永远在追求完善,他们也反思面孔处理模块的分布式假说是不是完全准确,会不会由于研究水平的限制而有缺陷。绝大多数科学家都对完善这一模型保持了开放的态度:心理学作为一门科学有着可证伪性,因而每一个假设都有被推翻的可能。Calder和Young教授在2005年的一篇综述中描述了他们的担忧,他们并不反对这个模型,但是强调了模块本身并不是非黑即白的区分,他们也针对该如何更好地用实验完善和理解提出了建议。同样,Behrmann(贝尔曼)和Plaut(普劳特)在2013年的一篇综述里也提到了这一点,他们没有盲从之前的模型,用实验解释了大脑处理面孔的区域并不各自为政,也不是只有一份工作:它们除了在“本职工作上尽心尽责”,也会对其余的视觉信息产生反应。因此他们建议把“模块”这样听起来很独立、分离的描述性词汇改成“处理圈”,这样强调了整合性但是没有抹杀分布性。所以说,不同的大脑区域的确参与了面孔识别这个“大工程”,但是它们不是完全隔离,相反它们的“私交”很不错,在处理不同内容的时候各自形成小圈子,高效但是不浪费地完成工作。举个例子,一个喜好变化信息的颞上沟(STS)积极参与了情绪识别,可以说是情绪“专家”,它在处理面孔情绪的时候会积极地与“面孔工程师们”合作,也就是会和V4皮层、中颞叶皮层、丘脑、杏仁核一起合作处理面孔情绪;但是转战到声音情绪的时候,它会和“声音工程师们”处理问题,会从A1皮层等相对应区域交接班。所以说这样的脑区并不是“各自为政”,相反它们的组织和处理就足够让很多只会分析KPI的人力资源专员汗颜了。
1701312237
1701312238 在Haxby与同事的模型中,如此多层面的面孔信息不是被一个大的“中央处理器(CPU)”处理,也不是被若干个高度单一用途的“传感器”逐个处理,而是每个层面都会被不同的脑区所处理。当然这并不是暗示每个人的大脑都暗中排布着若干个平行的“处理器”分析不同面部信息;他们的模型指出大脑拥有许多处理模块,在针对面孔处理时,大脑“聘用”三个专门对于面孔有兴趣的、专一性的模块以及不少通用性很强的模块进行分析:举个例子,专业摄像机上有摄像头还有读卡器,其中摄像头就是专一性模块,只用来拍摄,而读卡器功能广泛,它们协同在一起可以起到拍照并记录的作用。回到面孔处理模型上,大脑通过采取不同的核心模块并使其配合其余的延伸模块,最大化地合理利用脑区进行多种多样的面孔信息分析。虽然说不同信息有很大差异,但是不少信息都有着相似的通道进行处理。比如说,表情或者面孔朝向甚至唇语都是属于变化的信息,针对它们的判断都会被颞上沟(STS)这个核心处理模块加工,然后依次与其余的延伸模块进行进一步加工,从而获得完整的识别。仔细一想,这样大脑就会把加工过程中相似的部分进行“合并同类项”,的确是高效,也节省了处理空间。
1701312239
1701312240 通过面孔,每一位读者都能得到大量的信息,而面孔本身也不是“平板”一张,相反,它拥有多层次的信息。在这一章,我们先谈一谈大脑是怎么处理身份信息和表情情绪信息的,而其他内容会在之后章节作为本书的重点详细分析,循序渐进。毕竟在绝大多数科学家眼中,身份信息和表情信息算是人际交往中最重要的组成部分;透彻地研究能够极大程度地帮助我们理解大脑在人际交往中的功能。所以在某种程度上,人们对面孔的身份识别以及表情情绪识别有着最炙热的研究兴趣,也有着最丰富的研究成果。面部表情和身份的确区别很大,不过绝大多数人可以在不知道对方身份的情况下判断对方的情绪,同时大多数人可以在一群有着相同表情的人中寻找出熟悉的人。换句话说,如果你熟悉我,你不会因为我做出了什么奇怪的表情就认不出来我是谁;同时,你可能只熟悉我不熟悉我的表哥,但当你看到我表哥的时候,你依旧可以轻松地判断出来我表哥的表情是开心还是悲伤。科学家们在这两个问题上可谓绞尽脑汁。在谈论这两个问题的区别之前,我们先谈一谈它们的共性,那就是情绪还有身份都是被一种叫作整体识别的方式主导。
1701312241
1701312242 看脸 [:1701311738]
1701312243 整体还是局部1
1701312244
1701312245 每个人都有一张独一无二的面孔,但面孔的复杂性并不妨碍我们判断对方是谁。倘若按照计算机视觉的角度思考,面孔也就是一种二维或者三维的数据集合,因此面孔上的“地理信息”可以化作一堆点阵或者是曲线。假设先不讨论面孔的颜色信息,每张面孔上各式各样的五官,就已经让判断面孔成为一道复杂的多元函数题。计算机视觉是把面孔作为一种数据进行分析,而我们人脑可以真正理解面孔的含义,所以计算机识别面孔的方法不能用来解释我们人脑的识别方法。也就是说,我们是通过一点点识别每一个部件然后加起来的方式去识别面孔吗?会不会是大脑将面孔的信息分开处理和存储,比如鼻子归“鼻子部门”分析,嘴巴归“嘴巴部门”分析,然后讲数据整合呢?
1701312246
1701312247 这个问题的答案会在之后的章节慢慢展开,但是答案很鲜明:大脑并不是利用局部分析再粗暴整合的方式识别面孔;大脑内也没有所谓的“鼻子区”“嘴巴区”之类的地方对面孔的每个特征点分析。科学家们认为面孔上的信息是多层次的、多阶层的。从最简单的角度来看,识别面孔过程中可以划分为两个层次,也就是整体识别或者是局部识别:分辨一张面孔以整体识别为主导,整体大于局部之和。
1701312248
1701312249
1701312250
1701312251
1701312252 上图来源于同一位演员的四种表情照,相信没有几位读者可以把正确的眼睛与嘴唇对应起来。虽然说眼睛与嘴巴都能传递情绪信息,不过在这个例子里面局部信息的确不足以承担识别重任
1701312253
1701312254 面孔识别,尤其是身份识别的问题上大多数科学家已经有了共识:人在正常环境下都是主要利用整体信息,辅以局部信息,从而判断面孔的身份与情绪。所以,在理解面孔的过程中大脑会用整体而不是局部识别,是因为面孔并不简单是一张几何地图。面孔在大脑中被理解为多个层次信息,或者说面孔在大脑内会被按照处理层次分开。可能你会对整体识别这个观点难以理解:整体识别到底是什吗?我们为什么要利用整体识别这样一个听起来很奇怪的概念判断他人的面孔呢?相对而言局部信息是不是很重要?对于这些问题,我还是从举例子说起。前段时间我和一位朋友拜访一位刚结婚的老友的新房,我们对房子的感受很巧地呈现出了整体和局部识别。一进门的工夫,我们不约而同感到“装修很贵”。房子装修自然很豪华,按照主人夫妇的话就是“简欧风格”。之后我们都感觉出客厅的装修有点不协调,仔细一看是电视后面的灯实在太过奇怪,红色中又带点紫色,正是在街头小店常能看到的颜色。在很多视觉判断中,我们都要利用整体(整个房子是不是“简欧风格”)或者局部(屋顶的某处雕花是不是“巴洛克风格”)分析,自然面孔分析也不能免俗。
1701312255
1701312256 或者我再举个关于整体识别和概括的例子。我有一次在朋友圈发了一张动画片《飞出个未来》(Futurama)的截图,底下有朋友留言:“这是《辛普森一家》(The Simpsons)吗?”做出这样的判断是因为,这两部作品背后都是相同的主创人员,以至于画面和人物设计非常相似。虽然我的这位朋友没有认出任何一个熟悉的角色(他没有看过前者,只看过后者),但是因为他拥有对于《辛普森一家》的整体识别,当他看到熟悉的设计时,他做出了如此的判断。尽管在这个有趣的错误中,他的判断并不正确,但是我们可以从他的话语中发现对于面孔(人物设计)的整体识别以及抽象概括能力,正是这些能力让我们可以轻松识别面孔(不一定精确,但是富有逻辑性,所以准确)。
1701312257
1701312258 我们对于面孔的识别正如上文提到的一样,源于面孔本身的形状。形状往最细节处说可以被认为是色块和条纹的组成。举一个极端的例子,有的人在聊天时喜欢的表情符号或者颜文字。它们的作者只用了寥寥几笔便勾勒出表情中最关键的部分,比如说笑脸或者竖眉这样栩栩如生的表情了。但是事实上,我们的表情识别并不是简单地把面孔上的每一条条纹色块加在一起,而是使用了一种整体识别的方法(holistic processing)。视觉科学家把每一张面孔分成两个维度:局部特征(大体就是细节信息,一只眼睛具体是什么样子,鼻子是什么形状),以及整体(这个比较复杂,是“真正的”整体信息:包含但不限于眼睛到底在脸的哪个位置,它和眉毛、鼻子的空间关系)。这么讲你可能还是一头雾水,举个例子就好理解了。你肯定听过这样的话:“这个人五官单独看都还不错,但是合在一起就怪怪的。”通过脑成像研究,科学家们已经发现专门针对面孔识别的脑部区域更喜欢整体识别(比如梭状回面孔区);而被动员参与面孔识别的区域(并不是专职识别面孔的区域,功能更低层次的区域)会利用局部识别方法帮助我们看清楚面孔。两者互相“帮助”,我们就能多层次地看清楚面孔了。
1701312259
[ 上一页 ]  [ :1.70131221e+09 ]  [ 下一页 ]