1701312414
利用面孔“地图”来“计算”面孔
1701312415
1701312416
熟悉数学的朋友知道,我们在研究几何问题的时候,倘若有数学大师笛卡儿创立的平面直角坐标系就会方便很多,因为每一个点的位置可以转换为一个坐标系上的坐标值。那么我们能不能把面孔的每个细节都用参数记录和表达呢,比如眼睛的尺寸?这有点类似计算机科学的思路,如果我们能够把面孔的数据精确记录,再通过“解码”还原处理数据呢。事实上,在识别物体或者空间时我们的确这么做,但是对于面孔还真不行。毕竟相对房子与房子的差异,柴犬和秋田犬的差异,我们人面孔与面孔的差异可以说是细枝末节:眼睛宽度多两毫米,高度短两毫米,然后再互相多隔开两毫米听起来差异不大,但是看起来一清二楚。从这个角度而言,单纯记录面孔上的差异,不管是整体信息的还是局部信息的差异,都会导致以下两个小问题:(1)数据巨大,一张面孔少说有十余个参数,自然效率不高。(2)偏差度不低,因为我们的眼睛没有那么精确。所以说按照计算机科学的思维理解大脑不太好,但是用数学(统计)这样更加贴近生活本质的方法更加准确:我们的大脑在一张假想的地图上,把一张张面孔都用几个坐标系上的值来代表,进行一些数学计算和比对就可以用最少的数据和参照系反映一切面孔了。这样记录面孔数据似乎简单了很多:我们只要比较和记录一张面孔与“参照点”的差异就可以了。
1701312417
1701312418
在曼彻斯特大学的Valentine(瓦伦丁)教授曾认真研究过这个设想。他从(前面章节提到的)“面孔倒置效应”以及“异族效应”获得启发:这些面孔我们判断不出来会不会是因为它们都不符合我们面孔识别系统的“口味”,是不是因为它们在我们的大脑内不是特别熟悉;因而可以说这些面孔对我们来说算是比较遥远的,或者说和我们的经验比相对较远。那么Valentine教授就进行了如下的设想:面孔的识别会不会也是像笛卡儿坐标系那样呢?在这个想象中,我们熟悉的面孔应该在坐标系原点附近,而原点就是一个抽象的模板。概念中的模板可以被理解为我们所接触的面孔的一个平均;所以说每个人心中的模板会有着个体差异,我们每个人心中的模板也会随我们的社会经验越来越丰富而变化。我因为接触中国人时间更长,大脑中的这个模板可能更加东方化;我的室友Alex由于从小在美国长大,他心中的模板可能就比较西方化。这一个观点可以很好地解释上一节提到的“异族效应”。比如就用后面一张图指代Alex心中的面孔分布“地图”,这张假想的“地图”是二维的(事实上可以很多维度,方便起见我们假设是二维的)。中心正是Alex心中对于面孔形态的模板,它正是由Alex所熟悉的人构成的。图上每一个彩色圆点点都指代了Alex熟悉的面孔(比如他家人的面孔)。而我作为一位亚洲人,面孔特征会与Alex所熟悉的面孔有所差距,所以可以被表示在离中心遥远的一个角落。倘若一张面孔远离中心,大脑需要加强神经细胞之间的连接(相较于靠近中心的面孔),激发更大的活跃,也耗费更多的时间(毕竟连接差一点)。所以说“异族效应”正是由于外国人的面孔离自己内心的模板比较远,难以分辨。
1701312419
1701312420
1701312421
1701312422
1701312423
假设下Alex脑海中的面孔二维地图。相比Alex的亲友,在刚认识我的时候,我的面孔在他“心中的位置”偏远无比。当然,随着经验和熟悉,我走近了中心;自然而然判断起来方便多了
1701312424
1701312425
这个假说的核心在于假设人在判断其他人的时候是否与在中心的模板进行对比(norm ;based)。不过Valentine教授的实验本身没有能够直击问题的中心,而是在探讨模板与另一种假说的优劣。他的实验中阐明模板模型的充分条件(即当模板为真时,这些条件亦为真):倒置、外国人的面孔的确看起来比较奇异(离中心远),因此判断的正确率较低,耗时较长(难以识别)。这两个发现符合了面孔地图的模型,但是并不能直接、准确地推导出我们就是通过中心来进行判断的。仅根据当前的实验结果,我们也可以解释“亲友圈”(亦不是按照绝对中心进行对比,而是将熟悉的面孔作为一个整体来看)是判断的核心,离得远的“陌生人”或者“奇怪面孔区”就是判断起来麻烦。
1701312426
1701312427
直到2001年,Leopold(利奥波德)教授的团队找到了印证“依靠面孔模板分析”假说的方法。方法很简单,那就是利用“适应后效”的方法。适应后效很有趣味,我在这儿再解说一番,当我们长期看到(适应)一张开心的面孔,之后的面无表情的面孔看起来也会有点不开心(后效);同样,长期观察一条凹下去的曲线(适应),之后看到的直线会稍稍向上凸(后效)。总而言之,我们的大脑神经会随着最近的刺激短期之内修改处理方式,这样的修改永远朝向适应物到中心模板的方向进行。Leopold教授利用了这个手段,假设我们判断面孔时是对比中心模板,如果我们适应了甲的面孔,那么所有的面孔看起来都有点不太像甲的,其中反应最为强烈的就应该是按照甲的面孔特征做出来的“反甲”的面孔。也就是说在一个方向上的适应后效最为强烈也就能够证明处理图片是沿着适应物与中心模板的方向进行,也就说明,一起判断就是按照中心模板而不是别的什么东西进行。就如同下面一个例子,如果我们适应了反甲的面孔而不是乙面孔,那么之后看到甲的面孔应该更突出,更好被判断。
1701312428
1701312429
1701312430
1701312431
1701312432
看多反甲的面孔之后,中央的图片看起来都有点像甲了呢。但是因为乙不在这个轨道上,再怎么看甲你也觉察不出乙来
1701312433
1701312434
从2005年开始Rhodes教授的团队通过大量实验,丰富而且弥补了Leopold教授团队在世纪初的研究:面孔在我们大脑中可以被理解为在多维度坐标系内的一个个点。他们清楚地指出了我们的面孔判断就是按照与中心对比的“数据”进行的。他们的实验室还发现这种判断的方法在小朋友身上也有体现:虽然小朋友并不会解几何数学题,也不是很了解计算方面的方法,但是他们“无师自通”,也会通过对比一张张肖像画与他们心中的模板来判断对方身份。对比中心模板处理面孔的方法就好比电脑用RGB值而不是一张张色彩图片更有效而且快捷地记录彩色数据,我们的大脑可以利用一张面孔与中心面孔的“差距值”,或者说坐标值,来判断各种各样的信息。到目前为止,心理学等方面的研究也与这一个从行为实验推导出来的模型相吻合。首先,大量实验都表明当我们观察不熟悉的面孔时(离中心比较远的面孔),脑内处理面孔的梭状回面孔区反应会有明显提升,换句话说面孔与模板的距离增加会引发更大的神经反应:相对“奇特”的面孔需要大脑更多的活跃;不恰当的例子就是当你做简单的算术题(判断恋人与陌生人的面孔)时意气风发、挥斥方遒、轻松愉悦(不会那么活跃),当你做难题(判断两位马拉松高手的面孔)时事倍功半、绞尽脑汁(活跃明显)。其次,大脑内的神经是按照群体反应方式进行,而且处理更熟悉的面孔所激活的神经更紧密更高效;因此判断陌生面孔时速度更慢,更耗时间,难以激活整体识别,只能按照局部识别慢慢进行。甚至最近Webster教授也提到面孔的识别(不只是身份)就是依赖于上述的计算过程。当然实际生活中这样的面孔地图需要若干维度而且模板高度抽象,但是这般巧妙的表达方式正是识别的中心。
1701312435
1701312436
我们只有一套默认的模板吗?或者说我们只会和一张模板进行比较吗?仔细想想看,只有一张模板不算高效。比如,我在判断迎面走来的那位女性是同事的时候,如果能够只利用“女性”的模板必定会减少“数据处理量”。或者Alex在判断办公室两位亚洲朋友的面孔时,会利用“Alex心中所有人”的面孔模板还是“Alex最近认识的亚洲人”呢?科学家们没有放过这一个疑问,他们利用了一个叫作类属适应的方法表明了模板的使用很有弹性,主要是看大家什么时候“用”哪一个:利用世界地图攀登山峰有点儿不切合实际。Little、Jones(琼斯)还有DeBruine(德布鲁尼)教授的科研团队就发现了在这种情况下的适应后效可以各自产生在男女面孔上。举个例子,如果我们同时适应了一位眼睛间距很宽的男性和一位眼睛间距很窄的女性,若只用一张模板造成的结果就应该是平均了眼睛间距,所以不会产生任何针对眼睛间距的适应后效。之后还有许多实验室再接再厉,探索了其他共存的模板:他们都发现模板可以根据实验内容产生分化,并不是固定为所有面孔的中心模板这一个“默认设置”。比如说如果面孔可以按照一个坐标轴表示,它们也就可以按照坐标轴的两极排布:比如性别、年纪、种族,甚至情绪等等。
1701312437
1701312438
所以说进化如同鬼斧神工,让我们的神经团体合作,这样的团体合作导致了功能区出现,也导致了面孔判断可以依靠不同的神经反应进行,这样我们就可以分析面孔活跃离中心的程度(所谓距离)。同样,如果面孔在大脑内可以按照类别(男女)产生直接反应,这类别的两极(比如男性与女性)就可以被独立的“地图”所包容,也就产生了适应性很强的多个模板。总而言之,我们在判断“他是谁”的时候,会比较“他”的面孔与中心模板的相对“距离”来完成判断。这样一个模板可以随着任务进行而改变,从而最高效地完成判断。这就是我们在判断面孔身份时的一种“软件”。所以说,如果你想要成为一个辨认他人面孔的高手,最好的方法就是活用这一套“软件”:核心就是多去会见各种各样、各行各业的新朋友并且记住他们的面孔,这样你就可以拥有更加清晰的多套模板。
1701312439
1701312441
为什么漫画很好辨认?
1701312442
1701312443
一幅优秀的肖像画应当是还原现实,而漫画是不一样的。优秀的漫画最大的特点就是能突出画中人的特点。但是我们为什么很容易判断出来这幅画属于谁呢?这个问题通过“面孔地图”就能很好地解释。
1701312444
1701312445
漫画往往会夸大一个人的相貌:比如鲁迅的漫画往往会强调他的“横眉冷眼”。倘若我们把鲁迅的照片放在面孔地图上,肯定会和我们心中的中国中年男性模板有点差距。这个差距可能就是在眉毛和眼睛上(间距、尺寸等,既有局部又有整体的差异)。而漫画由于凸显了差异,应该会落在离中心更远的地方;相反,如果我们缩减差异,这张图画就离中心更近。事实也证明漫画一般的面孔的确会让判断更准确。叫人画漫画肯定是比较麻烦的,科学家用类似漫画的手段制作了如下的图片:他们将面孔上的信息编码,然后比较一张图片和面孔地图中心标准肖像的差距,然后扩大这样的差距就能做出漫画一般的面孔了。在这项技术普及之后,科学家做起来就会更加游刃有余。
1701312446
1701312447
不少科学家都发现夸张后的面孔比原始面孔更好认,更独特;倘若反着来缩减差异,照片看起来更不鲜明,也不太好认,“泯然众人矣”。甚至也有科学家发现不只是身份,连情绪都更加独特鲜明。脑成像的数据和行为数据吻合,当图片被夸大了身份信息之后,大脑(梭状回面孔区)对于这张新图片的活跃程度相对原始图片会增加。一张漫画要画得好,全靠作者合理凸显面孔中的特别之处。下次你在街头看到会画漫画的艺人,不妨留个心眼,他们是不是突出被画者的特征了呢?
1701312448
1701312450
不管笑还是哭,你还是你
1701312451
1701312452
大多数读者在生活中对于面孔识别可谓驾轻就熟,但大家也有“翻船”的时刻,比如我提到的分辨白百合和王珞丹的例子我就不慎翻船。看过上一章的读者肯定还记得:身份和表情情绪都利用了低空间频率信息采取了整体识别,它们之间会有干扰吗?是用同一套系统处理吗?所以说,身份判断会被其他面孔特征影响吗?这个问题看似很奇怪:身份与情绪不是完全无关嘛。但是对于科学家而言,大脑的处理方式没准儿超乎我们的想象,既然他们共享了信息,就有探索相似与相异之处的必要。实验才是搞清楚问题的唯一方法。既然我们这一章提身份的识别,那么我们着眼于情绪会不会干扰身份识别;而在下一章我们再谈一谈身份信息会不会影响情绪识别。
1701312453
1701312454
从功能区分上,“你是谁”和“你这是什么表情”差别还是挺大的,可以说是面孔识别中的两个层面的典型。我们重温下Haxby教授与同事们的模型,身份属于不变(长期)类信息,而表情属于易变化(短期)信息。或者从Bruce和Young教授的模型思考下,它们各自服务于不同的识别功能和目的。仔细想想,如果“他是谁”这样一个面孔信息能够随着时间轻易改变,那么我们身份证上的照片还真没有拍摄的意义了。但是表情情绪瞬息万变,时时刻刻反映着我们的兴趣或者态度。如同我们一开始举的狩猎的例子:在扑上去之前可能大家表情紧张,在与猎物搏斗时难免由于创伤而痛苦,一旦成功大家立刻喜笑颜开;这一切可能就发生在短短半分钟之内,可谓“翻脸如翻书”。那么现实情况吻合我们的假设,我们应该能观测到实验者在判断身份的时候判断不会随着情绪或者角度而改变。
1701312455
1701312456
回顾上一节介绍的研究,不少科学家认为面孔上的情绪不会影响面孔的身份识别。能够证明这两个组块相互分离的一大证据其实来自一种不幸的缺陷:面孔失认症。有面孔失认症的人完全不能识别他人的面孔身份,也就是说光看脸判断不出对方是谁。我认识一位这样的朋友,他开的小卖部一直生意不行,一个重要原因就是不能通过脸庞记住老客户。先天性面孔失认症患者其实都有着梭状回面孔区的缺陷,但是颞上沟完好的情况下他们还能够准确地汇报出对方的面孔在做什么表情。而在另一方面,脑损伤病人的表现同样地展现了身份和情绪识别的分离。依旧是Young教授在针对脑损伤之后的退伍军人的研究发现,不同的损伤会对情绪判断和身份判断产生不同的影响。面孔失认症是一个研究面孔身份识别的好手段,Humphrey(汉弗莱)、Avidan(阿维丹)、Behrmann三位研究者也进一步分析了这一个内容,他们比较了两种面孔失认症:先天性,也就是面孔身份识别区域发育不良引发的面孔失认症,这个群体的面孔识别障碍往往局限于身份;获得性,也就是所谓脑损伤所导致的面孔失认症,他们的识别障碍不确定,因为脑损伤的范围和面积有着特殊性。他们的研究也发现先天性面孔失认症的情绪识别几乎无恙。简而言之,两组科学家的成果代表了众多科学家对于身份与情绪识别分离的理解:因为缺陷不能判断身份干扰不到情绪判断。所以说至少身份识别与表情识别有所分离。
1701312457
1701312458
其次,就是在正常人身上的研究。脑损伤或者发育异常的人终究是少数,更多时候应该放眼整个人群寻找共性。Calder(考尔德)与Young教授曾经对于这个话题提供过建议:既然要比较“你是谁”与“你这是什么表情”的分离就一定要放在一起比较,不然说明不了问题。按照功能性核磁共振成像的原理,被试者的脑血流变化可以被仪器监控,所以说,假如判断身份信息需要动用梭状回面孔区,那么这个地方对于面孔的活跃程度就要与看房子比有差异。不过这样的研究也有缺陷,我们识别面孔的时候很有可能多种信息一起分析,比如你看到一张带着笑意的面孔,大脑内判断身份信息的脑组织会难以避免地和判断情绪的组织一起活动。因而大脑活跃的结果很难区分究竟谁占主导地位。甚至对于面孔的熟悉程度本身就会影响判断身份模块的活跃程度,比如熟悉影星汤姆·克鲁斯的人看到他的面孔本身就要比没见过他的人反应要小,这一点不能鲁莽地分析为人与人大脑的差异。为了克服这些影响结果的干扰问题,有科学家拿出了极为好用的方法:适应后效。这个方法是研究面孔的常用方法,以后会不断被提到。当我们看到一张面孔之后,大脑会对这一张面孔产生适应,如果没有新鲜的刺激出现的话,同样的刺激激发不起相同的活跃程度。就比如第一次吃鱼香肉丝肯定会觉得鲜美异常,如果吃完就再吃一顿一模一样的鱼香肉丝,你可能不会觉得像刚才那么好吃了。视觉研究也是如此,Winston(温斯顿)和同事们就用了这个方法去测量了大脑的活跃程度探索情绪与身份识别的大小。他们的实验巧妙地把情绪和身份放在一起测量,而不像过去的研究员那样分开测量然后直接比较(原因就如同上面几行的例子,如果不放在一起比较可能区分不开重叠的脑区)。Winston和同事们让被试者去看了四种类型的前后图片组合:(1)同一个人同一个表情,因而情绪和身份都会被适应;(2)同一个人不同的表情,身份被适应但是情绪没有;(3)不同的人同样的表情,情绪被适应但是身份没有;(4)不同的人不同的表情,身份和情绪都应该没有被适应。一旦一个层面的内容被适应,相较没有适应的情况下,相对应的脑区会有显著的差异变化。我在这儿要澄清两点:第一,这种适应就相当于久居兰室不闻其香,只不过对于面孔的适应相比气味的适应原理复杂许多;第二,这个适应并不会让人完全判断不了,差异并没有异常巨大,不过统计学可以精确地判断出来差异。几位科学家将收集的数据按照四种类型的区分进行加减之后找到了与前人模型相吻合的数据:梭状回皮层会对身份活跃(例如同一个人的情况下,活跃程度比不同人的情况小),中前的颞上沟皮层对情绪活跃(例如同一种表情的情况下,活跃程度比不同表情的情况小)。
1701312459
1701312460
依靠一个2×2的实验设计(两个维度),Winston就和同事捋清了关于这两者的关系。虽然区分了颞上沟(STS)与梭状回面孔区(FFA)的区别,但是他们的实验发现后颞上沟(STSp)倒是会对面孔产生反应。这并不代表前面的推论有误,不过是我们的技术水平还需要进一步完善,同时关于表情和身份的关系还要进一步区分:虽然后颞上沟这样一个司职表情的位置也会对面孔身份感兴趣,但是这只是说明了科学研究很复杂,而我们现有的技术手段还很难分清楚复杂的现实世界。在2008年Fox(福克斯)与Barton(巴顿)两位科学家的研究回应了这“一朵笼罩在面孔识别上空的乌云”:身份信息不会受到情绪的干扰。他们发现无论对于一张面孔熟悉与否,无论带有什么情绪,甚至不同的朝向,只要前面的面孔与后面的面孔有同样的身份,就会产生针对身份的适应后效(实际实验设计比较复杂,不展开探讨了);也就是说只要看到了就能产生后效,后效并不建立在熟悉这张面孔的前提条件下。
1701312461
1701312462
总而言之,身份信息的判断是独立的,也是占有专门的处理通道。至于它是依靠什么样的通道分析,下一节你就能知道了。
[
上一页 ]
[ :1.701312413e+09 ]
[
下一页 ]