1701312320
自“撒切尔效应”被刊登在大众杂志之上,很多人将这个作为心理学的有趣现象看待。当然科学家们没有就此满足,不少科研工作者试图用这个效应深入探索大脑对于面孔的理解。有科学家发现,在“撒切尔效应”中(如图),右上角那张扭曲的面孔,倒置了之后就不再显得奇怪。对于这个效应,科学家解释为“奇怪性”的改变还是由于倒置,因为倒置打破了对于面孔的整体识别,所以说面孔的“奇怪性”不能被整体识别,从而“奇怪性”会显得模糊。Rhodes(罗德)教授和同事们针对这一种效应做了一个有趣的实验。就好比右上图很奇怪,但倒过来之后的右下图看起来顺眼多了。他们在三个实验中发现相对于倒置的面孔,倒置的眼睛“奇怪性”减弱得不是很多。根据前人的研究,我们都非常熟悉正常的面孔,熟悉正常的情况下面孔排列的关系,我们简称为“逻辑性”。经过他们细心的分析,发现如果这个图片本身有很强的逻辑性(面孔的排布),那么倒置会更加明显地缓解图片的扭曲性。于是,他们认为这个效应反映了面孔识别中的逻辑性,也就是所谓的整体性。因为我们对正常的面孔整体加工,而对倒置的面孔局部加工,所以倒过来之后,一切都变化了呢。Bartlett(巴特利特)和Searcy(瑟西)也相似地揭露了该效应背后关于整体识别的秘密。他们通过完全不同的实验也发现了我们在对比正常面孔时依赖于整体的加工,但是,在对比倒置面孔时更依赖细节分析。
1701312321
1701312322
总而言之,我们在处理面孔信息的时候,我们的视觉系统更多地依赖于整体、构型识别,而不是主要依靠细节、特征进行面孔识别。在这里的整体识别不是说对于个体识别的简单相加,不是说先识别眼睛再鼻子再嘴巴最后加起来,而是将五官的信息整合起来一起识别。这样的能力,基本每个成年人都具备,不得不说会超出很多人的想象。可是我们的大脑就是这般神奇。虽然说我们对于面孔识别都有着无与伦比的能力,可以不费吹灰之力地识别。不少科学家非常认可我们识别面孔的能力,并且把这种能力总结为专长。根据前人的研究,我们识别面孔的专长只是针对正常的面孔,也就是拥有正常排列次序的面孔:眼睛下面是鼻子,鼻子下面是嘴巴。所以在正常情况下,能熟练运用“专长”的我们更倾向于整体识别,所以说,奇怪的眼睛和嘴巴更容易被发现。但是在被倒置之后,没有识别倒置面孔“专长”的我们,不得不利用局部信息一点点区分,所以局部的倒置在这里被混淆了。我们的大脑虽然能意识到倒置,不过可能转不过弯来,所以在整体被倒置的情况下(右下图),被提前倒置的眼睛和嘴巴会和正常情况一样向上,我们熟悉了正常情况的视觉系统,很容易被这样的“现实”麻痹,也就感觉不出(或者很难感觉出)异样。不过话说回来,眼睛和嘴往往能传递非常多的面孔信息,我们将会在之后的章节细细地讲一讲。
1701312323
1701312325
模糊中都能判断清楚
1701312326
1701312327
在初步体会到整体和局部识别之后,我想再举一个有趣的例子,方便大家理解这两种识别方法的区别。我们假设这两种相似的环境,第一个是忘记了戴眼镜的上午,第二个是在漫天大雾中,而共同的目标都是寻找一个特别的人。这两种情况有个共性,那就是除了鼻子,我们伸手肯定看不清楚五指。在这么恶劣的环境下,对面的行人可能看起来像下图一般模糊不清。
1701312328
1701312329
不过根据我们的经验,这样的情况下我们还是能够分辨熟悉的朋友,找到熟悉的快递员。也就是说我们在模糊的情况下还是可以辨别他人的身份。按道理,不借助语言,单纯从视觉角度分析,我们完全可以识别他人的身份。这样巧妙的过程完全可以借用大脑对面孔识别的过程进行。大雾虽然有毒,但是并不会影响我们的识别能力,所以说我们并没有利用所谓的“模糊情况处理热线”。同时,大雾或者不戴眼镜并不会直接遮盖面孔,所以我们在识别模糊的面孔时并不是完全利用用于识别被遮盖的面孔的方法。
1701312330
1701312331
1701312332
1701312333
1701312334
可能你不能认出图片中的这张面孔,但是我的朋友们都能够判断出这张面孔属于我本人。为什么模糊的面孔还能判断身份呢?这就要说一说空间频率了
1701312335
1701312336
不谈大雾和摘下眼镜的光学原理。从主观感受方面,我们看不清楚近处的东西,也就是说能见度下降了。那么在这个情况下,我们眼前所有的东西都会变得朦胧,近点的东西相对还好,远处的东西基本就是一片色块。这种“模糊”对于面孔识别究竟有什么影响呢?从经验角度,我们可以发现,似乎人脸的轮廓还能看清楚,但是细节难以辨析。举个例子,在雾里面,我们能大致判断出眼睛在鼻子上面,来者是正常人类不是外星生物,但是我们很难分辨对面的姑娘今天眼线画好了还是疵了。是为什么呢?下面我从识别视觉信息的角度大致解释一下。
1701312337
1701312338
大脑对视觉信息的处理非常有趣:简直是信号论的完美实用范例。在我们人脑最后端,一个叫作枕叶(temporal lobe)的区域有一处专门涉及视觉分析的部分。在枕叶最后面有一个区域叫作初级视觉皮层,它正是枕叶皮层上最先开始处理视觉信息的神经区域。初级视觉皮层完全接受了视网膜收集到的信息,不过我们的大脑并不是一股脑儿将信息分析。初级视觉皮层上有上千万的细胞有着各自的个性,不同的感受也让它们只对少数的刺激类型有兴趣,可以说相当专一。正因为不同的细胞对不同种类的信息有着不一样的活跃,不少细胞只对特定类型信息有反应。不知道是有意还是无意,我们的初级视觉皮层悄悄地对视觉信息进行了一次傅里叶转换。这样的转换把图像按照空间频率进行了划分,这种划分恰恰是基础的视觉识别过程中被我们的神经系统采用的。说起来也有趣,我在学习傅里叶转换的时候花了不少时间,不过没想到大脑早就熟练地运用了相同的技巧。在被傅里叶转换之后,一张被看到的面孔按照刺激物的空间频率被划分成了不同的层次。不过不用担心我们的世界在我们心里会支离破碎。在枕叶的视觉皮层上,视觉信息的确按照空间频率被区分开,但是在较高级的视觉皮层,比如说梭状回面孔区,会被整合(binding)成合理的样子。我们可以用电脑大致模拟一下这个过程。
1701312339
1701312340
1701312341
1701312342
1701312343
上图是原始图片,而下面三张图是基于这张图片的不同空间频率的组成成分。从左到右空间频率依次上升,图片更加锐利,边缘细节更加清晰。我们的枕叶无时无刻不进行如此的分析
1701312344
1701312345
空间频率在科学上指在一定单位长度上,某种几何形状出现的次数(正弦调制的栅条)。这么抽象的概念不是每个人都能一下子理解,用好理解的话说就是,空间评论类似于(但不完全是)图片分辨率:低频率的信息就类似低分辨率的照片,有点复古的像素风格,提供大空间尺度的信息,反映了粗糙的颜色和阴影,不过看起来模模糊糊,有点无法分辨什么是什么;而高空间频率信息正好相反,可以理解为一组地图上精细的等高线,它们最大程度上表现了小范围的光线变化,但是忽略了其中的具体内容,比如颜色还有阴影。一般而言,在一张图片上高空间频率出现在形状变化巨大的地方,比如图片的边界之处,比如发际线、眼袋,甚至法令纹;可以说高空间频率信息可以更有助于我们判断皱纹,从而了解对方的年纪。一般而言,我们判断地方、场景甚至文字都依赖于高空间频率信息,比如说你正在读的这行字基本都是高空间频率的;你想一想摘了眼镜且离远了什么字都看不清楚。但是面孔独一无二,它深深地依靠着两种空间频率的信息,甚至说可以完全依靠低空间频率进行传播。
1701312346
1701312347
低空间频率信息相对而言能够提供整体的相互关系。也就是说可以帮助我们判断对方的情绪以及健康情况。高频信息看起来比较细腻,而低频的往往感觉糊成一片;从数学角度你也可以直观地了解两个频率的差异:你可以数一数,一张高空间频率的图片上有8到16对亮度对比强烈的条纹,而低空间频率的图片也就2到8对。空间频率甚至和关注点也有关系,如果面孔正好在我们的注视之下。但是这个对于面孔识别有什么关系呢?对啦,大雾甚至说近视都能够严重削弱高空间频率(HSF)信息,但是不太影响低空间频率(LSF)信息,也就是说这个雾正是一种低空间频率信息过滤器,高空间频率信息难逃厄运,不过低空间频率信息依然畅通无阻。比如说,在光线良好的时候我们一眼就能分清楚动物园里的斑马,但是一旦模糊,大雾降临,斑马看起来就像灰马。难怪在大雾之中,我们对低空间频率信息还能识别,对高空间频率信息的识别只能举手投降。但是这个和面孔识别又有什么关系呢?
1701312348
1701312349
1701312350
1701312351
1701312352
同样的斑马,在模糊之后(比如大雾或者摘下眼镜)不光看不清楚,甚至空间分辨率都会被影响,连条纹都难以被数清楚。不信你数数看,右图有多少道条纹
1701312353
1701312354
让我们回想下上一节的内容,整体识别正是面孔识别的关键,它的处理其实非常依赖构型信息,或者近似说是整体信息;也就是说,我们识别一个人是谁并不是依赖于面孔某些特殊的形状,而是将它们整合起来。聪明的读者肯定已经发现这部分结论和前面“撒切尔效应”的关系。严格说来高和低空间频率都能给大脑提供分析构型效应的信息:低空间频率信息比较粗糙,通过外侧膝状体的M细胞配合皮质下通道传递,处理与加工速度快,可以说是“速写画”;高空间频率更为细腻,通过外侧膝状体的P细胞配合皮层通道处理,需要更长时间传递和加工,算作“工笔画”。这两个通道和信息类型正是我们进化的一个写照:高速加工一般而言比较古老,比较快却粗糙;低速加工出现更晚,不过细腻且准确。在面孔身份方面(“他是谁?”),我们的大脑也巧用了两个通道的两种层次信息。梭状回面孔区这样一个处理面孔身份的重要区域,不少科学家就发现它对高、低空间频率信息来者不拒,但是分开处理。正因为高、低空间频率信息只是在这儿处理,我们可以说正是梭状回面孔区将不同空间频率信息进行整合(前端处理低空间频率信息,后端处理高空间频率信息),进而汇聚出我们对于面孔的整体识别。作为对比,我们识别文字的文字识别区与梭状回面孔区在位置上几近左右对称,但是这个针对文字的脑区只喜欢高空间频率信息。相比而言,我们判断面孔比判断文字时,神经系统对于信息宽容度高,我们在判断面孔时更方便、更老练。能有如此“博爱”的梭状回面孔区来判断面孔真是幸福而且方便。
1701312355
1701312356
在判别他人面孔的时候,二阶关系信息(比如眼睛间距离)和整体信息(所有信息整合为一体而不再估计每一处的局部信息)为面孔识别提供了方便。面孔整体识别更着重于依靠低空间频率信息而不是高空间频率信息,举一个例子,当我们在判断别人身份的时候,梭状回面孔区会对低空间频率信息反应更加活跃。当然两种空间频率信息都对面孔识别提供了线索,但是也有先后关系。虽然完整的识别也不能少了高空间频率信息,但是我们所讲的低空间频率信息恰巧是整体识别必不可少的重要材料,更不要提低空间频率信息相较高空间频率信息更容易传递和处理。不过真实生活中当我们判断“他是谁”的时候,还是LSF更占主导而且重要,就如同前面几节提到的整体识别比局部识别更加重要。比如说在先天性面孔失认症的群体中,他们有着相对完善的情绪识别能力,但是没有完善的身份识别能力,研究人员发现他们的梭状回面孔区有着缺陷(具体是活跃性还是连接程度有待进一步研究),这一缺陷导致了身份识别障碍。但是这个障碍源于这群人没办法合理地分析低空间频率信息,所以巧妇难为无米之炊,没有LSF信息,面孔识别就如同正常人看到倒置的面孔一样抓瞎了。换句话说,只要有低空间频率信息被我们捕获,我们就能整体识别这张面孔;只要这部分信息足够,我们也就能够判断出这个人是什么情绪,他到底是谁。
1701312357
1701312358
虽然模糊的面孔让人捉摸不透,但与身份识别息息相关的低空间频率信息并没有被太多影响,所以对于普通人,我们依然能够针对所拥有的信息进行身份识别。当然,高空间频率信息也能帮助我们识别他人,很明显戴上眼镜识别更方便;不过相对而言,整体识别才是面孔识别的大梁,大梁的基础,低空间频率信息很重要呢。当然高空间频率的信息也能够提供一定的整体信息,帮助大家识别面孔,不过重要程度上还是差一点。最后告诉大家一个小贴士,因为大脑结构的原理,我们梭状回面孔区针对高空间频率信息这样一种细节丰富可以提高判断正确率的信息有着一定要求,具体而言就是面孔处在我们视野中心(视野中心也就是正对着视网膜中心凹)时其高空间频率信息可以被最优化处理;言外之意也就是想要看别人看得更清楚,还是得正眼看人,正因为高、低空间频率信息只是在这儿处理,我们可以说正是梭状回面孔区将不同空间频率信息进行整合(前端处理低空间频率信息,后端处理高空间频率信息),进而汇聚出我们对于面孔的整体识别。
1701312359
1701312361
露出多少能被看清楚?
1701312362
1701312363
判断一张完整的面孔对大多数人来说是轻松简单的。基本上看一眼我们就能判断对方是谁,什么情绪。但是实际生活中,我们的面孔并不是完整呈现的。比如说不合适的角度会遮盖面孔,头发或者墨镜等饰物也可能遮掩面孔。甚至我们有时候会用手有意遮盖面孔。在害怕的时候我们会遮住眼睛,在难过的时候我们会用手包裹整张脸,有时候笑得太过开心我们也会用手遮掩住口鼻。在这些情况下,随着遮盖区域的增大,留给他人判读的余地越来越少,以至于让人分辨不清。所以说,在古代化装舞会的面具,或者说侠客佐罗的眼罩,只是遮盖了一部分面孔,甚至说只是遮盖了眼睛区域,就让面孔信息难以被加工。前面几节我们谈到了我们判断面孔还是得依靠整体信息,这样被严重遮盖的面孔自然不足以被整体信息所识别。
1701312364
1701312365
同样是遮盖,侠客佐罗的眼罩让人分不清他的真实身份,而我托着腮帮子并不会让同事找不见我;同样是遮盖似乎位置不同效果也不同。所以新的问题出现了:遮盖到多少才会影响整体识别呢,我们需要多少信息完成面孔的认知呢?在流感暴发的时候,大家不免都需要戴口罩,不过很多时候我们对熟悉人的识别并没有受到太多的影响。在一些场合,在墨镜的遮掩下能分清楚对方是谁的情况也是存在的。那么在这种情况下,局部够用吗?或者说,我们要识别一张面孔至少需要多少信息呢?这个问题与上文中整体局部相比并不一样;之前提到的研究总是将总体和局部分隔开来探讨:比如Liu(刘)、Harris(哈里斯),还有Kanwisher教授研究过倘若肖像画上的五官故意被打乱,甚至被替换,残余的面孔局部信息对识别基本是不够用的。但是我们现在思考的问题在于遮盖,或者说面孔并没有被挂起来(倒置效应),也没有被移花接木(合成面孔效应),更没有被“乾坤大挪移”(局部);相反,这个问题是在考虑整体环境不改变的情况下,多少局部信息足够支持面孔识别。虽然共享了“局部”这个名词,但实际差之千里。虽说遮盖一张脸很简单,但是研究遮盖的影响可是难倒了不少学者,因为普通的遮盖方法并不是很好用。大家想一想,如果像打马赛克一样对面孔遮盖住一部分,总是难免会武断。正是由于每一个科学家都要自己做出几张图片,很多情况下图片的制作会影响最终的结果。
1701312366
1701312367
那怎么办呢?解决这个问题需要几个关键点:第一,面孔还得是那个面孔,一切操作都是在遮盖面孔部分,也就是说面孔本身没有变化,变化的应该是那个“遮盖”;第二,遮盖点的选择要有适应性,像文学作品中的佐罗一样只遮住眼睛周边是不行的,相反遮盖的地方需要有变化。能做到这个的有两个方法:第一是在照片上随机分布噪点,但是这个方法有着局限性,就是遮盖还是比较均匀,好比一套面纱,所以不能够完美解答问题;第二个就是Schyns ;(许恩斯)和Gosselin(戈林斯)两位教授在2001年提出来的“气泡脸”(bubbled face)方法。说到对面孔的遮盖,两位教授还把这样一个看似干扰面孔识别的“障碍”变成了理解面孔加工的“云梯”。
1701312368
1701312369
在他们提出这个技术之前,科学家很苦恼如何分析面孔部分对于识别的影响,简单地如同上图的切割似乎不妥。要是保留整张面孔,那么科学家们就要去分析人在识别面孔时到底看了哪些地方。但是这样利用眼动数据的研究往往受限于实验设计本身:(1)哪怕我们记录了注视点(或者ROI),但是余光扫过的内容怎么检测?余光也能提供不少信息。(2)给你足够长时间,每片树叶都能分清楚。总而言之,实验设计不太好弄,数据的解释也不太方便。Schyns教授和研究生灵机一动,干脆把一些地方遮起来不就好办了吗。原理其实很简单,两位科学家觉得面孔上每个细小区域并不是同等程度上为识别提供了信息。那么他们就在脸上放置了不少细小而透明的小气泡,在透明气泡之外的部分是无法看见的。这样一步一步减少可以看见的空间,就可以用排除法找到到底哪些面孔区域是识别的关键区。比如说,眼睛如果是情绪识别的关键区域,只要眼睛看不见,情绪肯定不好识别。结果其实也很有趣,他们指出分辨情绪需要的面孔区域最少,其次是性别,而识别身份几乎需要整张面孔。难怪佐罗蒙了眼睛大家识别不出来,不过他的笑容丝毫不受阻碍。
[
上一页 ]
[ :1.70131232e+09 ]
[
下一页 ]