打字猴:1.70131234e+09
1701312340
1701312341
1701312342
1701312343 上图是原始图片,而下面三张图是基于这张图片的不同空间频率的组成成分。从左到右空间频率依次上升,图片更加锐利,边缘细节更加清晰。我们的枕叶无时无刻不进行如此的分析
1701312344
1701312345 空间频率在科学上指在一定单位长度上,某种几何形状出现的次数(正弦调制的栅条)。这么抽象的概念不是每个人都能一下子理解,用好理解的话说就是,空间评论类似于(但不完全是)图片分辨率:低频率的信息就类似低分辨率的照片,有点复古的像素风格,提供大空间尺度的信息,反映了粗糙的颜色和阴影,不过看起来模模糊糊,有点无法分辨什么是什么;而高空间频率信息正好相反,可以理解为一组地图上精细的等高线,它们最大程度上表现了小范围的光线变化,但是忽略了其中的具体内容,比如颜色还有阴影。一般而言,在一张图片上高空间频率出现在形状变化巨大的地方,比如图片的边界之处,比如发际线、眼袋,甚至法令纹;可以说高空间频率信息可以更有助于我们判断皱纹,从而了解对方的年纪。一般而言,我们判断地方、场景甚至文字都依赖于高空间频率信息,比如说你正在读的这行字基本都是高空间频率的;你想一想摘了眼镜且离远了什么字都看不清楚。但是面孔独一无二,它深深地依靠着两种空间频率的信息,甚至说可以完全依靠低空间频率进行传播。
1701312346
1701312347 低空间频率信息相对而言能够提供整体的相互关系。也就是说可以帮助我们判断对方的情绪以及健康情况。高频信息看起来比较细腻,而低频的往往感觉糊成一片;从数学角度你也可以直观地了解两个频率的差异:你可以数一数,一张高空间频率的图片上有8到16对亮度对比强烈的条纹,而低空间频率的图片也就2到8对。空间频率甚至和关注点也有关系,如果面孔正好在我们的注视之下。但是这个对于面孔识别有什么关系呢?对啦,大雾甚至说近视都能够严重削弱高空间频率(HSF)信息,但是不太影响低空间频率(LSF)信息,也就是说这个雾正是一种低空间频率信息过滤器,高空间频率信息难逃厄运,不过低空间频率信息依然畅通无阻。比如说,在光线良好的时候我们一眼就能分清楚动物园里的斑马,但是一旦模糊,大雾降临,斑马看起来就像灰马。难怪在大雾之中,我们对低空间频率信息还能识别,对高空间频率信息的识别只能举手投降。但是这个和面孔识别又有什么关系呢?
1701312348
1701312349
1701312350
1701312351
1701312352 同样的斑马,在模糊之后(比如大雾或者摘下眼镜)不光看不清楚,甚至空间分辨率都会被影响,连条纹都难以被数清楚。不信你数数看,右图有多少道条纹
1701312353
1701312354 让我们回想下上一节的内容,整体识别正是面孔识别的关键,它的处理其实非常依赖构型信息,或者近似说是整体信息;也就是说,我们识别一个人是谁并不是依赖于面孔某些特殊的形状,而是将它们整合起来。聪明的读者肯定已经发现这部分结论和前面“撒切尔效应”的关系。严格说来高和低空间频率都能给大脑提供分析构型效应的信息:低空间频率信息比较粗糙,通过外侧膝状体的M细胞配合皮质下通道传递,处理与加工速度快,可以说是“速写画”;高空间频率更为细腻,通过外侧膝状体的P细胞配合皮层通道处理,需要更长时间传递和加工,算作“工笔画”。这两个通道和信息类型正是我们进化的一个写照:高速加工一般而言比较古老,比较快却粗糙;低速加工出现更晚,不过细腻且准确。在面孔身份方面(“他是谁?”),我们的大脑也巧用了两个通道的两种层次信息。梭状回面孔区这样一个处理面孔身份的重要区域,不少科学家就发现它对高、低空间频率信息来者不拒,但是分开处理。正因为高、低空间频率信息只是在这儿处理,我们可以说正是梭状回面孔区将不同空间频率信息进行整合(前端处理低空间频率信息,后端处理高空间频率信息),进而汇聚出我们对于面孔的整体识别。作为对比,我们识别文字的文字识别区与梭状回面孔区在位置上几近左右对称,但是这个针对文字的脑区只喜欢高空间频率信息。相比而言,我们判断面孔比判断文字时,神经系统对于信息宽容度高,我们在判断面孔时更方便、更老练。能有如此“博爱”的梭状回面孔区来判断面孔真是幸福而且方便。
1701312355
1701312356 在判别他人面孔的时候,二阶关系信息(比如眼睛间距离)和整体信息(所有信息整合为一体而不再估计每一处的局部信息)为面孔识别提供了方便。面孔整体识别更着重于依靠低空间频率信息而不是高空间频率信息,举一个例子,当我们在判断别人身份的时候,梭状回面孔区会对低空间频率信息反应更加活跃。当然两种空间频率信息都对面孔识别提供了线索,但是也有先后关系。虽然完整的识别也不能少了高空间频率信息,但是我们所讲的低空间频率信息恰巧是整体识别必不可少的重要材料,更不要提低空间频率信息相较高空间频率信息更容易传递和处理。不过真实生活中当我们判断“他是谁”的时候,还是LSF更占主导而且重要,就如同前面几节提到的整体识别比局部识别更加重要。比如说在先天性面孔失认症的群体中,他们有着相对完善的情绪识别能力,但是没有完善的身份识别能力,研究人员发现他们的梭状回面孔区有着缺陷(具体是活跃性还是连接程度有待进一步研究),这一缺陷导致了身份识别障碍。但是这个障碍源于这群人没办法合理地分析低空间频率信息,所以巧妇难为无米之炊,没有LSF信息,面孔识别就如同正常人看到倒置的面孔一样抓瞎了。换句话说,只要有低空间频率信息被我们捕获,我们就能整体识别这张面孔;只要这部分信息足够,我们也就能够判断出这个人是什么情绪,他到底是谁。
1701312357
1701312358 虽然模糊的面孔让人捉摸不透,但与身份识别息息相关的低空间频率信息并没有被太多影响,所以对于普通人,我们依然能够针对所拥有的信息进行身份识别。当然,高空间频率信息也能帮助我们识别他人,很明显戴上眼镜识别更方便;不过相对而言,整体识别才是面孔识别的大梁,大梁的基础,低空间频率信息很重要呢。当然高空间频率的信息也能够提供一定的整体信息,帮助大家识别面孔,不过重要程度上还是差一点。最后告诉大家一个小贴士,因为大脑结构的原理,我们梭状回面孔区针对高空间频率信息这样一种细节丰富可以提高判断正确率的信息有着一定要求,具体而言就是面孔处在我们视野中心(视野中心也就是正对着视网膜中心凹)时其高空间频率信息可以被最优化处理;言外之意也就是想要看别人看得更清楚,还是得正眼看人,正因为高、低空间频率信息只是在这儿处理,我们可以说正是梭状回面孔区将不同空间频率信息进行整合(前端处理低空间频率信息,后端处理高空间频率信息),进而汇聚出我们对于面孔的整体识别。
1701312359
1701312360 看脸 [:1701311743]
1701312361 露出多少能被看清楚?
1701312362
1701312363 判断一张完整的面孔对大多数人来说是轻松简单的。基本上看一眼我们就能判断对方是谁,什么情绪。但是实际生活中,我们的面孔并不是完整呈现的。比如说不合适的角度会遮盖面孔,头发或者墨镜等饰物也可能遮掩面孔。甚至我们有时候会用手有意遮盖面孔。在害怕的时候我们会遮住眼睛,在难过的时候我们会用手包裹整张脸,有时候笑得太过开心我们也会用手遮掩住口鼻。在这些情况下,随着遮盖区域的增大,留给他人判读的余地越来越少,以至于让人分辨不清。所以说,在古代化装舞会的面具,或者说侠客佐罗的眼罩,只是遮盖了一部分面孔,甚至说只是遮盖了眼睛区域,就让面孔信息难以被加工。前面几节我们谈到了我们判断面孔还是得依靠整体信息,这样被严重遮盖的面孔自然不足以被整体信息所识别。
1701312364
1701312365 同样是遮盖,侠客佐罗的眼罩让人分不清他的真实身份,而我托着腮帮子并不会让同事找不见我;同样是遮盖似乎位置不同效果也不同。所以新的问题出现了:遮盖到多少才会影响整体识别呢,我们需要多少信息完成面孔的认知呢?在流感暴发的时候,大家不免都需要戴口罩,不过很多时候我们对熟悉人的识别并没有受到太多的影响。在一些场合,在墨镜的遮掩下能分清楚对方是谁的情况也是存在的。那么在这种情况下,局部够用吗?或者说,我们要识别一张面孔至少需要多少信息呢?这个问题与上文中整体局部相比并不一样;之前提到的研究总是将总体和局部分隔开来探讨:比如Liu(刘)、Harris(哈里斯),还有Kanwisher教授研究过倘若肖像画上的五官故意被打乱,甚至被替换,残余的面孔局部信息对识别基本是不够用的。但是我们现在思考的问题在于遮盖,或者说面孔并没有被挂起来(倒置效应),也没有被移花接木(合成面孔效应),更没有被“乾坤大挪移”(局部);相反,这个问题是在考虑整体环境不改变的情况下,多少局部信息足够支持面孔识别。虽然共享了“局部”这个名词,但实际差之千里。虽说遮盖一张脸很简单,但是研究遮盖的影响可是难倒了不少学者,因为普通的遮盖方法并不是很好用。大家想一想,如果像打马赛克一样对面孔遮盖住一部分,总是难免会武断。正是由于每一个科学家都要自己做出几张图片,很多情况下图片的制作会影响最终的结果。
1701312366
1701312367 那怎么办呢?解决这个问题需要几个关键点:第一,面孔还得是那个面孔,一切操作都是在遮盖面孔部分,也就是说面孔本身没有变化,变化的应该是那个“遮盖”;第二,遮盖点的选择要有适应性,像文学作品中的佐罗一样只遮住眼睛周边是不行的,相反遮盖的地方需要有变化。能做到这个的有两个方法:第一是在照片上随机分布噪点,但是这个方法有着局限性,就是遮盖还是比较均匀,好比一套面纱,所以不能够完美解答问题;第二个就是Schyns ;(许恩斯)和Gosselin(戈林斯)两位教授在2001年提出来的“气泡脸”(bubbled face)方法。说到对面孔的遮盖,两位教授还把这样一个看似干扰面孔识别的“障碍”变成了理解面孔加工的“云梯”。
1701312368
1701312369 在他们提出这个技术之前,科学家很苦恼如何分析面孔部分对于识别的影响,简单地如同上图的切割似乎不妥。要是保留整张面孔,那么科学家们就要去分析人在识别面孔时到底看了哪些地方。但是这样利用眼动数据的研究往往受限于实验设计本身:(1)哪怕我们记录了注视点(或者ROI),但是余光扫过的内容怎么检测?余光也能提供不少信息。(2)给你足够长时间,每片树叶都能分清楚。总而言之,实验设计不太好弄,数据的解释也不太方便。Schyns教授和研究生灵机一动,干脆把一些地方遮起来不就好办了吗。原理其实很简单,两位科学家觉得面孔上每个细小区域并不是同等程度上为识别提供了信息。那么他们就在脸上放置了不少细小而透明的小气泡,在透明气泡之外的部分是无法看见的。这样一步一步减少可以看见的空间,就可以用排除法找到到底哪些面孔区域是识别的关键区。比如说,眼睛如果是情绪识别的关键区域,只要眼睛看不见,情绪肯定不好识别。结果其实也很有趣,他们指出分辨情绪需要的面孔区域最少,其次是性别,而识别身份几乎需要整张面孔。难怪佐罗蒙了眼睛大家识别不出来,不过他的笑容丝毫不受阻碍。
1701312370
1701312371 两位科学家的思路颇有奥卡姆剃刀(奥卡姆剃刀定律,又称“奥康的剃刀”,它是由14世纪逻辑学家、圣方济各会修士奥卡姆的威廉提出。这个原理称为“如无必要,勿增实体”,即“简单有效原理”)的风骨:既然我们要研究面孔哪些部分对于面孔识别有影响,那么我们就开始随机地遮掩面孔。比如说我想研究下识别笑容相关的面孔区域,那么我就开始遮盖面孔,如果一张气泡脸能够被识别,那么我们记录下来这张图片中有哪些位置是可以被看见的。反复多次实验之后,总是被记录下来的部分自然是识别所必须的部分。
1701312372
1701312373 虽然他们两位的论文本意不是想要探究识别的信息需要多少,而是纯粹介绍这样好用的科研手法;但是结果也说明了不少有趣的信息。第一点,就是识别身份的时候,几乎面孔上所有信息都被动用,唯独头发不是那么重要。研究的结果指出,判断身份还是依靠五官。也就是说,眼睛、鼻子,还有嘴,加上互相的结构关系(总体信息)奠定了身份识别。第二点,那就是我们人识别判断面孔不完全是依靠两张面孔的差异,更多是利用面孔而不是图片与图片的绝对差异。
1701312374
1701312375 从这个角度来说,我们判断面孔的身份的确不是简单得如同比较两张图片的信息,而是分析它背后的含义。
1701312376
1701312377 看脸 [:1701311744]
1701312378 大脑尽力了
1701312379
1701312380 在本章的结尾,让我们回顾一下这一章。在这一章我大致阐述了面孔识别的基本脑机制;还有面孔识别的基本方法:整体识别,而非局部识别的简单叠加。这一种方法的巧妙程度可能超乎想象,但这正是大脑的工作原理。为何我们大脑喜好整体识别?这个问题还是得回归大脑对于视觉信息处理的机制上。整体识别首先依赖于大脑在视觉信息初步加工时对于空间频率分开处理这一机制,在这儿各方面研究充足。整体识别的第二步就发生在稍微高级的大脑皮层,比如梭状回面孔区、颞上沟,或者杏仁核;它们的较早活跃也是与初级加工时低空间频率信息处理比较快有关系。但是为什么就是这些区域识别面孔,还有它们如何发育还远远没有被研究透彻。它们在身份识别、情绪识别、美貌还有其余社会特征识别等众多方面的功能我会在之后的章节提到。不过面孔识别背后深藏的原理、机制,甚至一些计算方法可能还得依靠一代又一代的科学家去慢慢探索。
1701312381
1701312382 我们不妨从身份开始说起,我们是怎么利用面孔来判断“他是谁”的呢?
1701312383
1701312384
1701312385
1701312386
1701312387 看脸 [:1701311745]
1701312388 看脸 Chapter 5 面孔与身份:“你是谁?”
1701312389
[ 上一页 ]  [ :1.70131234e+09 ]  [ 下一页 ]