1701312289
奇奇怪怪的照片,道出了面孔识别的特点
1701312290
1701312291
科学家们选择了在面孔这一片富饶的“草原”上研究,自然而然需要优秀的“行步车”。研究整体识别,就需要创造出打破整体识别或者局部识别的图片,探究整体识别的影响到底有多深入。脑成像好比汽车让科研走上了快车道,而对图片的操纵就好比石油化工,若没有好的“汽油”,再好的跑车也只能推着走。
1701312292
1701312293
我于上一节已经粗略介绍了下Yin教授提出的面孔倒置效应。在实验室里,科学家们还利用别的办法调整图片,换用其他角度去测量整体识别。比如有一种研究方式叫作合成面孔效应,这是一个广泛应用于面孔研究的经典方法。Young教授在提出识别模型的同时,也孜孜不倦地做了许多与面孔相关的经典研究。在他和同事的两组实验中,他们用合成面孔效应发现了情绪和身份都需要依靠整体识别。我们先说一下合成面孔。正常情况下,我们都可以看到一张完整的面孔,一张完整的面孔上自然有着相同的情绪或者说身份。但是合成面孔效应就是建立在我们的“假设”上,故意从鼻子处裁掉一张面孔的下半段,贴上另半张面孔。比如下面这张图就是一张合成面孔,而右边的是分割开的面孔,你能判断出哪一个下半张脸是属于英国首相的吗?
1701312294
1701312295
1701312296
1701312297
1701312298
这两张面孔都是由一位名人的上半张脸和另一位的下半张脸构成的。上半张脸是英国前首相戈登·布朗,下半张脸属于英国前首相卡梅伦。左边一张图相较右边更难以判断清楚具体哪部分面孔属于哪位名人
1701312299
1701312300
左边两张面孔显然没有右边两张容易区分。如果通过左边连接在一起的面孔你可能很难判断,但是通过右边这张没有连接在一起的照片就能方便很多。甚至我们实验室的学妹还说,在她看了右边这两张分开的脸庞之后,她才发现左边这张脸其实不是来自一个人。这就是合成面孔效应,如果两张不同的面孔连接在一起的时候,你需要花更多时间去判断上半张面孔是谁,但是一旦分开一段距离便快不少。
1701312301
1701312302
“合成面孔效应”的原因并不复杂,因为这样合成的面孔非常像现实生活中存在的人,以至于我们看到这张精心合成的脸之后会误以为这一张脸是一个整体,所以整体识别会进行处理。不过因为我们并没有这样一个被处理过的面孔的记忆,所以我们无法识别;同时,整体识别提炼了局部识别,让我们很难简单地抽离出局部特征来单独分析,整体信息作为被优先处理的信息占据了大量的认知资源。举一个不恰当的例子,电脑上用Linux操作系统(近似整体处理)运行模拟的视窗操作系统(在这个情况下近似局部处理),Windows操作系统的处理资源自然会被原本运行的Linux系统分享,使得两者都快不了。但是对于分开的面孔,我们的大脑不再把它们合成在一起分析,也就不会提前激活整体识别这样一个占主导地位的“进程”,因此局部分析方法可以更快、更少干扰地判断出到底上半张脸表述了什么信息。还是举上面的例子,作为一台双系统的电脑,如果我们开机时就只选择视窗系统(局部处理),预装的Linux系统没有被激活,也不会来“分一杯羹”。所以,相比分开的面孔,“合成面孔”令我们更难以“找回理智”,需要更长的时间判断出上半张脸的真实主人。Young教授和同事在1987年就利用这个方法研究了身份信息,后来在2000年又和另一组同事研究了表情情绪的识别,基本确定了在面孔识别的过程中,整体识别还真是局部识别的“上司”,只有让整体识别“休假”才能够更好地判断合成面孔。虽然身份和表情情绪需要不同的大脑区域加工,但是它们都呈现出合成面孔效应,可以说整体识别是一个非常重要的面孔处理手段,它的“办公室”优先于面孔的具体分析:好似前台,想进公司都得先走过那边。
1701312303
1701312304
整体优先效应也被广泛应用于面孔研究之中。这个设计很有趣味,其实“产自”我们的日常生活中。现在我问你,你觉得你能够只通过左边的一张嘴判断出这个人是谁吗?绝大多数人,哪怕再熟悉特朗普,都可能很难做到。这一点也恰恰是整体识别的原因。接着用特朗普做例子,同样是判断嘴唇是否属于特朗普,在完整的特朗普肖像中这同一张嘴唇识别会快很多。这一个“速度优势”恰恰是因为面孔依靠整体识别,如果只能看到部分信息,比如单独一张嘴,我们并不能有效地利用它、分析它。自然而然地,只有在整体之中,判断局部的信息才会被快速地识别。
1701312305
1701312306
利用这么多的研究手段,科学家们发现当我们以某种方式打破常规面孔构成,也就是破坏整体识别时(面孔倒置效应)判断能力下降。当塑造出以假乱真的整体面孔之后(合成面孔效应),对于“假的面孔”的整体识别优先一步反倒影响了对于目标半张脸的局部识别。当比较同一个局部面孔特征在单拿出来还是放在整体之内的时候(整体优先效应),整体可以提速识别。希望在我极其详尽地转述这些“优雅”的实验结果之后,你能理解整体识别在面孔识别中占据主导地位。
1701312307
1701312309
“撒切尔效应”
1701312310
1701312311
相比通过合成面孔效应那样相对复杂的研究方法,其实理解整体识别还能通过一个有趣的视觉错觉来实现。我们现在就来看这样一个有趣的现象:面孔倒置之后会出现识别上的视觉错觉。虽然说早在二十世纪六十年代末就有科学家研究了倒置的面孔,下面要介绍的错觉源于它,却影响到了学界之外。一般我们称这个现象为“撒切尔效应”,因为第一位使用这个效应的是Thompson(汤善森)教授,他选用了当时非常出名的英国首相撒切尔夫人的头像制作了一组很有趣的面孔图片。恰巧是利用了这样著名的人物,赶上了流行文化的顺风车,这个有趣的现象走出了论文,进入大众的视野。当然,这个现象肯定不只存在于撒切尔夫人身上,我就用了基于我本人面孔的图片制作了相类似的一组错觉图片。仔细看下后面四张图片,你能不能判断下面两张图哪一张才是左上角图片的倒影?我在这儿给个小提示,试着把这本书倒过来看一看。
1701312312
1701312313
左上角很明显是原始图片,看起来没有异样,但是下面两张图片看起来就有趣多了。似乎两张图片看起来都很像左上角的倒影。但是事实上,上下的照片互为镜像。也就是说右下角这张看起来挺像回事的面孔事实上是右上角那张像外星人一样的图片的倒影。或者,从另一个角度看,看起来样子扭曲的右上角面孔,经过颠倒工序,变得不再那么稀奇古怪。正如同我之前说的,这个效应可以产生在任意一张面孔上,只要把嘴部和眼部倒置就清晰可见。不过为什么呢?为什么我们会产生这样的错觉呢?为什么整体倒过来之后我们就看不见局部的怪异了呢?
1701312314
1701312315
1701312316
1701312317
1701312318
为了方便展示,我不惜牺牲自己的面孔。虽然右下角的面孔和左下角的比起来几乎没有特别的感觉,但是右上角的图片实在是太奇怪了。事实上,上面两张照片和下面两张是镜像,倒置让奇异性削弱了不少
1701312319
1701312320
自“撒切尔效应”被刊登在大众杂志之上,很多人将这个作为心理学的有趣现象看待。当然科学家们没有就此满足,不少科研工作者试图用这个效应深入探索大脑对于面孔的理解。有科学家发现,在“撒切尔效应”中(如图),右上角那张扭曲的面孔,倒置了之后就不再显得奇怪。对于这个效应,科学家解释为“奇怪性”的改变还是由于倒置,因为倒置打破了对于面孔的整体识别,所以说面孔的“奇怪性”不能被整体识别,从而“奇怪性”会显得模糊。Rhodes(罗德)教授和同事们针对这一种效应做了一个有趣的实验。就好比右上图很奇怪,但倒过来之后的右下图看起来顺眼多了。他们在三个实验中发现相对于倒置的面孔,倒置的眼睛“奇怪性”减弱得不是很多。根据前人的研究,我们都非常熟悉正常的面孔,熟悉正常的情况下面孔排列的关系,我们简称为“逻辑性”。经过他们细心的分析,发现如果这个图片本身有很强的逻辑性(面孔的排布),那么倒置会更加明显地缓解图片的扭曲性。于是,他们认为这个效应反映了面孔识别中的逻辑性,也就是所谓的整体性。因为我们对正常的面孔整体加工,而对倒置的面孔局部加工,所以倒过来之后,一切都变化了呢。Bartlett(巴特利特)和Searcy(瑟西)也相似地揭露了该效应背后关于整体识别的秘密。他们通过完全不同的实验也发现了我们在对比正常面孔时依赖于整体的加工,但是,在对比倒置面孔时更依赖细节分析。
1701312321
1701312322
总而言之,我们在处理面孔信息的时候,我们的视觉系统更多地依赖于整体、构型识别,而不是主要依靠细节、特征进行面孔识别。在这里的整体识别不是说对于个体识别的简单相加,不是说先识别眼睛再鼻子再嘴巴最后加起来,而是将五官的信息整合起来一起识别。这样的能力,基本每个成年人都具备,不得不说会超出很多人的想象。可是我们的大脑就是这般神奇。虽然说我们对于面孔识别都有着无与伦比的能力,可以不费吹灰之力地识别。不少科学家非常认可我们识别面孔的能力,并且把这种能力总结为专长。根据前人的研究,我们识别面孔的专长只是针对正常的面孔,也就是拥有正常排列次序的面孔:眼睛下面是鼻子,鼻子下面是嘴巴。所以在正常情况下,能熟练运用“专长”的我们更倾向于整体识别,所以说,奇怪的眼睛和嘴巴更容易被发现。但是在被倒置之后,没有识别倒置面孔“专长”的我们,不得不利用局部信息一点点区分,所以局部的倒置在这里被混淆了。我们的大脑虽然能意识到倒置,不过可能转不过弯来,所以在整体被倒置的情况下(右下图),被提前倒置的眼睛和嘴巴会和正常情况一样向上,我们熟悉了正常情况的视觉系统,很容易被这样的“现实”麻痹,也就感觉不出(或者很难感觉出)异样。不过话说回来,眼睛和嘴往往能传递非常多的面孔信息,我们将会在之后的章节细细地讲一讲。
1701312323
1701312325
模糊中都能判断清楚
1701312326
1701312327
在初步体会到整体和局部识别之后,我想再举一个有趣的例子,方便大家理解这两种识别方法的区别。我们假设这两种相似的环境,第一个是忘记了戴眼镜的上午,第二个是在漫天大雾中,而共同的目标都是寻找一个特别的人。这两种情况有个共性,那就是除了鼻子,我们伸手肯定看不清楚五指。在这么恶劣的环境下,对面的行人可能看起来像下图一般模糊不清。
1701312328
1701312329
不过根据我们的经验,这样的情况下我们还是能够分辨熟悉的朋友,找到熟悉的快递员。也就是说我们在模糊的情况下还是可以辨别他人的身份。按道理,不借助语言,单纯从视觉角度分析,我们完全可以识别他人的身份。这样巧妙的过程完全可以借用大脑对面孔识别的过程进行。大雾虽然有毒,但是并不会影响我们的识别能力,所以说我们并没有利用所谓的“模糊情况处理热线”。同时,大雾或者不戴眼镜并不会直接遮盖面孔,所以我们在识别模糊的面孔时并不是完全利用用于识别被遮盖的面孔的方法。
1701312330
1701312331
1701312332
1701312333
1701312334
可能你不能认出图片中的这张面孔,但是我的朋友们都能够判断出这张面孔属于我本人。为什么模糊的面孔还能判断身份呢?这就要说一说空间频率了
1701312335
1701312336
不谈大雾和摘下眼镜的光学原理。从主观感受方面,我们看不清楚近处的东西,也就是说能见度下降了。那么在这个情况下,我们眼前所有的东西都会变得朦胧,近点的东西相对还好,远处的东西基本就是一片色块。这种“模糊”对于面孔识别究竟有什么影响呢?从经验角度,我们可以发现,似乎人脸的轮廓还能看清楚,但是细节难以辨析。举个例子,在雾里面,我们能大致判断出眼睛在鼻子上面,来者是正常人类不是外星生物,但是我们很难分辨对面的姑娘今天眼线画好了还是疵了。是为什么呢?下面我从识别视觉信息的角度大致解释一下。
1701312337
[
上一页 ]
[ :1.701312288e+09 ]
[
下一页 ]