可能对我们来说一张面孔就是一张面孔,平淡无奇。但是,在科学家那里就是研究的宝藏:在他们眼中身份信息可以帮助人们判断对方的身份,从而采取不同的策略,而表情信息能够表达每个人内心的想法。它们在功能上隶属两个层面,相互都有着很大差异。既然能归为两类信息,科学家们自然会推论两类信息应该有不同的处理系统去处理。根据无数科学家用脑成像和行为科学的研究,Haxby教授和同事提出了一个激动人心的假说:大脑内有三个(几乎只对面孔产生兴趣)核心模块配合若干个(也参与其他大脑活动)拓展区域完成面孔判断,既包含处理稳定的信息(比如身份),又包含易变化的信息(比如表情)。按照这个既被广为接受,又被补充的假说,我们可以了解到为了读一张面孔,大脑有多么努力。
从核心模块功能来看,一张面孔的身份信息会被梭状回面孔区(FFA)处理,相对,表情信息会被颞上沟(STS)处理。虽然梭状回面孔区和颞上沟都在颞叶之上,但是位置一上一下,而且功能完全不同。其实,有一定神经科学基础的朋友们大致也能理解这两个区域的区别。颞上沟(STS)其实紧邻中颞叶(MT/V5)皮层以及中颞上(MST)皮层:MT皮层最重要的功能就是处理运动、动作信息。而中颞上皮层也类似于中颞叶皮层,进一步分析动作信息。颞上沟孜孜不倦地从这两个相关皮层获得动态图像的信息,也难怪它会处理关于面孔中相对“变化多端”的情绪甚至是唇语这部分要素。相对应的,梭状回面孔区身处颞下叶,它的“邻居们”几乎都和某种识别有所关联:在猕猴脑内,FFA所在的地方,颞下皮层对于面孔,甚至不同朝向的面孔有着特别的反应;它的其他“邻居”也分别与场景识别,还有肢体动作息息相关。这么说来,真的是不是一家人不进一家门,识别瞬息万变或者长久不变的信息的脑区都“聚集”在不同的地方,这些“地方”都有着生理背景原因:大脑也不会凭空委任一些脑区参与一些活动;相反,大脑的“安排”正是基于这些脑区有“能力履职”。
图来自Haxby&Gobbini(2011)。标注了OFA、FFA以及STS这三个核心模块。你看,都在脑袋后面、侧面,基本就在大家耳朵后面的位置
不光是核心模块参与面孔的识别,不少涉及其他活跃的大脑区域也参与进面孔的识别。比如说杏仁核(amygdala)就会参与一些负面情绪的判断,也会参与判断来者是否有威胁。比如有一位叫作SM的病人,她的杏仁核受损之后便再也感受不到“害怕”的情绪。不光杏仁核,脑岛(insula)作为一个关乎进食行为的脑区,也会在判断他人情绪的时候活跃;同样,奖惩系统会对不同长相的面孔有不一样的兴奋。涉及判断他人想法以及目的的前扣带回皮层(APC)也会对不同的面孔产生不一样的活跃。前、中颞叶皮层涉及对于面孔的记忆,会随着梭状回面孔区的活跃参与身份的判断活动。这些大脑区域(所谓的拓展区域)都会随着核心区域的活跃一起工作,从而完成对于面孔的判断。这一部分会在之后的章节分开介绍。
在处理面孔信息的时候大脑的许多模块纷纷参与其中,那么它们之间是怎么样的关系呢?Haxby教授在提出这个模型的时候,强调了大脑在处理面孔时参与的区域是离散分布的(distributed);因而,自然而然地,会有人误以为这些脑区有可能是“各自为政”。事实上,这个推论是错误的。首先,这些脑区的活跃有着时间线上的先后顺序,反映了视觉信息传递的前后性,并不是各自“看心情”才有活跃。其次,这些大脑区域看似分离,其实关联紧密,很多不同的面孔识别任务都会依赖同一个脑部区域。与其把这些脑区比作一个公司内的若干个部门,我更愿意把它们比喻成整个广告部门:其中也有能力迥异的员工,并且,他们不同的搭配和安排可以给所有的甲方完成各种各样的广告设计。(www.xing528.com)
科学家们在科学模型的建立上永远在追求完善,他们也反思面孔处理模块的分布式假说是不是完全准确,会不会由于研究水平的限制而有缺陷。绝大多数科学家都对完善这一模型保持了开放的态度:心理学作为一门科学有着可证伪性,因而每一个假设都有被推翻的可能。Calder和Young教授在2005年的一篇综述中描述了他们的担忧,他们并不反对这个模型,但是强调了模块本身并不是非黑即白的区分,他们也针对该如何更好地用实验完善和理解提出了建议。同样,Behrmann(贝尔曼)和Plaut(普劳特)在2013年的一篇综述里也提到了这一点,他们没有盲从之前的模型,用实验解释了大脑处理面孔的区域并不各自为政,也不是只有一份工作:它们除了在“本职工作上尽心尽责”,也会对其余的视觉信息产生反应。因此他们建议把“模块”这样听起来很独立、分离的描述性词汇改成“处理圈”,这样强调了整合性但是没有抹杀分布性。所以说,不同的大脑区域的确参与了面孔识别这个“大工程”,但是它们不是完全隔离,相反它们的“私交”很不错,在处理不同内容的时候各自形成小圈子,高效但是不浪费地完成工作。举个例子,一个喜好变化信息的颞上沟(STS)积极参与了情绪识别,可以说是情绪“专家”,它在处理面孔情绪的时候会积极地与“面孔工程师们”合作,也就是会和V4皮层、中颞叶皮层、丘脑、杏仁核一起合作处理面孔情绪;但是转战到声音情绪的时候,它会和“声音工程师们”处理问题,会从A1皮层等相对应区域交接班。所以说这样的脑区并不是“各自为政”,相反它们的组织和处理就足够让很多只会分析KPI的人力资源专员汗颜了。
在Haxby与同事的模型中,如此多层面的面孔信息不是被一个大的“中央处理器(CPU)”处理,也不是被若干个高度单一用途的“传感器”逐个处理,而是每个层面都会被不同的脑区所处理。当然这并不是暗示每个人的大脑都暗中排布着若干个平行的“处理器”分析不同面部信息;他们的模型指出大脑拥有许多处理模块,在针对面孔处理时,大脑“聘用”三个专门对于面孔有兴趣的、专一性的模块以及不少通用性很强的模块进行分析:举个例子,专业摄像机上有摄像头还有读卡器,其中摄像头就是专一性模块,只用来拍摄,而读卡器功能广泛,它们协同在一起可以起到拍照并记录的作用。回到面孔处理模型上,大脑通过采取不同的核心模块并使其配合其余的延伸模块,最大化地合理利用脑区进行多种多样的面孔信息分析。虽然说不同信息有很大差异,但是不少信息都有着相似的通道进行处理。比如说,表情或者面孔朝向甚至唇语都是属于变化的信息,针对它们的判断都会被颞上沟(STS)这个核心处理模块加工,然后依次与其余的延伸模块进行进一步加工,从而获得完整的识别。仔细一想,这样大脑就会把加工过程中相似的部分进行“合并同类项”,的确是高效,也节省了处理空间。
通过面孔,每一位读者都能得到大量的信息,而面孔本身也不是“平板”一张,相反,它拥有多层次的信息。在这一章,我们先谈一谈大脑是怎么处理身份信息和表情情绪信息的,而其他内容会在之后章节作为本书的重点详细分析,循序渐进。毕竟在绝大多数科学家眼中,身份信息和表情信息算是人际交往中最重要的组成部分;透彻地研究能够极大程度地帮助我们理解大脑在人际交往中的功能。所以在某种程度上,人们对面孔的身份识别以及表情情绪识别有着最炙热的研究兴趣,也有着最丰富的研究成果。面部表情和身份的确区别很大,不过绝大多数人可以在不知道对方身份的情况下判断对方的情绪,同时大多数人可以在一群有着相同表情的人中寻找出熟悉的人。换句话说,如果你熟悉我,你不会因为我做出了什么奇怪的表情就认不出来我是谁;同时,你可能只熟悉我不熟悉我的表哥,但当你看到我表哥的时候,你依旧可以轻松地判断出来我表哥的表情是开心还是悲伤。科学家们在这两个问题上可谓绞尽脑汁。在谈论这两个问题的区别之前,我们先谈一谈它们的共性,那就是情绪还有身份都是被一种叫作整体识别的方式主导。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。