值得注意的是,FACS只是利用解剖学原理对面部各部位进行测量,还不是对情绪的测量;但是艾克曼等人于1978年还提出:FACS中特定动作单元的混合可以表示人类六种最基本的情绪,即愤怒、高兴、悲伤、厌恶、恐惧和惊奇。然而情绪的表示并不是FACS的一部分,它是由一个单独的系统进行编码的,比如1984年提出的情绪面部动作编码系统(Emo-tion FACS EMFACS)或1992年提出的FACS解释词典(FACS Interpretive Dictionary)。该词典中表情模板见表3-4。
表3-4 FACS解释词典中表情模板
由于FACS当中没有包含情绪信息,用数据的分析知识单纯地描绘动作单元,或者把FACS通过字典规则转化成情绪。根据表情图像序列的特点,提出了FACS’(FACS转换)的表情编码:首先根据人脸面部的结构特征,建立物理-肌肉模型;其次,根据人脸面部表情的运动分析,确定表情的主要特征区域;最后,在特征区域内估计面部表情的运动场,从而计算特征流,由表情的图像序列得到特征流序列。(www.xing528.com)
基于FACS’的表情编码也就是把动作单元的运动转化为基于物理结构和肌肉模型的特征流向量序列来对眼部和嘴部特征序列分别进行表情编码,相应的运动皆是基于FACS规则的,同时克服了FACS的弱点。从生理学角度上,FACS’的表情编码能够合理而真实地描绘人脸的面部运动、符合人脸面部肌肉的物理特性和生物动力学特征;从心理学角度,能够精确表示人类的情绪在面部上的反映,即表情在计算机视觉领域上是可视化的和计算的。
后来,研究者们进一步揭示了动作单元与肌肉运动之间的关系,提供了表情识别的心理学方面的依据。Irfan A Essa等人提出了新的面部动作编码系统命名为FACS+,它基于物理和几何模型,用模板匹配的方法识别表情。针对FACS的两个主要弱点:①运动单元是纯粹的局部化的空间模板。②没有时间描述信息,只是一个启发式信息。其中,FACS不包含情绪信息,数据的分析只是单纯地描绘动作单元(AU),或者把FACS通过字典规则转化成情绪。国内的研究中提出了FACS’,即FACS转换的表情编码,把动作单元的运动转化成基于物理和肌肉模型的运动特征流向量序列来对表情编码,相应的运动解释基于FACS的规则,同时克服了单纯FACS的弱点。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。