一种用于情感识别的细粒度人脸关键特征提取与融合方法
快速阅读: 《Nature.com》消息,本文提出了一种结合全局和局部面部特征的情感识别方法。通过构建图像预处理模型和采用编码器-解码器架构,显著提升了特征提取能力。实验结果显示,该方法在FER-2013和JAFFE数据集上的平均准确率分别为80.59%和97.61%,优于现有模型。此方法有助于提高情感识别的准确性和鲁棒性。
情感是人类对外部刺激的基本反应映射,在人机交互中得到了广泛研究,尤其是在智能驾驶舱和系统等领域。然而,准确识别人脸表情中的情感仍面临重大挑战,因为受到光线条件、姿势和微表情等因素的影响。全局或局部面部特征进行情感识别是关键的研究方向。然而,准确识别人脸表情中的情感仍面临重大挑战,因为受到光线条件、姿势和微表情等因素的影响。然而,仅依赖全局或局部特征通常会导致模型在面部特征上的注意力分布不均,忽略了检测情感变化所需的关键差异。本文提出了一种通过整合全局和局部面部数据来建模并提取关键面部特征的方法。
首先,我们构建了一个全面的图像预处理模型,包括超分辨率处理、光照和阴影处理以及纹理增强。这一预处理步骤显著提升了图像特征的表现力。接着,我们采用了编码器-解码器架构的全局面部特征识别模型,有效消除了环境噪声,并生成了用于面部分析的综合性全局特征数据集。同时,我们使用Haar级联分类器从关键面部区域(包括眼睛、嘴巴和整个面部)提取精炼特征,得到相应的局部特征数据集。
最后,我们设计了一种双分支卷积神经网络,将全局和局部面部特征数据集结合起来,提高了模型准确识别面部特征的能力。全局特征分支充分描述了面部的整体特征,而局部特征分支则专注于局部特征的识别。自适应融合模块将全局和局部特征结合起来,增强了模型区分细微情感变化的能力。
为了评估模型的准确性和鲁棒性,我们在FER-2013和JAFFE情感数据集上进行了训练和测试,分别达到了80.59%和97.61%的平均准确率。与现有最先进模型相比,我们的精炼面部特征提取和融合模型在情感识别方面表现优异。此外,比较分析显示不同人脸之间的情感特征存在相似之处。根据心理学研究,我们将数据集分为三类情绪:积极、中性和消极。按照新的分类标准,情感识别的准确性显著提升。此外,自建的数据集进一步证实了这种分类方法在实际应用中的重要价值。
(以上内容均由Ai生成)