Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
专利交易 商标交易 积分商城 国际服务 IP管家助手 科技果 科技人才 会员权益 需求市场 关于龙图腾 更多
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 暨南大学孔锐获国家专利权

暨南大学孔锐获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉暨南大学申请的专利基于Emo-ResNet的面部表情识别方法、装置、设备和介质获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115862091B

龙图腾网通过国家知识产权局官网在2026-04-21发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211398695.4,技术领域涉及:G06V40/16;该发明授权基于Emo-ResNet的面部表情识别方法、装置、设备和介质是由孔锐;梁冠烨;张冰设计研发完成,并于2022-11-09向国家知识产权局提交的专利申请。

基于Emo-ResNet的面部表情识别方法、装置、设备和介质在说明书摘要公布了:本发明公开了一种基于Emo‑ResNet的面部表情识别方法、装置、设备和介质,该识别方法基于改进的残差网络,并引入多头自注意力机制,同时在深度注意力中心损失中引入损失函数,并应用到日常的面部表情的识别中。本发明首先获取待识别者的实时动态视频流并进行帧提取操作后保存为静态图片流;然后从待识别的图像中识别出人脸并进行人脸矫正和人脸对齐,裁剪得到对应的人脸图片;随后将人脸图片输入到Emo‑ResNet网络中进行分类训练;最后将判定的面部表情类别以及该面部表情在实时动态视频中的时间在界面中输出,将识别结果可视化。经过实验验证,该方法计算复杂度低,识别率高,更适用于面部表情识别。

本发明授权基于Emo-ResNet的面部表情识别方法、装置、设备和介质在权利要求书中公布了:1.一种基于Emo-ResNet的面部表情识别方法,其特征在于,所述面部表情识别方法包括: S1、视频采集步骤,获取待识别者的实时动态视频流; S2、数据传输步骤,将实时动态视频流进行帧间隔提取操作,并保存为静态图片流,获取包含待识别者面部在内的图像; S3、人脸检测提取步骤,从包含待识别者面部在内的图像中识别出待识别者的人脸并进行人脸矫正和人脸对齐,然后裁剪得到每位待识别者的人脸图片; S4、面部表情识别步骤,将每位待识别者的人脸图片输入到经过训练的Emo-ResNet网络中,得到每位待识别者的各类面部表情类别的概率,将最大概率对应的面部表情作为待识别者的面部表情识别结果,其中,所述面部表情类别包括生气、厌恶、恐惧、开心、伤心、惊讶以及中性,所述Emo-ResNet网络的主体框架为改进的ResNet50,并在第四层卷积块的第一个瓶颈层将多头自注意力机制MHSA替换对应的卷积层和归一化网络层,同时将深度注意力中心损失作为损失函数; 所述Emo-ResNet网络具体如下: Emo-ResNet网络的输入为每位待识别者经过人脸矫正与人脸对齐的人脸图片,Emo-ResNet网络从输入到输出依次为顺序连接的卷积层Conv1、第一模块、第二模块、第三模块、第四模块、池化层Avgpool、全连接层FC以及Softmax模块,其中卷积层Conv1设置卷积核大小为3,步长为1,填充宽度为1;第一模块、第二模块、第三模块、第四模块的基础单元均为瓶颈层,每个瓶颈层有两条分支,其中第一分支依次为顺序连接的卷积层Conv01、归一化网络层BN01、激活函数RELU、卷积层Conv02、归一化网络层BN02、激活函数RELU、卷积层Conv03、归一化网络层BN03,第二分支依次为顺序连接的卷积层Conv04、归一化网络层BN04,将第一分支与第二分支的输出进行相加并经过激活函数RELU得到瓶颈层的输出结果,第一模块、第二模块、第三模块、第四模块中瓶颈层数分别为3、4、6、3,其中对第四模块中的第一个瓶颈层用多头自注意力机制MHSA替换卷积层Conv04、归一化网络层BN04,而第一模块、第二模块、第三模块、第四模块中除第一个瓶颈层外,其他瓶颈层的第二分支均无卷积层Conv04与归一化网络层BN04; 所述多头自注意力机制MHSA中每一个注意力汇聚都被称作为一个头,而头的数量设定为4,二维特征图的宽与高都设定为14,多头自注意力机制MHSA的计算公式表示如下: MHSAQ,K,V=Concathead1,head2,...,headnW0, 其中Attention计算公式为其中n为头的数量,Q指查询向量矩阵,K指“被查”向量矩阵,Q、K都是用来计算注意力的权重矩阵,V为用来将注意力加权求和得到最终结果的权重矩阵,dk为矩阵K维度大小,令通过权值进行线性变换,最终通过可学习的权重矩阵W0将多个由Attention得到的头部headn拼接在一起,得到最终由Q、K、V计算的多头自注意力结果MHSAQ,K,V,用于对图像进行提取特征,Contacthead1,head2,...,headn表示将head1,head2,...,headn进行拼接,所以Concathead1,head2,...,headnW0表示将head1,head2,...,headn拼接后再与一个可学习的权重矩阵Wo做线性变换,得到最终的Attention输出; S5、识别结果可视化步骤,将判定识别的面部表情类别以及该面部表情在实时动态视频中的时间在显示装置中输出,将识别结果可视化。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人暨南大学,其通讯地址为:510632 广东省广州市天河区黄埔大道西601号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。