Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
专利交易 商标交易 积分商城 国际服务 IP管家助手 科技果 科技人才 会员权益 需求市场 关于龙图腾 更多
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 河南大学李永军获国家专利权

河南大学李永军获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉河南大学申请的专利一种基于Transformer的图像压缩方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115439565B

龙图腾网通过国家知识产权局官网在2026-04-17发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210996920.8,技术领域涉及:G06T9/00;该发明授权一种基于Transformer的图像压缩方法是由李永军;李博;李耀;罗金成;张东明;张大蔚;李超越设计研发完成,并于2022-08-18向国家知识产权局提交的专利申请。

一种基于Transformer的图像压缩方法在说明书摘要公布了:本发明提供了一种基于Transformer的图像压缩方法,主要包括如下步骤:构建基于Transformer的深度图像压缩模型;建立用于深度压缩模型的训练集、验证集和测试集;最后将处理好的深度图像压缩数据集送入构建好的基于Transformer深度图像压缩模型进行训练;通过预设方式对基于Transformer深度图像压缩模型进行优化,并重复迭代训练及优化的过程,直至损失函数趋近于恒定值时停止迭代训练并输出优化后的基于Transformer深度图像压缩模型;利用训练好的Transformer深度图像压缩模型对图像进行压缩和重建并对压缩结果进行评价或进一步对其进行分析和理解。本发明所述方法使用了先进的Transformer特征提取网络显著提升压缩图像的质量,并在很大程度上节省图像存储开销。本发明在图像存储、传输、分析等领域具有重要的应用价值。

本发明授权一种基于Transformer的图像压缩方法在权利要求书中公布了:1.一种基于Transformer的图像压缩方法,其特征在于,所述方法包括以下步骤: 步骤1:构建基于Transformer的深度图像压缩模型,具体的: 步骤1.1:将被压缩图像输入由卷积模块和TF-SPP模块交替堆叠形成的主编码器,进行非线性变换处理,生成被压缩图像的潜在表示;步骤1.1所述的主编码器采用了TF-SPP特征提取机制,分为Calculateattention和Fusion两部分,步骤1.1具体包括以下步骤: 步骤1.1.1:Calculateattention操作,具体的: 将输入的特征图转换成序列的形式并分别乘以系数矩阵WQ,WK,WV得到输入的三个特征向量Q,K,V;将Q,K,V三个向量组合并分别输入head为8,10,12的三个Transformerblock并进行自注意力计算得到输出特征图,这里,Z1、Z2、Z3分别代表Transformerblock的三个输出特征图,的计算如公式1所示 ;1 其中,是归一化函数,Zi为Transformerblock的三个输出特征图,,,为输入的三个特征向量,为输入的特征向量K的转置,为Transformerblock输出的维度; 步骤1.1.2:Fusion操作,具体的: 将输入的特征图利用1×1的卷积核进行卷积,并对步骤1.1.1所述三个输出Z1、Z2、Z3拼接在一起利用1×1的卷积核进行卷积,保持输出特征图的通道数与输入特征图的通道数一致,得到融合后的特征图; 步骤1.2:结合窗口自注意力机制构建通道自回归熵模型,包括超先验编码器、通道调节器,所述的步骤1.2所述的通道自回归熵模型中引入了窗口自注意力机制,设计了窗口自注意力层和卷积层相结合的超先验解码器,对潜在表示进行全局特征提取,得到更准确的边界信息,具体包括如下步骤: 步骤1.2.1:将步骤1.1所述的生成的潜在表示送入由卷积模块与窗口自注意力模块交替堆叠形成的超先验编码器进行下采样处理,得到被压缩图像的超潜在表示; 步骤1.2.2:将步骤1.2.1所述的生成的被压缩图像的超潜在表示进行量化、压缩得到被压缩图像的边界表示;步骤1.2.3:将步骤1.1中所述的生成的被压缩图像的潜在表示和步骤1.2.2中所述的生成被压缩图像的边界表示共同输入通道调节器,进行编码和解码,得到压缩后的潜在表示; 步骤1.3:将步骤1.2.3中所述的压缩后的潜在表示输入由反卷积模块和TF-SPP模块交替堆叠形成主解码器进行上采样,对被压缩图像进行重建; 步骤2:建立深度图像压缩数据集;首先对数据集中所有图片分别进行随机裁剪成为相同尺寸的图片,裁剪后的所有图片作为图像压缩数据集;然后把图像压缩数据集图片分别按照一定比例作为模型的训练集、测试集、验证集; 步骤3:训练步骤1所述的构建的基于Transformer的深度图像压缩模型; 步骤4:测试基于Transformer的深度图像压缩模型的性能; 步骤5:对上述基于Transformer的深度图像压缩模型进行评估; 步骤6:将评估后满足实际应用需求的基于Transformer的深度图像压缩模型用于现实场景中的图像压缩。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人河南大学,其通讯地址为:475001 河南省开封市明伦街85号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。