浙江理工大学;杭州知衣科技有限公司向忠获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉浙江理工大学;杭州知衣科技有限公司申请的专利一种基于改进EfficientDet模型的织物瑕疵检测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115601610B 。
龙图腾网通过国家知识产权局官网在2026-04-07发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211229334.7,技术领域涉及:G06V10/774;该发明授权一种基于改进EfficientDet模型的织物瑕疵检测方法是由向忠;周光宝;沈宇佳;钱淼;郑泽宇;温苗苗设计研发完成,并于2022-10-08向国家知识产权局提交的专利申请。
本一种基于改进EfficientDet模型的织物瑕疵检测方法在说明书摘要公布了:本发明涉及一种基于改进EfficientDet模型的织物瑕疵检测方法,包括如下步骤:采集织物数据集,对疵点进行标注;数据增强;增强数据集按预设比例划分为训练集、验证集、测试集;载入预训练模型,得到加强特征图;每个加强特征图独立地输入到分类回归网络并进行候选框的调整;网络计算出分类和回归损失,并根据网络整体损失对整个网络模型参数进行更新;通过参数更新后的改进EfficientDet模型在验证集上计算验证集损失,根据验证集损失曲线考量该模型的泛化性能;经过预先设立的P轮Epoch训练迭代,得到最终的改进EfficientDet网络模型;载入训练模型,实现瑕疵的定位与分类。本发明通过适配织物图像特性,解决织物瑕疵检测任务中疵点多尺度、空间位置任意分布等检测难点问题。
本发明授权一种基于改进EfficientDet模型的织物瑕疵检测方法在权利要求书中公布了:1.一种基于改进EfficientDet模型的织物瑕疵检测方法,其特征在于:包括如下工艺步骤: 1,使用工业相机采集织物数据集,对图像疵点进行标注,以获得瑕疵类别标签; 2,对织物数据集和对应的类别标签进行数据增强,满足网络模型训练的样本数量要求; 3,将样本增强数据集按预设比例划分为训练集、验证集、测试集; 4,载入预训练模型,预设好模型训练的Batch_size,任意选取训练集中一个批次张图片输入至模型中;选取每张图片在主干网络EfficientNet中N个特定阶层的有效特征图,经过通道变换后传入到特征金字塔网络进行多尺度信息整合得到N个对应阶层的加强特征图; 其具体包括如下过程: 4-1,以EfficientDet-d0作为基础模型,并载入该模型预训练权重;每张图片首先输入至主干网络进行初步的特征提取,得到5个不同阶层P3、P4、P5、P6、P7的有效特征图;所述主干网络由不同层数的MBConv结构块和末端的并行膨胀注意力模块PDAM堆叠而成;其中每一阶层MBConv结构块代表主干网络的一个Stage; 4-2,将主干网络提取到的5个不同阶层P3、P4、P5、P6、P7的特征图进行卷积操作实现通道统一后,输入到B-BiFPN特征金字塔网络中,不同网络层之间以上下采样的方式进行特征融合,得到5个不同尺度的精细化的加强特征图,加强特征图的分辨率分别为64×64、32×32、16×16、8×8、4×4; 5,每个加强特征图均独立地输入到分类回归网络并进行候选框的调整; 6,网络根据加强特征图、调整后的候选框与相应真实框差异计算出分类和回归损失,并根据网络整体损失对整个网络模型参数进行更新; 7,通过参数更新后的改进EfficientDet模型在验证集上计算验证集损失,根据验证集损失曲线考量该模型的泛化性能; 8,经过预先设立的P轮Epoch训练迭代,即重复P次步骤4~7后,网络总损失曲线收敛,训练结束,得到最终的改进EfficientDet网络模型; 9,载入步骤8得到的训练模型,遍历测试集文件夹中所有图片进行预测,依据非极大值抑制原则进行候选框筛选,然后从所有调整后的测试集候选框中根据置信度比较得到最终预测框,实现瑕疵的定位与分类。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人浙江理工大学;杭州知衣科技有限公司,其通讯地址为:310018 浙江省杭州市杭州经济技术开发区白杨街道2号大街928号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励