基于YOLOv3-SPP的遥感图像目标检测压缩模型.pdf
《基于YOLOv3-SPP的遥感图像目标检测压缩模型.pdf》由会员分享,可在线阅读,更多相关《基于YOLOv3-SPP的遥感图像目标检测压缩模型.pdf(12页珍藏版)》请在咨信网上搜索。
1、文章编号:1003-0530(2023)09-1621-12第 39 卷 第 9 期2023 年9 月信号处理Journal of Signal ProcessingVol.39 No.9Sep.2023基于YOLOv3-SPP的遥感图像目标检测压缩模型齐保贵1,2 赵鹏赫1,2 陈禾1,2 陈亮1,2,3 龙腾1(1.北京理工大学信息与电子学院雷达技术研究所,北京 100081;2.北京理工大学长三角研究院(嘉兴),浙江嘉兴 314019;3.北京理工大学重庆创新中心,重庆 401120)摘 要:近年来,卷积神经网络模型已被广泛应用于遥感图像目标检测任务中,但自然场景图像与遥感图像的目标特性
2、存在差异,针对自然场景设计的模型往往难以在遥感图像任务中取得良好的效果。同时,很多遥感图像处理任务需要在星载、机载等资源有限的平台中进行,难以部署参数量、计算量大的复杂模型。针对以上问题,本文对在自然场景中性能优异的YOLOv3-SPP模型进行适应性改进及参数压缩。首先,对原始的L1范数剪枝算法进行改进,提出基于L1范数和均值差的加权剪枝算法,能够更好地保留重要的通道。其次,对剪枝后的子网集合进行快速评估,选取评估结果最好的子网进行微调。在预训练和微调阶段,本文将 SPP 模块中的最大池化层替换为softmax加权池化层,着重突出深层网络中权重较大的特征,提高了模型的检测精度。本文在多个公开遥
3、感数据集上进行实验,结果表明改进的YOLOv3-SPP模型在遥感目标检测任务上具有更好的性能,同时本文的剪枝算法可以在相同的参数压缩比例条件下,降低模型的性能损失。关键词:目标检测;YOLOv3-SPP;遥感;模型压缩中图分类号:TP75 文献标识码:A DOI:10.16798/j.issn.1003-0530.2023.09.008引用格式:齐保贵,赵鹏赫,陈禾,等.基于YOLOv3-SPP的遥感图像目标检测压缩模型 J.信号处理,2023,39(9):1621-1632.DOI:10.16798/j.issn.1003-0530.2023.09.008.Reference format:
4、QI Baogui,ZHAO Penghe,CHEN He,et al.Compression model for remote sensing image target detection based on YOLOv3-SPP J.Journal of Signal Processing,2023,39(9):1621-1632.DOI:10.16798/j.issn.1003-0530.2023.09.008.Compression Model for Remote Sensing Image Target Detection Based on YOLOv3-SPPQI Baogui1,
5、2 ZHAO Penghe1,2 CHEN He1,2 CHEN Liang1,2,3 LONG Teng1(1.Radar Research Lab,School of Information and Electronics,Beijing Institute of Technology,Beijing 100081,China;2.Yangtze Delta Region Academy of Beijing Institute of Technology,Jiaxing,Zhejiang 314019,China;3.Beijing Institute of Technology Cho
6、ngqing Innovation Center,Chongqing 401120,China)Abstract:In recent years,convolutional neural network(CNN)models have been widely applied in remote sensing image object detection tasks.However,the target characteristics of natural scene images and remote sensing images differ,and models designed for
7、 natural scenes often perform poorly in remote sensing image tasks.Additionally,many remote sensing image processing tasks need to be carried out on resource-limited platforms such as satellites and aircraft,making it difficult to deploy complex models with large parameter and computational requirem
8、ents.To address these issues,this paper 收稿日期:2023-01-04;修回日期:2023-05-30基金项目:国家重点研发计划(2021YFA0715204);长江学者(T2012122)信号处理第 39 卷proposes adaptive improvements and parameter compression for the YOLOv3-SPP model,which has shown outstanding performance in natural scenes.First,an improved weighted pruning
9、algorithm based on L1 norm and mean difference is proposed to better preserve important channels.Next,the pruned subnet collection is quickly evaluated,and the best-performing subnet is fine-tuned.In the pre-training and fine-tuning stages,the maximum pooling layer in the SPP module is replaced with
10、 a softmax weighted pooling layer to highlight features with larger weights in the deep network and improve the detection accuracy of the model.Experiments conducted on multiple public remote sensing datasets show that the improved YOLOv3-SPP model has better performance in remote sensing object det
11、ection tasks.Additionally,the pruning algorithm in this paper can reduce the model s performance loss under the same parameter compression ratio.Key words:target detection;YOLOv3-SPP;remote sensing;model compression1引言随着遥感技术的飞速发展,遥感卫星和飞机等平台提供了海量的高质量、高分辨率的遥感图像。高分辨率的遥感图像包含的信息非常丰富,可以用来描述地球表面的各种物体,面向遥感图
12、像的语义分割、目标检测、场景分类等算法在资源普查、灾害应急、地区管控等各类国防军事和民用经济领域都发挥了重要的作用。其中遥感图像目标检测在导弹制导1、智能交通2等众多领域具有不可或缺的作用,是当今遥感领域研究的热点内容之一。近年来随着深度学习的发展,基于深度学习的遥感目标检测方法取得了很大的进展,基于神经网络提取特征来提高遥感图像目标检测性能的方法层出不穷。目前基于深度学习的目标检测方法主要分为两类:双阶段目标检测法和单阶段目标检测法。双阶段目标检测法首先在图像上划分候选区域,然后对各个候选区域进行目标分类以及位置坐标的回归。许多学者对双阶段目标检测法进行了深入研究。Girshick 等3基于
13、 Selective Search 提取区域候选框算法,结合卷积神经网络提出R-CNN模型,与当时最好的检测结果相比提升了30%。在此基础上,针对不同的研究背景,其他学者又陆续提出 了 Fast RCNN4,Faster-RCNN5等 检 测 方 法。Dai等6提出了不含全连接层的全卷积神经网络目标检测算法R-FCN,有效缓解了网络中分类对位置不敏感和检测器对位置敏感之间的矛盾,在提升精度的同时利用位置敏感得分图提升了检测速度。单阶段目标检测算法无须预先在图像上生成候选区域,直接在图像上进行目标的分类和位置坐标的回归。该方法的检测速度较快,基于该方法提出了YOLO7-9系列、CornerNet
14、10和RetinaNet11等通用模型,在加快检测速度的同时,也提高了检测的准确率。Shafiee等12提出了基于YOLOv2的Fast-YOLO模型,该模型与YOLOv2相比减少了64%的参数,检测速度提升了3.3倍。为了进一步提升目标检测精度,YOLO系列推出了v3版本,这是一种适用于实时视频帧目标检测的深度学习模型,因其检测速度快和精度高而广泛应用于工业生产。YOLOv3-SPP在YOLOv3的基础上将空间金字塔池化(Spatial Pyramid Pooling,SPP)13模块添加到网络结构中,融合了全局特征和局部特征,实现了不同尺度的特征融合,提升了检测精度,但是该模型参数量多,模
15、型体积大,将该算法部署到资源有限的嵌入式设备上存在困难。因此,对于嵌入式设备来说,模型部署一般选择轻量化的网络结构,如ShuffleNet14和MobileNet15-17等,前者通过使用分组卷积的同时通过通道重排的策略解决了组间信息交换不佳的问题;后者通过设计深度可分离卷积模块来减少模型的参数量,并在此基础上衍生出了MobileNet的V1、V2和V3版本。随后研究人员又提出了NanoDet18,这是一种单阶段anchor-free模型,体积大小不超过 10M。这些轻量化的网络虽然可以有效降低模型规模,但准确度受到了较大的影响。YOLOv3-tiny 和 YOLOv4-tiny 是从 YOL
16、Ov3 和YOLOv419原始高精度模型改进而来的轻量化网络,不论是在自然场景数据集还是遥感图像数据集上,准确度均低于原始模型。YOLOv520系列的YOLOv5s和YOLOv5m是针对嵌入式设备设计的轻量化模型,在COCO21数据集上进行测试,检测精度分别是 0.37 和 0.443,而 YOLOv3-SPP 的检测精度为0.456,优于以上两种模型。除了设计高效的网络结构外,模型剪枝也是实现轻量化的常用方法。目前剪枝方法主要分为两1622第 9 期齐保贵 等:基于YOLOv3-SPP的遥感图像目标检测压缩模型类:结构化剪枝和非结构化剪枝,非结构化剪枝是指去除大量不重要的神经元,但是剪枝后会
17、产生稀疏矩阵,而目前大多数深度学习框架和硬件都无法加速稀疏矩阵的计算,因此剪枝后的结构不会明显提高处理速度;而结构化剪枝主要以网络通道或整个网络层为基本单位进行剪枝,剪枝后的模型在减少存储量的同时,可以在现有的软硬件条件下实现推理加速。Zhang22等对卷积网络逐层进行结构化剪枝,得到轻量级网络,随后将其作为学生网络,通过教师网络(即未修剪和训练有素的网络)来恢复学生网络的准确性。Ye等23采用端到端的随机训练方法,保持一些通道的输出不变,通过调整其影响层的偏差值来进行通道修剪。Zhang等24提出了针对无人机设备部署的模型剪枝方法 SlimYOLOv3,参数量和 FLOPs 相对原始模型均有
18、大幅下降,同时精度下降较少。Liu25等人提出了将L1正则化应用于批归一化层(Batch Normalization,BN),对BN层进行稀疏,BN层中的尺度因子被约束后作为网络通道的权重因子,通过判断权重因子的重要性来进行通道剪枝。已有的基于YOLO系列进行剪枝的算法26-28,大部分都是基于自然场景图像,虽然利用剪枝策略降低了模型的复杂度,但是遥感图像目标具有数量多且尺寸小的特点,这些基于自然场景的剪枝方法处理遥感图像的效果并不理想。因此研究一种低参数量和低存储空间,同时能够保持原始模型精度的模型是遥感目标检测领域的重点。为了进一步实现应用嵌入式设备完成遥感图像检测的目标,本文在YOLOv
19、3-SPP基础上提出改进模型YOLOv3-SoftSPP,并提出了一种基于加权和的模型压缩算法,主要具有以下特点:1)对目前常用的卷积核重要性评价指标进行改进,提出了一种基于加权L1范数和均值差的方法来评估卷积核的重要性,并按剪枝比例去除重要性较低的卷积核。2)采用结构搜索的方法对剪枝后产生的子网络进行快速评估,从子网络中选择评估结果最好的网络结构作为最终剪枝得到的模型。3)使用Softmax加权池化层替换SPP模块中的最大池化层,更大程度地保留了目标的深层特征,同时着重突出影响较大的特征。2改进YOLOv3-SPP压缩模型算法2.1算法总体介绍本文提出的基于改进YOLOv3-SPP的遥感图像
20、目标检测压缩模型主要分为三部分。首先对 YOLOv3-SPP 模型进行改进,使用 softmax 的加权池化替换SPP模块中的最大池化层,提高了深层特征的提取能力;其次对基于L1范数剪枝算法进行改进,引入均值差来衡量滤波器的重要性,并与L1范数进行加权后共同作为衡量滤波器重要性的指标,改善了基于L1范数衡量方法的局限性;最后对剪枝后产生的众多子网络进行快速评估,选择结果最好的一个子网络作为最终的剪枝结果。2.2YOLOv3-SoftSPP模型YOLOv3 作为单阶段目标检测方法的典型代表,因其具有较高的检测速度和精度而在工业界得到广泛应用。YOLOv3-SPP在YOLOv3模型上增加了SPP特
21、征融合模块,通过对不同感受野进行最大池化处理,最终进行维度的拼接,从而获取不同尺度的特征融合信息,提升了模型的检测精度。在自然场景数据集中,YOLOv3-SPP网络表现出良好的性能,但在面对目标分布密集且尺寸小的遥感数据集,其检测性能有待提高,主要原因在于SPP结构中的最大池化层在保留特征图的重要信息方面仍有改进的空间。Stergiou1等29提出使用 softmax加权池化可以保留权重较大的特征,并通过实验证明该方法可以有效缓解最大池化产生的特征丢失问题。本文基于此方法,采用现有的平均池化方法按位相除对 SPP模块中最大池化层进行替换来实现基于softmax的加权池化操作。首先定义网络卷积层
22、的输出特征图为X RC H W,其中C,H和W分别为通道数、特征图的高和宽。R为特征图X的局部2D区域,其大小与池化核相等,即|R|=k2,权重wi为特征值的自然指数与所有特征值的自然指数和的比值,则wi可以根据特征值非线性地计算区域R的特征值权重,并且加强了权重之间的区分度,即权重较高的特征值输出后重要性增强,如公式(1)所示:wi=exij Rexj(1)将区域R内的所有特征值xi乘以wi进行加权求1623信号处理第 39 卷和得到输出X,如公式(2)所示。X=i Rwixi(2)YOLOv3-SPP中的最大池化操作都在高维特征空间中使用,而深层网络中的特征包含着比浅层网络更为丰富的特征信
23、息,最大池化丢弃了大多数特征值,而加权池化着重突出影响大的特征值,因此加权池化是一个更加均衡的方法。对公式(2)进行如下变换:X=i Rwixi=i Rexixij Rexj=i Rexixi|Rj Rexj|R=Avgpool(eXX)Avgpool(eX)(3)公式(3)中展示了将softmax加权池化通过现有的均值池化实现的过程,在模型参数不变的情况下实现精度的提升。改进的SPP模块整体结构如图1所示。2.3结构化通道修剪算法设网络中第i个卷积层的输入通道数和输出通道数分别为Cin(i)和Cout(i),输入特征图的大小为wi和hi,卷积核的大小为k*k。经过卷积层的运算后,输出特征图的
24、大小为wi+1和hi+1。第i层的通道数为Cin(i)*Cout(i),则整个卷积过程中所产生的参数量为Cin(i)*Cout(i)*wi+1*hi+1*k2。图 2 所示为 YOLOv3-SPP通道剪枝的示意图,标记黄色的部分为剪枝去除的通道,蓝色为表示剩余部分。当剪枝去除了第i层的某个卷积核,输出通道对应的特征图被一并去除,减少的参数量为Cin(i)*wi+1*hi+1*k2,同时第i层的输出又作为第i+1层的输入特征图,相应的减少参数量为Cout(i)*wi+2*hi+2*k2。2.4基于加权 L1范数和均值差的卷积核重要性评价方法目前对于卷积核重要性的评估大都基于L1范数,即对每个卷积
25、核计算它的权重之和,根据权重之和从大到小进行排序,然后将低于给定阈值的卷积核以及对应的特征图去掉,同时移除下一个卷积层中与减掉的特征图相关的核,最后将得到的权重复制到新模型中进行微调。这种方法在基于卷积神经网络的分类模型中取得了很好的效果,例如对VGG1630和ResNet1831等网络进行剪枝并微调,在参数量大幅降低的同时精度变化很小。但在目标检测模型中,由于网络结构深,层次复杂,仅基于L1范数对卷积核进行重要性评估效果不理想。?512 1 1?1024 3 3?512 1 1S o ft ma x?9 9/1S o ft ma x?13 13/1S o ft ma x?5 5/1?图1改进
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 YOLOv3 SPP 遥感 图像 目标 检测 压缩 模型
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。