基于残差和注意力网络的声呐图像去噪方法.pdf
《基于残差和注意力网络的声呐图像去噪方法.pdf》由会员分享,可在线阅读,更多相关《基于残差和注意力网络的声呐图像去噪方法.pdf(13页珍藏版)》请在咨信网上搜索。
1、基于残差和注意力网络的声呐图像去噪方法赵冬冬1,叶逸飞1,陈朋1*,梁荣华1,蔡天诚1,郭新新21 浙江工业大学计算机科学与技术学院,浙江 杭州 310023;2 中国科学院深海科学与工程研究所,海南 三亚 572000 InputDIRDIRConvDCAConvDIRDIRDIROutputNoise estimate networkDenoise network摘要:前视声呐作为一种水下主动声呐设备常用于采集水下图像数据,然而会受到水下噪声的影响导致图像质量下降。针对这一问题,本文提出了一种基于密集残差和双通道注意力机制网络的前视声呐图像去噪方法。首先采用双通道注意力机制对声呐图像的通道
2、信息进行提取,统计声呐图像的全局信息,输出声呐图像的噪声图;密集残差块根据噪声图和声呐图像,充分学习不同尺度上的特征信息,经过多次学习和信息传递后输出干净声呐图像。针对前视声呐图像及其噪声特点,模拟了前视声呐图像并添加瑞利分布的乘性噪声和高斯分布的加性噪声,生成模拟数据集用于网络训练和性能评估。在模拟数据集和真实数据集的实验中表明,本文方法能够有效去除噪声,保留图像细节。关键词:前视声呐;噪声模拟;图像去噪;通道注意力;密集残差中图分类号:U666.7文献标志码:A赵冬冬,叶逸飞,陈朋,等.基于残差和注意力网络的声呐图像去噪方法 J.光电工程,2023,50(6):230017Zhao D D
3、,Ye Y F,Chen P,et al.Sonar image denoising method based on residual and attention networkJ.Opto-ElectronEng,2023,50(6):230017 Sonar image denoising method based onresidual and attention networkZhao Dongdong1,Ye Yifei1,Chen Peng1*,Liang Ronghua1,Cai Tiancheng1,Guo Xinxin21 College of Computer Science
4、 and Technology,Zhejiang University of Technology,Hangzhou,Zhejiang 330063,China;2 Institute of Deep-sea Science and Engineering,Chinese Academy of Sciences,Sanya,Hainan 572000,ChinaAbstract:As a kind of underwater active sonar equipment,forward-looking sonar is often used to collectunderwater image
5、 data.However,it will be affected by underwater noise,which leads to the degradation of imagequality.Due to this situation,a forward-looking sonar image denoising method is proposed based on denseresiduals and a dual-channel attention mechanism network.Firstly,the two-channel attention mechanism isa
6、dopted to extract the channel information of the sonar image,collect the global information of the sonar image,and output the noise map of the sonar image.Based on the noise image and sonar image,the dense residual blockfully learns the feature information at different scales and outputs a clean son
7、ar image after multiple learning andinformation transfer.Because of the forward-looking sonar image and its noise characteristics,the forward-looking 收稿日期:20230120;修回日期:20230405;录用日期:20230411基金项目:国家自然科学基金青年科学基金项目(62001418);浙江省自然科学基金项目(LQ21F010011);中国科学院战略性先导科技专项项目(A 类)(XDA22030302);浙江省属高校基本科研业务费专项资金
8、项目(RF-C2019001)*通信作者:陈朋,。版权所有2023 中国科学院光电技术研究所 Opto-Electronic Engineering 光 电 工 程 Article2023 年,第 50 卷,第 6 期DOI:10.12086/oee.2023.230017230017-1sonar image is simulated and the multiplicative noise of Rayleigh distribution and the additive noise of Gaussiandistribution are added to generate a simul
9、ation dataset for network training and performance evaluation.Experimental results on the simulated data set and real data set show that the proposed method can effectivelyremove the noise and retain image details.Keywords:forward looking sonar;image denoising;noise simulate;channel attention;dense
10、residual 1 引言随着人类社会经济的发展,在海洋区域上人们也在积极探索,海洋中所蕴含的丰富的能源、矿产和生物资源具有极高的价值,因此如何获取水下信息数据对于海洋科学和海洋经济的发展至关重要。前视声呐作为一种用于探测水下目标并测定其速度、位置、运动方向的设备,在海底勘探、海洋渔业资源捕获、军事目标检测等方面都有广泛应用。由于电磁波在水中传播时大部分能量被海水所吸收,传播距离有限,传统的光学成像系统难以获得远距离的清晰图像,前视声呐虽然有足够的探测距离。然而在水下声呐图像受到的噪声干扰严重,分辨率较低且容易出现信息缺失1-2,因此在对前视声呐图像进行去噪时,需要在去除噪声的同时,尽可能地保
11、留声呐图像的纹理、边缘等细节信息。传统去噪算法的类型大致称为:空间域滤波、变换域阈值滤波、统计模型、稀疏表示方法、字典学习方法和混合方法等3。其中空间域滤波包括局部滤波和非局部滤波,常用的降噪局部滤波器有高斯滤波器、最小均方滤波器、双边滤波器、维纳滤波器、苏珊滤波器等4。局部滤波器的实现思想是基于像素之间的相关性实现的,在高噪声水平的图像上表现较差。为了解决这个问题,Buades5等人引入了一种非局部均值滤波器,该方法以非局部的方式在整个图像区域中利用像素之间的相似性来去噪。Wu6等人提出了一种基于稀疏表示的声呐图像去噪方法,对原图进行DCT 字典分解重构和 OMP 去噪。Jiang7等人提出
12、了一种利用分析模型进行稀疏分解的去噪方法,该方法对于侧扫声呐图像的散斑噪声具有良好的去噪效果。Chen8等人提出了一种基于固定水域噪声模型的水声图像去噪方法,在对声呐图像去噪的同时保持一定的图像边缘信息和纹理信息。Stolojescu-Crisan9等人提出了一种在小波域上的声呐图像处理算法,填补了去噪时缺失像素产生的缺口。范等人10和陈等人11都提出了一种基于自适应三维块匹配滤波(BM3D)的侧扫声呐图像散斑降噪方法,有效地降低侧扫声呐图像中的散斑噪声获得了良好的视觉效果。然而传统去噪方法往往是在熟悉了噪声的规律下才能产生较好的去噪效果,对于一些复杂的或者强度水平不同噪声效果往往并不理想。随
13、着计算机硬件设备性能的飞速提升,基于深度学习的去噪方法也在蓬勃地发展,卷积神经网络在光学领域上的去噪具有非常大的发展前景。Zhang12等人为了能够使用单一模型去除不同噪声水平的图像,提出了基于下采样子图像的网络 FFDNet,该网络在推理速度和去噪性能之间的平衡性比较好。DnCNN13和 ASCN14提供了一种新的思路,通过学习真实图像和训练图像的残差分布,对降噪问题进行建模。ResNet15提出了残差思想,解决了深度 CNN 训练困难的问题,许多人将其应用创新在图像处理领域16-17,Ledig18等人提出了基于对抗生成网络(GAN)和残差网络(ResNet)的方法用于图像的去噪和超分辨率
14、,在光学图像上能够恢复较真实的图像纹理。王晓娜19等人提出了一种分通道反卷积的方法,该方法首先对原始图像进行颜色空间转换,然后对不同颜色通道进行分别处理,相比传统的反卷积,该方法在保证清晰度的同时,降低了图像噪声,并且缩短了运行时间。Cheng20等人通过学习特征空间中的一组重构基来训练一个能够分离信号和噪声的 UNet21结构网络,选择相应的信号子空间基并将输入投影到该子空间中,利用全局结构信息来保持低亮度和弱纹理的区域结构。随着注意力(Attention)机制在自然语言处理领域的成功应用,也有人将其应用到了图像处理中来实现不同的任务22-24。在图像去噪方面,Wang25等人将空间注意力机
15、制和通道注意力机制融合在一起,提出了一种通道和空间注意力神经网络(CS-ANN)用于图像去噪,采用了对称跳跃连接和残差块避免梯度消失和浅层特征的损失。Tian26等人在注意力引导机制的基础上提出了一种图像去噪卷积神经网络,网络通过稀疏块、特征增强块、注意力机制块和图像重构块串联构成,提取复杂背景中隐藏的噪声并去除。CBDNet27赵冬冬,等.光电工程,2023,50(6):230017https:/doi.org/10.12086/oee.2023.230017230017-2由噪声估计子网络和噪声去除子网络两个子网络构成。在噪声估计阶段,使用了连续的多个卷积层对输入的原图像进行噪声提取;在噪
16、声去除阶段,将提取到的噪声和原图一起输入到 Unet21中,输出去噪图像。目前基于神经网络的图像去噪方法大多都是基于光学图像上的去噪,声学图像上的应用研究并不像光学如此丰富。并且现有方法在网络加深时收敛速度容易下降,特征图经过层层传递容易丢失部分信息,导致全局信息利用不完全,且特征提取方式单一,导致训练效果变差。由于声呐图像的特殊性,公开的声呐图像数据集十分匮乏且获取困难,如何将深度学习的方法应用到声呐图像的去噪上是一个不小的挑战。Jensen28等人提出了一种利用声学原理设计的一个超声系统 FieldII,该系统可以模拟超声成像系统,通过配置不同类型的超声传感器,计算发射声场和回波声场来生成
17、图像,可以应用在医疗图像上,前视声呐也是一种声学设备,因此可以使用 FieldII 来模拟生成前视声呐数据。本文提出了一种基于密集残差和双通道注意力机制 网 络(dense in residual and dual channel attentionnetwork,DIRANet)用于前视声呐图像去噪。该算法首先使用双通道注意力(dual channel attention,DCA)模块提取声呐图像的通道信息,捕获全局信息并输出声呐图像的噪声图,之后采用密集残差(dense inresidual,DIR)模块,对原图和噪声图均采用编码-解码结构进行图像融合重建,充分学习不同尺度上的特征信息,经
18、过多次学习和信息传递之后,生成干净图像。最后使用 FieldII 生成的模拟前视声呐数据集并添加模拟噪声的数据集以及真实声呐数据集进行去噪对比实验,结果表明本文算法在各项指标上均优于对比的图像去噪算法。2 DIRANet本文提出了密集残差和双通道注意力机制网络(DIRANet)用于前视声呐的图像去噪,其中设计了双通道注意力机制(DCA)模块用于噪声估计以及密集多尺度残差块 DIR 用于噪声去除,网络整体由噪声估计和噪声去除两个阶段构成。在噪声估计阶段利用 DCA 模块提取图像通道之间的联系,统计全局信息,获得更多和噪声有关的信息,并输出噪声估计图;噪声去除阶段利用 DIR 模块对噪声估计图和原
19、图像进行不同尺度上的特征高效提取,提升网络的接受域范围,获取更多的特征信息,最终输出去噪后的前视声呐图像。图 1 为本文所提出的 DIRANet 网络结构图,该网络主要分为两个子网络。第一阶段为噪声估计子网络,第一个块为 33 的卷积层和 ReLU 激活函数构成,接着是一个 DCA 模块,用于增强特征图的通道联系,统计全局信息,最后经过一个卷积层和 ReLU 激活函数,输出噪声估计水平图。第二阶段为噪声去除子网络,该网络主体结构为编码器-解码器结构,编码器和解码器由 DIR 模块构成,DIR 模块通过块内构建的分层残差结构,对不同层的特征图进行多尺度的特征提取,提升网络的接受域范围,最终输出噪
20、声去 InputNoise estimate networkDIRDIRConvDCAConvDIRDIRDIROutputDenoise network图 1DIRANet 整体结构图Fig.1DIRANet overall structure diagram 赵冬冬,等.光电工程,2023,50(6):230017https:/doi.org/10.12086/oee.2023.230017230017-3除后的图像。2.1 噪声估计子网络在神经科学中视觉皮层神经元的感受野大小是由刺激调节的,基于这种思想,本文提出了一种基于分离、融合过程的双通道注意力机制(DCA)模块用于构建噪声估计子网
21、络,DCA 模块结构如图 2 所示。在分离阶段,使用不同卷积核大小来自适应地接受不同规模的信息,并分别将这些信息分流到下一层神经元中,这些不同的分支融合之后经过全局平均池化操作后融合生成一个全局的注意力权重信息,之后用一维卷积生成一维向量,相比于全连接层,一维卷积层在处理通道注意力权重时,可以直接对通道维度上的特征进行卷积操作,提取特征之间的相互依赖关系,而不需要将整个通道特征进行展平并传入全连接层中,获取更多信息的同时减少了计算量。U RCHWX1,X2 RCHWX1 RC/2HWX2 RC/2HWDCA 将输入的特征图分离成两组通道数相同的特征图,对其分别进行33 和 55 卷积核大小的卷
22、积得到和,获得不同感受野的特征图。X1X2FRCHWFF1 RC11F1F2 RC1将和进行连接操作得到新的特征图,随后,我们对特征图进行分组提取权重。首先通过二维全局平均池化(AverageGlobalPooling)得到,将压缩(squeeze)到二维,F2t R1CF2tw RC11然后将其进行矩阵转置(transpose)得到,对进行一维卷积操作,将结果进行维度拓展(unsqueeze)与矩阵转置得到总体权重矩阵。w=unsqueeze(conv(transpose(squeeze(avgpool(F).(1)X1w1 RC/211X2w2 RC/211对 w 进行两次相同的操作分别得
23、到特征图对应的通道权重矩阵和特征图对应的通道权重矩阵。X1X2w1w2X1X2Uout将特征图、分别和权重、相乘,并将、进行连接,得到最终输出的特征图。整体流程表示如式(2):Uout=concat(w1X1,w2X2).(2)DCA 结构有如下优势:1)相比一般的通道注意力机制的模块,本结构设计了一种双路的通道注意力机制,主要通过使用两个不同尺寸的卷积核实现,通过 33 和 55 的两个不同大小的卷积核构成两条路径,这两条路径能够获取不同尺寸的信息,提升网络的信息提取能力。2)使用一维卷积而不是传统的全连接层生成通道特征图,因为一维卷积的参数量比全连接层要少得多,并且可以直接在通道维度上进行
24、卷积操作,不需要将整个通道特征作为参数传入。并且一维卷积可以自适应地学习相邻通道之间的权重,增强通道之间的联系。InputConvConvAvgPoolSqueezeTransposeX1Fww1Uoutw2X2UX1F1F2F2tX2ConvUnsqueezeSqueezeSqueezeTransposeTransposeConvConvUnsqueezeUnsqueezeCCOutput图 2DCA(dual channel attention)模块Fig.2DCA(dual channel attention)mudule 赵冬冬,等.光电工程,2023,50(6):230017http
25、s:/doi.org/10.12086/oee.2023.230017230017-4 2.2 噪声去除子网络噪声去除子网络将上层网络输出的噪声估计图以及原始图像作为输入,进行噪声去除。网络整体结构由编码器和解码器堆叠构成,每个模块分层提取图像的浅层和深层信息,并将不同深度的信息进行合并处理,最终输出去噪后的图像。xiConvjxixi;i jxixj本文提出 dense in residual(DIR)结构如图 3 所示。为了能够在更细粒度的水平上提高多尺度的表示能力,首先将输入的特征图依据通道数划分成 s 个特征图子集,和原特征图相比,每个新子集都有相同的特征图大小,但是通道数为原特征图通
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 注意力 网络 声呐 图像 方法
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。