基于DC-UNet卷积神经网络的强噪声压制方法.pdf
《基于DC-UNet卷积神经网络的强噪声压制方法.pdf》由会员分享,可在线阅读,更多相关《基于DC-UNet卷积神经网络的强噪声压制方法.pdf(10页珍藏版)》请在咨信网上搜索。
1、 第 47 卷第 5 期物 探 与 化 探Vol.47,No.5 2023 年 10 月GEOPHYSICAL&GEOCHEMICAL EXPLORATION Oct.,2023doi:10.11720/wtyht.2023.1386周慧,孙成禹,刘英昌,等.基于 DC-UNet 卷积神经网络的强噪声压制方法J.物探与化探,2023,47(5):1288-1297.http:/doi.org/10.11720/wtyht.2023.1386Zhou H,Sun C Y,Liu Y C,et al.A method for strong noise suppression based on DC
2、-UNetJ.Geophysical and Geochemical Exploration,2023,47(5):1288-1297.http:/doi.org/10.11720/wtyht.2023.1386基于 DC-UNet 卷积神经网络的强噪声压制方法周慧,孙成禹,刘英昌,蔡瑞乾(中国石油大学(华东)地球科学与技术学院,山东 青岛 266580)摘 要:在成熟工业区采集地震数据的过程中,由于生产设备的持续运转,使得采集到的地震数据含有大量振幅很强的局部强噪声,难以用常规的去噪方法压制。将 U-Net 网络与空洞卷积结合,建立了适用于局部强噪声压制的空洞卷积 DC-UNet 网络。DC
3、-UNet 网络前端的循环空洞卷积块使用循环扩张的空洞卷积核提取不同尺度的强噪声特征信息,并且扩大了感受野;网络后端使用编码器提取强噪声特征,编码器还原强噪声细节特征。DC-UNet 网络实现从含噪数据到噪声的非线性映射,通过从含噪数据减去学习到的强噪声,达到压制强噪声的目的。在 GPU环境使用 Pytorch 框架进行训练,合成数据和实际数据实验结果表明,相较于 DnCNN、U-Net、PCA-UNet 网络,DC-UNet 网络能更好地压制局部强噪声并且提高了信噪比。关键词:局部强噪声;空洞卷积;卷积神经网络中图分类号:P631.4 文献标识码:A 文章编号:1000-8918(2023)
4、05-1288-10收稿日期:2022-10-13;修回日期:2023-08-08基金项目:国家自然科学基金项目(42174140)第一作者:周慧(1997-),女,硕士研究生,主要从事基于深度学习的地震强噪声压制方面的研究工作。Email:2577156309 通讯作者:孙成禹(1968-),男,教授,主要从事地震波传播理论和地震勘探方法的教学和研究工作。Email:suncy 0 引言随着地震勘探技术的发展,对地震资料处理后的质量要求越发严格,处理地震数据朝着高信噪比、高分辨率、高保真度的“三高”标准发展。深度学习在图像去噪1、图像语义分割、故障诊断方向得到了广泛应用。近年来,由于深度学习
5、在各个方向的优异表现,逐渐将其引入地震资料处理,应用于断层识别、地震数据去噪等方面。常规去噪算法包括利用傅里叶变换的 F-X 域去噪2-4、利用 Radon 变换的-p 域去噪5以及曲波域去噪6、小波变换去噪等算法7-8,这些算法通常为将原始数据进行某种变换处理,在变换域识别噪声与有效信号的差异,并设置阈值压制噪声所处区域,然后进行反变换达到去噪的目的。深度学习利用现有数据中噪声与信号的关系进行智能去噪,基于深度学习的图像去噪方法也被应用于地震数据去噪中。Zhang 等9提出去噪卷积神经网络(DnCNN),利用残差学习和批量归一化提高去噪能力和计算效率。韩卫雪等10利用卷积神经网络去除地震随机
6、噪声。Alwon11提出了用生成对抗网络(GANs)进行地震随机噪声压制。于四伟等12利用 CNN 对随机噪声、线性噪声、多次波进行压制。Wang 等13通过 CNN 利用合成数据中的噪声作为模型训练时期的标签,让模型学会识别数据中的噪声。张攀龙等14使用改进的 U-Net 去除随机噪声。罗仁泽等15将 U-Net 网络加入残差块增强对随机噪声的压制。Li 等16采用多尺度扩张网络消除沙漠地震噪声来避免特征细节缺失。Yu等17首次将空洞卷积聚合多尺度上下文信息用于密集预测。随后逐渐有学者将空洞卷积结合 U-Net,用于改进 U-Net 网络。这种将空洞卷积结合 U-Net 的改进网络可以叫作
7、DC-UNet 网络(dilate con-volution Unet),在图像分割领域得到了广泛应用。张华博18、薛海洋19都是将 U-Net 编码器输出结果使用多个空洞卷积进行不同尺度的特征提取融合,再输入编码器。5 期周慧等:基于 DC-UNet 卷积神经网络的强噪声压制方法局部强噪声与有效信号在视速度、频率范围难以区分,没有一个明确的函数表达。工业区使用节点仪器采集地震信号,在长时间记录地震信号的过程中,相邻两炮的间隔期间,记录下的数据没有反射信号,是相对纯净且数量充足的噪声数据,这些噪声数据可以作为网络学习的标签,通过神经网络的学习,建立出一个典型的去噪模型。DC-UNet 使用空洞
8、卷积核代替传统卷积核,获得更大的感受野。将循环空洞卷块添加到 U-Net 网络的前端,循环的空洞卷积核获得的特征图通过串联融合提取不同尺度特征,将获得的信息通过残差学习的方式输入常规的 U-Net 的网络中。以局部强噪声作为标签,DC-UNet 网络形成含噪数据和局部强噪声的非线性映射关系,使得训练出的强噪声更加接近于实际噪声。1 常规 U-Net 去噪网络原理1.1 常规 U-Net 的网络结构常规 U-Net 的网络结构是 DC-UNet 网络结构的基础,该网络结构如图 1 所示。图 1 常规 U-Net 的网络结构Fig.1 Network structure of convention
9、al U-Net 常规的 U-Net 网络由扩展通道和压缩通道两部分组成。压缩通道是卷积网络的典型架构。它是由两个卷积核尺寸为 33 的卷积层重复组成,此时特征通道数由 1 变为 64,后一个卷积层跟着一个线性整流激活函数 ReLU 和一个尺寸为 22 卷积核、滑步为 2 的最大池化层。通过最大池化操作进行下采样,此时的通道数变为上一步的两倍,即通道数从64 变为 128,对应的特征图变为原来的一半。重复操作直到通道数变为 1024,扩展通道每一次对特征图进行卷积核尺寸为 22 的反卷积,特征通道数的数量变为原来的一半,再与对应压通道的特征图拼接,后面跟着两个卷积层和激活函数 ReLU,重复操
10、作直到通道数为 64,再进行一个卷积核为 11 的卷积层,最终输出的通道数为 1。将压缩通道的高分辨率特征图与扩张通道的上采样特征图相结合,不仅使特征图的分辨率提高,也减少了上下层特征图信息的丢失。1.2 常规 U-Net 去噪原理及存在的问题U-Net 的压缩通道和扩展通道相当于一个解码器和编码器,解码的过程中,通过下采样获得不同尺度的特征信息;编码的过程中,通过跳跃连接获得同层深度的特征信息,实现含噪信号到噪声或是有效信号的非线性映射。U-Net 应用到压制局部强噪声,虽然因为解码、编码以及跳跃连接可以融合不同尺度的噪声特征,但是噪声特征信息从 164 通道只有一个卷积层和激活函数 ReL
11、U,对噪声的低维特征没有充分的学习。说明以强噪声为标签,U-Net 网络从含噪地震数据非线性映射学习到的局部强噪声,需要进一步提取噪声的低维特征信息,才能更加接近实际强噪声,从而更好地压制局部强噪声,保留地震数据的反射信息和细节特征。2 DC-UNet 网络DC-UNet 网络是结合空洞卷积的 U-Net 网络。使用空洞的卷积核可以获得更大的感受野,即学习的特征信息更详尽。空洞卷积核进行卷积操作,对强噪声的特征信息提取融合,达到充分学习强噪声特征信息的目的。因此可以使用一组循环的空洞卷积核提取强噪声的低维特征信息,减少强噪声特征信息细节方面的丢失。空洞卷积即指卷积核注入空洞,可以通过改变空洞率
12、将卷积核扩展到指定大小,并将原卷积核未填充的区域填充 0。感受野是特征图上一个点对应的输入区域,感受野越大则包含的特征信息更多。因此结合空洞卷积扩大了卷积核的有效感受野,这有助于提高模型对强噪声特征的学习能力。如果将 o 表示为空洞率,原始卷积核的大小表示为 k,用 d 表示空洞卷积核的大小,则 d 可以表示为:d=o (k-1)+1。(1)如果 s 是无噪数据,n 是局部强噪声,y 是含噪数据,则 y 可以表示为:y=s+n。(2)通过 DC-UNet 的网络学习,能够研究局部强噪声的特征并进行预测。因此为了得到无噪数据 s,我们只需要从含噪数据 y 中减去 DC-UNet 预测的局部强噪声
13、 n。9821物 探 与 化 探47 卷 2.1 循环空洞卷积前面的学者将空洞卷积应用在解码器和编码器之间,即下采样和上采样之间的卷积操作用的是空洞卷积核,进行不同尺度的特征提取、融合。此外相同尺寸的跳跃连接的方式是 concatenate,即特征图在一个方向上堆叠。获得局部强噪声的特征信息需要从不同的尺度对噪声的特征进行学习,同时要求更大的感受野来获得噪声特征信息,因此需在 U-Net 网络架构的前端增添循环空洞卷积块。循环空洞卷积块的组成如图 2 所示。图 2 循环空洞卷积块Fig.2 Circular dilated convolution block 图 2 中的循环空洞卷积块循环使用
14、空洞率为 1和2 的卷积核。当卷积核大小为33,空洞率为1 时,此时的卷积操作与常规的卷积是相同的;当卷积核大小依旧是 33,而空洞率变为 2 时,虽然实际卷积核仍为33,但空洞卷积核变为55,此时感受野的大小为 77。循环空洞卷积核不仅扩大了感受野,而且减少了特征信息的丢失,保证了特征信息的连续性。各个空洞的卷积层获得的特征图,通过数据拼接,再用64 个大小为 33 的 1-空洞(空洞率为 1)的卷积核进行特征提取,实现了特征信息的串联融合。2.2 网络结构比起前面学者做的 DC-UNet 网络,明显的变化是在 U-Net 前端添加了循环空洞卷积块,后端相同尺度的特征图之间的跳跃连接是用 a
15、dd 的方式,即特征图对应位置元素相加。DC-UNet 神经网络结构如图 3 所示。循环空洞卷积块获得更大的感受野并学习更详细的噪声特征,进而获得接近于标签的最佳值传入下一层网络,有利于获得噪声的特征信息和分布规律,使去噪性能有效提升。输入数据经过循环空洞卷积块后,通图 3 DC-UNet 网络结构Fig.3 Network structure of DC-UNet过残差学习模块输入后面的 U-Net 结构中,即输入数据 x 进行跳跃连接和通过空洞卷积块的 f(x)相加再输入后端的网络中,这样尽可能地保留了特征信息。比起常规 U-Net 用最大池化的方式进行下采样,笔者通过滑动卷积的方式实现数
16、据降维和数据量的减小。此时卷积核的大小为 2,滑动步长的大小也为 2,填充为 0。图 4 为下采样示意。最大池化保留卷积核对应输入数据邻域最大特征点。比起最大池化,使用滑动卷积能够更好地保留数据的特征。DC-UNet 和 U-Net 都是过反卷积的方法实现上采样从而使特征图的大小变为原来尺寸的两倍。这里的卷积核和滑步大小都为 2,在输入的特征图间隔插入填充,这样使由于下采样尺寸缩小的特征图恢复了原始尺寸。图 4 下采样示意Fig.4 Schematic diagram of downsampling 这里的 DC-UNet 比起前人的 DC-UNet 是有区别的。首先使用空洞卷积核提取特征信息
17、的方式和在网络架构的位置是不同的。前人将单一的空洞卷积核放在下采样和上采样之间的卷积层提取高维特征信息,然后将卷积层提取特征信息通过对应元素相加的方式进行特征融合。而笔者是将循环的多个空洞卷积核用于特征信息低维信息提取,拼接特征通0921 5 期周慧等:基于 DC-UNet 卷积神经网络的强噪声压制方法道之后,再用空洞卷积核提取特征信息,实现串联融合并且用残差模块输入后端网络。循环的空洞卷积核保证了特征信息的连续性。其次是解码器和编码器之间的跳跃连接和下采样方式不同。前人使用的跳跃连接是 concatenate 和最大池化,这里用 add 的方式实现特征信息融合和使用滑动卷积进行下采样。3 模
18、型数据测试利用有限差分声波正演合成地震记录,加入强噪声变成含噪数据。强噪声的显著特征是振幅强且与有效信号的频率范围重叠。由于难以通过人工合成与实际采集相似的强噪声,所以加入的强噪声是实际节点采集强噪声集中的部分作为噪声。工区由两条测线组成,采样时间间隔为 1 ms,每道 12 001个采样点。选取其中 32 炮地震记录含有强噪声的部分,位于直达波上下,共有 5 000 个大小为 200200 的强噪声标签。图 5 就是其中一条测线的 3 炮地震数据。图 5b 红色方框中的强噪声按照采样时间叠加的能量,可以看出强噪声的能量在直达波上a按采样时间叠加能量;b其中一条测线的 3 炮地震数据;c按道叠
19、加能量astacking energy on time;b3 shot seismic data from one of the lines;cstacking energy on trace图 5 实际测线数据Fig.5 Actual line seismic data下的变化浮动不大。图 5c 是按道叠加能量,可以看出图 5b、c 的能量变化是基本吻合的,同时看出强噪声的能量不随偏移距增加改变。通过改变速度模型的地层厚度,随机生成 90 个大小为(3 5001 750 m)的层状介质模型,采用间距为 5 m 的网格进行离散,震源为主频 25 Hz 的 Ric-ker 子波(如图 6 星号)
20、。一共生成 90 组正演数据,每组正演数据一共700 道,采样时间间隔为1 ms,每道 1 400 个采样点,图 6 为具有基础的 4 层层状介质模型。图 7 为对应的正演地震记录。图 6 层状介质模型Fig.6 Layered medium model图 7 模型对应的合成地震记录Fig.7 Synthetic seismic record corresponding to the model 地震节点可以进行全时段、全空间的数据采集。除了记录主动源数据,还记录了大量被动源数据。记录下长时间的强噪声拥有足够的数据可以作为标1921物 探 与 化 探47 卷 签来进行学习强噪声特征。图 8 为
21、几个具有代表性的强噪声标签。由图 8 可以看出强噪声位于不同的位置,增加了强噪声标签的多样性,从而丰富了样本库中含噪信号。为了清晰地表示去噪效果,可以用信噪比(SNR)、峰值信噪比(PSNR)作为衡量去噪效果的指标,分别定义为:PSNR=10 lgmax(x20)MSE,(3)SNR=10 lgPi=1f(x20)iPi=1f(x2n)i,(4)式中:max(x20)表示信号数据中最大能量;MSE 是均方误差,即数据的差异程度;P 为道数;f(x20)i、f(x2n)i分别为第 i 道信号数据和噪声数据的能量。选择 80%的合成地震数据用于网络训练,选择相似度高的样本,提高网络的去噪效果,避免
22、从去噪效果差的样本学到不好的特征,使最后呈现出的压制强噪声的效果不好。将含有强噪声记录作为样本,将强噪声作为标签,构建了含有 4 000 组样本和标签的数据集,训练样本大小为 200200。DC-Unet 网络的具体参数设置为:初始学习率0.001,使用 Adam 算法,网络的输入和输出大小设置为 200 200;采用 pytorch 框 架,NVIDIA RTX A6000 的 GPU 进行加速。图 8 不同位置的强噪声Fig.8 Strong noise in different positions 图 9a 是无噪数据,加入强噪声得到图 9b 加噪数据。测试 DnCNN、U-Net、对强
23、噪声进行主成分分析再输入 U-Net、DC-UNet 的去噪效果。图 10、图 11 分别对应着 DnCNN、U-Net、对强噪声进行主成分分析(PCA)再输入 U-Net(简称 PCA-UNet)、DC-UNet 这 4 种方法进行 30 轮、50 轮训练后,去噪效果对比图 10ad 可以看出,4 种去噪方法在第 30 轮训练后,DnCNN、U-Net 和 PCA-UNet 对噪声的压制效果都不好,DC-UNet 在浅层的有效信号保留的较好,可以明显看到直达波。图 10e f 可以看出去除的噪声中都有有效信号,说明在压制噪声的过程中,有效信号都有不同程度的损伤。比较图 11ad,同样可以看出
24、 DC-UNet 对噪声的压制的去噪效果最好。从图 11b、d 的红圈看出,U-Net 恢复了浅层反射信息,DC-UNet 对噪声压制效果 最好。这一点也可以从图11e f压制的噪声看2921 5 期周慧等:基于 DC-UNet 卷积神经网络的强噪声压制方法图 9 无噪数据(a)和加噪数据(b)Fig.9 Noise-free data(a)and noisy data(b)aDnCNN 去噪结果;bU-Net 去噪结果;cPCA-UNet 去噪结果;dDC-UNet 去噪结果;eDnCNN 去除的噪声;fU-Net 去除的噪声;gPCA-UNet 去除的噪声;hDC-UNet 去除的噪声aD
25、nCNN denoising results;bU-Net denoising results;cPCA-UNet denoising results;dDC-UNet denoising results;enoise removed by DnCNN;fnoise removed by U-Net;gnoise removed by PCA-UNet;hnoise removed by DC-UNet图 10 第 30 轮训练后不同去噪方法去噪对比Fig.10 Denoising comparison of different denoising methods after the 30 t
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 DC UNet 卷积 神经网络 噪声 压制 方法
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。