基于卷积神经网络梯度和纹理补偿的单幅图像超分辨率重建.pdf
《基于卷积神经网络梯度和纹理补偿的单幅图像超分辨率重建.pdf》由会员分享,可在线阅读,更多相关《基于卷积神经网络梯度和纹理补偿的单幅图像超分辨率重建.pdf(13页珍藏版)》请在咨信网上搜索。
1、ISSN 10049037,CODEN SCYCE4Journal of Data Acquisition and Processing Vol.38,No.5,Sep.2023,pp.1112-1124DOI:10.16337/j.10049037.2023.05.010 2023 by Journal of Data Acquisition and Processinghttp:/Email:sjcj Tel/Fax:+8602584892742基于卷积神经网络梯度和纹理补偿的单幅图像超分辨率重建黄裕青,李华锋,原铭,张亚飞(昆明理工大学信息工程与自动化学院,昆明 650500)摘要:现有
2、的单幅图像超分辨率重建算法大都在追求高峰值信噪比(Peak signaltonoise ratio,PSNR),在特征提取过程中缺少对图像纹理细节信息的关注,导致重建图像的人眼主观感知效果不太理想。为了解决这一问题,本文提出了一种基于卷积神经网络梯度和纹理补偿的单幅图像超分辨率重建算法。具体设计了 3条支路分别用于结构特征提取、纹理细节特征提取及梯度补偿,然后利用所提出的融合模块对结构特征和纹理细节特征进行融合。为防止重建过程中丢失图像的纹理信息,提出纹理细节特征提取模块补偿图像的纹理细节信息,增强网络的纹理保持能力;同时,利用梯度补偿模块提取的梯度信息对结构信息进行增强;此外还构建了深层特征
3、提取结构,结合通道注意力与空间注意力对深层特征中的信息进行筛选及特征增强;最后利用二阶残差块对结构和纹理特征进行融合,使重建图像的特征信息更加完善。通过对比实验验证了本文方法的有效性和优越性。关键词:卷积神经网络;超分辨率图像重建;梯度纹理补偿;注意力中图分类号:TP751.1 文献标志码:ASuperResolution Reconstruction of Single Image Based on Convolutional Neural Network Gradient and Texture CompensationHUANG Yuqing,LI Huafeng,YUAN Ming,Z
4、HANG Yafei(School of Information Engineering and Automation,Kunming University of Technology,Kunming 650500,China)Abstract:The existing super-resolution reconstruction algorithms of single image mostly pursue the peak signal-to-noise ratio(PSNR),and lack the attention to the details of image texture
5、 in the process of feature extraction,resulting in poor subjective perception of reconstructed images.In order to solve this problem,this paper proposes a single image super-resolution reconstruction algorithm based on convolutional neural network gradient and texture compensation.Specifically,three
6、 branches are designed for structure feature extraction,texture detail feature extraction and gradient compensation,and then the proposed fusion module is used to fuse the structure feature and texture detail feature.To prevent the loss of texture information in the reconstruction process,this paper
7、 proposes a texture detail feature extraction module to compensate the texture detail information of the image and enhance the texture retention ability of the network.At the same time,this paper uses the gradient information extracted by the gradient compensation module to enhance the structure inf
8、ormation.In addition,this paper also constructs a deep feature 基金项目:国家自然科学基金(62161015,61966021)。收稿日期:20220629;修订日期:20221005黄裕青 等:基于卷积神经网络梯度和纹理补偿的单幅图像超分辨率重建extraction structure,combining channel attention and spatial attention to screen and enhance the information in the deep features.Finally,the sec
9、ond-order residual block is used to fuse the structure and texture features,so that the feature information of the reconstructed image is more perfect.The effectiveness and superiority of the proposed method are verified by comparative experiments.Key words:convolutional neural network;superresoluti
10、on image reconstruction;gradient and texture compensation;attention引 言当图像或视频由传感器产生时,质量通常会受到透镜的清晰度、传输带宽、采样点数和场景细节等因素的限制。单张图像超分辨率(Single image superresolution,SISR)方法通过从低分辨率(Low resolution,LR)图像中恢复清晰的高分辨率(High resolution,HR)图像来提升图像质量,在自然成像、卫星成像、医学成像、安全监视成像和计算机视觉分析任务13中应用广泛。由于任意低分辨率图像都存在多个解,因此求解超分辨率图像的
11、过程是一个不适定问题。到目前为止,已经出现了多种超分辨率图像重建方法,主要包括基于插值的方法47、基于重建的方法811、基于学习的方法1215以及基于深度学习的方法1621。基于插值的方法主要包括双线性插值、最近邻插值与双三次插值4。这类算法实现简单,然而,它们是通过局部信息来重建高分辨率图像的,当放大倍数较大时,通常效果较差。基于重建的方法是以图像降质模型基础构建 HR 图像到 LR 图像的映射,并利用先验知识,如梯度先验8、边缘先验10,通过优化损失函数求解得到高分辨率图像。该方法在抑制噪声和边缘保留方面具有较好的效果,但重建效果易受到正则化参数准确性影响,导致纹理细节不能很好的恢复。基于
12、学习的方法是对大量 LR 图像和其对应 HR 图像之间的隐含关系进行学习,利用这种隐含关系指导 HR 图像的重建,例如稀疏表示12和基于样例的方法13。虽然基于学习的方法已经取得了显著的改进,但网络的优化过程过于复杂。近年来,基于深度学习的 SISR 方法的性能比传统的基于非学习的 SISR 方法有了显著的提升。基于深度学习的 SISR 方法将图像超分辨率重建视为一个图像回归任务,通过学习 LR 和 HR 图像之间由卷积神经网络(Convolutional neural networks,CNN)表示的端到端图像映射函数来进行超分重建。Dong等16首次将深度学习应用于图像超分辨率重建,提出了
13、基于卷积神经网络的超分辨率(Super resolution CNN,SRCNN)重建方法,取得了清晰的重建效果。为解决模型参数数量大量增多的问题,研究者们提出了多种解决方案。Dong等22对 SRCNN 进行了改进,提出了基于快速卷积神经网络的超分辨率重建(Fast SRCNN,FSRCNN)方法,该方法先在低分辨率阶段进行卷积、提取特征,然后在网络最后进行上采样生成高分辨率图像;Kim 等21构造了超深卷积网络(Very deep convolutional networks,VDSR)。VDSR网络利用残差的思想通过添加一个跳跃连接使网络学习残差参数,而不是全体参数,从而减少了参数量;Z
14、hang等23提出了基于密集残差密集网络(Residual dense network,RDN)的图像超分辨率重建方法,该方法较好地解决了深度网络中的梯度消失及收敛过慢的问题,以及图像信息在卷积过程中逐级丢失的问题,取得了很好的重建效果。然而,只使用单条支路进行特征提取,可能无法捕获尽可能多的特征信息。为解决此问题,Li等24提出了一种多尺度残差网络(Multiscale residual network,MSRN)的超分辨率重建方法,通过利用不同支路不同感受野的卷积核进行特征提取,以获得充足的图像特征信息;Zhao等25提出像素注意方案构造了一个非常简洁和有效的网络(Pixel attent
15、ion network,PAN),这种注意方案引入了更少的附加参数,但产生了更好的超分辨率结果;Meng等26提出了一种梯度信息蒸馏网络(Gradient information distillation network,GIDN),通过信息蒸馏来保持快速、轻量级的1113数据采集与处理 Journal of Data Acquisition and Processing Vol.38,No.5,2023优势,并利用梯度信息提高了超分辨率重建图像的质量;Liu 等27提出了一种新的群跳远连接块(Group skipconnecting network,GSCN)作为图像超分辨率重建的基本构建块
16、,将群卷积与跳跃连接相结合,充分融合丰富的局部特征,从而获得比当前大多数残差块更高的效率;Mehri等28提出了多路径残差网络(Multipath residual network,MPRNet),自适应学习最有价值的特征,构建网络以学习高频信息;Tan 等29提 出 一 种 简 单 而 有 效 的 自 校 准 特 征 融 合 网 络(Selfcalibrated feature fuse network,SCFFN),该网络通过自校准特征融合,以实现网络性能和适用性之间更好的平衡。然而,上述方法都是将图像的纹理特征信息与结构特征信息视为一个整体,而真实情况下,图像卷积的过程中极易丢失纹理特征
17、,这对重构富含纹理结构信息的高分辨率图像极为不利。为解决上述问题,近年来研究者们提出了大量基于纹理特征补偿的模型3033。这些方法利用多种信息补偿方法对超分辨率重建结果进行补偿,在重构结构信息的同时,防止超分辨率重建过程中丢失纹理细节特征,从而提升了图像的感知性能。具体地,Ledig等30提出了基于生成对抗网络的超分辨率(Superresolution generative adversarial network,SRGAN)重建方法,该方法利用生成对抗损失约束生成器与鉴别器,使生成器生成更加逼近真实世界的纹理细节。然而生成对抗网络极易将不属于真实世界的纹理信息引入图像中,为此,Wang等31
18、提出增强的生成对抗超分辨网络(Enhanced SRGAN,ESRGAN)模型,利用密集残差网络进一步提取有效特征,同时为减少参数舍去了批归一化层,从而生成了更逼真、自然的纹理细节信息;Wang 等32提出了空间特征变换生成对抗网络(Spatial feature transform generative adversarial networks,SFTGAN)模型,利用语义先验信息引导 LR图像生成 HR图像,并利用空间特征变换(Spatial feature transformation,SFT)层来进一步提高纹理恢复的能力;Soh 等33从低分辨率源图像中提取梯度信息,并利用梯度信息对超
19、分辨率过程进行补偿。上述方法都对提升图像的视觉感知效果做出了卓越的贡献。然而,在恢复的 SR 图像中仍会出现非自然的伪影,且现有的感知驱动方法在性能指标上远低于常用的超分辨率重建方法,这对于评价图像的主观性能极为不利,且影响了方法之间的性能比较。从以上讨论来看,虽然 SISR 方法已经取得了很大的进展,但现有的基于深度学习的 SISR 方法仍然存在一些局限性。这类方法通常利用单支路网络提取图像特征,在损失函数的约束下,使网络提取到由 LR图像恢复到 HR图像所需的纹理细节特征,从而获得图像高频细节信息,来实现超分辨率重建。然而,这类方法通常需要大规模高分辨率图像参与训练才能保证重建图像的效果,
20、并且通过单支路网络提取特征来同时恢复原始 LR 图像中包含的所有高频和低频信息存在一定的挑战,存在纹理细节特征丢失的问题,导致超分辨率重建出的图像纹理细节不完整、图像质量不佳等问题。为此,本文提出了一种基于纹理细节嵌入的超分辨率重建网络,通过将图像区分为结构信息与纹理信息分别进行超分辨率重建,防止超分辨率重建过程中丢失图像的纹理信息,并保证性能指标未因产生伪影而下降。网络利用 3条支路分别提取图像的结构信息、纹理信息及梯度信息。通过纹理信息与结构信息融合来解决超分辨率重建过程中由于纹理细节丢失而引起的图像质量下降的问题。同时,利用梯度信息对结构信息进行增强,解决由于梯度信息丢失而引起的重建图像
21、边缘模糊的问题。本文的贡献主要包括:(1)为解决超分辨率重建过程中纹理细节丢失而引起重建图像质量下降的问题,设计了一种梯度和纹理补偿的超分辨率重建网络。该网络通过不同支路分别对图像的纹理、结构、梯度信息进行提取,并将其有效融入高分辨率重建图像中,有效提升了重建图像的质量。(2)为使网络捕获感兴趣的结构特征区域与纹理特征区域,引入深层特征提取块。通过通道注意力与空间注意力对结构与纹理特征进行增强,提升关键信息在图像重建中作用。(3)为更好地融合结构信息与纹理信息,提出了一种二阶残差块结构用于融合模块,其利用不同尺度的卷积核进行特征提取及融合,使融合后的特征能得到更好地表达重建的图像信息。1114
22、黄裕青 等:基于卷积神经网络梯度和纹理补偿的单幅图像超分辨率重建1 网络框架结构 本文提出的基于纹理细节嵌入的超分辨率重建模型如图 1 所示。该模型主要包括 4 个模块:纹理细节特征提取模块、结构特征提取模块、梯度补偿模块和融合模块。为防止超分辨率重建过程中纹理信息丢失,本文将纹理特征提取模块提取的纹理特征逐层补偿到结构特征提取模块。纹理特征提取模块与结构特征提取模块包含相似的结构,由 1个浅层特征提取块及 4个深层特征提取块组成。梯度补偿模块由 4个 33的卷积和 PReLu组成,该模块对原图像进行逐级卷积以提取图像的梯度特征。利用最后得到的梯度信息特征图对结构信息特征图进行增强。然后把增强
23、后的结构信息与纹理信息进行拼接,经过融合模块进行特征增强与特征融合,最后通过反卷积进行重构并利用纹理图进行补偿得到高分辨率图像。具体地,利用纹理特征提取模块与结构特征提取模块从原始的低分辨率图像Il及其对应的纹理细节图像Ilt中,分别提取结构特征Fl,ds,纹理细节特征Fl,dtFl,ds=Hs(Il)Fl,dt=Ht(Ilt)(1)式中:Hs表示结构特征提取模块操作,Ht表示纹理细节特征提取模块操作。由于梯度信息丢失会造成重建图像边缘模糊,本文利用梯度信息对结构信息进行增强。利用 Sobel算子从原始的低分辨率图像Il提取梯度图Ig,再经过 4个卷积层提取梯度信息得到Fg,可以表示为 Ig=
24、fSobel(Il)Fg=Convg(Ig)(2)式中:fSobel表示 Sobel算子操作,Convg表示由 33卷积与 PReLu组成的的特征提取操作组合(如图 1所示)。结构特征经梯度增强后的输出Fgs可以表示为Fgs=sconv(cat(Fg,Fl,ds),k=1)(3)然后,把经梯度信息增强后的结构特征Fgs和纹理特征提取模块的输出Fl,dt经过拼接、11卷积,得到的特征Ffin。将Ffin作为融合模块的输入,经过融合模块得到的特征图Ff,即Ffin=sconv(cat(Fgs,Fl,dt),k=1)Ff=Hf(Ffin)(4)式中Hf表示由 3个二阶残差块组成的融合模块。其次,融合
25、模块的输出特征Ff通过反卷积进行上采样,并利用纹理特征图Fl,dt经反卷积后得到纹理图 1网络总体框架流程图Fig.1Flow of network overall framework1115数据采集与处理 Journal of Data Acquisition and Processing Vol.38,No.5,2023补偿图Fupt对高分辨率的融合特征图进行补偿。最后,经 33卷积进行重构得到高分辨率图像ISR,可以表示为 Fupt=Deconv(Fl,dt)FhSR=cat(Deconv(Ff),Fupt)ISR=sconv(FhSR,k=3)(5)式中 Deconv代表反卷积操作。1
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 卷积 神经网络 梯度 纹理 补偿 单幅 图像 分辨率 重建
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。