基于空间注意力残差网络的图像超分辨率重建模型.pdf
《基于空间注意力残差网络的图像超分辨率重建模型.pdf》由会员分享,可在线阅读,更多相关《基于空间注意力残差网络的图像超分辨率重建模型.pdf(8页珍藏版)》请在咨信网上搜索。
1、计算机与现代化JISUANJI YU XIANDAIHUA2023年第10期总第338期文章编号:1006-2475(2023)10-0045-08收稿日期:2022-11-01;修回日期:2022-12-02基金项目:国家自然科学基金资助项目(62071084)作者简介:邢世帅(1996),男,河南商丘人,硕士研究生,研究方向:图像超分辨率,E-mail:;通信作者:刘丹凤(1987),女,辽宁大连人,讲师,博士,研究方向:遥感图像处理,机器视觉,E-mail:;王立国(1974),男,黑龙江哈尔滨人,教授,博士,研究方向:遥感高光谱图像处理,机器学习,E-mail:;潘月涛(1996),男
2、,山东潍坊人,硕士研究生,研究方向:遥感图像处理,E-mail:;孟灵鸿(1997),男,山东济宁人,硕士研究生,研究方向:遥感图像处理,E-mail:;岳晓晗(1997),女,山东潍坊人,硕士研究生,研究方向:图像超分辨率处理,E-mail:。0引言图像超分辨率重建的任务是将退化的低分辨率图像映射为高分辨率图像。但由于高分辨率图像会因不同类型的细节损失退化成不同的低分辨率图像,且相同的低分辨率图像可以由多个高分辨率图像退化而来,导致图像超分辨率重建较为复杂。为了解决这个问题,研究者们已经提出许多图像超分辨率重建方法,主要包括基于插值1-2的方法、基于重建3-4的方法和基于学习5-7的方法等。
3、近年来,基于深度卷积神经网络的方法在图像超分辨率重建领域表现优异。Dong等人8进行了首次成功尝试,提出带有3个卷积层的SRCNN,并且取得了优于传统算法的性能。后来,Dong 等人9对SRCNN进行改进,进而提出FSRCNN,在网络的后端引入了反卷积,减少了计算量。Kim等人10首次提出了残差网络,并将其引入图像超分辨率重建领域中,他们提出了深度为 20 层的 VDSR 网络,取得了比SRCNN更好的性能,这表明更深层次的网络可以有效地提升图像的质量。后来,Kim等人11在DRCN中引入残差学习从而减轻模型训练的难度。盘展鸿等人12将残差中的残差思想与空间、坐标注意力结合基于空间注意力残差网
4、络的图像超分辨率重建模型邢世帅,刘丹凤,王立国,潘月涛,孟灵鸿,岳晓晗(大连民族大学信息与通信工程学院,辽宁 大连 116600)摘要:卷积神经网络中的层次特征可以为图像重建提供重要信息。然而,现有的一些图像超分辨率重建方法没有充分利用卷积网络中的层次特征。针对该问题,本文提出一种基于空间注意力残差网络的模型(Residual Network Based onSpatial Attention,SARN)。具体来说,首先设计一种空间注意力残差模块(Spatial Attention Residual Block,SARB),将增强型空间注意力模块(Enhanced Spatial Attent
5、ion,ESA)融入残差模块中,网络可以获得更有效的高频信息;其次融入特征融合机制,将网络各层获得的特征进行融合,提高网络中层次特征的利用率;最后,将融合后特征输入重建网络,得到最终的重建图像。实验结果表明,该模型无论在客观指标上,还是主观视觉效果上均优于对比算法,这说明本文提出的模型可以有效地利用图像中的层次特征,从而获得较好的超分辨率重建效果。关键词:超分辨率重建;空间注意力;残差网络;特征融合机制;层次特征中图分类号:TP391文献标志码:ADOI:10.3969/j.issn.1006-2475.2023.10.007Image Super-resolution Reconstruct
6、ion Based on Spatial Attention Residual NetworkXING Shi-shuai,LIU Dan-feng,WANG Li-guo,PAN Yue-tao,MENG Ling-hong,YUE Xiao-han(College of Information and Communication Engineering,Dalian Minzu University,Dalian 116600,China)Abstract:Hierarchical features extracted from convolutional neural networks
7、contain affluent semantic information and they arecrucial for image reconstruction.However,some existing image super-resolution reconstruction methods are incapable of excavating detailed enough hierarchical features in convolutional network.Therefore,we propose a model termed spatial attention resi
8、dual network(SARN)to relieve this issue.Specifically,we design a spatial attention residual block(SARB),the enhancedspatial attention(ESA)is embedded into SARB to obtain more effective high-frequency information.Secondly,feature fusionmechanism is introduced to fuse the features derived from each la
9、yer.Thereby,the network can extract more detailed hierarchicalfeatures.Finally,these fused features are fed into the reconstruction network to produce the final reconstruction image.Experimental results demonstrate that our proposed model outperforms the other algorithms in terms of quantitative eva
10、luation and visualcomparisons.That indicates our model can effectively utilize the hierarchical features contained in the image,thus achieve a better super-resolution reconstruction performance.Key words:super-resolution reconstruction;spatial attention;residual network;feature fusion mechanism;hier
11、archical features计算机与现代化2023年第10期提出了FFAMSR网络。Lim等人13对深度残差网络进行改进,进而提出 EDSR,EDSR将残差单元中的批归一化层(Batch Normalization,BN)去掉,极大地提升了模型训练的速度。Tai等人14提出了DRRN,该网络将递归思想与残差网络结合,将递归模块中的权重进行共享,从而减轻了深层网络的训练难度,取得了比VDSR更好的结果。在这些开创性的工作之后,人们提出了许多基于卷积神经网络的方法,并且在单幅图像超分辨率中取得了不错的成果。尽管单幅图像超分辨率已经取得了相当大的提升,但是现有的一些基于卷积神经网络的模型仍面临
12、一些限制。随着网络深度的增加,层次特征逐渐集中于输入图像的不同方面,这对于重建图像的空间细节非常有用。然而,现有的大多数基于卷积神经网络的方法无法充分利用网络的层次特征。为了解决大多数基于卷积神经网络的方法无法充分利用网络的层次特征的问题,本文提出一种基于空 间 注 意 力 残 差 网 络 的 模 型(Residual NetworkBased on Spatial Attention,SARN)。首先设计一个空 间 注 意 力 残 差 模 块(Spatial Attention ResidualBlock,SARB),将 增 强 型 空 间 注 意 力 模 块(Enhanced Spatia
13、l Attention,ESA)15融入残差块中,使网络更加充分地学习图像的关键空间信息,增强特征选择能力,得到更有效的高频信息;其次,针对无法充分利用层次特征的问题,采用层次特征融合机制,对每个空间注意力残差模块提取的特征信息进行全局融合,提高网络对层次特征的利用率;最后,通过重建网络得到最终的超分辨率图像。1相关工作1.1卷积神经网络Dong等人在2014年首先提出了一种用于图像超分辨率的浅三层卷积神经网络SRCNN,并且优于以往传统方法的性能。受此启发,众多学者相继提出许多基于深度学习的方法。Kim等人设计了一个基于残差网络的DRCN,其中DRCN网络层数是20层。后来,Tai等人将递归
14、模块引入DRRN中,在MemNet16中引入记忆模块。这些方法从插值之后的低分辨率图像中提取特征,不仅占用大量内存,也耗费了很多时间,效率低。为了解决这个问题,Shi等人17基于ESPCN提出了一种高效的亚像素卷积层,其中低分辨率的特征图可以被放大到网络末端,得到高分辨率输出。此外,研究者们基于亚像素卷积层提出了许多深 度 网 络 以 得 到 更 好 的 性 能。Ledig 等 人18在SRGAN中引入了SRResNet。Zhang等人19在RDN中通过密集连接利用所有卷积层的层次特征。Hui等人20提出了一种轻量化的网络,在内存占用和网络性能之间实现最优。Wang等人21提出了一种非监督退化
15、表示学习的方法来处理未知退化模型的情况,通过引入对比学习来学习不同图像的退化表示,引入退化感知(Degradation-Aware SR,DASR)灵活适应不同退化网络。1.2注意力机制目前,注意力机制22-23已经广泛应用于计算机视觉任务中,比如图像分类、视频分类等。其被用于解释可用资源的分配偏向于输入信号中信息量最大部分的原因。注意力机制首先是出现在Hu等人24提出的SENet网络中,这是一种全新的“特征权重标定”策略,通过注意力机制判定不同特征通道的重要程度。近些年来,一些基于注意力机制的网络模型也开始应用于图像超分辨领域。Zhang等人25将残差网络和通道注意力机制结合提出了残差通道注
16、意力网络RCAN,通过抑制低分辨率图像中的低频信息,尽可能将网络作用在高频信息上,恢复更多的高频信息以达到更好的重建效果。实验结果表明RCAN的重建效果优于大多数基于卷积神经网络的重建方法。Dai等人26提出了一种深度二阶注意力网络SAN,该网络提出了一种新的可训练的二阶通道注意力模块SOCA进行相关性学习,通过一个非局部增强的残差组结构捕获远距离上下文的信息。Niu等人27提出了一种整体注意力网络HAN,该网络引入层次注意模块LAM,利用多尺度层次间的相关性来学习层次特征的权值,提出了通道-空间相结合的模块CSAM学习每层特征的通道和空间的相关性。2本文方法本文提出一种基于空间注意力残差网络
17、的图像超分辨率重建模型,如图1所示,该模型由3部分组成:浅层特征提取模块、特征映射模块、重建模块。图1基于空间注意力残差网络的图像超分辨率模型462023年第10期2.1浅层特征提取模块浅层特征提取部分主要是卷积层对输入图像的初始特征提取。具体来说,采用1个33卷积层提取低分辨率图像ILR的浅层特征。计算公式为:F0=H3 3(ILR)(1)式中,ILR表示低分辨率图像,H33表示浅层特征提取,F0表示提取出来的特征,作为后续模块的输入。2.2特征映射模块在特征映射模块中,首先设计了一种空间注意力残差模块SARB,将增强型空间注意力模块融入残差模块中,使网络更加专注于关键的空间信息;接着对SA
18、RB中不同层次特征进行局部特征融合(Local Feature Aggregation,LFA),增强层次特征的流动性,最后对每个SARB的输出进行全局特征融合,充分利用不同网络的层次特征,提高层次特征的利用率,增强网络表达能力。在特征映射模块中,SARB支持SARB之间的连续 记 忆(Continuous Memory,CM),允 许 前 一 个SARB的输出和当前SARB中卷积层的输出通过局部特征融合连接在一起。该模块包含20个SARB、1个特征融合模块、1个11卷积和1个长跳跃连接。假设特征映射模块由D个SARB构成,那么第d(d=1,2,D)个SARB块的输出Fd可以表示为:Fd=SA
19、RB(Fd-1)(2)式中,SARB表示使用空间注意力残差模块提取特征,Fd-1、Fd表示SARB提取的特征。接着对每个SARB提取的特征进行全局特征融合,且使用1个11卷积层进行降维,去除冗余信息,然后通过跳跃连接和浅层特征F0构成残差学习。具体计算公式如下:Fm=H1 1(Concat(F1,F2,Fd)+F0(3)式中,Concat 表示拼接融合操作,H11表示 11 卷积层,Fm表示特征映射模块的输出特征。1)空间注意力残差模块。EDSR去掉了卷积模块中的BN层以构成如图2所示的残差块,受其启发,本文提出将空间注意力机制融入残差块中,构成更强的空间注意力残差模块SARB,如图3所示。与
20、普通残差块相比,SARB可以使网络更加专注于图像的关键空间信息,学习更多的高频信息。首先输入特征依次经过卷积层、ReLU激活、卷积层和ESA模块,然后和经过ESA模块提取的输出进行融合、降维,最后与输入特征Fd-1跳跃连接相加实现全局残差学习。具体计算公式如下:Fc=HCon1 1(HESA(H3 3(H3 3(Fd-1),Fd-1)(4)Fd=Fc+Fd-1(5)式中,Fd表示第d个SARB的输出特征,HCon11表示先进行局部特征融合,再进行11卷积;HESA表示使用增强型空间注意力提取特征;H33表示 33卷积层,Fd-1表示第 d-1 个 SARB 的输出特征。()表示ReLU激活函数
21、。2)增强型空间注意力模块。为了使层次特征更加专注于关键的空间信息,本文选择使用增强型空间注意力块ESA,它比普通空间注意力块更强大。设计该模块时,必须仔细考虑几个因素。首先,它将被插入网络的每个模块中,所以模块必须轻量。其次,注意力块需要一个大的感受野才能很好地完成图像超分辨率重建任务。如图 4 所示,引入的 ESA 模块从 11 卷积层开始,可以减少通道维度,从而使整个模块轻量化。为了扩大感受野范围,使用步长为2的卷积,然后是一个最大池化层。常规的22最大池化带来的感受野非常有限,因此,研究者选择使用77大小和步长为3的最大池化层。此外,增加上采样层恢复空间维度,并使用11卷积层恢复通道维
22、度。最后特征经过Sigmoid层,与输入点乘,得到ESA的输出特征。图4ESA模块的结构忽略计算量,利用非局部模块可以更好地实现空间注意力块。实际上,已经有研究者试图将非局部注意力块应用于图像超分辨率领域了。虽然它可以提升性能,但计算量较大,不符合本文引入ESA模块的初衷。2.3重建模块特征映射模块的输出特征作为重建模块的输入,利用亚像素卷积对图像进行上采样,得到最终的超分辨率图像。具体计算公式如下:Iup=Hup(Fm)(6)ISR=H3 3(Iup)(7)其中,Hup表示亚像素卷积操作,H33表示33卷积层,ISR表示重建的超分辨率图像。2.4损失函数本文将N个低分辨率图像块ILR及其对应
23、的高分辨率图像块IHR作为训练集,选择使用L1损失函数来优化网络,使网络具有更好的收敛性。其具体计算如下:图2残差块图3空间注意力残差模块SigmoidConv11Up-samplingConv-GroupPoolingStride-convConv11邢世帅,等:基于空间注意力残差网络的图像超分辨率重建模型47计算机与现代化2023年第10期L()=1Ni=1N|G(IiLR)-IiHR|1(8)式中,G表示本文网络的功能,表示整体网络的参数集合。3实验与结果分析3.1实验环境与数据集3.1.1实验数据集本文选择 DIV2K28作为实验训练集,该数据集在超分辨率重建领域应用较为广泛。DIV2
24、K数据集中含有1000张高分辨图像,其中800张用作训练集,其余的200张等比例构成验证集和测试集,实际上很少选择该数据集作为测试集。该数据集由多种类型的图像构成,如动物、人和建筑物等。在训练期间,通过随机旋转90、180、270和随机水平翻转进行数据扩充,并使用双三次下采样得到低分辨率图像。为 了 进 行 测 试,选 择 Set529、Set1430、BSD10031、Urban10032、Manga10933作为为本实验的测试集。数据集后的数字表示其包含图片的数量,Set5、Set14数据集属于中小型数据集,其分辨率一般在500左右。BSD100数据集中包含植物、人、食物等类型的图像,该数
25、据集为固定分辨率数据集,其包含的图像的分辨率是 481321 或 321481。Urban100属于城市建筑物数据集,该数据集中的图像含有复杂的建筑纹理。Manga109数据集是由日本漫画家绘制的109张漫画组成。3.1.2实验环境实验过程中使用的设备仿真环境和相关参数设置如表1所示。表1仿真环境及其参数设置仿真环境中央处理器GPU内存/GB训练框架初始学习率优化器迭代次数参数值Intel i9-10940XCPURTX2080TI 164Pytorch1.80.0002Adam40003.2实验评价指标本 文 选 用 峰 值 信 噪 比 PSNR 和 结 构 相 似 度SSIM34作为客观评
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 空间 注意力 网络 图像 分辨率 重建 模型
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。