基于多分辨率特征融合的任意尺度图像超分辨率重建.pdf
《基于多分辨率特征融合的任意尺度图像超分辨率重建.pdf》由会员分享,可在线阅读,更多相关《基于多分辨率特征融合的任意尺度图像超分辨率重建.pdf(9页珍藏版)》请在咨信网上搜索。
1、第 49卷 第 9期2023年 9月Computer Engineering 计算机工程基于多分辨率特征融合的任意尺度图像超分辨率重建范文卓1,2,吴涛1,2,许俊平2,李庆庆2,张建林2,李美惠2,魏宇星2(1.中国科学院大学 电子电气与通信工程学院,北京 101408;2.中国科学院光电技术研究所 光束控制重点实验室,成都 610207)摘要:传统深度学习的图像超分辨率重建网络仅在固定分辨率上提取特征,存在无法综合高级语义信息、只能以特定尺度因子重建图像、泛化能力较弱、网络参数量较大等问题。提出一种基于多分辨率特征融合的任意尺度图像超分辨率重建算法 MFSR。在多分辨率特征融合编码阶段设计
2、多分辨率特征提取模块以提取不同分辨率特征,通过构建双重注意力模块增强网络特征提取能力,使不同分辨率特征之间进行充分交互,以获取信息丰富的融合特征图。在图像重建阶段利用多层感知机对融合特征图进行解码,实现任意尺度的图像超分辨率重建。实验结果表明,在 Set5 数据集上分别以尺度因子 2、3、4、6、8 进行测试,所提算法的峰值信噪比分别为 38.62、34.70、32.41、28.96、26.62 dB,模型参数量为 0.72106,在大幅减少参数量的同时能保持重建质量,可以实现任意尺度的图像超分辨率重建,性能优于 SRCNN、VDSR、EDSR等主流算法。关键词:多分辨率特征融合;超分辨率重建
3、;任意尺度;双重注意力;特征交互开放科学(资源服务)标志码(OSID):源代码链接:https:/ J.计算机工程,2023,49(9):217-225.英文引用格式:FAN W Z,WU T,XU J P,et al.Super-resolution reconstruction of arbitrary scale images based on multi-resolution feature fusion J.Computer Engineering,2023,49(9):217-225.Super-Resolution Reconstruction of Arbitrary Scal
4、e Images Based on Multi-Resolution Feature FusionFAN Wenzhuo1,2,WU Tao1,2,XU Junping2,LI Qingqing2,ZHANG Jianlin2,LI Meihui2,WEI Yuxing2(1.School of Electronic,Electrical and Communication Engineering,University of Chinese Academy of Sciences,Beijing 101408,China;2.Key Laboratory of Beam Control,Ins
5、titute of Optics and Electronics,Chinese Academy of Sciences,Chengdu 610207,China)【Abstract】Traditional deep learning image super-resolution reconstruction network only extracts features at a fixed resolution and cannot integrate advanced semantic information.The challenges include difficulties inte
6、grating advanced semantic information,reconstructing images with specific scale factors,limited generalization capability,and managing an excessive number of network parameters.An arbitrary scale image super-resolution reconstruction algorithm based on multi-resolution feature fusion is proposed,ter
7、med as MFSR.In the phase of multi-resolution feature fusion encoding,a multi-resolution feature extraction module is designed to extract different resolution features.A dual attention module is constructed to enhance the network feature extraction ability.The information-rich fused feature map is ob
8、tained by fully interacting with different resolution features.In the phase of image reconstruction,the fused feature map is decoded by a multi-layer perception machine to realize a super-resolution image at any scale.The experimental results indicate that tests were conducted on the Set5 data set w
9、ith scaling factors of 2,3,4,6,8,and the Peak Signal-to-Noise Ratios(PSNR)of the proposed algorithm were 38.62,34.70,32.41,28.96,and 26.62 dB,respectively.The model parameters correspond to 0.72106,which significantly reduce the number of parameters,maintain the reconstruction quality,and realize su
10、per-resolution image reconstruction at any scale.Furthermore,the model can realize better performance than mainstream algorithms,such as SRCNN,VDSR,and EDSR.【Key words】multi-resolution feature fusion;Super-Resolution Reconstruction(SRR);arbitrary scale;double attention;基金项目:国家自然科学基金青年基金(62101529)。作者
11、简介:范文卓(1995),男,硕士研究生,主研方向为图像超分辨率重建;吴 涛,硕士研究生;许俊平(通信作者),副研究员、博士;李庆庆,助理研究员、博士;张建林,研究员、博士;李美惠,博士;魏宇星,副研究员。收稿日期:2022-09-05 修回日期:2022-10-20 Email:junping_图形图像处理文章编号:1000-3428(2023)09-0217-09 文献标志码:A 中图分类号:TP391.412023年 9月 15日Computer Engineering 计算机工程feature interactionDOI:10.19678/j.issn.1000-3428.00656
12、89 0概述 图像分辨率是评价图像质量的重要指标之一。图像超分辨率重建(Super-Resolution Reconstruction,SRR)是指对低分辨率(Low-Resolution,LR)图像重建得到高分辨率(High-Resolution,HR)图像的过程,是计算机视觉领域内的研究热点,被广泛应用于医学诊断、遥感图像处理、目标检测、目标识别等领域。例如,文献 1-2 已经证实图像超分辨率重建算法对小目标检测有用;LI 等3将图像超分辨率重建应用在高光谱图像分析上,实现了高光谱图像的异常检测和更低的虚警率。图像超分辨率重建的方法主要分为基于插值的方法、基于重建的方法和基于学习的方法这
13、3 类。基于插值的方法比较简单,但重建效果有待提高。基于重建的方法有较为稳定的或者唯一的图像解,但该方法需要足够的先验知识,且重建速度慢。基于学习的方法主要是学习低分辨率图像到高分辨率图像的映射关系,该方法重建效果好且计算速度快,其中基于深度学习的图像超分辨率重建方法已经成为目前的研究热点,并涌现出许多经典的算法。YOON 等4提出一个用于单幅图像超分辨率重建的卷积神经网络(Convolutional Neural Network,CNN)模型 SRCNN,该网络模型的重建效果比插值方法重建得到的图像效果好,但 SRCNN 只能进行低倍率的超分辨率重建,且训练速度慢。DONG 等5对 SRCN
14、N 网络训练速度慢的问题进行了改进,提出FSRCNN,改进之处包括 3点:直接从 LR图像中进行学习,不需要预处理,采用反卷积层代替双三次插值,减少计算复杂度;改变卷积核的大小;改变输入的特征维数。这些改进使 FSRCNN 网络在保证与SRCNN 网络精度不变的情况下,提高了网络的训练速度。SHI 等6提出一种基于亚像素重排的高效的亚 像 素 卷 积 神 经 网 络(Efficient Sub-Pixel Convolutional Neural Network,ESPCN),该网络虽然可以通过灵活调整特征通道的数目快速实现不同尺度的放大,但只能进行整数倍放大,灵活性较差。KIM 等7提出超深
15、度卷积网络(VDSR)模型,将残差模型用于图像超分辨率重建网络。LIM 等8提出面向单图像超分辨率的增强深度残差网络(EDSR),通过去除批处理归一化(Batch Normalization,BN)层提 高 网 络 性 能。ZHANG 等9提 出 稠 密 残 差 网 络(Residual Dense Network,RDN),该网络模型采用稠密残差连接的方法来提升网络性能,使重建效果得到提升。通过搭建生成对抗网络来完成图像超分辨率图像重建也是研究热点之一。斯捷等10以离焦图像为切入点,采用生成对抗网络进行图像超分辨率重建。姜玉宁等11则针对传统算法训练困难以及生成图像存在伪影的问题,采用生成对
16、抗网络来生成高质量图像。CHEN 等12提出一个全新的编解码框架,即 局 部 隐 式 图 像 函 数(Local Implicit Image Function,LIIF)框架,基于隐式神经表示对图像进行超分辨率重建,能够进行任意倍数放大。KONG等13将分类与超分组合到统一框架中,提出一种将图像复杂度分类与图像超分辨率相结合的图像处理方案,在不降低超分性能的情况下,该方案最高可以节省 50%的计算量。柳聪等14采用深度可分离卷积的方法提取图像特征,该方法可以减少网络参数量,使网络轻量化。虽然上述基于 CNN 的图像超分辨率重建算法已经取得了良好的效果,但是依然存在 3个问题:仅在一个固定的分
17、辨率尺度上对输入图像进行特征提取;通过残差连接增加网络深度以提高模型的性能,导致网络训练难度增大;网络泛化性能低,网络只能对训练过的尺度因子进行重建,无法采用其他未训练过的尺度因子进行重建。受 LIIF框架能够对图像进行任意尺度的超分辨率重建以及压缩与激励网络(Squeeze-and-Excitation Network,SENet)15中通道注意力机制的启发,本文提出一种基于多分辨率特征融合网络的图像超分辨率重建网络结构。通过并行多个分辨率的分支,在保持高分辨率特征图的网络上不断与其他分辨率分支进行信息交互,使网络具有强语义信息和精准的位置信息。使用压缩激励模块和注意力机制搭建一个双重注意力
18、模块,使网络可以学习使用全局信息来选择性地强调重要特征。利用 LIIF 基本框架,使算法具有对图像进行连续放大的能力。在公开数据集上对本文算法进行大量实验,通过对比实验证明所提算法的有效性和先进性。1相关工作 1.1基于隐式神经网络的编解码结构隐式神经表示(Implicit Neural Representations,INR)函数是一种对信号进行参数化的新方法。传统的信号表示通常是离散的,例如,音频信号是离散的幅度样本,图像是离散的像素网格,3D 形状通常被参数化为体素、点云或网格。相反,隐式神经表示将信号参数化为连续函数,它将信号的域,例如图像218第 49卷 第 9期范文卓,吴涛,许俊平
19、,等:基于多分辨率特征融合的任意尺度图像超分辨率重建的像素坐标映射到该坐标对应的特征,如图像的RGB 值16-17。这些函数通常在分析上并不易于处理,因为不可能将自然图像参数化为具体的数学函数。因此,本文考虑用连续函数表示这些信号,将其输入到网格坐标并返回相应的特征。以图像为例,定义一个函数:f:R2 R3f(xy)=(RGB)(1)该函数的作用是将二维映射到三维,即将输入图像的二维坐标(x,y)进行映射,得到 RGB 值。因此,隐式神经表示函数通过神经网络拟合或学习图像函数的表达,得到该函数的近似函数。值得注意的是,该表示函数与信号分辨率无关,是实现任意尺度超分辨率重建的关键。基于隐式神经网
20、络的编解码结构将图像表示为一个连续函数,以图像坐标和坐标周围的二维深度特征作为输入,预测给定坐标的 RGB 值并作为输出。由于坐标是连续的,该网络可以以任意尺度进行超分辨率重建。该网络结构并不是为每个对象单独设置一个解码函数,而是基于编码器的方法来预测不同对象的潜在编码,同时将潜在编码作为坐标的附加输入,然后所有对象共享一个解码函数。其中解码函数 f(为参数)被参数化为多层感知器,其形式如下:S=f(z*x)(2)其中:S为预测的信号,如图像的 RGB 值;z*为 LR 特征图中的特征向量,且 z*CHW;x为预测的 RGB 值在图像域中对应的坐标。1.2任意尺度超分辨率重建ESPCN、EDS
21、R、RDN 等方法是在网络末端对特征图进行上采样,这些方法必须针对每个尺度因子设计一个特定的上采样模块,并且储存相应的权重。超分辨率重建算法训练时采用的尺度通常是 2、3、4,但这 3 个尺度并不能完全满足实际需要,且并不能往外拓展到其他尺度。这些缺点限制了单张图像超分辨率方法在现实中的使用。而任意尺度的超分辨率重建算法在实用性和便捷性上都优于现在的单幅图像超分辨重建算法。MetaSR18是基于 CNN 的任意尺度超分辨率算法,不再需要为每一个尺度因子存储相应的特征权重。其中 Meta-Upscale模块使用最近邻规则将 SR像素映射到 LR域。在训练过程中,所有映射值都乘以基于比例和坐标的动
22、态学习权重。然后,通过带有一些额外卷积层的Meta-Upscale模块生成输出图像。LIIF为一种基于隐式神经表示的图像超分辨率重建算法,该算法首先采用一般的特征提取网络对图像进行特征提取,然后对特征图进行编码,解码器由多层感知器构成,使用坐标、单元大小和 LR 特征作为输入来计算 RGB 值。该算法最主要的作用是提供一种重建效果好,且能对图像进行连续放大的图像超分辨率网络框架。1.3注意力机制注意力机制的基本思想是让网络能够学会关注重点信息,忽略无关信息。注意力机制最先应用在递归神经网络,主要作用是对输入语句进行编码。在卷积神经网络中,注意力机制能获取特征图中的重要信息。SENet通过学习
23、Feature map 中每个通道的权重,并根据学习到的权重更新原始数据,使网络能 提 取 到 高 质 量 的 特 征 图。卷 积 块 注 意 力 模 块(Convolutional Block Attention Module,CBAM)19认为特征图不仅在通道域中含有丰富的注意力信息,在空间域上也含有大量的注意力信息,所以 CBAM通过串行空间和通道两个模块来获取更为准确的注意 力 信 息。双 重 注 意 力 网 络(Dual Attention Network,DANet)20与 CBAM 的基本思想一致,但是DANet通过并行空间和通道两个模块来获取注意力信息。卷积神经网络建立在卷积运
24、算的基础上,通过在局部感受野中将空间和通道信息融合来提取信息特征,而卷积运算没有考虑全局信息,只注重局部信息。为提高网络的表示能力,HU等15提出压缩和激励(Squeeze-and-Excitation,SE)模块,使用全局信息显式建模通道之间的相互依赖性,自适应地重新校准通道特征响应,增强网络的表示能力。SE 模块的结构如图 1所示,其主要由压缩和激励两部分构成。压 缩 主 要 是 通 过 全 局 平 均 池 化(Global Average Pooling,GAP)获得特征映射的每个通道的全局信息嵌入,使得到的特征向量具有全局性。激励是通过具有全局性的特征向量学习每个通道中特征向量的权重。
25、文献 15 已证明 SE 模块足够简单、灵活,能快速有效地学习到重要特征。2任意尺度图像超分辨率重建算法 本文提出基于多分辨率特征融合的任意尺度图像超分辨率重建(MFSR)算法,MFSR算法的整体框架如图2所示,主要包含两部分,即图像特征提取阶段(编码图 1SE模块Fig.1SE module2192023年 9月 15日Computer Engineering 计算机工程阶段)和图像重建阶段(解码阶段)。在编码阶段,将LR图像输入到由多分辨率特征融合模块构成的编码器并进行特征提取,得到与之相应的特征图Yo。在解码阶段,解码器由多层感知机构成,包含4层隐藏层,将特征向量z*、z*在图像域中对应
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 分辨率 特征 融合 任意 尺度 图像 重建
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。