一种基于立体注意力机制的立体图像超分辨算法_罗传未 (1).pdf
《一种基于立体注意力机制的立体图像超分辨算法_罗传未 (1).pdf》由会员分享,可在线阅读,更多相关《一种基于立体注意力机制的立体图像超分辨算法_罗传未 (1).pdf(6页珍藏版)》请在咨信网上搜索。
1、30电视技术 第 47 卷第 1 期(总第 566 期)PARTS&DESIGN器件与设计文献引用格式:罗传未,张子慧,贺子婷,等.一种基于立体注意力机制的立体图像超分辨算法 J.电视技术,2023,47(1):30-35.LUO C W,ZHANG Z H,HE Z T,et al.A stereo image super-resolution algorithm based on stereo attention mechanismJ.Video Engineering,2023,47(1):30-35.中图分类号:TP311.1 文献标识码:A DOI:10.16280/j.videoe
2、.2023.01.007一种基于立体注意力机制的立体图像超分辨算法罗传未,张子慧,贺子婷,周孟颖,马 健*(安徽大学 互联网学院,安徽 合肥 2300001)摘要:针对因图像采集系统或采集环境本身的限制导致的立体图像模糊、质量低下、感兴趣区域不显著等问题,在最新的基于立体注意力模块的立体图像超分辨算法的基础上,通过在单图超分辨(Single Image Super-Resolution,SISR)的深度网络中引入立体图像左右两个视点间的互补信息以及平滑损失(Smoothness Loss)函数,增强超分辨后立体图像的视觉效果。在该算法中,梯度更小、更加平滑的立体注意力图可以获得更好的立体图像超
3、分辨效果。为证明引入的函数有效,对改进前后的基于立体注意力机制的立体图像超分辨算法进行对比实验和分析,结果表明,引入平滑损失后,SRCNN 和 SRResNet 模型的峰值信噪比(Peak Signal to Noise Ratio,PSNR)值和结构相似性(Structural Similarity,SSIM)值有明显提高。关键词:图像超分辨;立体图像;立体注意力;平滑损失函数A Stereo Image Super-Resolution Algorithm Based on Stereo Attention MechanismLUO Chuanwei,ZHANG Zihui,HE Ziti
4、ng,ZHOU Mengying,MA Jian*(School of Internet,Anhui University,Hefei 2300001,China)Abstract:To address the problems of blurred stereo images,low quality and unremarkable regions of interest due to the limitations of the image acquisition system or the acquisition environment itself.In this paper,base
5、d on the latest stereo image super-resolution algorithm based on stereo attention module,the complementary information between the left and right viewpoints of stereo image and the smoothness loss function are introduced into the depth network of Single Image Super-Resolution(SISR)to enhance the ste
6、reo image after super-resolution.visual effect after super-resolution.In this algorithm,a smaller gradient and smoother stereo attention map can obtain a better stereo image super-resolution effect.In order to prove the effectiveness of the introduced function,this paper conducts comparison experime
7、nts and analysis on the stereo image super-resolution algorithm based on stereo attention mechanism before and after the improvement,and the results show that the Peak Signal to Noise Ratio(PSNR)and Structural Similarity(SSIM)values of SRCNN and SRResNet models are significantly improved after the i
8、ntroduction of smoothness loss.Keywords:image super-resolution;stereoscopic image;stereo attention;smoothness loss function0 引 言随着双目成像技术的发展,双目相机和双目摄像头在手机和自动驾驶上的应用越发流行,立体图像超分辨(Stereo Image Super-Resolution)领域逐渐被人们关注。立体图像应用发展的同时,立体图像超分辨任务也面临着涉及图像处理、计算机视觉、立体视觉等领域的基本问题。基于现有的图像超分辨率研究成果,领域内学者从不同角度对其进行了总结1
9、-3。JEON 等4提出一种基于视差先验的立体图像超分辨重建算法。该算法将右图水平移动不同像素,生成 64 张副本图像,将其与左图级联后送入网络重建。WANG等5提出基于视差注意力机制的立体图像超分 通信作者:马 健(1985),男,博士,讲师,研究方向为沉浸式的多媒体计算、深度学习。E-mail:jian_。电视技术 第 47 卷第 1 期(总第 566 期)31PARTS&DESIGN器件与设计辨算法,将 self-attention 引入到双目视觉中,并通过设计 valid mask 解决左右图遮挡问题。ZHANG等6提出用于立体图像超分辨率的循环交互网络(RISSRnet)来学习视图间
10、依赖关系。YING 等7提出一个通用的立体注意力模块(Stereo Attention Module,SAM),将其安插至预训练好的单图超分辨率(Single-Image-Super-Resolution,SISR)网络中(如SRCNN8)并在双目图像数据集 Flickr1024 上进行微调,结合左右图互补信息的同时保持对单图信息的充分利用,进一步提升了超分辨性能。ZHU 等9提出了一种基于交叉视点信息捕获的立体图像超分辨算法。DAI等10提出一种基于视差估计的反馈网络,可同时进行立体图像超分辨重建和视差估计。尽管现有的立体图像超分辨方法取得了一定的超分辨效果,但仍面临如下诸多挑战:(1)双目
11、图像中,视差的巨大变化使得左右图互补信息难以被充分捕捉;(2)在捕捉到左右图的关联后,如何充分利用双目图像提供的信息也具有挑战性;(3)双目图像超分辨在结合左右图的互补信息的同时,还要充分利用一幅图内的信息。基于以上问题,本文主要研究了基于立体注意力机制的立体图像超分辨方法。为获得更好的立体图像超分辨重建效果,本文对单图超分辨率模型提出进一步改进,在模型的损失函数中加入平滑损失项,使模型在立体图像对中获得更好的一致性。通过对改进前后的算法进行实验结果比较,验证了改进策略的有效性。改进策略明显提高了立体图像超分辨重建后的图像质量。1 基于立体注意力机制的立体图像超分辨算法1.1 网络模型结构基于
12、注意力机制的立体图像超分辨算法的总体框架如图 1 所示。首先,将立体图像对(包括左视角图像和右视角图像)送入两个 SISR 网络中,提取左右图的特征,并生成特征矩阵。其次,在两个SISR 网络之间插入立体注意力模块。该模块将两个 SISR 网络提取的左右视角信息进行交互,通过卷积的方式,将单个视角图像内部的信息与不同视角间的互补信息充分融合。最后,通过双路的 SISR网络耦合重建高分辨率的立体图像。图 1 基于立体注意力机制的立体图像超分辨算法网络总体框架1.2 立体注意力模块结构SISR 网络会对输入的左右视角图像进行特征提取。经过立体注意力模块时,立体注意力模块将SISR 网络产生的这些立
13、体特征作为输入,捕获立体对应关系,在立体图像超分辨过程的多个阶段交互图像对的左右视角信息。该算法中的立体注意力模块结构如图 2 所示。该算法网络可看作一个多任务网络,既可学习立体图像间的立体对应,也可学习图像的超分辨。在多个任务中,使用共享的图像特征来学习不同任务。输入的左右视角特征F inleft和F inright(F inleft,F inrightRHWC,H,W和C分别为特征图的高度、宽度和通道数)先输入过渡残差块Hresidual中,以避免多任务学习产生的训练冲突,然后分别经过处理对应视角的 11 卷积层H和H生成对应的特征映射Fm1和Fmr(Fm1,FmrRHWC)。为了生成立体
14、注意力图,先将Fmr转置为FTmr(FTmrRHCW),在FTmr与Fm1之间执行批量的矩阵乘法,生成初始的注意力得分图GRHWC。然后应用 softmax 分类,对G和GT进行归一化处理,将多分类的输出结果转化为0到1之间的概率分布,分别生成Aright left和Aleft right的立体注意力图。为了将特征信息从一个视角转移到另一个视角,并得到经过交互的对应视角特征,分别用生成32电视技术 第 47 卷第 1 期(总第 566 期)PARTS&DESIGN器件与设计的立体注意力图Aright left和Aleft right乘上输入模块初始视角特征F inleft和F inright,
15、构造视角信息经过交互后的特征Fleft right和Fright left(Fleft right,Fright left RHWC)。这一过程的具体表示如下:Fleft right=Aleft rightF inleft(1)Fright left=Aright leftF inright(2)式中:表示批处理的矩阵乘法。由于在遮挡区域中立体图像间相对应区域的左右一致性不成立,被遮挡区域无法从另一侧视角图像中获得额外信息。为处理遮挡问题,使用遮挡检测的方法来生成有效的掩膜(Mask),引导特征的融合。观察到遮挡区域中的像素通常有较小的权重,可用如下计算方法获取该注意力模块的上部分分支的有效掩
16、膜Mleft right:()()leftright1,leftright1,0,kWAi j kMi j=若其他(3)式中:W是立体图像的宽度,为阈值,根据实验经验设为 0.1。因为左视角图像中的被遮挡像素无法在右视角图像中搜索到它们的对应,所以它们的Mleft right(i,j)值通常较低,于是该网络将这些区域作为遮挡区域。左视角图像中的遮挡区域无法从右视角图像中获得附加的场景信息,因此有效的掩膜Mleft right(i,j)可以进一步用于引导图像特征的融合。同理,使用类似的方法生成该注意力模块的下部分分支的有效的掩膜Mright left。为了将交互的不同视角间的互补信息与单个视角下
17、图像内部的信息整合起来,该模块将输入的左视角特征F inleft和经视角间对应交互得到的右视角特征Fright left以及有效掩膜Mleft right三者相级联,通过一个卷积层整合,得到特征F outleftRHWC,即为该模块输出到网络中的左视角特征。输出的右视角特征F outright也用相似的方法生成。这一过程可表示如下:F outleft=H(cas(Mleft right,Fright left,F inleft)(4)F outright=H(cas(Mright left,Fleft right,F inright)(5)式中:cas(,)表示级联操作,H和H分别表示对应的视
18、角处理线路上的卷积操作,该操作将交互后的视角特征信息与原输入特征信息以及有效掩膜整合到一起。1.3 损失函数设置该算法主要使用了两项损失来训练网络,分别是超分辨损失和光度一致性损失。网络的总损失函数定义为 SRphotometric1niiLLL=+(6)式中:为正则化权值,根据经验设置为 0.01;n为网络中注意力模块的个数。LSR表示超分辨损失,定义为超分辨重建后的左视角图像I SRleft与左视角图像高分辨率主观值I HRleft之间的均方误差(Mean Square Error,MSE):2SRSRHRleftleft2LII=(7)Lphotometric表示光度一致性损失,*表示同
19、阶矩阵乘法,Ileft和Iright分别表示输入的左视角图像和右视角图像。该损失定义为()()photometricleftrightleftrightleftright1rightleftrightleftright1*LMIAIMIAI=+(8)1.4 算法改进策略本小节在加入立体注意力机制的 SISR 方法基础上,对本文的算法网络做出一个改进,以实现更图 2 立体注意力模块的内部结构 电视技术 第 47 卷第 1 期(总第 566 期)33PARTS&DESIGN器件与设计好的立体图像超分辨性能。在本算法中,如果立体注意力图更加平滑,梯度更小,则可以获得更好的立体图像超分辨效果。在当前损
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 一种基于立体注意力机制的立体图像超分辨算法_罗传未 1 一种 基于 立体 注意力 机制 图像 分辨 算法 罗传未
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。