融合改进Transformer和卷积通道注意力模块的U-Net用于双心室分割.pdf
《融合改进Transformer和卷积通道注意力模块的U-Net用于双心室分割.pdf》由会员分享,可在线阅读,更多相关《融合改进Transformer和卷积通道注意力模块的U-Net用于双心室分割.pdf(11页珍藏版)》请在咨信网上搜索。
1、第41卷第1期-32-2024年1月D01:10.3969/j.issn.1005-202X.2024.01.005融合改进Transformer和卷积通道注意力模块的U-Net用于双心室分割中国医学物理学杂志Chinese Journal of Medical PhysicsVol.41 No.1January 2024医学影像物理陈沐萱,袁金丽,郭志涛,卢成钢河北工业大学电子信息工程学院,天津30 0 40 1【摘要】设计一种融合改进Transformer和卷积通道注意力模块的U-Net用于MRI图像双心室分割。通过在U-Net的高层卷积部分基础融合改进Transformer,有效增强全局
2、特征信息的提取能力以应对右心室复杂的形态变化造成低分割性能的难题。改进的Transformer在自注意力模块部分中加入固定窗口注意力进行位置定位,随后对其输出特征图进行聚合以缩小特征图尺寸;同时通过改进多层感知器来加深网络深度以提高网络学习能力。为解决组织边缘模糊造成的分割性能不理想问题,引入特征聚合模块进行多层次底层特征的融合,利用卷积通道注意力模块对底层特征进行重标定,实现自适应地学习特征权重。此外,针对编解码结构中通道衰减造成特征丢失导致的低分割性能,网络集成一个即插即用的特征增强模块,保证空间信息同时增加有用通道信息的比重。在ACDC数据集对本文算法进行测试,结果表明本文方法对左右心室
3、的分割精度均优于近年其他算法,尤其是右心室分割结果,相比于其他方法,DSC系数提高至少2.8 3%,证明本文方法对双心室分割的有效性。【关键词】双心室分割;图像处理;Transformer;注意力机制;特征提取【中图分类号】R318;TP391Biventricular segmentation using U-Net incorporating improved Transformer and convolutionalchannel attention moduleCHEN Muxuan,YUAN Jinli,GUO Zhitao,LU ChenggangSchool of Electro
4、nic Information Engineering,Hebei University of Technology,Tianjin 300401,ChinaAbstract:A U-Net incorporating improved Transformer and convolutional channel attention module is designed forbiventricular segmentation in MRI image.By replacing the high-level convolution of U-Net with the improved Tran
5、sformer,the global feature information can be effectively extracted to cope with the challenge of poor segmentation performance dueto the complex morphological variation of the right ventricle.The improved Transformer incorporates a fixed windowattention for position localization in the self-attenti
6、on module,and aggregates the output feature map for reducing the featuremap size;and the network learning capability is improved by increasing network depth through the adjustment of multilayerperceptron.To solve the problem of unsatisfactory segmentation performance caused by blurred tissue edges,a
7、 featureaggregation module is used for the fusion of multi-level underlying features,and a convolutional channel attention module isadopted to rescale the underlying features to achieve adaptive learning of feature weights.In addition,a plug-and-play featureenhancement module is integrated to improv
8、e the segmentation performance which is affected by feature loss due to channeldecay in the codec structure,which guarantees the spatial information while increasing the proportion of useful channelinformation.The test on the ACDC dataset shows that the proposed method has higher biventricular segme
9、ntation accuracy,especially for the right ventricle segmentation.Compared with other methods,the proposed method improves the DSCcoefficient by at least 2.83%,proving its effectiveness in biventricular segmentation.Keywords:biventricular segmentation;image processing;Transformer attention mechanism;
10、feature extraction【文献标志码】A【文章编号】10 0 5-2 0 2 X(2 0 2 4)0 1-0 0 32-11前言【收稿日期】2 0 2 3-0 8-0 6【基金项目】河北省教育厅重点项目(ZD2022115)【作者简介】陈沐萱,硕士研究生,研究方向:计算机视觉、机器学习、医疗图像处理,E-mail:【通信作者】袁金丽,博士,副教授,研究方向:智能信息处理、计算机视觉、机器学习,E-mail:jinli_根据世界卫生组织数据显示,心脏病是人类的主要致死疾病之一。准确有效的早期诊断对心脏病的治疗以及降低死亡率有重要的意义。在早期诊断中,依据心脏磁共振图像(Magneti
11、c ResonanceImaging,MRI)的心室功能评估技术起着至关重要的第1期作用 2 。为获取心室容积、射血系数、心肌质量等临床心脏指标以进行心室功能评估,准确的左右心室分割是十分必要的 3。然而,由于心室形状不规则、边界模糊不清且尺寸变化大,双心室分割仍是一项复杂且具有挑战性的任务 45。近年来,基于编解码器结构的网络已广泛应用于心脏分割领域。Ronneberger等 6 通过跳跃连接将编码器的特征图与解码器中具有相同分辨率的特征图连接起来,提出U-Net,为医学图像分割领域提供一种有前途的架构。随后,Baumgartner等 7 使用各种超参数测试2 DU-Net和3DU-Net以
12、及训练Dice损失与交叉熵损失的影响,结果表明在ACDC心脏MRI数据集上,2 DU-Net在交叉损失训练下表现更好。自此,基于U-Net的改进在心脏分割领域中受到了许多研究者的青崃。改进方法包括重新设计跳跃连接 8-9 、将残差结构引人U-Net10、增加注意力模块 1-12 以及重新设计U-Net型网络 13-14。改进的方法在一定程度上改善心脏分割性能,却忽略卷积运算固有局限性对性能的影响。堆叠卷积、残差密集结构先后被用于扩大感受野以打破卷积固有局限,但造成较大的计算成本,进而导致计算效率低下和网络优化困难 15-16 。有研究使用扩张卷积来扩大感受野,然而,单一的扩张率可能只对一些大目
13、标有效果,锯齿状结构的扩张率仍会导致计算成本增加 10,17 ;另外,扩张卷积仍无法从全局角度捕捉上下文信息。这些方法能在一定范围内扩大感受野以提取全局信息,改善分割性能,但仍无法完全跳出卷积的固有局限。Transformer结构能建模全局上下文信息,并且不受局部运算约束,在自然语言处理任务上有着出色的表现。Dosovitskiy等 18 提出ViT(Vi s i o nTransformer),成功地将Transformer引人计算机视觉领域,在下游任务中表现出优于卷积神经网络(Convolutional Neural Network,CNN)方法的性能。随后,Zheng等 19 根据基础V
14、iT结构,实现将语义分割任务转化为序列形式的预测任务;但由于输出特征图的分辨率普遍较低且单一,模型丢失了大量局部信息。在心脏分割任务中,局部特征和全局特征同样重要,局部信息中物体的几何信息更充裕,而全局信息中物体的空间位置信息丰富。最近的研究倾向于结合CNN和Transformer,以充分发挥它们的优势,提高心脏分割性能。有研究在保持U-Net结构大致不变的情况下引人Transformer,造成较大的计算成本,进而影响图像处理速度 2 0-2 3。Swin-UNet使用基于窗口的自注意力机制完全替换U-Net中的卷积模块,降低原本自注意力模块机制的复杂度,以改善陈沐萱,等,融合改进Transf
15、ormer和卷积通道注意力模块的U-Net用于双心室分割Enhancement Module,FEM)。1心脏分割算法本研究构建一个融合改进Transformer和注意力模块的U-Net结构用于MRI双心室分割。整体网络结构如图1所示,主要包含i-Trans模块、FAM、C C A模块以及FEM。该网络基于编解码结构,在解码时使用跳跃连接来增强底层特征。i-Trans模块仅用于较小分辨率的高层特征图,以降低计算成本,而底层仍然使用卷积运算。卷积部分使用FAM关注局部信息,其中包含更多高分辨率细节,同时向模型引人一些结构先验,这有助于处理较小尺寸的医学图像数据集。跳跃连接加人CCA模块,以增强底
16、层特征信息中的边缘信息,提高底层特征的利用率。FEM用于级联上采样,以缓解解码器恢复特征时由于信道减半造成的信息丢失对分割性能的影响。对于给定的输人特征图FeRIxWC,网络的编码器部分每次通过卷积或i-Trans模块后,空间分辨率减半,信道数量加倍,最后得到skipleRIWc、skip2 RH2W/22C、s k i p 3 e R 4W 44C。编码器底层特征图被馈送到CCA模块,用于特征融合及增强,随后将其传输到相同分辨率的解码器以指导分割。解码器部分由i-Trans模块和级联的FEM组成。-33-心脏分割性能 2 4。Swin-UNet依赖于完备的预训练权重,导致实时应用受限,另外,
17、滑动窗口存在重叠会造成特征信息穴余。基于上述问题,本研究构建一种融合改进Transformer和注意力模块的U-Net用于双心室分割。针对心室尺寸变化大的问题,提出采用改进的Transformer模块(i-Trans模块)取代原有U-Net中的高层次卷积模块,以平衡提取全局及局部信息,应对心室的变化大的问题。i-Trans模块首先令特征图进行固定窗口注意力计算以增加其位置定位能力,其输出特征图根据窗口大小聚合以减小特征图尺寸,随后进行自注意力计算,提取全局特征;另外,为增加网络深度,调整Transformer中多层感知器(MultilayerPerceptron,MLP)深度。其次,采用特征聚
18、合模块(Feature Aggregation Module,FAM)提取边缘特征信息,增强不同底层特征信息之间的信息交互。卷积通道注意(Convolutional Channel Attention,CCA)模块增强了底层特征信息中的有用信息,为网络提供信息过滤能力,提高了底层特征的利用率。FAM与CCA模块的结合可以有效地解决由边缘模糊造成分割结果不理想的问题。另外,为解决编解码器结构在特征恢复过程中由于信道减半造成的信息丢失问题,在网络中加入特征增强模块(Feature-34中国医学物理学杂志SkiplCCASkip2CCASkip3CCA64128224112第41卷128642562
19、56;5628512256AttenUPi-TransBlockx2512全i-Trans Blockx2AttenUPi-TransBlockx214141024i-Trans Blockx2+i-Trans BlockFEM28512FEM56FEM112FEM22454LNConvMaxPool2241121+Skipl+Skip2模块右上角为通道数,右下角为特征图尺寸i-attention1282580ConvConvMaxPoolMaxPool5628+Skip3(a)FAM图1网络结构模型Figure 1 Network structure modelLN+:Element-wis
20、e additionC:Element-wise concatenationMLP(b)i-Trans Blockx21.1U-Net结构全局信息中物体的空间位置信息丰富,而局部信息中物体的几何信息更充裕,因此将局部信息与全局信息进行融合能提高分割准确性。本研究结合i-Trans模块与U-Net,设计一种新的骨干网络,能有效提取全局信息及局部信息以应对心室尺寸变化大造成的分割性能不理想。鉴于之前诸多方法已经证明卷积结构提取底层特征信息的能力,因此本研究采用i-Trans模块替换U-Net的高层卷积部分,实现底层卷积模块提取底层纹理特征信息以及i-Trans模块提取高级语义信息传统Transfo
21、rmer模块包含两个主要部分,即自注意力模块和MLP。自注意力模块用来提取全局信息,首先对输入图像进行线性映射后得到query(q)、key(k)、v a lu e(v),其次根据q和k计算权重系数,最后根据权重系数对v进行加权求和。自注意力模块计算如下:Attention(q,k,v)=softmax(其中,kT表示k的转置,d,表示k的维度。当特征图尺寸较大时,传统的自注意力模块计算成本大。另外,单独的自注意力模块对特征图整体提取特征信息缺乏位置定位;而基于滑动窗口的自注意力模块存在窗口重叠,造成特征信息穴余。本研究基于传统Transformer模块设计i-Trans模块,其中i-Atte
22、ntion模块是i-Trans模块的核心(图2)。i-Attention模块融合固定窗自注意力模块以提供位置定位同时避免滑动窗口造成的特征穴余,按照固定窗口尺寸(win_size=4)对特征图进行聚合以减小特征图尺寸,随后进行全局自注意力计算。窗自注意力模块能为模型增加位置定位能力,有助于提取丰富有用信息。此外,i-Attention模块利用窗口融合方式,在一定程度上减小自注意力模块的计算复杂度,进而缩短推理时间。传统的多头自注意力模块复杂度 2 5 和i-Attention模块的复杂度见式(2)、(3):Q(MSA)=4hwC2+2(hw)C(2)hwhwakQ(i-Attention)=4
23、C(hw+-(1)其中,h、w 为特征图尺寸,C表示通道数,M表示窗口大小。自注意力模块的计算通常是巨大的,会导致)+2C(M?hw+M2(3)M4Input Feature imageSoftmaMean-Linear-SSofimaxSoftmax,MLPK+Out图2 i-Attention模块Figure2i-Attention module第1期模型推理速度缓慢,而i-Attention模块能在一定程度上降低计算复杂度,缓解计算压力。例如,针对尺寸为1414以及通道数为512 的特征图而言,i-Attention模块的复杂度比传统的自注意力模块复杂度下降10%。本研究的MLP与传统T
24、ransformer不同,使用了4层全连接层,实现非线性和深度叠加,使得模型能保持传统深度网络的优势。由于上述优势,与传统自注意力模块相比,i-Attention模块使模型在功能和计算性能方面更加友好,更有利于实际应用。整个网络结构为编解码对称结构,编码过程中使用卷积模块实现下采样,并使用注意力上采样模块(AttenUp模块)实现在解码过程中其对应的上采样。AttenUp模块能有效增加特征交互能力(图3)。将跳跃连接得到的Skip线性映射得到Query,将上一级i-Trans模块结果经过线性映射得到Key、Va l u e,并且进一步使用自注意力计算过程,以此实现上采样。Query(12,14
25、,14,512)Linear(12,7,7,1024)FEMLinearValue(12,77,512)图3AttenUp模块Figure3AttenUpmodule1.2底层特征处理针对心脏MRI图像边缘模糊导致的分割性能不理想问题,本研究使用FAM和CCA模块对包含大量边缘信息的编码器底层特征图进行有效利用。FAM能提取边缘特征信息,同时实现不同底层特征信息之间的信息交互;CCA模块增强底层特征信息中的纹理信息,为跳跃连接提供信息过滤能力,以更好地指导编码器恢复分辨率。1.2.1FAM在卷积神经网络中,底层卷积提取的物体的几何信息中包含大量的轮廓边缘信息,对分割任务来说至关重要,充分利用底
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 融合 改进 Transformer 卷积 通道 注意力 模块 Net 用于 心室 分割
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。