基于DeeplabV3 改进的煤岩显微组分组自动化测试模型.pdf
《基于DeeplabV3 改进的煤岩显微组分组自动化测试模型.pdf》由会员分享,可在线阅读,更多相关《基于DeeplabV3 改进的煤岩显微组分组自动化测试模型.pdf(10页珍藏版)》请在咨信网上搜索。
1、基于 DeeplabV3+改进的煤岩显微组分组自动化测试模型胡晋玮1,奚峥皓1,徐国忠2,李忠峰3,刘翔1(1.上海工程技术大学 电子电气工程学院,上海 201620;2.辽宁科技大学 化工学院,辽宁 鞍山 114051;3.营口理工学院 电气工程学院,辽宁 营口 115000)摘要:煤岩显微组分组的识别对分析煤炭化学性质起到关键作用。人工识别方法费时费力,且专业性要求较高。现有的计算机辅助识别有效方法多以深度学习语义分割模型为手段,但因煤岩显微图像组成复杂,且存在过渡组分,因此无法准确识别煤岩显微组分组。针对此问题,提出改进的 Dee-plabV3+语义分割模型,在改进模型中引入 Swin
2、Transformer 骨干网络和 SkNet 网络。首先,针对煤岩显微图像各个组分组交错杂糅且存在过渡组分,特征提取困难,利用 Swin Transformer 骨干网络作为基础特征提取网络,提升模型对煤岩显微图像每种组分组的特征提取能力,并使得分割网络获得特征间信息交互的能力;其次,针对在模型中空洞空间卷积池化金字塔模块对特征利用率低的问题,将 SkNet 网络融入空洞空间卷积池化金字塔模块,强化空洞空间卷积池化金字塔模块对重要特征的提取能力,并抑制非必要特征对最终预测结果的干扰;最后,将改进的 DeeplabV3+模型与现有先进算法通过实验进行性能比较,结果表明:改进的 DeeplabV
3、3+语义分割模型在煤岩显微图像测试集上的像素准确率为 92.06%,与随机森林方法、U-Net 语义分割模型和 DeeplabV3+语义分割模型相比像素准确率分别提高了 9.48%、6.90%和 3.40%;改进的 DeeplabV3+语义分割模型与人工点测方法测试结果相近。改进的 DeeplabV3+语义分割模型较现有煤岩显微组分组自动识别模型性能更优,可作为一种强大的计算机辅助人工识别煤岩显微组分组的手段。关键词:煤岩显微图像;显微组分组;自动化测试;语义分割模型;Swin Transformer;SkNet中图分类号:TP391.4;TQ533.6 文献标志码:A 文章编号:1001-1
4、986(2023)10-0027-10AnimprovedautomatedtestingmodelformaceralgroupsincoalsbasedonDeeplabV3+HU Jinwei1,XI Zhenghao1,XU Guozhong2,LI Zhongfeng3,LIU Xiang1(1.School of Electronic and Electrical Engineering,Shanghai University of Engineering Science,Shanghai 201620,China;2.School of Chemical Engineering,
5、University of Science and Technology Liaoning,Anshan 114051,China;3.College of Electrical Engineering,Yingkou Institute of Technology,Yingkou 115000,China)Abstract:The identification of maceral groups in coals plays a critical role in analyzing the chemical properties of coals.However,manual identif
6、ication is laborious and requires high expertise.Existing computer-assisted identification meth-ods,mostly adopting deep learning-based semantic segmentation models,fail to accurately identify maceral groups incoals due to complex compositions of microscopic coal images and the presence of transitio
7、nal components.Therefore,this study proposed an improved DeeplabV3+semantic segmentation model integrating the Swin Transformer backbonenetwork and the SkNet.First,to deal with the challenge of feature extraction caused by the intertwined maceral groupsand the presence of transitional components in
8、microscopic coal images,the Swin Transformer backbone network wasused as the basic feature extraction network to enhance the feature extraction ability of the model for various maceral 收稿日期:2023-01-18;修回日期:2023-05-09基金项目:国家自然科学基金项目(12104289)第一作者:胡晋玮,1995 年生,男,江苏盐城人,硕士,研究方向为计算机视觉技术.E-mail:jinweihu_通信
9、作者:奚峥皓,1981 年生,男,上海人,博士,副教授,研究方向为计算机视觉、智能认知学习与控制.E-mail: 第 51 卷 第 10 期煤田地质与勘探Vol.51 No.102023 年 10 月COAL GEOLOGY&EXPLORATIONOct.2023胡晋玮,奚峥皓,徐国忠,等.基于 DeeplabV3+改进的煤岩显微组分组自动化测试模型J.煤田地质与勘探,2023,51(10):2736.doi:10.12363/issn.1001-1986.23.01.0013HU Jinwei,XI Zhenghao,XU Guozhong,et al.An improved automat
10、ed testing model for maceral groups in coals based onDeeplabV3+J.Coal Geology&Exploration,2023,51(10):2736.doi:10.12363/issn.1001-1986.23.01.0013groups and to enable the information interaction between features of the segmentation network.Second,to improve thefeature utilization rate of the Atrous S
11、patial Pyramid Pooling(ASPP)module in the model,the SkNet network was integ-rated into the ASPP to enable the ASPP to extract important features and suppress unnecessary features that interferewith the final prediction results.Finally,the improved DeeplabV3+model was compared with existing advanced
12、al-gorithms through experiments.As indicated by the comparison results,the improved model yielded pixel accuracy of92.06%on the test set of microscopic coal images,which was 9.48%,6.90%,and 3.40%higher than that of the randomforest method,the U-Net semantic segmentation model,and the DeeplabV3+seman
13、tic segmentation model,respect-ively.Furthermore,the improved model showed results similar to the manual point measurement method.Therefore,theimproved model,outperforming the existing automatic identification models for coal maceral groups,can serve as apowerful method for the computer-assisted man
14、ual identification of maceral groups in coals.Keywords:microscopic coal image;maceral group;automated testing;semantic segmentation model;Swin Trans-former;SkNet 煤炭作为主要化石燃料之一,在满足日益增长的能源需求方面发挥着不可或缺的作用,在可预见的未来仍将是全球能源体系的支柱1。煤岩显微组分组的差异表明其物理化学组成的差异,这些差异影响煤的性质(如功能和反应性)2。因此,煤的显微组分及其含量对煤的化学工艺性质有着重要影响3,在显微镜下
15、,煤岩显微组分组可以通过颜色、反射率、突起和形态来区分。近年来,煤岩学快速发展,并形成了一系列煤岩学国家标准,而基于图像处理的煤岩组分自动化识别技术是今后煤岩学研究的重点目标4。长期以来,很多方法可以识别煤岩显微组分组。传统的人工分析取决于操作人员的经验,且耗时耗力。近年来,机器学习在煤岩显微组分分析领域取得了显著进展5。P.K.Singh 等6通过主成分分析选择了10 个纹理特征,基于多层感知器识别惰质组。宋孝忠等运用 K 均值聚类的方法识别煤岩图像7,此外,并通过剔除假边界的方法8提高了煤岩显微图像识别的准确率。Wang Hongdong 等9使用聚类方法自动将整个显微照片分割成离散的区域
16、,使每个区域只包含一类显微组分组,再使用随机森林方法识别,其像素准确率为 90.44%。但上述机器学习的方法存在两个显著弊端。第一,现有分类器依赖手工特征,这些特征是专家为一般图形分类设计的,而非为识别煤岩显微图像设计的。第二,由于煤岩显微图像复杂,且显微组分组内存在过渡组分,类内差异较大。因此,现有机器学习方法在识别复杂的煤岩显微图像时性能较差。基于深度学习的语义分割方法对煤岩显微组分组进行识别则避免了上述问题10。DeeplabV3+11是一种常见的语义分割模型,用于各种语义分割任务均取得了较好的结果12,但是其特征提取网络(Deep Con-volution Neural Network
17、,DCNN)模块全局特征提取能力较弱,并且其空洞空间卷积池化金字塔模块(AtrousSpatial Pyramid Pooling,ASPP)处理各尺度特征的能力很弱。较 DCNN,Swin Transformer13的全局信息交互能力有助于特征提取器快速建立全局感受野14-15,提高场景理解准确性16,更全面地提取上下文位置信息,避免全卷积神经网络下采样时丢失过多语义细节特征。较基于窗口注意力机制的 Vision Transformer17,Swin Transformer 的自注意力感受视野不局限于固定范围,且计算量较低。而 SkNet 处理多重特征信息能力较强18,可以在多重特征上筛除冗
18、余特征并加强重要特征。因此,笔者提出一种使用 Swin Transformer网络和 SkNet 对 DeeplabV3+改进的语义分割模型。1网络模型结构利用图像处理技术进行煤岩显微组分组分割时,因显微组分组特征的较高复杂性和煤岩煤粒尺度的较大差异性,使得一般分割模型的分割准确率并不理想6。并且煤岩显微组分组的分割过程亦可视为对不同组分组特征表征的语义进行分割过程。由此,本文提出了一种改进 DeeplabV3+的语义分割模型,以改善通过计算机对煤岩显微组分组分割时准确率不高的问题。该模型将 SwinTransformer13骨干特征提取网络替换 DeeplabV3+11网络的主干特征提取网络
19、,使模型具有移动窗口自注意力性,以提升煤岩显微组分组特征的信息交互能力。并且在 Dee-plabV3+的空洞空间卷积池化金字塔模块(Atrous Spa-tial Pyramid Pooling,ASPP)中加入选择核单元网络(Selective Kernel Networks,SkNet)18,使所提模型可用 3 个不同扩张率的空洞卷积提取出最重要的特征,且抑制不重要的特征信息。改进的 DeeplabV3+网络结构如图 1 所示。1.1基于 DeeplabV3+的煤岩显微组分组语义分割模型DeeplabV3+语义分割模型主要由编码器和解码器两部分构成,编码器包括深度卷积神经网络(DeepCo
20、nvolution Neural Network,DCNN)模块和 ASPP 模 28 煤田地质与勘探第 51 卷块。ASPP 模块的加入,使单依赖 DCNN 工作的编码器在深层特征图中具有更大感受野11。ASPP 模块主要使用不同膨胀率的空洞卷积,从而获得不同大小的感受野;其大尺度感受野有助于全局特征的获取,而小尺度感受野则可以防止小目标信息的丢失;使得所提取的深层特征图包含的特征信息更加全面,从而更有利于提取具有尺度差异的煤岩显微组分组的特征。在 ASPP 模块,可由 Pooling、11 卷积核和 3 个扩张率(rate=6、12、18)空洞卷积分别提取 5 个特征图像。将其并联,再经
21、11 卷积核压缩特征通道数后,输入至解码器。在解码器中,完成对输入特征图的 2 次上采样,获得与原输入图像一致的语义分割图像。但是在 DeeplabV3+模型中的 DCNN 仅通过全卷积操作无法同时提取局部和全局的特征信息,更无法直接处理跨尺度信息;在 ASPP 模块中提取的图像特征存在大量冗余,含有大量冗余的特征图通过一个卷积层后直接进入解码器,这会导致大量有效特征的丢失。1.2基于 SwinTransformer 网络改进的 Deeplab-V3+编码器由于煤岩显微图像中各组分组交织杂糅,图像结构复杂,特征提取困难,而 Swin Transformer 具有提取复杂细节特征的能力13。因此
22、,本文采用 Swin Trans-former 替代 DCNN 作为骨干特征提取网络,利用 SwinTransformer 网络改进的 DeeplabV3+结构如图 2 所示。SwinTransformer 骨干网络共有4 种系列结构Swin-Tiny,Swin-Small,Swin-Base 和 Swin-Large,经实验验证,当煤岩数据量较少时,使用过大的网络会导致过拟合,因此,本文使用 Swin-Tiny,其网络结构如图 3 所示。记高 H 和宽 W 的输入图像为 I(HW3)。本文Swin Transformer 网络操作流程如下。(1)将 I(HW3)经 RGB 三通道输入 Pat
23、ch Parti-tion 模块,可得 48 个大小为 H/4W/4 的图像块。在通道维度上重新拼接 48 个图像块,即拼接后的图像为I1(H/4W/448)。(2)将 I1(H/4W/448)在 Stage1 中沿通道维度展开,经线性嵌入层(Linear Embedding)得到 C 个大小为 H/4W/4 的特征图。在 Swin-Tiny 结构中 C=96。再将特征图放入移动窗口注意力模块(Swin Trans-former Block)。(3)Stage 2 到 Stage 4 中,为提取不同尺度特征,用块合并层(Patch Merging)替换 Linear Embedding 层。1
24、1ConvImage PoolingConcate11ConvUpsample By 4Swin Tranformer Stage1Swin Tranformer Stage2Swin Tranformer Stage3Swin Tranformer Stage4Patch Partition11ConvConcate11ConvUpsampleBy 4Swin TransformerBackboneencoderASPPSkNet Atrous33ConvRate=18SkNetdecoderSkNet Atrous33ConvRate=12SkNet Atrous33ConvRate=61
25、1ConvImage PoolingConcate11ConvUpsample By 4Swin Tranformer Stage1Swin Tranformer Stage2Swin Tranformer Stage3Swin Tranformer Stage4Patch Partition11ConvConcate11ConvUpsampleBy 4Swin TransformerBackboneencoderASPPSkNet Atrous33ConvRate=18SkNetdecoderSkNet Atrous33ConvRate=12SkNet Atrous33ConvRate=61
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于DeeplabV3 改进的煤岩显微组分组自动化测试模型 基于 DeeplabV3 改进 显微 组分 自动化 测试 模型
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。