密集结构改进双通道神经网络的遥感图像配准.pdf
《密集结构改进双通道神经网络的遥感图像配准.pdf》由会员分享,可在线阅读,更多相关《密集结构改进双通道神经网络的遥感图像配准.pdf(10页珍藏版)》请在咨信网上搜索。
1、针对部分传统算法对于遥感图像配准精度较低的问题,提出一种密集结构改进双通道卷积神经网络的遥感图像配准方法。对输入的图像采用密集结构改进的双通道卷积神经网络模型进行特征提取;用粒子群算法改进的随机一致性点漂移算法进行特征匹配得到仿射变换系数;使待配准图像能够根据该系数实现变换,达到配准目的。实验表明,改进算法比传统算法的配准精度平均提高了 以上,对具有显著地貌差异的遥感图像对的配准精度可以有效地提高。关键词遥感图像图像配准密集结构双通道卷积神经网络一致性点漂移中图分类号 文献标志码 :(,),引言遥感图像是指由航空器或卫星上成像系统获得的具有地面目标特征的图像,遥感图像配准是寻找在不同的时间或不
2、同的传感器捕获的图像对间最佳对齐的过程,目前遥感图像配准技术已被广泛应用于地面目标识别、城市和地理变化评价等军事和民用领域。目前图像配准两类主流的趋势方法是基于区域或特征的算法。基于区域的配准算法,如 等 提出了交叉相关的概念,此类方法是以模板的形式来比较灰度区域间的相似性程度,从而判断配准位置。基于特征的算法一般采用表示高级信息的特征描述符来实现配准,因此预期在图像外观发生变化的配准中更可取。所以在此对现有的一些基于特征的方法进行了介绍和讨论。由 等 提出的 算法运用到图像配准中所得到的配准结果具有较好的鲁棒性,并且该算法对于图像的旋转、缩放、尺度变换都具有良好的不变性 ,因此现有的基于特征
3、的图像配准方法大部分都采用 或其改进算法来检测特征点。然而 计算机应用与软件 年若待配准的图像对之间在外观上存在显著地貌上的差异,采用传统算法检测出的特征点可能存在较多的外点或检测到的特征点数量不足,这些问题则限制了传统算法在具有显著地貌差异的遥感图像配准中的应用。近年来,在计算机视觉等领域对深度学习的运用越来越广泛起来。针对传统算法检测特征点不足问题,由 等 在 年提出了一种新的网络架构即双通道卷积神经网络,其中的一个通道设计为卷积式自动编码器(),另外一个为 的通道将保持不变,最后将来自两个不同通道所得到的图像信息融合汇聚在同一个全连接层中,该算法实现了图像多尺度特征的融合。等 提出的双通
4、道卷积神经网络(),用于 图像变化检测,这个网络模型包含两个并行的 结构,可以从两个不同时间段的 图像中提取特征,丰富了网络的提取特征。等 提出了由 (单通道卷积神经网络)和 (单通道二值神经网络)组成的双通道卷积神经网络,该算法实现了不同通道的卷积神经网络对于图像提取的局部与全局特征的融合,对于之后的图像处理如(目标检测或图像配准)都会有较好的结果。等 基于以往的双通道卷积神经网络架构的基础上,参考稠密网络结构对双通道卷积神经网络各个卷积层的连接方式做出了改变,由之前的顺序连接修改为跨连接,增加了特征的重利用率,减少了局部的特征缺失。针对外点问题,提出了一种鲁棒点集匹配算法是由 等 提出的一
5、致性点漂移算法(,),该算法对于由于出格点或缺失点等问题所得出的非刚体的配准结果具有较强的鲁棒性。针对传统算法检测的特征点不足或具有较多无效的特征点的问题,本文提出对输入的图像采用密集结构改进的双通道卷积神经网络进行特征提取,生成各自的特征点。然后利用粒子群算法对 算法进行改进,对生成的特征点集进行匹配,从而实现图像配准。通过实验数据对比表明,本文算法的配准精度比传统算法的更高。本文配准系统框架 网络模型为了实现图像配准,本文提出了基于双通道卷积神经网络的模型架构,具体的功能结构图如图 所示:()将大小为 参考图像与待配准图像输入到由 和 共同组成的特征提取网络。()经过特征提取网络的两个卷积
6、块后,进入 和 的第 个卷积块的卷积层,输出维度为 ,卷积核大小为 ,步长为 ,填充的方式采用“”,类似操作再重复 次,进入 和 的第 个卷积块的池化层,输出维度同样为 ,步长为 ,采用最大池化,填充方式同样采用“”。()以此类推,分别进入 和 的第和第 个卷积块的卷积层和池化层,除了输出维度均修改成 ,卷积层和池化层中各个参数的设置均与步骤 中的相同。()将参考图像和待配准图像在不同通道中的后个卷积块得到的相应的特征图大小 、进行特征融合,并生成相应的特征点集。()通过使用随机优化算法改进的 ,来增加确定参数的可靠的特征点的数量,从而提高特征匹配的精度。最后待配准图像根据特征匹配得到的仿射变
7、换参数完成配准。图 系统功能框架模型图第 期王东振,等:密集结构改进双通道神经网络的遥感图像配准 密集结构改进双通道网络 双通道卷积神经网络对于传统采用单通道的卷积神经网络来说,随着网络层数深度的增加,会造成提取的图像局部特征的缺失,从而影响最终的配准结果。本文提出用 和 构成双通道卷积神经网络完成对图像特征的提取,通过对 包含的第三、四、五卷积块提取的图像特征和 相对应的卷积块提取的特征进行特征融合,实现了网络提取特征多尺度的融合,丰富了网络提取的特征,最终图像配准的效果也越好。是其中的一个通道,它所包含的网络结构和部分参数如下所示:网络总共包含五个卷积块 (,),每个卷积块中包含若干个卷积
8、层和个池化层。其中,前两个的卷积块(称为卷积块 )的结构相同而后 个卷积块(称为卷积块 )的结构也相同,它们之间的连接方式采用依次顺序连接。和 (,)分别代表 网络中不同卷积块中所包含卷积层和池化层。其中,各个卷积层的卷积核的大小为 ,步长为 ,各个卷积块中卷积核的个数分别为 、。池化层的步长 ,池化方式采用最大池化。网络是双通道网络模型的另一个通道,它的网络结构与 区别在于 网络模型后三个卷积块中比 网络各多了 个卷积层。其中,各个卷积层的卷积核的大小、步长、各个卷积块卷积核的个数、池化层的步长等参数均与 网络设置相同,池化方式也采用最大池化。双通道卷积网络由 等提出,它的基本思想是特征融合
9、。传统的单通道卷积神经网络直接把第层最后一层的输出用来完成对于图像的配准、目标识别和场景分类等。假设双通道卷积神经网络中的两个网络通道中各包含 层,其中各个通道中的每一层分别都包含一个非线性变换()和非线性变换(),表示网络中的第 层,()和()代表各种网络作用,如卷积或池化、归一化。将第 层的输出记为,最终的输出记为,双通道卷积神经网络实现了不同通道的多尺度的特征的融合,相关公式如下:()()()双通道卷积神经网络利用对不同通道对图像提取的特征进行融合,使最终得到的图像特征更加具有多样性。本文的双通道网络模型是由改进后的 和 两个通道组成的网络架构,具体结构如图 所示。可以看出,和 网络都是
10、由个卷积块 和 个卷积块 组成。图 双通道网络结构示意图使用不同的特征融合网络结构会得到不同的融合结果,原因在于不同的网络结构的特征提取能力不同。一般的双通道网络模型均采用最后一层融合后的图像特征做图像的配准、识别或分类等,但仅采用最后一层提取的图像特征会造成网络浅层提取的部分局部特征没有得到充分的利用。由于两个 网络相应层采用的卷积核大小及个数均相同,有利于它们之后的特征融合。本文采用将各个通道后 层池化层融合后的特征作为最终的输出,其建立了不同通道之间的紧密连接,相关公式如下:()()()()()()()式中:、分别代表双通道网络模型中相应的第、和卷积块融合后的特征输出;()和 ()分别代
11、表 和 网络中各个层所包含的非线性变换,如卷积和池化等;(,)和(,)分别表示 和 网络中第 和 层的输出。使用 、完成 和 提取的特征融合,代码如下:(,):定义图像配准函数,输入为参考图像与待配准图像 允许容忍的最小误差 用于记录节点的使用频率 被定义为最小的数 计算机应用与软件 年 加权平均数中的权值 (:)计算参考图像与图像缩放后的权重比值大小 (:)计算待配准图像与图像缩放后的权重比值大小 (,(,)将参考图像 的宽和高缩到已经给出的参数大小 (,(,)将待配准图像 的宽和高同样缩放到已经给出的参数大小 (,)在 的第一个 维度上增加一个新的维度,以使数组维度相匹配 (,)在 的第一
12、个 维度上增加一个新的维度,以使数组维度相匹配 (,),)能够一次完成多个数组的拼接,即对参考图像和 待配准图像的特征进行融合 ():使用 ()创建 上下文()来执行,当上下文退出时自动释放 :用 以字典的方式填充占位 ,(,)分别将 和 对应的 和 后 个卷积块提取的特征进行融合图 中还给出若输入的图像为 ,则各个通道中各个卷积块相应的输出特征图的大小。密集网络密集连接卷积网络由 等提出,它的基本思想是采用“全跨链”的连接方式。后面每一层的输入是其之前所有层所得到的特征图的融合,其建立了高层与之前所有层的紧密连接。传统的神经网络需要将第 层的输出作为结果输入到下一层第 层。假设神经网络总共包
13、含 层,其中网络中的每一层都包含一个非线性变换(),表示网络中的第 层。()代表各种网络作用,如卷积或池化,归一化。将第 层的输出记为。那么传统网络的转换就可以表示为:()()密集连接网络在前馈神经网络上添加了一个残差连接,新的输出 可表示为:()()密集连接网络能够对相关连接层之间的信息交流做进一步改善,该结构能够把之前每一层的输出结果都作为输入直接连接到后续的所有层中。换句话说,第 层最终的输出结果会接收到之前 层所有输出的特征图,第 层的特征图 可表示为:(,)()式中:,为第 ,层网络层输出的特征图。密集连接网络通过增强提取特征的传播和重利用,能够有效地解决由于网络深度增加造成梯度消失
14、的问题。对 网络模块的优化 是由两种类型的卷积块 和卷积块 组成,图 和图 分别为密集网络改进 单个卷积块的结构示意图。改进后的卷积块仍然由若干个卷积层和一个池化层组成,实现对图像的特征提取。但是其中前面每一个卷积块单元最后的输出结果都与下一个卷积块单元中的多个卷积层的输出建立连接,增加了信息的重复利用率。图 单个卷积块 的连接示意图图 单个卷积块 的连接示意图第 期王东振,等:密集结构改进双通道神经网络的遥感图像配准 图 为密集网络改进后的卷积块 模块,包括 个卷积分支(从上到下依次为第和第卷积分支)和一个池化分支,个卷积分支的卷积核大小和个数均为 和 (图中虚线部分表示省略的卷积核)。可以
15、看出,在池化分支部分使用密集网络重复利用第一卷积分支所提取到的图像特征,增加了特征的利用率。图 为优化后的卷积块 模块,采用部分跨链的连接方式将卷积块中第一层与第二层的特征图、结合作为第三层的输入,并将第二、三层得到的特征图再次结合作为池化层的输入,最后对剩余的卷积块 做同样的处理。这样使网络能充分利用每一层特征图的信息,实现提取特征的重复利用,同时这些特征图的结合并没有增加网络的复杂度,相关公式如下:()()()()()()()()()()式中:(,)分别代表第 个卷积层所得到的特征图的输入或输出,()代表该卷积层的非线性操作,包括卷积或归一化等。(,)代表第 个卷积层的输出(时表示上一个卷
16、积块的输出)。使用 、完成 结构的构建和改进,改进 结构代码如下:开始构建卷积层 的网络结构第一层:个卷积层 个 层第二层:个卷积层 个 层第三层:个卷积层 个 层第四层:个卷积层 个 层第五层:个卷积层 个 层这些变量名称不能乱取,必须要和 模型保持一致另外,将这些卷积层用 的形式,方便以后取用方便 (,)第一个卷积块的第一个卷积层,输入为原始图片,输出为卷积操作后的特征图 。(,)第一个卷积块的第二个卷积层,输入为特征图 ,输出为卷积操作后的特征图 。(,)第一个卷积块的池化层,输入为 和 融合后的特征,输出为池化操作后的特征图 。(,)第三个卷积块的第一个卷积层,输入特征图 ,输出为卷积
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 密集 结构 改进 双通道 神经网络 遥感 图像
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。