神经网络学习与灰度信息结合的跨视角影像线特征匹配算法.pdf
《神经网络学习与灰度信息结合的跨视角影像线特征匹配算法.pdf》由会员分享,可在线阅读,更多相关《神经网络学习与灰度信息结合的跨视角影像线特征匹配算法.pdf(10页珍藏版)》请在咨信网上搜索。
1、第 卷第期测绘学报V o l ,N o 年月A c t aG e o d a e t i c ae tC a r t o g r a p h i c aS i n i c aJ u n e,引文格式:宋佳璇,范大昭,董杨,等神经网络学习与灰度信息结合的跨视角影像线特征匹配算法J测绘学报,():D O I:/j A G C S S ON GJ i a x u a n,F AND a z h a o,D ON G Y n a g,e ta l L i n em a t c h i n ga l g o r i t h mf o rc r o s s v i e wi m a g e sc o m
2、b i n i n gn e u r a ln e t w o r kl e a r n i n gw i t hg r a y s c a l e i n f o r m a t i o nJ A c t aG e o d a e t i c a e tC a r t o g r a p h i c aS i n i c a,():D O I:/j A G C S 神经网络学习与灰度信息结合的跨视角影像线特征匹配算法宋佳璇,范大昭,董杨,纪松,李东子信息工程大学地理空间信息学院,河南 郑州 LL ii nn ee mm aa tt cc hh ii nn gg aa ll gg oo rr
3、ii tt hh mmff oo rrcc rr oo ss ss vv ii ee wwii mm aa gg ee sscc oo mm bb ii nn ii nn ggnn ee uu rr aa llnn ee tt ww oo rr kkll ee aa rr nn ii nn ggww ii tt hhgg rr aa yy ss cc aa ll ee ii nn ff oo rr mm aa tt ii oo nnSS OO NN GGJJ ii aa xx uu aa nn,FF AA NNDD aa zz hh aa oo,DD OO NN GGYY aa nn gg,J
4、J IISS oo nn gg,LL IIDD oo nn gg zz iiI n s t i t u t eo fG e o s p a t i a l I n f o r m a t i o n,I n f o r m a t i o nE n g i n e e r i n gU n i v e r s i t y,Z h e n g z h o u ,C h i n aAA bb ss tt rr aa cc tt:T h eg e o m e t r i cd e f o r m a t i o no fc r o s s v i e wi m a g e s i s l a r g
5、 e,a n dt h eu n i l a t e r a ln e i g h b o r h o o d so fc o r r e s p o n d i n g l i n e sa r ep r o n et os i g n i f i c a n td i f f e r e n c e s,m a k i n gi td i f f i c u l tf o rt r a d i t i o n a l l i n em a t c h i n ga l g o r i t h m s t oo b t a i nr e l i a b l el i n ep a i r s
6、 T os o l v et h i sp r o b l e m,al i n em a t c h i n ga l g o r i t h mf o rc r o s s v i e wi m a g e sc o m b i n i n gn e u r a ln e t w o r k l e a r n i n gw i t hg r a y s c a l ei n f o r m a t i o ni sp r o p o s e d F i r s t l y,t h ep i x e l l e v e ld i r e c t i o n a l g r a d i e
7、n t h i s t o g r a mf e a t u r e so f t h e i m a g e sa r eo b t a i n e da n dan e u r a l n e t w o r k i sa p p l i e d t o f u s et h e s e f e a t u r e sa n d t h e i m a g eg r e y s c a l e i n f o r m a t i o nt of o r maf e a t u r ed e s c r i p t i o ng r i d T h e n,t h ed i s c r e
8、t ep o i n t sa r ee x t r a c t e d f r o mt h e l i n e,a n d t h eo n e s i d e dd e s c r i p t i o n so f t h ep o i n t sa r ec a l c u l a t e da c c o r d i n g t ot h e i n f o r m a t i o no f t h ed i s c r e t ep o i n t s u n i l a t e r a l f e a t u r e sd e s c r i p t i o ng r i d T
9、 h eo n e s i d e dd e s c r i p t o r so f t h ep o i n t sa r ea g g r e g a t e db y t h ed e e p l e a r n i n gm e t h o dt of o r mt h eu n i l a t e r a la b s t r a c te x p r e s s i o no f t h e l i n e F i n a l l y,t h ek n o w nc o r r e s p o n d i n gp o i n t sa r eu s e d t oc o n s
10、 t r a i n t h em a t c h i n g r e g i o n f o r g r o u pm a t c h i n g,a n dt h em a t c h i n g r e s u l t sa r ev e r i f i e db yc o m p a r i n gt h et o p o l o g i c a lc o n s i s t e n c yo f t h el i n ep a i r st oo b t a i nt h ef i n a lm a t c h i n gl i n ep a i r s An u m b e ro
11、fr e p r e s e n t a t i v eg r o u p so fp u b l i cc r o s s v i e wi m a g e sf r o md i f f e r e n ts o u r c e sa r es e l e c t e d f o r l i n em a t c h i n ge x p e r i m e n t sa n dt h e ya r ec o m p a r e dw i t hm a i n s t r e a ml i n em a t c h i n ga l g o r i t h m s f o ra n a l
12、 y s i s T h e r e s u l t s s h o wt h a t t h ep r o p o s e da l g o r i t h mi sa b l e t oo b t a i nu n i f o r m l yd i s t r i b u t e dl i n ep a i r sw i t hh i g hc o r r e c t r a t e s f o rc r o s s v i e wi m a g e s f r o md i f f e r e n ts o u r c e sw i t ho b v i o u sd i f f e r
13、 e n c e s i nc o n t e n t,a n d r e a l i z e r o b u s t l i n em a t c h i n go f c r o s s v i e wi m a g e s f r o md i f f e r e n t s o u r c e s KK ee yyww oo rr dd ss:l i n em a t c h i n g;c r o s s v i e wi m a g e s;n e u r a l n e t w o r k;g r a y s c a l e i n f o r m a t i o n;f e a
14、 t u r e f u s i o nFF oo uu nn dd aa tt ii oo nnss uu pp pp oo rr tt:T h eN a t i o n a lN a t u r a lS c i e n c eF o u n d a t i o no fC h i n a(N o );T h eS o n g s h a nL a b o r a t o r yP r o j e c t(i n c o r p o r a t e d i n t o t h em a n a g e m e n t s y s t e mo fm a j o r s c i e n c
15、ea n dt e c h n o l o g yp r o j e c t s i nH e n a nP r o v i n c e)(N o );T h eH i g hR e s o l u t i o nR e m o t eS e n s i n g,S u r v e y i n ga n d M a p p i n gA p p l i c a t i o nD e m o n s t r a t i o nS y s t e m(P h a s e I I)(N o Y B /)摘要:跨视角影像几何形变大,同名线段单侧邻域易产生明显差异,传统线特征匹配算法难以获得可靠线对.为
16、此,本文提出了一种针对跨视角影像的神经网络学习与灰度信息结合的线特征匹配算法.首先,获取影像的像素级方向梯度直方图特征,并结合神经网络融合影像灰度信息形成特征描述格网;然后,在线段上提取离散点,根据离散点单侧特征描述格网信息计算点的单侧描述,采用深度学习方法聚合点单侧描述符形成线的单侧抽象表达;最后,利用已知同名点约束匹配区域进行分组匹配,通过比较线对拓扑一致性进行匹配结果核验,得到最终匹配线对.选取多组具有代表性的异源跨视角影像公开数据进行线匹配试验,并与主流线匹配算法进行对比分析.结果表明,本文算法能够针对内容差异明显的异源跨视角影像,获取分布均匀且正确率较高的匹配线对,实现跨视角影像线特
17、征的稳健匹配.第期宋佳璇,等:神经网络学习与灰度信息结合的跨视角影像线特征匹配算法关键词:线特征匹配;跨视角影像;神经网络;灰度信息;特征融合中图分类号:P 文献标识码:A文章编号:()基金项目:国家自然科学基金();嵩山实验室项目(纳入河南省重大科技专项管理体系)();高分遥感测绘应用示范系统(二期)项目(Y B /)近年来,随着对地观测技术及互联网的不断发展,摄影测量由单平台向空、天、地、网多平台跨视角协同处理的方式演变.寻找异源跨视角影像同名特征,进而重建目标立体结构精确获取地理空间信息已成为一种重要的影像处理方法.在常用于 匹 配 的 特 征 中,点 易 丢 失 场 景 结 构 信息
18、,面特征匹配计算复杂,线特征介于两者之间,包含了适量的稳定中层信息,能够充分反映目标空间特性 .利用线特征进行匹配可以增强跨视角影像目标结构关系 ,为多平台跨视角的影像处理模式提供新思路.按照匹配基元,将现有线特征匹配方法分为类:基于线组匹配、基于点线匹配和基于单线段匹配.基于线组的匹配方法需按照一定规则将两条或多条线编组,利用组内仿射不变特征建立描述符进行整体匹配.文献 分别构建“线交点线”(L J L)结构和V形结构线组,连接线特征交点和强度极大值点形成局部仿射不变区域,在局部区域中计算S I F T描述完成匹配;文献 将邻域内仅有一条单线段的V形线组视为非结构化线组,利用同名线组空间结构
19、一致性获取正确匹配.基于点线特征的线匹配方法利用支持域内点线位置关系构造几何不变量,通过点特征与几何不变量的匹配结果推算线匹配对;文献 构造“一线两点”的仿射不变量和“一线四点”的投影不变量,增强描述子性能;文献 基于特征数构造了共面线点投影不变量,降低了描述符对纹理信息的依赖,对视点变化导致的线特征邻域灰度差异表现出较好性能.基于单线段的匹配方法主要通过求解参考影像和待匹配影像中直线的重叠部分实现匹配 ;对于存在视点变化的影像,通常需要在此基础上附加先验知识或约束条件来弥补单线段信息的不稳定性;文献 通过P O S数据建立影像间变换关系,利用变换后的影像获取同名线对,消除了跨视角影像间的几何
20、形变,匹配正确率较高;文献 利用视差信息建立几何约束以缩小搜索范围,根据线段单侧支持区域进行相似性度量,在立体像对中取得了较好的匹配效果.此外,随着深度学习的迅猛发展,卷积神经网络以强大的深层特征提取 能 力,被 广 泛 应 用 于 特 征 匹 配 领 域.S O L D 是首个利用深度学习实现线特征检测与描述的网络,拓展了影像线特征匹配方法.随着研究的深入,对几何变化显著的异源跨视角影像线特征匹配提出了更高的要求.为解决异源跨视角影像线特征非共面一侧影像内容突变及线特征端点不一致所带来的匹配难题,本文融合像素级方向梯度直方图特征,利用神经网络形成高维特征描述格网;根据格网信息计算线上离散点的
21、左右侧描述,并采用“以点代线”的方式结合深度学习方法聚合左右侧点描述,有效提取线特征周围众多离散点特征的局部信息,生成左右侧线描述符;最后,结合同名点采用分组匹配与提纯策略,实现跨视角影像的稳健匹配.本文算法像素级H O G特征融合边缘线特征的强度能够通过影像梯度体现,梯度值越大,像素点变化越快,越可能是边缘.方向梯度直方图(h i s t o g r a m o fo r i e n t e dg r a d i e n t,HOG)特征 是一种在影像局部方块内统计梯度信息的描述符,具有较好的稳健性.因此,本文算法利用HOG特征表征线段.计算HOG特征需要根据相邻像素灰度值计算梯度大小 I(
22、x,y)与方向(x,y)I(x,y)(I(x,y)I(x,y)(I(x,y)I(x,y)()(x,y)a r c t a n(I(x,y)I(x,y)/(I(x,y)I(x,y)/()式中,I(x,y)为像素点(x,y)的影像灰度值.然后,将 划分为a个方向区间,以滑动窗口的方式,将bb个单元组成块,以块为单位统计方向梯度直方图并使用L 范数归一化,得到bbaN维特征向量.在此基础上,减小滑动窗口的步幅至单像素,能够形成N维像素J u n e V o l N o A G C Sh t t p:x bc h i n a s m pc o m级HOG特征图,增强边缘结构信息表达能力.梯度直方图的计
23、算过程会忽视部分细节特征,在处理微小边缘时效果欠佳,因此本文综合考虑空间结构和灰度信息的相关性,融合像素级HO G特征和灰度特征.近年来,神经网络在扩建特征结构信息上展现出了显著优势.因此,本文引入神经网络从特征信息量和维度两方面入手,对不同特征张量进行优化组合(图),具体过程如下.()特征图信息融合,保持原始影像维度不变,将N维像素级HOG特征图和灰度影像相同像素的灰度值进行累加运算,生成新的HOG特征融合图,增加影像信息量.()特征图维度重构,简单的累加过程缺乏深度信息交流,为此利用神经网络进一步挖掘特征的潜在关联.本文采用S u p e r p o i n t 网络进行特征维度重构.S
24、u p e r p o i n t网络通过对大小为HW的单张影像进行多次卷积和池化操作获取了H/W/的 维特征格网,有效扩充了影像高维特征.因此,本文将HO G特征融合图作为该网络的基础输入,得到 维HO G特征描述格网征,在维度层面增强融合特征的语义识别能力,使得后续基于特征格网构建的描述符更具判别性.图特征融合F i g F e a t u r e f u s i o n单侧线描述符构建传统线特征描述方法通常利用线支持域内点线结构或灰度信息构造描述符,应用于异源跨视角影像时,会受到线段单侧影像内容突变及支持域噪声干扰.为此,本文采用“以点代线”的方式,利用线上离散点左右侧HO G特征描述格
25、网构建左右侧点描述符,改善线段双侧影像内容差异的影响.然后采用神经网络聚合点描述符,获取最能反映众多点特征特性的一组向量,形成线的抽象表达,降低对线特征端点一致性的要求.具体步骤如下.()建立离散点集.如图(a)所示,将横坐标小的端点视为线段起点,起点Ps到终点Pe的方向视为线特征方向,构成线向量LPsPe,用于标记线段左右侧并确定离散点特征提取顺序.为了用尽可能少的点全面表述线特征,设置步长为像素.以起点为原点,沿LPsPe方向按照固定步长提取离散点,使得不同离散点分布于不同格网以表征线特征不同邻域的特性,进而得到有序离散点集Ps,P,P,P,Pe.()标记格网点.如图(a),设Gk(xG,
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 神经网络 学习 灰度 信息 结合 视角 影像 特征 匹配 算法
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。