基于两次字典裁剪的高光谱稀疏解混方法.pdf
《基于两次字典裁剪的高光谱稀疏解混方法.pdf》由会员分享,可在线阅读,更多相关《基于两次字典裁剪的高光谱稀疏解混方法.pdf(5页珍藏版)》请在咨信网上搜索。
1、2023 年 29 期创新前沿科技创新与应用Technology Innovation and Application基于两次字典裁剪的高光谱稀疏解混方法张子龙1,2,沈珣3,阎庚未1,2(1.中国航空工业空气动力研究院,哈尔滨 150001;圆.低速高雷诺数航空科技重点实验室,哈尔滨 150001;3.南京航空航天大学,南京 210016)高光谱图像包含大量的混合像素,这极大地阻碍了对高光谱图像信息的进一步探索1。高光谱解混是解决这一问题的一种非常有效且常规的方法。而高光谱解混过程一般包括端成员提取和丰度反演 2 个步骤2。由于高光谱图像包含的端元很少,一个像素通常不包含整个图像的所有端元,
2、该像素的许多丰度值为零,因此可以在光谱库下得到的丰度系数是稀疏的,这是丰度的稀疏性特征。因此可将稀疏模型用于解混中,目前依赖于光谱库的稀疏解混成为最流行的研究课题之一,稀疏解混的目的是在一个大型的光谱库中找到最优的光谱子集,它可以最好地建模高光谱图像中的混合像素。现有的稀疏解混方法有很多,比如,通过变量分裂和增广拉格朗日3进行稀疏解混,不需要提取端元来估计丰度。在基于变量分裂和增广拉格朗日算法的稀疏解混(杂责葬rse Un原mixing Based On Variable Splitting And AugmentedLagrangian,SUnS粤蕴)算法的基础上添加了空间约束,将全变异(栽
3、燥贼葬造 灾葬则蚤葬贼蚤燥灶,栽灾)空间正则化项应用于SUnSAL,形成 SUnSAL-TV 算法4-5。但 SUnSAL-TV 对丰度系数缺乏有效的约束。由于光谱库通常具有较高的相互相干性,得到稀疏解仍然是一项具有挑战性的任务。光谱先验信息方法(sparse unmixing using spectrala priori information,SUnSPI)利用高光谱图像中的光谱先验信息来缓解这一问题6。近期,通常会对丰度矩阵施加低秩约束,因此提出了 JSpBLRU7算法,它的原理在于使用了一种新的两次加权策略,两次加权策略可以提高丰度矩阵的稀疏性。稀疏解混的前提是有一个过完备的光谱库,而
4、最稀疏解的唯一性受到谱库的高相互相干性的严重限制。解第一作者简介:张子龙(1989-),男,硕士,工程师。研究方向为测控技术。摘要:基于稀疏的高光谱解混方法作为一类流行的解混方法可以获得较为理想的解混结果。但现有字典裁剪方法只通过一种字典裁剪来得到光谱库子集,会导致得到的光谱库子集不够准确。为提高解混的精度,提出将光谱信息散度和光谱角制图相减作为两次字典裁剪方法(Spectral Information Divergence minus Spectral Angle Mapping,SS)。两次字典裁剪较一重字典裁剪进一步降低光谱特征不匹配对解混精度的影响,可改善稀疏解混的性能。该文将提出的
5、SS 与光谱信息散度、光谱角制图、鲁棒的多重信号分类 4 种字典裁剪方法用在联合稀疏块低秩解混算法中以来证明两次字典裁剪方法的有效性。关键词:高光谱图像;高光谱解混;稀疏解混;字典裁剪;光谱库子集中图分类号院TP751文献标志码院A文章编号院2095-2945渊2023冤29-0022-05Abstract:As a popular unmixing method,Hyperspectral unmixing method based on sparsity can obtain ideal unmixing results.However,the existing dictionary cl
6、ipping methods only use one dictionary clipping to obtain the spectrum library subset,which willlead to the inaccurate spectrum library subset.In order to improve the accuracy of unmixing,this paper proposes aSpectralInformation Divergence minus Spectral Angle Mapping(SS)method for twice dictionary
7、clipping method.Twice dictionary clippingcan further reduce the influence of spectral feature mismatch on the unmixing accuracy and improve the performance of sparseunmixing.In this paper,the proposed four dictionary clipping methods of SS and spectral information divergence and spectralangle mappin
8、g and robust multiple signal classification are used in the joint sparse block low rank unmixing algorithm to provethe effectiveness of the twice dictionary clipping method.Keywords:hyperspectral image;hyperspectral unmixing;sparse unmixing;dictionary clipping;spectral library subsetDOI:10.19981/j.C
9、N23-1581/G3.2023.29.00522-创新前沿科技创新与应用Technology Innovation and Application2023 年 29 期决这个问题的一个有效方法是通过字典裁剪,所谓的字典裁剪是通过某些标准删除光谱库中没有目标信息的波段,尽可能准确地保留有用的光谱子集。常用的方法是用来处理传感器阵列处理的多信号分类8,但是它假设真实的端元特征与字典的光谱特征之间没有不匹配,因此在实践中无法得到良好的解混结果。在此基础上提出了一种鲁棒多信号分类算法(Robust Multiple SignalClassification,RMUSIC)9。它提出了一个 RMUSI
10、C 公式,其目标是识别接近真实端元特征的光谱特征样本。光谱信息散度(Spectral Information Divergence,SID)、光谱角制图(Spectral Angle Mapping,SAM)2 种光谱匹配方法可用于字典裁剪中,SAM 根据目标光谱与测试光谱之间包含的夹角值来判断 2 个光谱波段的相似性10。SID 是一种基于信息论的测量 2 个光谱之间差值的光谱分类方法11。然而,现如今大部分字典裁剪都只使用一种方法,这将会降低解混的准确性,并可能带来一些错误。因此,我们提出了将 SID 和 SAM 相减作为两次字典裁剪方法(SS),采用 SS 作为字典裁剪的依据,通过两次字
11、典裁剪来尽可能准确地保留有用的光谱子集来表示整个图像。1方法1.1常见字典裁剪方法1.1.1SID光谱信息散度(SID)是一种基于信息论的方法,是一种用来比较 2 个光谱之间的差值的光谱分类方法。设E=e1,e2,eN、F=f1,f2,fN分别为目标光谱和测试光谱。这 2 个光谱的概率向量为 a=a1,a2,aN,b=b1,b2,bN。其中。可得 E 关于 F的相对熵为可得 云关于 耘 的相对熵为E 和 F之间的光谱信息散度可以计算如下。(3)信息熵的数值越大则表示 2 条光谱越不相似。1.1.2SAM光谱角匹配法(SAM)根据目标光谱与测试光谱之间的夹角值来判断 2 个光谱的相似性。如果2
12、个光谱之间的角度较小,则它们之间的匹配程度较高。2 个光谱E,F之间的光谱夹角定义为式中:兹(耘,云)是 SAM 光谱匹配模型。1.1.3RMUSIC在 MUSIC 模型中,它主要研究无噪声的情况。MUSIC 模型定义如下其中 U沂Rm伊s为包含高光谱图像 Y 的左 s 个奇异向量的矩阵,表示的是 U的正交互补投影结果。然后我们确定对于 i=1,s,有夷赞=k1,ks,对所有的都有 酌MUSIU(ki)约酌MUSIU(j)。上述操作过程为MUSIC,MUSIC被用来丢弃那些有较大残差的光谱,然后剩下的光谱形成一个更小的子集。MUSIC 用来丢弃残差大的光谱,剩下的光谱形成一个更小的字典。然而,
13、基于 MUSIC 的字典裁剪方法对频谱特征不匹配的问题非常敏感。因此,提出了一种鲁棒多信号分类算法(RMUSIC)公式如下11,iiiiNNiiiiefabef 222k2RM USIC2222222minmin1SSSSSkkkkkkkPdkPdPdPdPdxxxhxghxxxxhxxUUUUU。(7);(6)1|lg(/)NiiiiD EFaab。(1)1|lg(/)NiiiiD FEbba。(2)SID,|E FD EFD FE1()(),arccos()nE iF iE FEFq,(4)TMUSIC2k2()Skkd P dkdgU,(5)1.2本文提出的 SS 模型SAM 只能比较光
14、谱角值的大小,很难区分光谱之间局部特征的差异。因此,SID 可以弥补 SAM 的缺点。SID 通过比较信息熵的数值来判断曲线的相似性。信息PU23-2023 年 29 期创新前沿科技创新与应用Technology Innovation and Application熵的值越大,2 条光谱曲线就越不相似。根据 SID 和SAM 2 种方法的特点,将 2 种方法相结合,更准确地识别光谱的相似性,字典裁剪的结果也更加准确。SID 和SAM 的混合方法如下。(8)通过 SAM 与 SID 作差的方法来进一步筛选掉光谱特征不相匹配的部分,得到更加精准的光谱库子集,能够有效地提高解混精度。2实验结果2.1
15、评价指标本文使用的关于实验的评价指标如下所示。利用均方根误差(root-mean-square error,RMSE)对丰度图 耘n和测试的丰度图耘赞n进行比较,并将两者之间计算的误差定义为采用信号重构误差(Signal-to-reconstruction error,SRE)对原始图像 载 与混合图像载赞进行比较,是测量解混精度的指标,定义为光谱角距离(Spectral angle distance,SAD)用于比较端元签名 cn和估计的端元成员签名c赞n,它是评估差异的指标,定义为2.2模拟数据实验所有实验都是使用 MATLABR 2016 版本进行测试。这 2 个实验旨在利用所提出的 S
16、S 模型,将 SS 模型与SAM、SID、RMUSIC 模型相比较。实验的目的是通过模拟数据实验和真实数据实验来验证SS 模型的优越性,得到基于两次字典裁剪方法能够有效地提高解混精度的结论。在本次模拟数据实验中,我们所使用的模拟数据数据集是高光谱研究中经常采用的美国地质调查局(USGS)光谱库的第一部分的子集,粤沂R224伊62,它有 224个波段,64 个光谱签名,波长范围为 0.42.5 滋m。在本实验中,我们的目的是证明在使用模拟数据的情况下,提出的 SS 字典裁剪方法在基于联合稀疏块和低秩解混(杂责葬则泽藻 哉灶皂蚤曾蚤灶早 月葬泽藻凿 韵灶 允燥蚤灶贼原杂责葬则泽藻原月造燥糟噪泽 粤
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 两次 字典 裁剪 光谱 稀疏 方法
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。