基于局部相似性学习的鲁棒非负矩阵分解.pdf
《基于局部相似性学习的鲁棒非负矩阵分解.pdf》由会员分享,可在线阅读,更多相关《基于局部相似性学习的鲁棒非负矩阵分解.pdf(17页珍藏版)》请在咨信网上搜索。
1、ISSN 10049037,CODEN SCYCE4Journal of Data Acquisition and Processing Vol.38,No.5,Sep.2023,pp.1125-1141DOI:10.16337/j.10049037.2023.05.011 2023 by Journal of Data Acquisition and Processinghttp:/Email:sjcj Tel/Fax:+8602584892742基于局部相似性学习的鲁棒非负矩阵分解侯兴荣,彭冲(青岛大学计算机科学技术学院,青岛 266071)摘要:现有的非负矩阵分解方法往往聚焦于数据全局结
2、构信息的学习,在很多情况下忽略了对数据局部信息的学习,而局部学习的方法也通常局限于流行学习,存在一些缺陷。为解决这一问题,提出了一种基于数据局部相似性学习的鲁棒非负矩阵分解算法(Robust nonnegative matrix factorization with local similarity learning,RLSNMF)。采用一种新的数据局部相似性学习方法,它与流形方法存在显著区别,能够同时学习数据的全局结构信息,从而能挖掘数据类内相似和类间相离的性质。同时,考虑到现实应用中的数据存在异常值和噪声,该算法还使用l2,1范数拟合特征残差,过滤冗余的噪声信息,保证了算法的鲁棒性。多个基
3、准数据集上的实验结果显示了该算法的最优性能,进一步证明了该算法的有效性。关键词:非负矩阵分解;聚类;全局结构;局部相似性;鲁棒性中图分类号:TP391 文献标志码:ARobust Nonnegative Matrix Factorization with Local Similarity LearningHOU Xingrong,PENG Chong(College of Computer Science and Technology,Qingdao University,Qingdao 266071,China)Abstract:The existing nonnegative matrix
4、 factorization methods mainly focus on learning global structure of the data,while ignoring the learning of local information.Meanwhile,for those methods that attempt to exploit local similarity,the manifold learning is often adopted,which suffers some issues.To solve this problem,a new method named
5、 the robust nonnegative matrix factorization with local similarity learning(RLSNMF)is proposed.In this paper,a new local similarity learning method is adopted,which is starkly different from the widely used manifold learning.Moreover,the new method can simultaneously learn the global structural info
6、rmation of the data,and thus exploit the intraclass similarity and the interclass separability of the data.To address the issues of outliers and noise effects in real word applications,the l2,1 norm is used to fit the residuals to filter the redundant noise information,ensuring the robustness of the
7、 algorithm.Extensive experimental results show the superior performance of the proposed method on several benchmark datasets,further demonstrating its effectiveness.Key words:nonnegative matrix factorization;clustering;global structure;local similarity;robustness基金项目:国家自然科学基金(62276147);山东省高等学校青创科技计划
8、创新团队项目(2022KJ149)。收稿日期:20220801;修订日期:20230311数据采集与处理 Journal of Data Acquisition and Processing Vol.38,No.5,2023引 言高维数据已无处不在,信息检索作为数据挖掘和文本聚类的重要任务之一1,通常需要处理高维数据。因此,在矩阵补全2、信号处理3和文本挖掘4等需要信息检索的学习任务中,寻求一种数据表示方法来对高维数据进行处理显得尤为重要。为此,研究者们提出了很多数据表示方法,其中矩阵分解作为一种高维数据的表示方法已经被广泛应用在数据挖掘、计算机视觉和机器学习等领域。矩阵分解的原理是用两个数据
9、矩阵的乘积来近似原始数据。基于矩阵分解的方法已经很流行5,除此之外还有一些其他的方法,例如主成分分析、奇异值分解、低秩表示和非负矩阵分解。潜在语义分析(Latent semantic index,LSI)正是利用了奇异值分解的原理,它选取最大的 k 个奇异值,一些小奇异值所对应的信息就会被消除,从而过滤掉不必要的信息,提高文本挖掘任务(文本检索、聚类等)的性能。但考虑到奇异值分解(Singular value decomposition,SVD)计算量大和解释混合符号数据困难的缺点,非负矩阵分解的方法6又被提出。对于图像和文档等非负数据,非负矩阵分解被用来寻找两个非负的因子矩阵近似此类数据,这
10、也导致了基于部分的表达。而且有心理学和生理学的证据表明7,人脑中存在基于部分的表征。非负矩阵分解就是依赖于这种表征来学习部分的人脸和文本的语义特征。现有的非负矩阵分解算法可以分为 4类,包括基本非负矩阵分解(Nonnegative matrix factorization,NMF)、约束非负矩阵分解8、结构化非负矩阵分解和广义非负矩阵分解。文献 9 中有相当全面的综述,其中正交非负矩阵分解(Orthogonal NMF,ONMF)10对系数矩阵施加了正交约束,加强了聚类解释;加权非负矩阵分解(Weighted NMF,WNMF)11对不同元素的相对重要性赋予不同的权重;半非负矩阵分解(Semi
11、NMF)12仅对系数矩阵施加非负性约束。上面提出的几种非负矩阵分解方法仅仅学习了线性分布的数据,为了学习非线性分布的数据又提出了如下几种方法:流形上的非负矩阵分解13考虑了非线性分布的数据。核非负矩阵分解14将原始模型扩展到了希尔伯特空间,使模型能够处理非线性可分的数据。文献 15 中已经证明,在无监督学习中保留局部几何数据结构很重要,主要体现在:(1)将高维数据转化为低维空间数据时,保留其内部信息非常重要;(2)全局结构不足以充分体现数据的特征信息;(3)数据的局部几何结构可以看做是变换矩阵的正则化,从而避免过拟合。目前已有的考虑数据局部相似性信息的方法13通常需要借助流形技术,通过样本的最
12、相似近邻来考虑数据的局部几何结构,而这种方法通常强调低维表达的类内相似性而忽视类间相离性。而 RLSNMF通过成对数据样本间的相似性来学习数据的局部结构信息,该方法使用数据的全局和局部相似性信息来学习同时具有类内相似性和类间相离性的低维表示矩阵。此外,原始的非负矩阵分解算法通过优化误差的平方来求解目标函数,这就导致了最后的结果容易受异常值的影响,RLSNMF算法在原始非负矩阵分解的基础上使用了l2,1范数替代 Frobenius范数,保证了方法的鲁棒性16。该方法的主要贡献有:(1)通过成对数据间的相似性来学习数据的局部几何结构,使学习到的系数矩阵能揭示原始数据的更多结构信息;(2)将l2,1
13、范数和局部相似性的学习集成到一个框架中,在学习数据局部结构的同时还保证了模型的鲁棒性;(3)将正交约束与局部相似性的学习结合,使局部相似性和聚类相互增强。1 提出方法 给定非负数据X=x1,x2,xn Rm n,NMF 将原始数据 X 分解为两个非负矩阵H Rm k和G Rn k的乘积,优化问题如下minH 0,G 0X-HGT2F(1)式中:原始数据 X 的每一列分别对应一组 H 矩阵列向量的加权和,每一组权重系数对应 G 矩阵的每一行,因此 H 被称为基矩阵,G 被称为系数矩阵,m 表示数据维数,n表示样本大小,k n保证了用一个低1126侯兴荣 等:基于局部相似性学习的鲁棒非负矩阵分解维
14、系数矩阵来表示原始数据矩阵。凸非负矩阵分解(Convex NMF,CNMF)在 NMF 的基础上将基矩阵限制为数据 X的每一列的凸组合,即H=XW。目标函数式(1)就转化为对以下问题的优化minW,G 0X-XWGT2F(2)CNMF 将 H 的列解释为数据点的加权和,而Wij就是Xi对于Hj的权重。现实应用中的大部分数据,尤其是高维数据,都存在一些冗余的特征。受特征选择的影响,对于冗余的特征,X的近似值不需要很好的拟合这些特征。因此,RLSNMF 用近似残差的行稀疏性来放松对这些特征的拟合,用l2,1范数替换 Frobenius范数,得到如下正则化公式minW,G 0X-XWGT2,1=i=
15、1m X-XWGT()i2(3)式中:2为l2范数,A()i表示矩阵 A 的第i行,A2,1是对矩阵 A 每一行的l2范数求和。l2,1范数作为一种行稀疏范数,还可用于解释特征噪声和异常值,从而近似的忽略异常或噪声特征的损失。在优化问题(3)中,总和最小就要求每一行的l2范数最小,即每一个行向量中的零元素尽可能多,从而实现行稀疏,提取出重要特征。值得注意的是,式(3)与子空间聚类密切相关17,而在子空间聚类中通常将高维数据投影到低维子空间中,要寻找这样的子空间需要建立自我表达假设。这个自我表达假设指的是X=XZ,其中Z Rn n是一个表示矩阵。为了考虑数据的局部结构,一个自然的假设就是,如果两
16、个数据xi和xj是相近的,那么它们之间的相似性Zij应该大,否则,Zij应该小。该假设会导致如下的最优化问题minZijxi-xj22Zij minZtr(ZTD)(4)式 中:D Rn n,D 的 每 一 个 元 素Dij可 以 表 示 为Dij=xi-xj22,或 者 写 成 矩 阵 的 形 式D=1n1Tndiag(XTX)+diag(XTX)1n1Tn-2XTX,其中1n表示长度为n的全 1列向量。式(4)的优化强制Zij反映数据的两两相似度信息。注意到 W 和 G 非负,受自我表达的启发,可以取WGT作为局部相似性矩阵 Z,即Zij=(WGT)ij=W(i)GT(j)。W(i)可以看
17、成数据xi在基向量上的得分向量,G()j可以看成第 j个样本相对于新基的系数向量。如果数据xi和xj是相近的或者属于同一个聚类,那么W()i和G()j也具有较高的相似性,反之亦然,所以Z=WGT是有意义的。然后将式(4)加入式(3),得到minW,G 0X-XWGT2,1+tr(ZTD)(5)对于式(5),如果采用增广拉格朗日的优化方法,每次迭代都需要求解 SVD,这是低效的,所以参考Peng等18提出的引入松弛变量 E的方法,式(5)可以进一步写为minW,G,E12X-XWGT-E2F+E2,1+tr(WTDG)s.t.W 0,G 0,GTG=I(6)式中:、为平衡参数,目标函数(6)的第
18、 1项学习了数据的全局结构,第 3项则是利用数据的局部结构与成对相似性之间的关系来考虑数据的局部相似性。CNMF 作为一种通过流形结构来学习局部相似性的方法,对于相似度高的样本,它通过图拉普拉斯来最小化这些样本对应的表示矩阵间的差距,这就提高了表示矩阵的类内相似度。图拉普拉斯保证了数据和系数向量之间的平滑度。与图拉普拉斯不同,RLSNMF 的第 3项加强了数据和得分向量以及系数向量之间的平滑度,通过得分向量和系数向量来考虑数据的局部结构。此外,施加 G 的正交性约束,不仅保证了解的唯一性,还直接将该方法与聚类1127数据采集与处理 Journal of Data Acquisition and
19、 Processing Vol.38,No.5,2023联系起来。受 Wang等19的启发,区别于上文中直接使用 X 构造 D,在本文中 D 基于X-E进行构造,并在优化过程中随着 E的更新来进行调整。2 优化求解2.1优化 W固定 G,关于 W 的子问题为minW 012tr(-2WTXT(X-E)G+WTXTXWGTG)+tr(WTDG)(7)根据不等式约束W 0,引进拉格朗日乘子=ij,得到拉格朗日函数W=12tr(-2WTXT(X-E)G+WTXTXWGTG)+tr(WTDG)+tr(WT)(8)对W求偏导WW=-XT(X-E)G+XTXWGTG+DG+(9)根据互补松弛条件得到(-X
20、T(X-E)G+XTXWGTG+DG)ikWik=ikWik=0(10)式(10)提供了极限解满足的固定点条件,并且式(10)可以进一步写为(-XT(X-E)G+XTXWGTG+DG)ikW2ik=0(11)从而得到 W 的更新规则Wik Wik()XT()X-E Gik()XTXWGTG+DGik(12)因为式(10)和式(11)的解都是Wik=0或者(-XT(X-E)G+XTXWGTG+DG)ik=0,所以式(10)和式(11)是等价的,证明了 W 更新规则的合理性。用辅助函数的方法20还可以证明更新规则(12)的收敛性和合理性,附录 A给出了相关的定义、引理和证明过程。2.2优化 G固定
21、 W,得到关于 G的最优化问题为minG 012tr(-2WTXT(X-E)G+WTXTXWGTG)+tr(WTDG)(13)引入大小为k k的对称拉格朗日乘子,得到拉格朗日函数G=12tr(-2(X-E)TXWGT+GWTXTXWGT)+tr(WTDG)+12tr(GTG-)=12tr(-2(X-E)TXWGT+2DWGT)+12tr(GWTXTXWGT+GGT)-=12tr(-2(X-E)TXWGT+2DWGT)+12tr(G(WTXTXW+)+GT-G(WTXTXW+)-GT)-(14)式中:定义=12tr(),为非负对角矩阵,保证了 G 的正交性10,M+和M-是两个非负矩阵且满足M+
22、-M-=M。对G求导可得1128侯兴荣 等:基于局部相似性学习的鲁棒非负矩阵分解GG=-(X-E)TXW+GWTXTXW+DW+G(15)根据互补松弛条件可得(-(X-E)TXW+GWTXTXW+DW+G)ikGik=0(16)式(16)等价于(-(X-E)TXW+GWTXTXW+DW+G)ikG2ik=0(17)又因为WTXTXW+=(WTXTXW+)+-(WTXTXW+)-,最终得到更新规则为Gik Gik()()X-ETXW+GGTDWik()DW+GGT()X-ETXWik(18)同样可以用辅助函数的方法证明目标函数(13)在更新规则(18)下的收敛性,证明过程展示在附录B中,结果也进
23、一步验证了收敛解的合理性。2.3优化E当W和 G固定时,类似于文献 18,关于 E的优化可以改写为minE12X-XWGT-E2F+E2,1(19)解决式(19)需要引入一个定理。定理 1 对给定矩阵W=w1,w2,wn Rm n和一个正标量参数,X是如下公式的最优解:minX12W-X2F+X2,1,那么X的每一列可以表示为Xi=wi2-wi2wi wi2 0 其他(20)根据定理 1,得到式(19)的更新规则为E()i=Q()i2-Q()i2Q()i Q()i2 0 其他(21)式中Q=X-XWGT。在 更 新 规 则(12)和(18)下,对 于 固 定 的E()t,关 于 W 和 G 的
24、 子 问 题f(W,G|E)在 变 量 序 列W()t+1,s,G()t+1,s|E()t下 可 以 得 到f(W(t+1,s),G(t+1,s)|E(t)f(W(t+1,s+1),G(t+1,s+1)|E(t),即 序 列f(W()t+1,s,G()t+1,s|E()t)是单调递减且有界的。算法 1 基于局部相似性学习的鲁棒非负矩阵分解算法输入:参数、,最大迭代次数tmax和smax,收敛条件(1)初始化:W()0,G()0,E()0,t=1。(2)Repeat(外循环)(3)W()t,0=W()t-1,G()t,0=G()t-1,s=11129数据采集与处理 Journal of Data
25、 Acquisition and Processing Vol.38,No.5,2023(4)Repeat(内循环)(5)根据式(12)更新W()t,s,根据式(18)更新G()t,s;(6)检查收敛条件:s smax或者两次迭代的目标函数值之差小于;(7)s=s+1;(8)End(内循环)(9)更新W()t=W()t,s,G()t=G()t,s,E()t;(10)检查收敛条件:t tmax或者两次迭代的目标函数值之差小于;(11)t=t+1;(12)End(外循环)输出:W=W()t,G=G()t,E=E()t。3 基于部分的表示 定理 2 当 W 和 G 初始化为非负矩阵,E 初始化为零矩
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 局部 相似性 学习 鲁棒非负 矩阵 分解
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。