基于多维相关性的弱类属属性学习.pdf
《基于多维相关性的弱类属属性学习.pdf》由会员分享,可在线阅读,更多相关《基于多维相关性的弱类属属性学习.pdf(15页珍藏版)》请在咨信网上搜索。
1、D0I:10.1322023.04.015CNATURASCIENCEJuly,20232023年7 月JOURNANIVERSITYVol.59,No.4第59 卷第4期南京大学学报(自然科学)基于多维相关性的弱类属属性学习王一宾1.2,葛文信1,程玉胜1.2*,吴海峰1.2(1.安庆师范大学计算机与信息学院,安庆,2 46 133;2.智能感知与计算安徽省高校重点实验室,安庆,2 46 133)摘要:传统的多标签学习一般基于完整的标签信息,但随着数据量的增大,很难为每个实例获得完整的标签信息,导致弱标签问题在多标签数据集中广泛存在,严重影响了多标签的分类性能。为了提升相关性能,不少学者在实
2、际分类中考虑特征、标签和实例部分的关联性,却忽略了它们之间的相关性.基于此,提出一种基于多维相关性的弱类属属性学习算法:首先,根据特征和标签之间的相关性,采用余弦相似度计算出标签之间的相关性;其次,根据特征与实例之间的相关性,采用密度峰值聚类获得实例相关性,并从中选择具有监督信息的标签矩阵,与分解希尔伯特矩阵获得的特征相关性结合构建流形正则化;最后,在多个不同缺省率的多标签数据集上进行了大量实验,验证了提出的算法的有效性。关键词:弱类属属性学习,标签相关性,特征相关性,密度峰值聚类,实例相关性中图分类号:TP181文献标志码:AWeak-label-specific features lear
3、ning based on multidimensional correlationWang Yibin-,Ge Wenxin,Cheng Yusheng,Wu Haifeng.?(1.School of Computer and Information,Anqing Normal University,Anqing,246133,China;2.Key Laboratory of Intelligent Perception and Computing of Anhui Province,Anqing,246133,China)Abstract:Traditional multi-label
4、 learning is generally based on complete label information.However,as the volume of dataincreases,it is difficult to obtain complete label information for each instance,which leads to the widespread presence of weaklabels in multi-label datasets.In turn,the classification performance is seriously af
5、fected.Many scholars considered the partialassociation of features,labels and instances in practical classification,while ignoring the correlation between them.Therefore,this paper proposes a weak-label-specific features learning based on multidimensional correlation.Firstly,the correlationbetween f
6、eatures and labels is measured according to the cosine similarity.Secondly,based on the correlation between labelsand instances,density peak clustering is used to obtain instance correlation,which are combined with feature correlationobtained from decomposing hilbert matrices to construct streamwise
7、 regularization.Finally,experiments are conducted onmultiple multi-label datasets with different missing rates,and the results verifiy the effectiveness of our algorithm.Key words:weak-label-specific feature,label correlation,feature correlation,density peaks clustering,instance correlation在多标签学习中,标
8、签、特征和实例均具有相关性,如拼图块与颜色和形状相关,也与模型本身相关;苹果logo与形状和颜色相关,也与手机等电子产品相关.多标签学习的目的是为未知实例分配一组适当的标签,早已应用于文本分类1、图像自动注释2 、蛋白质功能检测3 和个性化推荐4等多个领域中,传统的多标签学习假设标签空间是完整的,而现有的多标签数据集大都通过人工标注或网页爬虫得到,人工标注的标签常受到人为意志的影基金项目:并行与分布处理国防科技重点实验室项目(WDZC202252501),安徽省自然科学基金(2 10 8 0 8 5MF216)收稿日期:2 0 2 3一0 5一2 4*通讯联系人,E-mail:691王一宾等:
9、基于多维相关性的弱类属属性学习第4期响,随着数据量的增大,标注的成本也越来越高,网页爬虫的方法虽然有效降低了人工标注的成本,但有些爬取的数据是未知的,所以标签完整的假设显然不成立.标签信息不完整导致弱标签问题广泛存在,而对于弱标签或者缺省标签的问题,现有的研究主要有三种处理方法:(1)在已知标签上构造一个损失函数5;(2)将缺省标签当作负标签进行处理,但会损失许多重要的语义信息;(3)是利用标签相关性7 来恢复缺省的标签.然而上述方法大都不稳定,随着标签缺省程度的增加,只利用一维相关性很难恢复缺省导致的弱标签问题.机器学习中,特征可以看作简单线性变量中的自变量,标签可以看作简单线性模型中的因变
10、量,所以,标签是由一个或者多个特征组成,而实例是由一个或者多个标签来描述的,可以看出标签与特征和实例均有一定的关联性,如图1所示,图1a是不同形状和颜色的特征,图1b是不同特征组成的标签,图1c和图1d是不同标签组成的实例.图1c和图1d也可以看作CH3一H和CH:一OH的分子结构,不同之处在于连接碳原子的基团不同,所以两个基团模型的区别在于组成标签的特征不同,组成的分子结构也就不同.因此,部分基团(标签)未知时,可以分解CH3一H和CH3一OH的结构式(实例),结合各种颜色和形状(特征)来获得各种未知的基团等(标签),并利用丰富后的各种基团(标签)特有的颜色和形状(特征)来分类.即可以利用特
11、征、标签和实例之间的多维相关性来解决多标签学习中的弱标签问题,并有效完成弱标签的分类任务。(a)特征(b)标签(c)实例1(d)实例2图1特征-标签-实例的关系图Fig.1The relationship of feature-label-instance基于上述分析,提出一种基于多维相关性的弱类属属性学习算法(Weak-Label-SpecificFeatures Learning Based on Multidimensional Correla-tion,WSMDC).本文的贡献:(1)利用标签与特征之间的相关性,相似的类别标签具有相似的特征,所以可以利用余弦相似度来度量标签相关性和特征
12、间的共有信息。(2)利用特征与实例和标签与实例之间的相关性,在采用密度峰值聚类计算实例代表性的过程中,正标签的概率为阈值,与分解希尔伯特矩阵获得的特征相关性结合来构建流形正则化.(3)采用多维相关性来有效地解决弱标签问题,并在分类器中有效完成多标签的分类任务,在多个不同缺省率的数据集上验证了算法的有效性。1相关工作多标签学习是处理标签与特征和实例相关联的框架,现有的多标签学习算法大致可分为两类:将多标签问题转化成一个或多个二分类问题,或自适应地改变传统的多标签学习算法.例如,BR(BinaryRelevance)算法8 对ML-KNN9进行了改进,但采用相同的特征来进行分类不合理.Zhanga
13、ndWul10提出类属属性算法LIFT,首先根据标签的正负实例利用K-means进行聚类分析,然后利用SVM(Su p p o r t Ve c t o r M a c h i n e)对多标签进行分类,该方法与问题转换和算法自适应相比,有效提高了多标签学习算法的性能,但没有考虑标签相关性,导致其分类性能差.Huangetal11的LLSF算法和Zhang et al12的MLFC算法在类属属性学习中加人标签相关性,有效地提高了多标签的分类性能.Jiaetal13的LFCMLL算法将标签相关性直接约束在标签的输出上,有效避免了与类属属性学习的参数数量的冲突。缺省多标签学习中只有部分标签有效,缺
14、省标签的恢复大致分两种.(1)基于一维相关性.例如,Wangetal14的JLCLS算法利用标签相关性692第59 卷南京大学学报(自然科学)来恢复缺省的标签信息,Huangetal15的LSML算法通过标签相关性来恢复缺省的标签,虽然可以初步恢复缺省的标签,但这种做法没有考虑标签缺省引人的噪声标签问题.Zhaoetal16的WS-RLC算法通过联合标签相关性重构标签语义空间来防止标签缺省带来的语义噪声,解决多标签学习中的弱标签分类任务.(2)基于二维相关性,例如,Cheng et al17的NeLC-MS算法,从特征和标签两个角度,通过均值聚类和信息熵分别获得特征中的隐藏信息和标签相关性,利
15、用非平衡化参数来恢复缺省的标签.Zhuetal18的GLOCAL算法,通过矩阵分解方法,利用标签的局部和全局相关性来恢复缺省的标签.但上述两种方法只能较好地处理缺省率低的标签,在缺省率较高时效果较差.Wang etal19的LE-TLLR算法在两级标签恢复模型中通过标签和实例相关性来恢复缺省标签,在缺省率较高时表现良好,但在缺省率较低时占优不明显.KumarandRastogi20的LRMML算法在全局和局部标签相关性的基础上,利用低秩标签子空间变换来提升缺省率较高时的恢复效果.Zhang etal21的MSWL算法采用流形正则化稀疏模型框架,利用特征与标签之间的关系和标签的全局与局部信息来弱
16、标记数据中恢复的缺省标签.但上述算法有的利用一维中的标签相关性,有的利用二维中的特征和标签相关性与标签和实例相关性,但没有充分利用特征、标签和实例相关性.因此,本文采用多维相关性来解决因标签缺省导致的弱标签问题,2WSMDC模型的构建与优化2.1多标签模型多标签学习中有特征矩阵X,标签矩阵Y,其中,XER,YERI,l为标签数,n为样本数,d为特征数,D=(z1,yi).(z 2,y e),,(m,y))为多标签数据集,其中a,=((m,Tm,ua)为特征向量,y,(ym,yn2,a)为标签向量.然而,在多标签学习中采用相同的特征来分类不合理,只能通过标签的特定特征来分类.结合Huangeta
17、l的LLSF算法,WSMDC基础模型可写为:min1XW-YI+W(1)W2其中,为特征稀疏化参数,W是权重系数且W=(w1,w2,,w小,WER为每个标签的特定特征.2.2多维相关性的构建多标签学习中,标签由一个或多个特征组成,实例由一个或多个标签来描述,所以特征、标签、实例均具有一定相关性,首先通过余弦相似度度量标签之间的相关性。假设标签y和y具有强相关性,它们之间的余弦相似度C越大,权重矩阵w,和w,越相似,则组成两个标签的特征之间也具有较强的相关性,它们的共有信息越多.其中,R,=1一Cj.结合式(1),式(2)可构建为:1minXW-Y,+tr(RWTW)+Wl,(2)W在标签大量缺
18、省时,利用余弦相似度方法很难准确计算标签的相关性来恢复缺省的标签,可以从特征视图的角度,通过分解希尔伯特矩阵2 2 来获得特征之间的相关性矩阵P,如式(3)所示:HSIC(X,X)=(n-1)-tr(HKHR)=(3)(n-1)-tr(PTxTHKHXP)其中,K=XTX,K=XPPTXT,H=In为nX1的向量,I为nXn的单位矩阵.再通过密度峰值聚类2 3-2 4 从特征中计算实例代表性S.Qian etal24在利用密度峰值聚类计算局部密度时,阈值是固定的,没有考虑每个数据集标签真实分布的情况,本文根据每个多标签数据集的实际情况来计算局部密度的阈值,可以更准确地获得更能代表实例信息的标签
19、.实例代表性可以为特征流行选择具有监督信息的标签Ys,如式(4)所示:2S=Zd.X(4)(5)nXI其中,o,=mindj,d,是a,和a,之间的距离;d.为阅值;i=1,2,l,j=1,2,l,且ij;p为局部点之间的密度,=,x(d,一d.);如果ewhena;1,10-时,一些标签的特定特征会被忽略,选择的标签特定特征过于稀疏,实验效果较差.所以,建议超参数的取值范围为10-10,10,10-10,10”,10-10,10-4.2消融性分析为了证明多维相关性的有效性,将WSMDC算法依据正则项拆解为只考虑标签相关性的WSC算法.在缺省率为0.1的12 个多标签数据集上利用五个评价指标来
20、分析这两个算法的综合性能,实验结果如图3所示.由图可见,HL指标,WSMDC稍微优于WSC;AP,OE,RL,C V 指标,WSMDC显著优于WSC.可以看出,采用多维相关性来处理弱标签优于只利用标签相关性.但WSMDC也有一定的缺点,其将特征相关性和实例相关性放在一个正则化里,没有将它们拆解出来做消融性分析.4.3统计假设检验采用显著性水平=0.0 5的弗里德曼检验2 8 来评估WSMDC算法在各个数据集上的综合性能.对F与F检验的临界值进行比较,若FF,拒绝原假设,反之则不拒绝.0.80.30.60.40.20.40.20.10.20002-1020-802-8-10-222404-840
21、-6-2-2-6-6-2404-84-8-2-8-10-820-10-8-10-1020.40.40.30.30.20.20.10.1002200-22-2240408-2-2-84-84-66-108-10-8-10-10图2Birds数据集上的参数敏感性分析Fig.2Parameter sensitivity analysis on Birds dataset702第59 卷南京大学学报(自然科学)Hamming LossAveragePrecisionOneError0.2000.50.175+0.80.4-0.150+0.60.1250.30.1000.40.20.0750.0500.
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 多维 相关性 弱类属 属性 学习
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。