基于多任务学习的同行评审细粒度情感分析模型.pdf
《基于多任务学习的同行评审细粒度情感分析模型.pdf》由会员分享,可在线阅读,更多相关《基于多任务学习的同行评审细粒度情感分析模型.pdf(9页珍藏版)》请在咨信网上搜索。
1、2024 年 第 45 卷 第 1 期(总第 213 期)Vol.45 No.1 2024(Sum No.213)中 北 大 学 学 报(自然科学版)JOURNAL OF NORTH UNIVERSITY OF CHINA(NATURAL SCIENCE EDITION)基于多任务学习的同行评审细粒度情感分析模型朱金秋,檀健,韩斌彬,殷秀秀(南京邮电大学 理学院,江苏 南京 210023)摘 要:学术论文同行评审能够直接反映审稿人对论文的主观评价,对审稿文本进行情感分析有利于挖掘审稿人对论文多维度的评价信息。现有的情感分析模型仅能挖掘专家单一的评审维度和相应的情感倾向,本文提出了一种基于多任务
2、学习的同行评审细粒度情感分析模型。该模型在多任务学习框架下,通过在BERT-LCF模型的基础上增加BiLSTM-CRF模块,使其具备了同时完成属性词抽取和细粒度情感分析任务的能力。与传统的基于Pipeline模式的单任务细粒度情感分析模型相比,本模型在保证精度的情况下可以同时完成评审属性提取和情感分析任务。在这两项任务中,所提出模型的F1分数分别达到了89.01%和90.71%。对比实验证明,在多任务场景下,引入BiLSTM-CRF模块对评审文本属性词提取任务有一定的提升作用。关键词:同行评审;多任务学习;属性词抽取;细粒度情感分析;BiLSTM-CRF中图分类号:TP391.1 文献标识码:
3、A doi:10.3969/j.issn.1673-3193.2024.01.014引用格式:朱金秋,檀健,韩斌彬,等.基于多任务学习的同行评审细粒度情感分析模型 J.中北大学学报(自然科学版),2024,45(1):105-113.ZHU Jinqiu,TAN Jian,HAN Binbin,et al.Finegrained sentiment analysis model of peer review based on multitask learning J.Journal of North University of China(Natural Science Edition),20
4、24,45(1):105-113.FineGrained Sentiment Analysis Model of Peer Review Based on MultiTask LearningZHU Jinqiu,TAN Jian,HAN Binbin,YIN Xiuxiu(School of Science,Nanjing University of Posts and Telecommunications,Nanjing 210003,China)Abstract:The peer review of academic papers can directly reflect the sub
5、jective evaluation of reviewers on the papers,and the extraction of sentiment information from the review text is beneficial to mining rich information of reviewers evaluation on each dimension of the papers.The existing sentiment analysis task could only extract the single review dimension and sent
6、iment of experts.A fine-grained sentiment analysis model for peer review is proposed based on multi-task learning.The model is equipped with the ability to accomplish both attribute word extraction and fine-grained sentiment analysis tasks by adding the BiLSTM-CRF module to the BERT-LCF model in a m
7、ulti-task learning framework.Compared with the traditional single-task fine-grained sentiment analysis model based on the Pipeline model,the proposed model can complete the review attribute extraction and sentiment analysis tasks simultaneously while ensuring the accuracy of the model.In the two tas
8、ks,F1-score of the proposed model reaches 89.01%and 90.71%,respectively.In addition,the introduction of BiLSTM-CRF module has a certain enhancement 文章编号:1673-3193(2024)01-0105-09收稿日期:2023-02-27作者简介:朱金秋(1995-),男,硕士生,主要从事自然语言处理的研究。通信作者:檀健(1989-),男,副教授,博士,主要从事分析数学、机器学习中的数学理论的研究。Email:。2024 年第 1 期中 北 大
9、学 学 报(自然科学版)effect on the review text attribute word extraction task in a multi-task scenario,as demonstrated by comparison experiments.Key words:peer review;multi-task learning;attribute word extraction;fine-grained sentiment analysis;BiLSTM-CRF0引 言随着科学技术的飞速发展,科技领域的论文产出呈井喷式的增长,尤其在计算机和人工智能领域,这给论文的评审
10、带来了巨大挑战。同行评审(Peer review)作为学界主流的评审方式,为论文评审和裁定的公平性提供了保障1。尽管如此,同行评审过程中的随机性、不一致性造成的评分偏差在学术界引起了广泛的讨论2。Ragone等3发现,评审人员水平的参差不齐会造成同行评审过程中无法发现论文的主要缺陷。正是这些同行评审制度问题的存在,使得目前学界越来越重视对同行评议数据领域的研究。以OpenReview为代表的线上论文公开评审平台的出现,促使同行评议日趋公开透明化,为学术论文评价领域研究提供了大量的开源数据支撑。情感分析作为自然语言处理领域的成熟技术,对于分析和挖掘专家在论文评审文本数据的主观评价信息方面有着巨大
11、的优势。然而,专家评审文本往往包含对论文多个方面的评价,传统的情感分析模型无法深入挖掘句子中多维度情感信息。如图 1 所示,该句子反映了评审对论文评价的两个维度情感倾向:writing(论文写作)和novelty(创新性)。相比于细粒度情感分析模型,传统粗粒度情感分析模型会因为只能识别句子的整体情感而造成情感判别的偏差。为了自动化地精确提取专家评审维度和情感,本文引入细粒度情感分析技术,提出一种同行评审细粒度情感分析模型BLBC(BERT-LCF-BILSTM-CRF-Joint model)。该模型利用多任务学 习 框 架,在 BERT-LCF 的 基 础 上 融 入BiLSTM-CRF 模
12、块,实现了同时提取专家评审维度和相应情感倾向的功能。1相关工作常见的细粒度情感分析模型主要采用深度学习方法,如 TD-LSTM4(Target-dependent long short term memory)、ATAE-LSTM5(Attention-based LSTM with aspect embedding)和 IAN6(Interactive attention networks)。这些模型都利用了长短期记忆网络(Long short term memory)和注意力机制(Attention),在文本序列建模的基础上,通过注意力机制将情感极性的预测聚焦于与之对应的属性词上。随着大规
13、模预训练模型的兴起,在细粒度情感分析领域,以BERT为输入层的模型取得较高的性能提升。基于 BERT 开发的BERT-PT7(BERT post-training)、BERT-SPC8和 BERT-LCF9(BERT local context focus),都是在传统的BERT输入序列末尾通过拼接属性词的方式,使得BERT模型更关注属性词序列的相关信息,以此提高该属性情感倾向的预测效果。然而,由于此类数据的标注是一个既费时又费力的工作,大多数研究往往不会提供语句里属性词的标记。因此,现有的细粒度情感分析任务很少会去考虑属性词的抽取任务,造成其在专有领域的应用性研究较少。在同行评审文本研究方面
14、,关于专家评审情感信息的提取主要还是使用粗粒度情感分析模型。Wang 等10引入多实例学习和注意力机制,分别对评审文本中每个短句的情感得分进行建模以提升论文接受预测的效果。Ghosal等11利用文档编码器和情感编码器分别提取论文内容信息和评审文本中的情感信息,同时完成论文接收预测和评分预测。林原等12提出了一种观点注意力机制,通过增加包含情感信息的观点句权重的方式来提高模型预测论文接收的效果。现有的细粒度情感分析在同行评审领域的应用主要通过人工划分好的论文评价维度分别对文本进行建模,但无法直接提取单个句子中内部属性词的情感分布。Yuan等13利用序列标注模型,实现了可自动化标注论文评审单个句子
15、中的维度图 1细粒度情感语句示例Fig.1Example of fine-grained sentiment statements106(总第 213 期)基于多任务学习的同行评审细粒度情感分析(朱金秋等)词及情感。Chakraborty等14从同行评审文本拆分的短句中标注了论文创新性、清晰性等9个论文评价维度以及其相应的情感极性,并以此分别对维度和情感进行建模。张明阳等15和Chakraborty等9类似,通过关键词匹配的方式,从论文的创新性、动机性等维度进行标注,并对单个句子中的单属性情感进行识别。类似地,这些研究虽然形式上加上了对文本评价维度的识别,但并没有考虑一个句子包含多个属性词或多
16、个评价维度的情况,其本质上还是一个粗粒度的多标签分类和标注问题。不仅如此,如果要同时识别评审维度和情感倾向,需要构建两个 Pipeline模型,这极大地增加了模型占用空间和复杂度16。综上所述,尽管情感信息的引入对同行评审文本接收预测有正向影响,但现有的研究均为基于粗粒度的情感分析建模,且现有的同行评审细粒度情感分析研究本质上也是通过文本分类或序列标注模型,以实现判断评审文本中单一的情感倾向的功能。本文提出了一种端到端的多任务细粒度情感分析模型BLBC,该模型可以同时提取句子中论文评审属性词以及其相应的情感倾向。2模型构建BLBC模型任务为给定一个包含属性的同行评审句子序列S=w1,wm,wm
17、+1,wm+k,wn,其中,wi为句子中的单词,wmwm+k为属性词序列,n为句子的长度,输出为 属性词,情感极性,模型结构如图 2 所示。2.1BERT共享输入层BERT(Bidirectional encoder representation from transformers)是一种基于大规模预训练的语言表征模型,能表征文本丰富的语义信息17。输入层采用基于BERT共享层的词嵌入方式,使用BERT-BASE(如图 3)和预训练模型 BERT-SPC(如图4),分别构建属性抽取输入表征模型和情感分析输入表征模型,用以提取全局和局部上下文信息。这两个模型的输入都由词向量、块向量和位置向量组成
18、,区别在于输入形式不同。在BERT 输入层中,以两个独立的 BERT 进行编码。全局输入序列为Inputg,局部输入序列为Inputl,其 中,w1,wm为 输 入 句 子 序 列,q1,qn为句子中的属性词序列。Inputg=(CLS,w1,wm,SEP,q1,qn,SEP),(1)Inputl=(CLS,w1,wm,SEP)。(2)输入序列经过BERT编码后得到全局和局部上下文特征,分别为Og,Ol。Og=BERT1(Inputg),(3)Ol=BERT2(Inputl)。(4)图 2BERT-LCF-BILSTM-CRF-Joint多任务细粒度情感分析模型Fig.2BERT-LCF-BI
19、LSTM-CRF-Joint multi task fine grained emotional analysis model图 3BERT-BASE输入特征Fig.3BERT-BASE input feature1072024 年第 1 期中 北 大 学 学 报(自然科学版)2.2局部语义注意力层全局上下文往往包含过多的信息,提取评审句子中的局部关键信息比使用全局信息对于训练模型更有效。局部语义注意力层(Local context attention)通过局部下文聚焦机制LCF(Local context focus),以加权的方式增加属性词附近的单词权重,降低距离属性词较远的单词权重。LC
20、F以属性词为中心,分别计算各个非属性词与属性词 的 相 对 语 义 距 离 SRD(Semantic-relative distance),最后,采取上下文特征动态加权 CDW(Context dynamic weighted)的方式将更多的注意力聚焦在设置的属性词相对语义范围内。其中,属性词的相对语义距离di为di=|i-pt|-|m2|,(5)式中:i(1in)表示词在句子中的位置;pt表示属性词的中心位置;m表示属性词的长度。若句子序列中各非属性词与属性词的相对语义距离di超过设定的阈值a,则对其进行权重衰减。若在设定的阈值内,则权重为1,权重计算方式为wi=E,di,n-()di-nE
21、,di,(6)W=w1,w2,wn,(7)OCDWl=OlW,(8)式中:E为元素全为1的向量;n为句子序列的长度;表示 Hadamard 积;W为动态权重矩阵。对BERT编码后特征Ol进行局部注意力加权,得到上下文动态加权特征OCDWl。2.3多头自注意力机制多头自注意力机制(Multi-head self-attention,MHSA)是在缩放点积注意力的基础上构建的,能避免评审文本中上下文的长距离依赖对学习语义特征造成的负面影响18。设X为输入特征,单头注意力(缩放点积注意力)Attention(Q,K,V)计算公式为Attention(Q,K,V)=Softmax(Q,KTdk)V,(
22、9)Q=XWq,K=XWk,V=XWv,(10)MHSA(X)=tanh(concatH1,HhWMH),(11)式 中:Q,K,V由 输 入 矩 阵 线 性 变 换 得 到;WqRdhdq,WkRdhdk,WvRdhdv为可学习的权重参数;dh为隐藏层大小,dq=dk=dv=dh。多头自注意力得分如式(11),由多个并行的单头注意力Hi拼接,并经过 tanh 函数激活得到。其中,h为单头注意力的个数,WMH为可学习权重矩阵。上一层的浅层局部语义特征和全局语义特征经过多头注意力MHSA编码后得到深层语义特征,即OMHSAl=MHSA(OCDWl),(12)OMHSAg=MHSA(Og)。(13
23、)2.4特征融合层特征融合层融合了局部上下文信息和全局上下文信息,以增强特定属性词的文本表征能力,输出特征Xpolarity计算公式为Xpolarity=Wf(concatOCDWl;OMHSAg)+bf,(14)式中:WfRdh2dh与bfRdh为可学习的权重矩阵与偏置项。2.5BiLSTM-CRF层BiLSTM-CRF 为属性词序列标记模型,如图 5 所示。在对输入特征进行双向 LSTM 编码后,条件随机场 CRF(Conditional random fields)可以学习前后文属性词标签之间的约束关系,以降低属性词提取的错误率,得到具有最大概率的合 理 序 列19。在 CRF 中,设
24、全 局 特 征 经 过图 4BERT-SPC输入特征Fig.4BERT-SPC input feature108(总第 213 期)基于多任务学习的同行评审细粒度情感分析(朱金秋等)BiLSTM(Bidirectional long short-term memory)编码后为Xterm,其对应的属性词标签预测结果Yt的得分Score(Xterm,Yt)计算方式为Xterm=BiLSTM(OMHSAg),(15)Score(Xterm,Yt)=i=0nAyi,yi+1+i=1nPi,yi,(16)式中:A为转移概率矩阵;Ayi,yi+1表示标签yi转移到yi+1的概率;Pi,yi表示第i个词标
25、记为标签yi的概率。2.6情感分析输出层本文提出的多任务细粒度情感分析有两个输出层,二者分别用Softmax激活函数进行指数归一化来预测属性词情感极性分布概率Yp和属性词标签的分布概率Yt。Yp=Softmax(Xpolarity),(17)Yt=Softmax(Score(Xterm,Yt)。(18)使用交叉熵损失函数作为情感极性预测任务和属性词抽取任务的损失函数。此时,模型训练的联合损失为L=-(1-)Lpolarity-Lterm+2,(19)Lpolarity=-c=1Cyplog yp,(20)Lterm=-n=1Nk=1Kytlog yt,(21)式中:Lpolarity为情感极性
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 任务 学习 同行 评审 细粒度 情感 分析 模型
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。