基于BERT模型的方面级情感分析.pdf
《基于BERT模型的方面级情感分析.pdf》由会员分享,可在线阅读,更多相关《基于BERT模型的方面级情感分析.pdf(5页珍藏版)》请在咨信网上搜索。
1、电子设计工程Electronic Design Engineering第31卷Vol.31第16期No.162023年8月Aug.2023收稿日期:2022-04-16稿件编号:202204111作者简介:李 壮(1996),男,山西吕梁人,硕士研究生。研究方向:自然语言处理。方面级情感分析1是针对给定文本的特定方面进行细粒度情感分析的任务,是情感分析领域2中的重要分支。传统机器学习方法依赖于人工特征提取的质量,导致分类精度较低。近年来,深度学习凭借良好的特征提取能力,在该领域中得到广泛应用3-5。经研究,注意力机制可有效提升情感分类效果6,因此成为该领域的常用方法7-9。Li10等人发现对输
2、入信息进行加权处理,可有效提升方面级特征提取能力。此外,相关学者提出 GPT11和 ELMO12提升分类效果,但两种模型均需大量人工标注数据集进行训练。He13等人则利用迁移学习将文档级知识转移到方面级情感分类任务中,并有效提升分类精度。然而,以上研究均未考虑到该领域数据集较少,且目前工作迁移层次不够深的问题。为了丰富方面级数据的获取形式并提高分类精度,文中提出了 BERT-DTL-HAN 模型,该模型结合层次注意力网络14,可以将同领域句子级别的情感知识深层次迁移15到方基于BERT模型的方面级情感分析李 壮,李鸿燕(太原理工大学 信息与计算机学院,山西 晋中 030600)摘要:针对传统的
3、方面级情感分析模型不能很好表征深层次的字词向量信息,且无法解决该领域由于人工标注的高成本方法,使得数据集普遍较少而导致的分类效果较差的问题,提出 BERT-DTL-HAN方面级情感分析模型。模型通过 BERT结构在获得含有丰富语义信息字词向量信息的同时,结合深层次迁移学习和层次注意网络机制将数据量大的句子级别情感分析数据集,通过单词编码层和片段编码层两个维度深层迁移到数据量小的方面级情感分析任务中,并在三个领域的数据集上进行实验。对比该领域内的三个最佳基准模型,其准确率分别提升1.40%、0.96%和0.93%。关键词:情感分析;深度学习网络;BERT模型;迁移学习;注意力机制中图分类号:TN
4、91文献标识码:A文章编号:1674-6236(2023)16-0138-05DOI:10.14022/j.issn1674-6236.2023.16.029Aspectlevel sentiment classification based on BERT modelLI Zhuang,LI Hongyan(School of Information and Computer,Taiyuan University of Technology,Jinzhong 030600,China)Abstract:The traditional aspectlevel sentiment analysi
5、s model can not well represent the deeplevelword vector information,and can not solve the problem of poor classification effect due to the high cost ofmanual annotation method,which makes the data set generally less.Aiming at these two problems,thispaper proposes a BERT-DTL-HAN aspect emotion analys
6、is model.Model by BERT structure containsrich semantic information of words vector information at the same time,combined with deep migrationmechanism and hierarchical network learning a large quantity of data to sentence level sentiment analysisdata set by encoding layer and section code words deep
7、migration to the small amount of data of twodimensions emotional level analysis task,and in three areas of experimental data set.Compared with thethree best benchmark model in this field,the accuracy of the model is improved by 1.40%,0.96%and0.93%respectively.Keywords:emotionanalysis;deeplearningnet
8、work;BERTmodel;transferlearning;attentionalmechanism-138面级任务中,通过与基准模型进行对比实验,证明该方案的可行性和有效性。1BERT-DTL-HAN模型1.1模型结构文中提出的模型是基于 BERT16作为预训练模 型,结合深度迁移学习(Deep Transfer Learning,DTL)方法和层次注意力网络(Hierarchical AttentionNetworks,HAN)的细粒度情感分析模型。BERT-DTL-HAN模型结构如图1所示。图1BERT-DTL-HAN模型结构图模型包含四个部分,分别为基于 BERT 模型的文本嵌入层
9、、进行深层次迁移学习的单词编码层和片段编码层,以及进行情感极性分类的输出网络层。1.2文本嵌入层文本嵌入层将输入的文本语料转换为深度学习模型输入的词向量的数学形式,并进行中文语料预处理的工作。传统语言模型如独热编码和 Word2Vec,仅可实行单向特征提取,且特征向量维度单一。为了解决传统的词嵌入方法不能很好地表征深层次的字词向量信息,文中引入了图 2所示的 BERT 模型,该模型可以进行词义向量、分段向量和位置向量三个维度的特征提取,且采用双向 Transfoemer结构获取上下文特征信息。图2BERT模型图以“My dog is cute”为例句,其词向量、分段向量和位置向量三个维度的向量
10、信息如图3所示。图3BERT模型输入图三个维度大小相同,其中位置向量是通过三角函数对输入文本中各个位置分别进行编码得到的,计算公式如下式:PE(pos,2i)=sin pos10 0002idp(1)PE(pos,2i+1)=cos pos10 0002idp(2)式中,pos表示第 pos个词,i表示在词向量嵌入模型中的第i维。文本嵌入层通过 BERT 模型进行预训练时,序列长度被控制在 BERT 能处理的最大序列长度 512以内,其中长度不足 512的用 0填充,以方便进行模型进行矩阵运算。1.3单词编码层单词编码层采用双向长短时记忆网络(LongShort-Term Memory,LST
11、M)编码,该网络包含前向LSTM 和后向 LSTM,可以从单词层面的两个方向读取方面级的特征信息。单词编码层将句子级别的特征信息深层迁移到单词层面。正向 LSTM 建模定义李 壮,等基于BERT模型的方面级情感分析-139电子设计工程 2023年第16期为 hit,后向 LSTM 建模定义为 hit,总建模为hit,建模的具体公式如下:hit=LSTM(xij,LSTMw)(3)hit=LSTM(xij,LSTMw)(4)hit=hit,hit(5)其中,xij表示输入文本中第 i个句子中第 j个单词的编码信息,LSTMw表示用于单词编码器的 LSTM的参数。单词层次注意力机制的构建公式如下:
12、uit=tanh(Kithit+Rit)(6)vi=exp(uTituw)texp(uTituw)(7)oi=ivithit(8)式中,Kit为权重参数,Rit为偏置参数,uw为单词编码模型学习得到的向量,oi为单词编码层的输出。1.4片段编码层片段编码层也采用双向LSTM架构,实现对片段层次的特征信息的双向编码。片段编码层将句子级别的特征信息深层迁移到片段层面。片段编码器的正向建模定义为hi,后向建模定义为hi,总建模定义为hi。建模的具体公式如下。hi=LSTM(xij,LSTMw)(9)hi=LSTM(xij,LSTMw)(10)hi=hi,hi(11)其中,xij表示输入文本中第 i个
13、句子中第 j个片段的编码信息,LSTMw表示用于片段编码器的LSTM的参数。片段层次注意力机制的构建公式如下:ui=tanh(Wihi+bi)(12)vi=exp(uTius)texp(uTius)(13)S=ivihi(14)式中,Wi为权重参数,bi为偏置参数,us为片段编码模型学习得到的向量,S为片段编码器注意力层输出。1.5输出网络层输出网络层采用全连接和 softmax 函数进行情感分类和归一化处理,模型的最终输出向量为Z,公式如下:Z=softmax(WS+b)(15)式中,W为权重参数,b为偏置参数。采用Adam优化方法进行参数更新,并使用最小化交叉熵损失函数作为目标函数优化模型
14、的情感分类效果,公式如下:loss=-iBiLyjilnyji+2(16)式中,B 为训练集的数据量,L 为情感具体分类的个数,实验中数据量的大小为3,y为预测类别数,y为实际类别数,2为交叉正则项。2实验结果与分析2.1实验数据集文中采用了三个领域的公开数据集,分别为餐馆(Restaurant)评论数据集和笔记本电脑(Laptop)数据集以及推特(Twitter)数据集,数据集被划分为训练集和测试集,具体数据如表1所示。表1实验数据集数据集LaptopTwitterRestaurant积极样本数量/个训练集1 0321 6782 349测试集337183694消极样本数量/个训练集9201
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 BERT 模型 方面 情感 分析
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。