基于深度学习的新型电力智能交互平台多任务集成模型研究.pdf
《基于深度学习的新型电力智能交互平台多任务集成模型研究.pdf》由会员分享,可在线阅读,更多相关《基于深度学习的新型电力智能交互平台多任务集成模型研究.pdf(6页珍藏版)》请在咨信网上搜索。
1、第6 0 卷第6 期2023年6 月15日电测与仪 表Electrical Measurement&InstrumentationVol.60 No.6Jun.15,2023基于深度学习的新型电力智能交互平台多任务集成模型研究程超,葛维,郭兰柯,陈博,张亚炜1(1.国网河北省电力有限公司,石家庄0 50 0 0 0;2.国网河北省电力有限公司石家庄供电分公司,石家庄0 50 0 0 0;3.国网河北省电力有限公司营销服务中心,石家庄0 50 0 0 0)摘要:意图理解是新一代电力智能交互平台中的一项基础技术。通过将用户诉求自动分类与分级,可以大幅提升服务效率和质量。针对电力交互平台中的意图理解
2、问题,提出一种基于深度学习的多任务集成模型,该模型可以同时训练意图理解中密切相关的两项子任务:意图检测(IntentDetection)与语义槽填充(SlotFilling)。使用具有长短期记忆(Long-Short Term Memory,LSTM)结构和门控循环单元(Gated Recurrent Unit,GRU)的深度双向循环神经网络(RecurrentNeuralNetwork,R NN)作为基本分类器,多层感知机(Multi-LayerPerceptron,M LP)框架用于组合输出结果,并基于词向量特征与词性特征对模型进行增强。在真实数据上的实验表明该集成多任务模型相比单一模型或
3、其他主流方法更为有效。关键词:意图理解;深度学习;循环神经网络;自然语言处理;电力服务D0I:10.19753/j.issn1001-1390.2023.06.012中图分类号:TM93Research on multi-task ensemble model based on deep learning for(1.State Grid Hebei Electric Power Company,Shijiazhuang 050000,China.2.Shijiazhuang Power Supply Company,State Grid Hebei Electric Power Compan
4、y,Shjiazhuang 050000,China.3.Marketing Service Center,State Grid Hebei Electric Power Company,Shijiazhuang 050000,China)Abstract:Intent understanding is a fundamental technology in novel power intelligent interaction platform.Through clas-sifying and grading intents of customers automatically,the ef
5、ficiency and quality of power service can be remarkably im-proved.Towards intent understanding problem in power interaction platform,a multi-task ensemble model based on deeplearning is proposed,which can simultaneously train two closely related sub-tasks in intent understanding,named intentdetectio
6、n and slot filling.Recurrent neural network(RNN)with long-short term memory(LSTM)and gated recurrent u-nit(GRU)respectively are used as basic classifier in the proposed model,and multi-layer perceptron(MLP)generatesthe final output.Word vectors and part-of-speech(POS)features are used to reinforce t
7、he proposed model.Experimentalresults on real-world dialogue data indicates the superiority of the proposed multi-task ensemble model compared with inde-pendent models and other peer models.Keywords:intent understanding,deep learning,recurrent neural network,natural language processing,power service
8、0引言在新一代电力智能交互平台中,基于对用户的意基金项目:国网河北省电力公司科技项目(TSS2018-03)文献标识码:Anovel power intelligent interaction platformCheng Chao,Ge Wei,Guo Lanke,Chen Bo,Zhang Yawei文章编号:10 0 1-139 0(2 0 2 3)0 6-0 0 8 1-0 5图理解(Intent Understanding)作出响应将成为一项基础性技术,对提升电力服务的智能化和自动化有重要意义。意图理解旨在识别自然语言中的目的要素,指导后台系统生成响应或执行对应措施满足用户需一8 1
9、一第6 0 卷第6 期2023年6 月15日求1-2 。借助意图理解技术,电力智能交互平台可以自动地将用户诉求分类和分级处理,服务效率从而得到显著提升,并节省可观的人力成本3。并且,意图理解可以作为一个高可扩展的基本模块,支撑平台中的更多后续任务,如情绪分析和服务质量评价等45。本文针对新一代电力智能交互平台中的意图理解问题提出一种深度学习方法。本文方法采用了集成的多任务学习范式,同时处理意图理解问题的两个密切相关的子模块:意图检测(IntentDetection)与语义槽填充(SlotFilling)。具体地,该方法基于深度循环神经网络(RecurrentNeuralNetwork,RNN)
10、结构,并结合了词向量特征与词性特征,最终由多层感知机(Multi-LayerPerceptron,MLP)模块输出最终结果。本文在实际的电力对话文本数据上验证了该方法的有效性。11问题定义如表1所示,文章研究了意图理解问题通常被依次执行的两个主要子任务:意图检测与语义槽填充。其中,意图检测即在自然语言中提取出可能涉及意图要素的部分。表1意图理解的两个子任务Tab.1TTwo sub-tasks of intent understanding词我需要预约明天九点过来看一下电表箱语义槽000Time Time意图类型预约现场检修在电力智能交互平台对话这类专门场景中,意图检测可以视为一般的文本分类问
11、题来处理,即将一段文本归类为某种意图6 。用词序列表示文本=x1,,,其中x;表示词语,y(1i N)表示预先设置的N种可能意图(通常是一组动作或行为),则意图理解步骤需求解使后验概率p(y;I x)最大的意图:y*=arg maxp(y;I x)语义槽填充则是将用户说话文本中的意图要素丰富为实际目的的过程,所填充的语言要素(语义槽)指的是与不直接涉及抽象意图类型,但参与描述实际目的的现实对象,如图1,这类对象通常包括来访用户指定的时间,需要维修的设备和所在地址等7 8 。通过语义槽填充步骤,在意图检测阶段得到的抽象意图类别被具体化为用户的实际需求,此时涉及意图的自然语言(非结构化数据)被简化
12、为抽象意图类型与时间/地点/设备要素构成的易于处理的结构化数据。给定标签集s(1i M),则语义槽填充需求得使后验概率一8 2 一电测与仪表Electrical Measurement&Instrumentationp(s;Ix)最大的语义标签:S*=arg,maxp(s;I x)比较式(1)和式(2)式容易看出,意图检测和语义槽填充这两个子问题实际上具有完全相同的形式,都是一个典型的分类问题,两个问题所处理的数据也是完全一致的(都基于用户的说话文本),唯一的区别仅在于分类的标签集。因此可以基于多任务学习范式实现信息共享,同时处理两个问题以提升平台效率,并在两个问题上相比单独训练取得更优的结果
13、。2多任务意图理解在提出的方法中,文本被视为词语的序列,每个词语(或每若干个词语)可以被当作文本在一个时间步的样本(但与实际的时间长短无关)。利用具有长短期记忆(Long-Short Term Memory,LSTM)结构和门控循环单元(GatedRecurrent Unit,GRU)的深度双向循环神经网络学习文本在两个层次上的表示:局部表示,即每个时间步上的表示,与语义槽填充任务有关,用于预测需要填充的语义标签;全局表示,与意图检测任务有关,用于预测文本的意图行为标签。借助神经网络共享信息与组合损失函数,可以实现同时训练分别用于两种任务的模型。图1为所设计的多任务意图理解技术的基本框架。图中
14、的输人数据=i,,x 表示词语顺序构0Operation DeviceVol.60 No.6Jun.15,2023(2)成的句子,每个词语x;(1iT)通过词嵌人(WordEmbedding)技术9-10 转换为稠密的词向量表示e(w;),作为深度RNN模型的输入。语义标签h2h4BB-BBB-(1)e(wDe(w)个Xi-IX,图1基于深度循环神经网络的多任务意图理解Fig.1Frame of the proposed multi-task intentunderstanding based on deep recurrent neural network如图1所示,RNN模型将同时执行意图
15、检测与语义槽填充两个子任务,且两个子任务共享了网络中的部分参数信息。其中,语义槽填充任务是在RNN按词前向传播过程中逐步输出结果的,对于整段文本将输出一组语义标签;意图检测模块在前向传播完成后执hnB-B-B-elw)X.I第6 0 卷第6 期2023年6 月15日行完成,对每段文本给出一个意图类型预测结果。2.1 词嵌入词嵌入方法对于捕捉句子中的上下文关系等隐藏语义信息十分有效。相比传统的one-hot编码或词袋(Ba g-O f-Wo r d s,BO W)等语言表示模型,词嵌人技术基于词语的共现(Co-Occurrence)关系,因此更能反映词语之间的联系与全局特征。并且,经过词嵌人得到
16、的词向量是稠密的,易于被机器学习模型处理,有效解决了自然语言的稀疏性问题。对句子中的任意词w,将w前后(称为窗口)的若干词作为w的上下文,记为Context(w),词嵌入技术采用最大似然估计的观点,以w出现的条件下Context(w)共现的概率p(Co n t e x t(w)w)为最大化目标函数。假设句子中各个词的出现是相互独立的,则词w上的目标函数为:p(Context(w)I w)=II p(ul w)(3)ueContext(w)为便于基于梯度的优化算法求解,通常使用式(3)的负对数形式,即:ulnp(ul w)L=-ueContexi(w)汇总文本中所有词的目标函数,就得到了全局的最
17、小化目标函数。假设词w与u的词向量分别为e(w)与e(u),条件概率p(u l w)可以设置为softmax函数,即:p(u I w)=词嵌入方法使得频繁出现在w上下文,即与w共现关系强的词u与w具有相近的词向量,此时p(u l w)的值也就更大。式(5)分母中的和式需要计算词w和语料中其他所有词的词向量内积,显然复杂度极高,不易于计算。考虑到语料中绝大部分词互相之间的共现关系都较弱(即大部分e()e(w)的值都接近0),因此这一步骤中可以采用负采样技术简化计算,即从语料中随机地抽取一定数量的词计算该和式12 。一般情况下,利用通用语料上训练的词向量就可以达到较好的效果,但考虑到文中讨论的是电
18、力交互平台这一专门场景,因此实际使用的词向量是在已有的电力服务文本大数据上基于常用的Word2Vec方法13 预训练得到的。2.2技术框架如图2,为建立图1所示的意图理解模型,本文使用了集成学习的方法,同时使用了含双向LSTM(Bi-Di-rectional LSTM,BiLSTM)与双向 GRU(Bi-D i r e c t i o n a l,电测与仪 表Electrical Measurement&InstrumentationGRU,BiGRU)结构的深度 RNN 模型14-15 集成原始文本一词向量模型意图理解多层感知机双向CRU图2 多任务意图理解集成模型Fig.2 Multi-t
19、ask intent understanding ensemble model根据图1与图2,神经网络在t时间步上的隐藏状态,即图1中的h,同时依赖于当前时间步的文本输人x;与前一时间步上的隐藏状态ht-1经过LSTM与GRU神经元后的结果,可以表示为:h,=LSTM(x,ht-1),GRU(x,ht-1)为提升效果,文中在模型中还引人了词汇的词性(Part-of-Speech,PoS)类别特征(以One-Hot向量形式表示),并与LSTM与GRU的输出层状态向量直接拼接,作为多层感知机(即全连接的神经网络模型)的输人状态向量,最终经过 softmax函数,分别得到语义槽(4)填充和意图理解两
20、项子任务的分类结果,即:y,=softmax(w,h,+b,)与:y;=softmax(w;h,+b,)其中y,与y;分别表示模型预测得到的待填充的exp e(u)e(w)(5)E,exp e(v)e(w)Vol.60 No.6Jun.15,2023双向ISTM多层感知机一同性特征(一组)语义标签与意图类型,w(b,)与w;(b;)分别表示实现两项子任务的多层感知机网络的权值矩阵(偏置向量)。3实验分析3.1数据集本文实验所使用的数据来自某电网服务中心9 559 8电话服务平台2 0 18 年2 月2 0 19 年5月的部分真实场景下的对话记录,共计2 16 0 40 条,数据集中已经剔除了无
21、效的通话记录,如与电力服务完全无关或接人时长极短的通话。数据集涉及10 个意图类型,覆盖真实场景中用户接人对话的10 种可能需求,和6 个语义槽类型,代表实际派工单过程中需要补充的6 个工单信息。该数据集同时用于生成Word2Vec词向量的预训练步骤。3.2模型训练方法文中的深度神经网络模型基于流行的PyTorch深度学习框架16 搭建,训练所使用的硬件平台为一台内存6 4GB,搭载两块NVIDIAGTX1080Ti图形处理器的计算机。尽管模型的完整训练过程需要较长的时间,但短时间内语料的总体特征(如常见词的分布等)可以认一8 3一语义槽填充(6)(7)(8)第6 0 卷第6 期2023年6
22、月15日为不会发生显著的变更,实际使用中可以按较长的周期(如每月或每个季度)进行迭代,并不需要频繁地训练。对于给定的文本,模型执行推理过程并给出意图理解的预测结果几乎是瞬时的,因此可以支撑电力服务平台上实时交互的需求。双向LSTM与双向GRU网络的神经元数量都固定为2 0 0,多层感知机设置为三层,词向量维度设置为50 0 维。模型的优化过程基于Adam优化器与drop-out 正则化技术,drop-out 比率设置为 15%17-8 3.3实验结果首先验证了采用集成的多任务学习范式同时训练两项子任务相比分别训练模式的优势。表2 中双向LSTM和双向GRU模型在两个子任务上的效果实际上就是在不
23、进行任何参数共享的条件下,两次训练模型再作预测分别可以达到的效果。如表2 所示的结果,相比使用BiLSTM或BiGRU网络单独训练两个模型,在意图理解(ID)和语义槽填充(SF)两个关联的子任务上,集成多任务模型都取得了更好的识别精度(用macro-F1指标表示)。这也说明了所设计的借助深度神经网络实现参数信息共享的技术对解决意图理解任务的两个子问题都具有提升作用。表2 多任务模型与独立模型比较Tab.2 Comparison among multi-task model andindependent models模型意图检测(ID)BiLSTM(ID)80.87BiLSTM(SF)BiGRU
24、(ID)BiRU(SF)集成模型(ID+SF)表3中比较了所提出的方法与其他几种意图理解任务中常用模型的性能,包括支持向量机(SupportVector Machine,SVM),超状态隐马尔可夫模型(Super-State Hidden Markov Model,SSHMM),文本卷积神经网络(Text Convolutional Neural Network,TextCNN),梯度提升决策树(Gradient Boosting Decision Tree,GBDT)与条件随机场(Conditional Random Field,CRF)19-23。可以看出,所提出的基于多任务范式的意图理解
25、模型在准确性上具有一定优势。表3还同时说明了词性特征对各种模型效果的提升作用,由于所使用的词性特征是通用语料的词性标签,提升幅度并不明显。并且,由于词性特征标签是以一8 4一电测与仪表Electrical Measurement&Instrumentationone-hot向量直接输入神经网络的,这种稀疏性较高的处理使这一特征对于基于神经网络类模型(如本文模型与TextCNN模型的提升效果几乎可以忽略不计)。理论上,如果基于电力领域专门文本进行更细粒度的词性标注,可以预见模型性能将得到进一步改善。表3模型性能比较Tab.3 Performance comparison among models
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 深度 学习 新型 电力 智能 交互 平台 任务 集成 模型 研究
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。