基于注意力时序网络的非侵入式负荷分解.pdf
《基于注意力时序网络的非侵入式负荷分解.pdf》由会员分享,可在线阅读,更多相关《基于注意力时序网络的非侵入式负荷分解.pdf(12页珍藏版)》请在咨信网上搜索。
1、D0I:10.13878/ki.jnuist.20220703002沙建峰席乐冯亚杰庄伟?基于注意力时序网络的非侵人式负荷分解摘要非侵入式负荷分解的本质是根据已知的总功率信号分解出单一的负荷设备的功率信号.目前基于深度学习模型大多存在网络模型负荷特征提取不充分、分解精度低、对使用频率较低的负荷设备分解误差大等问题.本文提出一种注意力时序网络模型(Attention RecurrentNeuralNetwork,ARNN)实现非侵入式负荷分解,它将回归网络与分类网络相结合来解决非侵入式负荷分解问题.该模型通过RNN网络实现对序列信号特征的提取,同时利用注意力机制定位输入序列中重要信息的位置,提高
2、神经网络的表征能力.在公开数据集Wiki-Energy以及UK-DALE上进行的对比实验结果表明,本文提出的深度神经网络在所有考虑的实验条件下都是最优的.另外,通过注意力机制和辅助分类网络能够正确检测设备的开启或关闭,并定位高功耗的信号部分,提高了负荷分解的准确性.关键词负荷分解;时序网络;注意力机制;辅助分类中图分类号TP714文献标志码A收稿日期2 0 2 2-0 7-0 3资助项目国家自然科学基金(6 17 7 32 19)作者简介沙建峰,男,高级工程师,研究方向为电力通信网分析、电力大数据分析.18 10 庄伟(通信作者),男,博士,副教授,主要研究方向为大数据分析理论及应用.zW1国
3、网河南电动汽车服务有限公司,郑州,4500522南京信息工程大学计算机学院,南京,2100440引言负荷监测方法有助于用户了解用电现状,减少能源消耗,也有助于电网公司实现科学的电力调度,从而达到节能减耗的目的.目前负荷监测有两种方法,即侵人式负荷监控(Intrusive Load Monitoring,ILM)和非侵人式负荷监控(Non-Intrusive Load Monitoring,NILM).ILM需要在每个设备上安装至少一个传感器来分别监控负荷,而NILM只需要在每个家庭的总线上安装一个传感器.NILM在物理上很简单,但方法更为复杂,因此基于NILM的方法得到了更广泛的研究.为了提高
4、能源效率和加快智能电网的发展-,特别是在可再生能源日益普及4的情况下,非侵入式负荷分解的问题受到广泛关注.NILM的分解方法可分为基于事件和非基于事件(无事件)两种类型.基于事件的方法捕获切换事件期间设备状态的变化5】,这种方法通常需要高频采样以便提取丰富的特征以获得辨识高精度.一些相关工作在kHz 的采样频率下提取了这些瞬态特征6-8 .非基于事件的方法不会特别检测任何设备的状态变化,相反会考虑所有设备电源状态.非基于事件的方法已经研究了隐马尔可夫模型9-12 ,用于一般建模设备或优化框架13-141.此外,一些研究人员还关注外部信息的能量分解,包括外界温度、时间或一周中的某一天也被视为重要
5、特征15,此类信息和个人消费习惯相关.传统方法分解精度较差:一方面,传统方法是基于人工特征的,而人工设计的特征很难有效地反映负荷的真实情况;另一方面,传统方法往往是基于优化模型的,负荷分解问题的优化问题只能转化为有残差的组合优化,很难实现最优的求解.因此,传统方法获得的结果一般不理想.在过去几年中,深度学习已成为NILM的一种流行方法16-17 .已有的结果表明,深度学习方法可以提高负荷特征的提取效率,从而提高NILM性能.然而,已有的工作并没有明确利用电力消耗数据的固有特性,对使用频率较低的负荷特征提取不充分,对负荷突变处的关注度不够,这些都影响了负荷分解的精度.传统的深度学习主要采用卷积神
6、经网络或RNN(Re c u r r e n t Ne u r a lNe t w o r k s,循环神经网络)两种方式,这两种网络对于时间序列的每个部分的特征提取的权重几乎是一样的,而使用频率较低的电器由于其数据相对较少,导致网络获得的信息相对较少.因此,传统的深度网络很难实现对使用频率较小的电器的准确分解.另外,负荷的突变表明某一电器发生状态变化,南京信息工经大学学报(自然科学版),2 0 2 3,15(4):448-459Journal of Nanjing University of Information Science&Technology(Natural Science Edi
7、tion),2023,15(4):448-459这种变化是需要关注的,但是目前的网络对时间序列上的特征并没有区别对待,因此对突变部分的关注不够,从而不能对负荷突变这种重要信息进行有效提取本文提出一种基于RNN的编码器-解码器模型,从聚合信号中提取特定于设备的功耗,并使用注意力机制对其进行增强.注意力机制具有增强神经网络表征能力的功能,可以定位输人序列中存在相关信息的位置.基于注意力的模型可以通过为聚合信号的每个位置分配重要性来帮助能量分解任务,聚合信号对应于目标设备状态变化的位置.此外,本文利用这些属性中的一个,即设备的开关状态概念.本文提出一种分类网络和回归网络,它采用一个子网络进行回归,另
8、一个子网络进行开/关分类.通过将回归输出与分类概率相乘,形成最终估计,该模型输出带有开/关分类的功率估计.通过明确反映分类错误的损失函数,分类网络辅助回归网络计算功耗估计.本文提出的注意力时序网络模型(AttentionRecurrentNeural Networks,ARNN)在公开数据集Wiki-Energy和UK-DALE上进行了测试,并使用不同的指标对性能进行了评估.结果表明,本文算法是最优的.1问题描述1.1负荷分解的定义非侵人式负荷分解的本质是将家庭住宅已知的总功率信号分解出单一的负荷设备的功率信号.对于一个家庭住宅来说,总功率信号是指家中主电路上智能电表所测得的功率数据,因此进行
9、负荷分解的目的是为了获悉某时间段内家庭中负荷设备的功率变化情况.假设家庭中共有M个电器设备,那么在某时刻t的负荷分解结果,由式(1)表示:MP(t)=Zp:(t)+p.(t),i=1其中,P(t)表示t时刻智能电表获取的总功率数值,P;表示该家中各个负荷设备的功率值,p(t)表示的则是电力线路中的噪声功率数值.目前基于模型的负荷分解方法,大多是在给定总功率数值P(t)的情况下,来预测单一负荷设备的功率数值Pi1.2数据预处理1.2.1滑动输入提取数据神经网络需要大量的训练样本进行微调,才能有良好的性能.除此之外,数据在输人神经网络之前,都要被转换成一致的输入维度,每个数据都被分段成恒等长度的向
10、量,这就叫窗口.因此对训练序列449和测试序列进行滑动处理.如图1所示,对训练序列的滑动窗口采用重叠滑动的方式增加数据,假设序列长度为M,在原始数据上切一个长度为N的窗口,滑动步长为1,再进行滑动操作,得到M-N+1个训练样本.同理,如图1b所示,在测试序列上采用非滑动窗口的方式,假设序列长度为H,就可以得到H/N个测试样本.滑动训练序列a.重叠滑动图1滑动处理示意Fig.1 Schematic of sliding processing1.2.2数据组合和标准化本文在合成所有数据之后,把它们分为训练集、测试集,以便更好地训练和更准确地评价.将8 0%数据作为训练序列,剩余的2 0%作为测试序
11、列.在训练神经网络之前一般要对输人和输出数据进行预处理,归一化处理是常用的一种处理方法,其本质上是一种线性变换,经此变换后能使数据的每一个分量都落在0,1 或者-1,1 之间,本文采用0,1 区间,具体实现方式为X;-XminxXmax-Xmin式中,x;代表样本的输人或输出数据,xmin代表样本(1)输入或输出数据的最小值,max则代表输人或输出数据的最大值,x代表经归一化后的数据.2模型介绍本文提出了一种注意力时序网络模型(ARNN)来实现非侵人式负荷分解,它将回归网络与分类网络相结合来解决非侵入式负荷分解问题,可实现负荷特征的有效提取,提高负荷分解的准确率,2.1注意力机制神经网络模型由
12、编码器和解码器组成.编码器是一种RNN模型,它将输人序列(1,2,r)作为输入,其中T是输入序列的长度,并将信息编码为固滑动b.非重叠滑动(2)测试序列沙建峰,等.基于注意力时序网络的非侵入式负荷分解。450SHA Jianfeng,et al.Non-intrusive load decomposition based on attention recurrent network model.定长度的向量(h1,h,,h),这有利于完整的概括器的相对重要性将编码器的所有隐藏状态结合起整个输人序列.解码器也是一个RNN模型,它使用单来.注意机制可以表述为个上下文向量c=h作为输人进行初始化,并
13、逐向量e,=a(h,),生成输出序列(y1,y2,,y),其中N是输出序列的,=exp(e,)/exp(e),长度.在每个时间步中,h,和,分别表示运行过程中编码器和解码器的隐藏状态.这种传统的编码器-解码器框架存在两个问题.1)单一上下文向量设计的一个关键缺点是系统无法记住长序列:编码器的所有中间状态都被消除,只有最终的隐藏状态向量用于初始化解码器.这种技术仅适用于小序列,随着序列长度的增加,向量成为瓶颈,可能导致信息丢失18 .2)它无法捕获输人和输出序列之间的对齐需求,这是结构化输出任务的重要方面19.如图2 所示,注意力机制最初由Bahdanau等2 0 为机器翻译引人,他们的方法的新
14、颖之处在于引人了一个对齐函数,这样,神经网络可以同时学习输入输出的对齐和平移.注意力机制的中心思想不是丢弃隐藏编码器状态,而是组合并利用所有状态,以便构造解码器,生成输出序列所需的上下文向量.该机制通过学习输人序列上的注意力权重,对存在相关信息的位置集进行优先级排序.S,-102hh2图2 注意力模型原始图形表示Fig.2 Original graphic representation of attention model本文所提出的ARNN模型中所使用的注意力机制便是为了解决上述问题,通过注意力机制在输入序列上训练得到相关权重,并进行优先级排序.基于注意力的模型可以通过将重要性分配给聚合信号
15、的每个位置(对应于目标设备的状态变化),从而帮助能量分解任务,这使得神经网络能够将其表征能力集中在聚合信号中目标设备的选定时间步上,而不是集中在非目标设备的激活上,使得预测结果更为准确.对于NILM问题,聚合功耗与相应设备的负载完全一致,并且这种一致性是提前知道的.因此,为了关注激活设备在聚合信号中的作用,本文使用了文献2 0 提出的简化注意力模型,该模型利用编码TTc,=Z,h,t=1其中,是可学习函数,仅取决于编码器h,的隐藏状态向量.函数可以通过前馈网络实现,该网络学习特定的注意权重,该权重确定h,的重要性得分,并使得网络识别输出更高权重的时间步.2.2模型设计设备激活的持续时间用于确定
16、为NILM建模选择输人和输出序列的窗口大小.准确地来说,设X,=(x,x+L-1)和 Yi,=(y,y*L-1)分别是从时间t开始的长度为L的部分聚合序列和应用序列.此外,构建了辅助状态序列(si,,s i),其中s;0,1表示设备i在时间t的开/关状态.当消耗量大于某个阈值时,设备的状态被视为“开”,当消耗量小于或等于同一阈值时,设备的状态被视为“关”.笔者的想法是利用分类网络作为辅助网络来提高负J,荷分解的准确率,即将分类网络与回归网络联合训S练.这里的区别在于,通过使用基于RNN的神经网络和注意机制来执行回归任务,从而生成更准确的功耗估计.通过设计的注意机制加强回归网络检测某些事件(打开
17、或关闭设备)和特定信号部分(高功h3h(3)耗电器),并赋予其更大的权重,而分类网络通过区分电器开关状态来帮助分解过程,如图3所示,编码器网络由一个具有4个一维卷积层(ConvlD)的 CNN(Co n v o lu t i o n a l Ne u r a l Ne t-work,卷积神经网络)组成,该CNN具有ReLU激活功能,该功能处理输人聚合信号并提取设备特定的签名作为一组特征映射.最后,RNN将特征映射集作为输人,并生成隐藏状态序列,汇总聚合信号的所有信息.本文使用双向LSTM(长短时记忆网络)来获得隐藏状态h,它融合了来自两个方向的信息.双向LSTM由正向LSTM(从左到右读取序列
18、)和反向LSTM(从右向左读取序列)组成.编码器隐藏状态的最终序列是通过从两个方向串联隐藏状态向量获得的.编码器和解码器之间的注意单元由单层前馈神经网络组成,该神经网络计算注意权重,并返回上下文向量作为编码器输出随时间的加权平均值.并非所有由CNN生成的特征图在识别目标设备的激活南京信息工经大学学报(自然科学版),2 0 2 3,15(4):448-459Journal of Nanjing University of Information Science&Technology(Natural Science Edition),2023,15(4):448-459451分类网络:分类概率归一
19、化数据输人数据!归一化数据卷积层卷积层卷积层注意力层全连接层一回归网络:负荷预测卷积层卷积层LSTM层注意力层全连接层1输出数据图3ARNN模型结构Fig.3The proposed ARNN model structure方面都有相同的贡献.因此,注意机制捕获设备的显著激活,提取出比其他机制更有价值的特征图进行分解.实现的注意单元如图4所示.aSoftmaxee2SigmoidSigmoidhh2图4注意单元示意图Fig.4Attention unit计算公式如下:h,=,;h,T,e,=VI tanh(W,h,+b.),=Softmax(e,),Tc=Z,h,t=1其中,V。W。和b。是与
20、架构的其他组件共同学习的注意参数.注意单元的输出是用作以下解码器的输入向量的上下文向量c.通过将回归输出与概率分类输出相乘,获得功耗的最终估计值:Yi,=fou(xi,)=Pr,LOs,L.通过回归输出与概率分类预测结果相乘的方式所获得预测结果准确结果更为精确.3实验3.1评价指标负荷分解方法涉及到多个环节和步骤,每个环节都会在不同程度上影响到整体方法的分解性能,因此需要一个全面、细致的算法性能评估,以获得全方位的评估信息,便于比较各种算法的优劣.根据先前的研究工作,在评估NILM方法上,本文使用平均绝对误差(M e a n A b s o l u t e Er r o r,M A E)和信号
21、聚合误差(SignalAggregate Error,SAE)来进行NILM各方法性能的评估.MAE主要是用来衡量每个时刻分解得到的单个负Sigmoid荷设备的功率和真实功率的平均误差,反映了分解模型在瞬时的负荷分解能力.具体公式为h1I P:-g.1,TMAE=Tt=1其中,g,是在该时刻t上某个负荷设备的真实消耗功率,而p,是在该时刻t上由总功率分解得到的功率,T表示的是时刻点的数量.但对于某些负荷设备来说,每个时间点的误差并不十分明显和重要,因此只对较长时间内总功率的误差感兴趣.SAE用来衡量每个家庭在整个时间段内总能耗的误差,具体公式为IZp.-Zg.l(4)SAE=除此之外,当负荷分
22、解时,通过阈值化区分负荷设备的启停状态(ON/OFF),将负荷分解任务转化为负荷识别任务,对此任务进行评估,以获得更多的(5)评估信息,全方面地评价算法性能.为了判断负荷的开关状态,先要设定功率阈值:水壶2 0 0 0 W、空调100W、冰箱50 W、微波炉2 0 0 W、洗衣机2 0 W、洗碗(6)(7)沙建峰,等.基于注意力时序网络的非侵入式负荷分解。452SHA Jianfeng,et al.Non-intrusive load decomposition based on attention recurrent network model.机10 W.使用召回率(Recall,R)、精
23、确率(Precision,率,所有负荷和住宅的有功功率均以1/6 0 Hz的采P)、准确率(Accuracy,A)、F1值(F)来评估负荷分样频率获取.电力数据的采集工作开始于2 0 11年,解模型是否有对负荷的开关状态进行正确分类,以但是仍未停止,数据库依旧在扩充,为非侵入式负荷此判断分解性能的好坏。分解的研究提供了很好的数据支撑.TP使用NILMTK工具包从Wiki-Energy元数据中R=(8)TP+FNTPP:TP+FPTP+TNA=M+N,P RF,=2 P+R式中:TP表示负荷在真实数据中开启而在预测中也打开的样本总数;FN表示负荷在真实数据中开启而在预测中关闭的样本总数;FP表示
24、负荷在真实数据中关闭而在预测中开启的样本总数;TN表示负荷在真实数据中关闭而在预测中也是关闭的样本总数;M表示真实数据中负荷开启的样本总数;N表示真实数据中负荷关闭的样本总数.3.2数据集简介Wiki-Energy数据集是PecanStreet公司发布的具有研究性质的电力数据集,是当前世界上研究电力负荷分解最丰富的住宅电力能源数据库.它总共包含了将近6 0 0 多个家庭用户在一段时间内采集到的电力数据,包括单个负荷以及家庭总电力消耗功空调40002.00004.000NNY2.00004.0002.00004000S-SNND2.00004.000200004.0002.00000提取5种负荷
25、电器作为研究对象:空调、冰箱、微波(9)炉、洗衣机、洗碗机.选择这几种负荷的主要原因在于:1)这几种负荷在多个家庭中存在,意味着负荷数(10)据能够包含一些同类负荷变化,对于网络模型的训练来说具有更好的泛化性;2)一个家庭中负荷种类(11)繁多,而这几种负荷已经具有不同负荷特性和不同工作周期,没有必要对每一个负荷进行实验,任务量大,时间成本高;3)家庭中有一些功率较低的负荷,如手机充电器,容易受到其他信号的干扰,分解难度大,而且对于整体用电数据功率可以忽略不计,因此也不做这类电器的研究;4)这几种负荷已经占了家庭中绝大部分能量,就意味着负荷分解的结果对家庭的节能减耗是有一定意义的.因此选择这些
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 注意力 时序 网络 侵入 负荷 分解
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。