基于词向量的基站退服告警预测方法及应用.pdf
《基于词向量的基站退服告警预测方法及应用.pdf》由会员分享,可在线阅读,更多相关《基于词向量的基站退服告警预测方法及应用.pdf(4页珍藏版)》请在咨信网上搜索。
1、第 16 期2023 年 8 月无线互联科技Wireless Internet TechnologyNo.16August,2023作者简介:王亚楠(1993),女,青海西宁人,工程师,硕士;研究方向:智能网优。通信作者:李佳袁(1997),男,辽宁葫芦岛人,助理工程师,硕士;研究方向:智能网优。基于词向量的基站退服告警预测方法及应用王亚楠1,陈毅敏2,李佳袁1(1.中国移动通信集团设计院有限公司,北京 100080;2.北京市第一中西医结合医院,北京 100026)摘要:随着信息通信技术的飞速发展与网络规模的不断壮大,传统被动响应式的基站告警处理方式己满足不了运营商对网络质量的管理需求,网络
2、运维模式的智能化程度急需提升。为了减少基站退服事件的发生,文章提出了一种基于词向量的退服告警预测方法,利用机器学习算法对高隐患基站精准定位,为基站巡检和隐患的提前排障做出有力指导。经过实际的试点应用,验证了方案的可行性和有效性,从根本上实现了基站退服的主动预防,提升了网络运维的效率和质量。关键词:基站退服预测;词向量;机器学习;智能运维中图分类号:TN918 文献标志码:A0 引言 以 5 G 为代表的新一代信息通信技术,正成为引领新一轮科技革命和产业变革的核心引擎。一方面,5 G 网络自身的发展虽融入了开放化、智能化等特性,但越来越复杂的网络同样急需运维模式的革新;另一方面,网络智能化的程度
3、也随着业务层面的不断创新而日益加深1-3。随着无线通信技术的快速迭代和网络规模的不断扩大,用户对网络质量的要求越来越高,传统被动响应式的基站告警处理方式已越来越不能满足运营商对网络告警,尤其是影响网络质量的重要告警的管理需求。为了减少基站退服事件的发生,降低基站退服时长,本文提出了一种基于词向量的退服告警预测方法,通过对高隐患基站的精准定位,为基站巡检和隐患的提前排障做出有力指导,从根本上实现了基站退服的主动预防,提升了网络运维的效率和质量。1 基于词向量的基站退服告警预测模型构建1.1 基站退服告警处理机制分析 现阶段的维护方式,导致基站或小区不可避免地在运维实施期间停止服务,极大地影响了客
4、户的感知和体验,并有大量投诉随之产生。退服处理中最主要的分析依据就是基站的告警数据。告警数据能够及时反映当前基站的运行状态,而重要退服类告警的发生常常伴随着次要告警、性能指标波动等,现有的分析方法仅依靠经验粗粒度估计大面积退服发生的风险,预测的准确性不高,也难以为巡检隐患排查、运维资源针对性调度等提供科学依据。如何利用海量的历史运维数据挖掘退服规律,准确预测退服基站,提前进行故障隐患排查,已成为减少退服事件发生率、降低运维成本、实现运维思路从被动处理向主动预防转变的关键。1.2基站退服告警语料库生成与 Word2Vec 模型构建 针对上述问题,本文提出了一种基于词向量的退服告警预测方法。该方法
5、首先利用 Word2Vec 模型,对基站级别的故障、性能、动环告警等数据进行全面分析,重点探究基站历史发生的退服告警及退服告警发生前后基站告警数据的变化情况,尽可能地挖掘次要告警和退服告警数据之间的内在关联。Word2Vec 是一种结构特殊的神经网络,其出发点是考虑了上下文相似的两个词,它们的词向量也应该是相似的,一举解决了传统的 One-Hot 编码无法代表语义且维度过高的问题。Word2Vec 有两大常用模型:以上下文词汇预测当前词汇的 CBOW(Continuous Bag-of-Word)模型以及以当前词汇预测其上下文词汇的 Skip-gram 模型。模型结构如图 1 所示,以上下文窗
6、口为 3 举例说明。本文所提出的方法以退服告警序列作为预测模型的特征输入,并结合了两种方法生成退服告警序列:(1)对每个基站的所有告警序列按时间排序,以每固定 1n 天无任何告警发生的时间为间隔划分所有告警序列,生成序列语料库,再将所有基站的语料库合并。(2)对每个基站的所有告警序列按时间排序,以每一个退服告警的样本为中心,取前面 n1 天的所有告警和后 n2 天的所有告警,按顺序排列,作为一个告警组。将所有的告警组合并,形成告警类型编码语料库。对生成的告警序列语料库使用 Word2Vec 模型,训练不同告警的上下文信息编码模型。其参数如表1 所示。211第 16 期2023 年 8 月无线互
7、联科技技术应用No.16August,2023图 1 Word2Vec 常用模型原理表 1 Word2Vec 模型参数参数名emb_sizeemb_windowemb_iter参数说明告警嵌入向量维度大小,默认值 50窗口大小,即词向量上下文最大距离,默认根据输入步长和预测天数而定嵌入模型训练迭代次数,默认值 201.3 特征样本生成 特征样本生成主要有以下 3 个步骤:1.3.1 特征数据生成 在完成 Word2Vec 模型的训练后,输入每个告警标题,将其与模型训练得到的权重矩阵 W 相乘得到的对应告警的词向量。在生成的词向量空间中,两个向量夹角间的余弦值可以衡量两个个体之间差异的大小:co
8、s()=ni=1Xi Yini=1(Xi)2ni=1(Yi)2(1)余弦值接近 1,夹角趋于 0,表明两个向量越相似,余弦值接近于 0,夹角趋于 90,表明两个向量越不相似。因此,通过计算非退服告警向量与退服告警向量之间的余弦距离,可以得出其他次要告警 i 与退服告警 j 之间的相似度 ij,其中负值统一置成 0。最后,将告警 i 与 J 类退服类告警之间的相似度相加,得到告警 i 的编码:Ecodei=Jj=1ij(2)1.3.2 标签标注 根据需要预测的天数 M(如 3 天),以该天数 M为滚动窗口,遍历统计告警数据,计算每个窗口期间基站是否发生了退服告警。如果发生退服告警则标注为 1,如
9、果没有发生退服告警则标注为 0。1.3.3 样本生成 将上述过程产生的特征数据和标签数据按基站与日期相关联,生成训练样本,训练数据使用了试点地市 110 月共 10 个月的历史告警数据,并以同样的方式生成预测样本,只含输入特征数据,不含标签数据。基站退服告警预测样本生成流程如图 2 所示。图 2 基站退服告警预测样本生成流程1.4 预测分类模型构建 本文使用基于 XGBoost 算法和 LightGBM 算法的二分类模型进行退服告警预测,二者都是基于梯度下降树(Gradient Boosting Decision Tree,GBDT)的提升方法。使用 XGBoost 和 LightGBM 的二
10、分类模型进行退服告警预测,具体算法流程如图 3 所示。首先对样本按照其所在周数进行分组,采用Group-Kfold 进行交叉验证,将原始样本分割成 K 个311第 16 期2023 年 8 月无线互联科技技术应用No.16August,2023图 3 基于 XGBoost 和 LightGBM 模型的基站退服告警预测流程子样本集,每一个单独的子样本集被保留作为验证模型的数据,其他 K-1 个样本集用来训练 XGBoost 和LightGBM 模型,且保证同一周的样本不会同时出现在训练集和测试集上。然后重复 K 次,使得每个子样本集均被验证一次,同时生成 K 个模型。Group-Kfold 通过
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 向量 基站 告警 预测 方法 应用
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。