深度学习在IP网络优化中的应用_曾汉.pdf
《深度学习在IP网络优化中的应用_曾汉.pdf》由会员分享,可在线阅读,更多相关《深度学习在IP网络优化中的应用_曾汉.pdf(8页珍藏版)》请在咨信网上搜索。
1、技术与标准2023 年第 7 期深度学习在 IP 网络优化中的应用曾汉徐晓青钱刘熠辉武娟(中国电信股份有限公司研究院,广州 510000)摘要:随着新型业务涌现和 IP 网络技术的不断演进,云网融合步入新阶段,展现出数字化、智能化和服务化的发展特征。其中智能化需要结合相关的人工智能技术,而深度学习和深度强化学习是常用的人工智能算法。图神经网络等技术的发展,也使得深度学习和深度强化学习分别在图信息表示和最优化问题处理方面的能力得到本质提升。IP 网络可以用图结构抽象化表示,相关的预测和优化问题可以用深度学习和深度强化学习算法处理和求解。因此阐述了深度学习和深度强化学习在流量预测、网络规划和流量工
2、程 3 个场景下的相关算法与应用,分析了在实践过程中可能面临的问题与挑战。关键词:深度学习;深度强化学习;流量预测;网络规划;流量工程;云网融合中图分类号:TN915.5 文献标志码:A引用格式:曾汉,徐晓青,钱刘熠辉,等.深度学习在 IP 网络优化中的应用J.信息通信技术与政策,2023,49(7):89-96.DOI:10.12267/j.issn.2096-5931.2023.07.0120 引言云网融合的不断推进和 VR/AR 等新业务的不断涌现,使得 IP 网络更加复杂。新需求引发的大量流量和数据中心的不断涌现,改变了传统网络的流量分布。复杂动态的流量分布需要结合相关人工智能技术来实
3、现更精准的预测和更合理的调度。此外,随着软件定义网络(Software Defined Network,SDN)的广泛应用,复杂的网络业务流量需求给现有的网络路由算法提出了更大的挑战。为了满足多样化的服务需求,不少基于机器学习的路由优化算法被提出,然而该算法的研究方向主要在于其合理性和收敛性,相对缺乏在真实场景下训练和部署的研究1。同时,随着 5G 的发展,通信与人工智能将进一步深度融合,通信各个领域对网络智能化的需求会大量增加2。网络智能化需求的增加,为现有的 IP 网络优化算法研究拓宽了更多探索方向,同时也为数据驱动算法创造了更广阔的应用空间。近年来,随着机器学习与深度学习的发展,数据驱动
4、算法已经在一些领域得到了广泛应用。其中深度学习是目前数据驱动算法中最重要的一个分支,它通过学习大量样本数据的内在规律,捕捉数据的重要特征,进而实现对数据的分类、回归或预测等,从而具备感知和分析的能力。图神经网络是深度学习的一个分支,对图结构数据具有更强的感知与分析能力,适用于 IP 网络的特征表示,因为 IP网络本质可抽象成一张图。深度强化学习是深度学习与强化学习结合的产物,对大规模空间的最优化问题有较好的求解能力,且基于深度强化学习的算法在通信网络的业务场景中已经做了不少尝试3。本文介绍了常用的深度学习和深度强化学习算法,总结了研究人员在几种场景下的设计思路,希望为在现网实施相关算法和模型提
5、供参考。首先,介绍了深度学习和深度强化学习的基本模型,其中包括全连接神经网络(Fully Connected Neural Network,FCNN)、98|信息通信技术与政策循环神经网络(Recurrent Neural Network,RNN)、图神经网络(Graph Neural Network,GNN)、深度 Q-网络(Deep Q-Network,DQN)、深度确定性策略梯度(Deep Deterministic Policy Gradient,DDPG);其次,收集了深度学习与深度强化学习在 IP 网络不同场景(流量预测、网络规划和流量工程)的应用;最后,探讨了深度学习和深度强化学
6、习的行业现状、存在的挑战和研究方向。1 基于深度学习的 IP 网络优化算法 输入层 全连接层 全连接层 全连接层 输出层.图 1 全连接神经网络结构1.1 应用于 IP 网络优化的深度学习算法概述深度学习是指机器学习中基于神经网络对输入数据进行表征学习的方法。“深度”指含多个隐藏层的学习模型,通过深度学习可以组合低维度特征形成高维度的属性、类别或特征。随着计算机算力的大幅度提升,深度学习将更为普及和实用。全连接神经网络也称前馈神经网络或多层感知机,由输入层、全连接层和输出层 3 部分组成,每一层都由若干个神经元组成,其模型结构如图 1 所示。在前向传播中,下一层神经元的值是上一层所有神经元数值
7、的加权叠加,数据经多层全连接层的传递被不断压缩和提炼,最终传递给输出层,因此在未添加激活函数的情况下,输出层神经元值可以表示为输入层神经元值的线性组合。输出层通过与实际结果对比得到损失函数,并以反向传播的形式逐层更新神经元加权权重,从而不断优化全连接网络的连接方式,得到从输入数据映射至输出数据的最佳网络参数。全连接网络在处理特征分布一致的数据时有着非常好的工作效率和准确率,但在实际应用中,需要进行预测的数据往往有着不完全一致的特征分布,全连接网络训练得到的分类器或回归器对于训练数据以外的样本鲁棒性较差,模型整体的新数据泛化能力较低。循环神经网络是一类以序列数据为输入,在序列的演进方向进行递归且
8、所有节点(循环单元)按链式连接的递归神经网络。RNN 引入了“记忆”的概念,其输出依赖于之前的输入序列,具体体现在 RNN 通过隐藏状态来存储之前时间步长的信息。当时间步长较大时,循环神经网络的梯度计算容易出现梯度衰减或梯度爆炸,这导致循环神经网络在实际应用中难以捕捉时间序列中时间周期较大的变化趋势,而门控循环单元(Gated Recurrent Unit,GRU)和长短期记忆(Long Short-Term Memory,LSTM)可以解决这个难题。GRU 是一种常用的门控循环神经网络,它引入了重置门和更新门的概念。重置门和更新门的计算公式和 RNN 中隐藏状态的计算一样,选取 Sigmoi
9、d 函数作为激活函数,将重置门和更新门的参数值约束至0,1之间。两个门控的不同点在于:重置门的优化目标是控制上一时间步的隐藏状态以怎样的权重流入当前时间步的候选隐藏状态;更新门的优化目标是选09技术与标准2023 年第 7 期择最佳的加权系数组合上一时间步的隐藏状态和当前时间步的候选隐藏状态。LSTM 是对 GRU 的一种扩展,LSTM 模型中每一层包含三个门控:输入门、遗忘门和输出门,具体模型结构如图 2 所示,其中哈达玛(Hadamard)乘积是矩阵的逐项乘积。LSTM 引入了记忆细胞的概念,作为另一种按照时间顺序逐级传递的隐藏信息。LSTM 的具体连接方式非常复杂,每一个门控的输入都包含
10、了上一时刻的隐藏状态 Ht-1和当前时刻的输入数据 Xt,因此每一个门控都能够对上述两项数据进行加权叠加。具体来说,遗忘门的主要作用是控制上一时刻的记忆细胞 Ct-1以怎样的比例保留在这一层的计算中,即上一时刻记忆细胞 Ct-1和这一时刻候选记忆细胞?Ct的加权系数;输入门的主要作用是控制由上一时刻隐藏状态 Ht-1和当前时刻输入数据 Xt共同组成的输入以怎样的比例得到候选记忆细胞?Ct;输出门的主要作用是控制这一时刻的输入会以何种方式对新得到的记忆细胞 Ct进行加权,最终得到这一层新的隐藏状态 Ht。Ct记忆细胞 Sigmoid Sigmoid Ht-1 隐藏状态 输入 候选记忆细胞 遗忘门
11、Ft 输入门It 输出门Ot Sigmoid Tanh Tanh Ct-1 Hadamard乘积Hadmard乘积Hadmard乘积XtHtHadamard乘积Hadamard乘积图 2 LSTM 内部结构与 GRU 相比,LSTM 由遗忘门和输入门产生新的状态,而 GRU 只有一种更新门;LSTM 可以通过输出门调节新产生的状态,而 GRU 对输出无任何调节。因此,LSTM 在模型结构上更加强大和灵活,有着更好的特征表达能力,但也引入了额外的计算开销。图神经网络是指将神经网络技术运用在图数据的学习任务中的一大类方法。GNN 的发展起源于对图卷积神经网络(Graph Convolutional
12、 Neural Network,GCN),其中 GCN 分为谱域和空域两类。谱域 GCN 的卷积操作通常作用于图拉普拉斯(Laplace)的特征值矩阵上,一般只能作用于一张图,限制了跨图学习能力和泛化能力;而空域 GCN 以压缩映射原理(Banach 不动点理论)为基础,相对谱域 GCN 而言,空域 GCN 研究成果更为丰富。空域 GCN 本质上是一个迭代式的聚合邻居的过程,一方面大部分空域 GCN 的成果本质是对聚合操作的重新设计(基于 GCN 发展而来的模型统称为 GNN),例如 GraphSAGE(Graph SAmple and aggreGatE)、图注意力网络(Graph Atte
13、ntion Networks,GAT)、关系图卷积网络(Relational-GCN,R-GCN);另一方面,一些研究人员将具体的 GNN 设计解构,抽象为 GNN 设计范式,例如消息传播神经网络(Message Passing Neural Network,MPNN)、非 局 部 神 经 网 络(Non-Local Neural Network,NLNN)、图网络(Graph 19|信息通信技术与政策Network,GN)。1.2 基于深度学习的 IP 网络优化算法网络流量预测通过捕捉流量数据的特征,依据历史流量数据规律推断未来的变化,是 IP 网络优化的基础。预测的准确度会直接影响网络规划
14、和流量工程的最终结果,因此网络流量预测也是网络规划和流量工程的基础。基于循环神经网络的深度学习算法适合处理序列数据,是捕捉数据时间关联性的常用手段,广泛应用在时间序列预测的场景中。GRU,特别是 LSTM的引入使得 RNN 捕捉短时时序特征的能力增强。Vinayakumar4等将 RNN 框架应用在网络流量预测上,分别将 LSTM 与 GRU、identity-RNN、RNN 的预测结果进行比较。具体使用了泛欧学术网络的流量矩阵数据(采样间隔为 15 min),将每个流量矩阵展平为流量矩阵向量,按时间顺序拼接成新流量矩阵,采用时间窗口的形式处理新流量矩阵以得到样本与标签。通过比较几种循环神经网
15、络的预测结果与标签的均方误差(Mean Squared Error,MSE)得出以下结论:在网络流量预测的场景下,LSTM 比其余基于 RNN 框架的算法表现更优异。Ramakrishnan5等沿用 Vinayakumar 等人的处理方法,扩大了 LSTM 的比较范围并对算法的应用场景进行了拓展,包括网络协议预测和网络协议分布预测。具体 而 言,使 用 了 Abilene 数 据 集(采 样 间 隔 为5 min),将 RNN、GRU、朴素预测(Naive Model,NM,即使用上一时刻的值作为预测值)、移动平均(Moving Average,MA)和自回归综合移动平均(Autoregres
16、sive Integrated Moving Average,ARIMA)算法与 LSTM 进行比较。在网络流量预测和网络协议分布预测的场景下,比较各个模型的预测结果与标签的 MSE 可知,LSTM 的表现优于 RNN 和 GRU,RNN 框架的表现优于 NM、MA 和 ARIMA。无论是回归任务还是分类任务,LSTM 都有更优异的表现。Hua6等就降低计算开销方向对 LSTM 进行了改进,提出了随机连接长短期记忆(Random Connectivity Long Short-Term Memory,RCLSTM)框架,有效降低了计算开销。通过比较 RCLSTM、LSTM 和其它常用算法模型分
17、别在网络流量预测和用户位置预测场景中的预测效果,论证了在部分计算资源受限的条件下,RCLSTM 比 LSTM 更具优势。RCLSTM 的神经元之间是随机连接的,连接策略可以遵循任意分布规律,且允许调整临界值来控制神经元连接的数量。在网络流量预测场景中,研究人员使用泛欧学术网络公开数据集的流量矩阵数据,比较了各个算法模型的预测结果与标 签 的 均 方 根 误 差(Root Mean Squared Error,RMSE),得出 RCLSTM 在这些场景下表现更优且计算开销更低的结论;在用户位置预测场景中,使用多个移动通信用户的位置数据,比较预测结果的准确率并得出 RCLSTM 的表现略差于 LS
18、TM 但计算开销更低的结论。Theyazn7等从预处理环节提出了一个智能混合模型,将当前的时间序列预测模型与聚类模型相结合以提升网络流量预测的效果。该聚类模型使用模糊C-均值(Fuzzy-C-Means,FCM)作为聚类颗粒来分类流量数据,并使用加权指数平滑模型以提升预测结果稳定性。使用该聚类模型对网络流量数据进行预处理,可以提升 LSTM 的预测效果。此外,还使用 4G 基站网络流量(来自 Kaggle 数据集)和广域网流量(日本骨干网数据)作为输入,使用消融试验证明了该聚类模型可以提升预测效果。与此同时,He8等基于图神经网络提出一种新的深度学习模型 图注意力时空网络(Graph Atte
19、ntion Spatial-Temporal Network,GASTN)。与之前的研究相比,该模型对数据的空间特征有更好的捕捉能力,能够同时捕捉局部空间特征和全局空间特征。GASTN 通过构建空间关系图来建立空间关联性捕捉模型,并用递归神经网络为捕捉时间关联性进行建模。此外,为了提升 GASTN 的预测效果,研究人员提出了一种全局局部协作学习策略,并充分利用全局模型和各区域的局部模型的知识,提高了 GASTN 模型的有效性。在流量数据预测中,他们使用大规模真实场景的移动流量数据,比较 GASTN、历史均值(Historcal Average,HA)、ARIMA、多层感知机(Multiple
20、Layer Perceptron,MLP)、LSTM、CNN-LSTM 和 STN(结合 ConvLSTM和 3D-ConvNet 的深度时空网络)流量预测结果的RMSE、平均绝对百分比误差(Mean Absolute Percentage Error,MAPE)、平均绝对误差(Mean Absolute Error,MAE)指标,证明了 GASTN 在流量数据预测任务上准确率更高。此外,他们使用消融试验验证了两层注意力网络的有效性,并在 GASTN 的基础上使用不同的29技术与标准2023 年第 7 期学习策略来验证全局局部协作学习策略的有效性。2 基于强化学习的 IP 网络优化算法2.1
21、应用于 IP 网络优化中的强化学习算法概述强化学习(Reinforcement Learning,RL)是指环境中的智能体按照一定策略做出一系列决策以完成给定任务,求得最优策略使得回报最大化的过程。强化学习要重点考虑预测和控制两个问题,即策略评估和求解最优策略。强化学习本质上属于序列决策问题和优化问 题,因 此 强 化 学 习 问 题 可 以 采 用 马 尔 科 夫(Markov)模型表示,并基于此进行优化。如果未来状态只与当前状态有关,则称该状态具有 Markov 性,特别地,如果 St具有 Markov 性,用 P 表示条件概率,则上述定义如式(1)所示。PSt+1|St=PSt+1|S1
22、,S2,St(1)一 个 Markov 决 策 过 程,可 以 用 四 元 组S,A,P,R()表示,其中 S 表示状态集,A 表示动作集,P表示转移概率,R 表示奖赏。一般来说状态、动作和奖赏均为随机变量。强化学习的重要任务之一是策略评估,即需要定义状态值函数(每个状态的价值)及 Q-值函数(指定状态下某个动作的价值)。v(s)=EGt|St=s(2)q(s,a)=EGt|St=s,at=a(3)贝尔曼(Bellman)方程定义了状态值函数和 Q-值函数的递推关系,在指定策略 下(a|s)表示在状态 s 下,执行动作 a 的概率),状态值函数 v(s)和 Q-值函数 q(s,a)定义分别如下
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 深度 学习 IP 网络 优化 中的 应用
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。