分享
分销 收藏 举报 申诉 / 13
播放页_导航下方通栏广告

类型BP神经网络基本原理.doc

  • 上传人:天****
  • 文档编号:2565521
  • 上传时间:2024-06-01
  • 格式:DOC
  • 页数:13
  • 大小:171KB
  • 下载积分:8 金币
  • 播放页_非在线预览资源立即下载上方广告
    配套讲稿:

    如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。

    特殊限制:

    部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。

    关 键  词:
    BP 神经网络 基本原理 清楚
    资源描述:
    <p>5.4 BP神经网络的基本原理 BP(Back Propagation)网络是1986年由Rinehart和McClelland为首的科学家小组提出,是一种按误差逆传播算法训练的多层前馈网络,是目前应用最广泛的神经网络模型之一。BP网络能学习和存贮大量的输入-输出模式映射关系,而无需事前揭示描述这种映射关系的数学方程。它的学习规则是使用最速下降法,通过反向传播来不断调整网络的权值和阈值,使网络的误差平方和最小。BP神经网络模型拓扑结构包括输入层(input)、隐层(hide layer)和输出层(output layer)(如图5.2所示)。 5.4.1 BP神经元 图5.3给出了第j个基本BP神经元(节点),它只模仿了生物神经元所具有的三个最基本也是最重要的功能:加权、求和与转移。其中x1、x2…xi…xn分别代表来自神经元1、2…i…n的输入;wj1、wj2…wji…wjn则分别表示神经元1、2…i…n与第j个神经元的连接强度,即权值;bj为阈值;f(·)为传递函数;yj为第j个神经元的输出。 第j个神经元的净输入值为: &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (5.12) 其中: &nbsp;&nbsp;&nbsp;&nbsp; 若视,,即令及包括及,则 &nbsp;&nbsp; 于是节点j的净输入可表示为: &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (5.13) &nbsp;&nbsp;&nbsp; 净输入通过传递函数(Transfer Function)f (·)后,便得到第j个神经元的输出: &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (5.14) 式中f(·)是单调上升函数,而且必须是有界函数,因为细胞传递的信号不可能无限增加,必有一最大值。 5.4.2 BP网络 BP算法由数据流的前向计算(正向传播)和误差信号的反向传播两个过程构成。正向传播时,传播方向为输入层→隐层→输出层,每层神经元的状态只影响下一层神经元。若在输出层得不到期望的输出,则转向误差信号的反向传播流程。通过这两个过程的交替进行,在权向量空间执行误差函数梯度下降策略,动态迭代搜索一组权向量,使网络误差函数达到最小值,从而完成信息提取和记忆过程。 5.4.2.1 正向传播 设 BP网络的输入层有n个节点,隐层有q个节点,输出层有m个节点,输入层与隐层之间的权值为,隐层与输出层之间的权值为,如图5.4所示。隐层的传递函数为f1(·),输出层的传递函数为f2(·),则隐层节点的输出为(将阈值写入求和项中): &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; k=1,2,……q&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (5.15) 输出层节点的输出为: &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; j=1,2,……m&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (5.16) 至此B-P网络就完成了n维空间向量对m维空间的近似映射。 5.4.2.2 反向传播 1)&nbsp;&nbsp;&nbsp;&nbsp; 定义误差函数 输入个学习样本,用来表示。第个样本输入到网络后得到输出(j=1,2,…m)。采用平方型误差函数,于是得到第p个样本的误差Ep: &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (5.17) 式中:为期望输出。 对于个样本,全局误差为: &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (5.18) 2)输出层权值的变化 采用累计误差BP算法调整,使全局误差变小,即 &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (5.19) 式中:—学习率 定义误差信号为: &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (5.20) 其中第一项: &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (5.21) &nbsp;&nbsp;&nbsp; 第二项: &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (5.22) 是输出层传递函数的偏微分。 于是: &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (5.23) 由链定理得: &nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (5.24) 于是输出层各神经元的权值调整公式为: &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (5.25) 3)隐层权值的变化 &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (5.26) 定义误差信号为: &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (5.27) 其中第一项: &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (5.28) 依链定理有: &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (5.29) &nbsp;&nbsp;&nbsp; 第二项: &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (5.30) 是隐层传递函数的偏微分。 于是: &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (5.31) 由链定理得: &nbsp;&nbsp; (5.32) 从而得到隐层各神经元的权值调整公式为: &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (5.33) 5.4.3 BP算法的改进 BP算法理论具有依据可靠、推导过程严谨、精度较高、通用性较好等优点,但标准BP算法存在以下缺点:收敛速度缓慢;容易陷入局部极小值;难以确定隐层数和隐层节点个数。在实际应用中,BP算法很难胜任,因此出现了很多改进算法。 1)&nbsp;&nbsp;&nbsp; 利用动量法改进BP算法 标准BP算法实质上是一种简单的最速下降静态寻优方法,在修正W(K)时,只按照第K步的负梯度方向进行修正,而没有考虑到以前积累的经验,即以前时刻的梯度方向,从而常常使学习过程发生振荡,收敛缓慢。动量法权值调整算法的具体做法是:将上一次权值调整量的一部分迭加到按本次误差计算所得的权值调整量上,作为本次的实际权值调整量,即: &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (5.34) 其中:α为动量系数,通常0<α<0.9;η—学习率,范围在0.001~10之间。这种方法所加的动量因子实际上相当于阻尼项,它减小了学习过程中的振荡趋势,从而改善了收敛性。动量法降低了网络对于误差曲面局部细节的敏感性,有效的抑制了网络陷入局部极小。 2)&nbsp;&nbsp;&nbsp; 自适应调整学习速率 标准BP算法收敛速度缓慢的一个重要原因是学习率选择不当,学习率选得太小,收敛太慢;学习率选得太大,则有可能修正过头,导致振荡甚至发散。可采用图5.5所示的自适应方法调整学习率。 调整的基本指导思想是:在学习收敛的情况下,增大η,以缩短学习时间;当η偏大致使不能收敛时,要及时减小η,直到收敛为止。 3)&nbsp;&nbsp;&nbsp; 动量-自适应学习速率调整算法 采用动量法时,BP算法可以找到更优的解;采用自适应学习速率法时,BP算法可以缩短训练时间。将以上两种方法结合起来,就得到动量-自适应学习速率调整算法。 4)&nbsp;&nbsp;&nbsp; L-M学习规则 L-M(Levenberg-Marquardt)算法比前述几种使用梯度下降法的BP算法要快得多,但对于复杂问题,这种方法需要相当大的存储空间。L-M(Levenberg-Marquardt)优化方法的权值调整率选为: &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (5.35) 其中:e—误差向量;J—网络误差对权值导数的雅可比(Jacobian)矩阵;μ—标量,当μ很大时上式接近于梯度法,当μ很小时上式变成了Gauss-Newton法,在这种方法中,μ也是自适应调整的。 综合考虑,拟采用L-M学习规则和动量法分别作为神经网络的训练函数和学习函数。 5.5 BP神经网络的训练策略及结果 本文借助于MATLAB神经网络工具箱来实现多层前馈BP网络(Multi-layer feed-forward backpropagation network)的颜色空间转换,免去了许多编写计算机程序的烦恼。神经网络的实际输出值与输入值以及各权值和阈值有关,为了使实际输出值与网络期望输出值相吻合,可用含有一定数量学习样本的样本集和相应期望输出值的集合来训练网络。训练时仍然使用本章5.2节中所述的实测样本数据。 另外,目前尚未找到较好的网络构造方法。确定神经网络的结构和权系数来描述给定的映射或逼近一个未知的映射,只能通过学习方式得到满足要求的网络模型。神经网络的学习可以理解为:对确定的网络结构,寻找一组满足要求的权系数,使给定的误差函数最小。设计多层前馈网络时,主要侧重试验、探讨多种模型方案,在实验中改进,直到选取一个满意方案为止,可按下列步骤进行:对任何实际问题先都只选用一个隐层;使用很少的隐层节点数;不断增加隐层节点数,直到获得满意性能为止;否则再采用两个隐层重复上述过程。 训练过程实际上是根据目标值与网络输出值之间误差的大小反复调整权值和阈值,直到此误差达到预定值为止。 5.5.1 确定BP网络的结构 确定了网络层数、每层节点数、传递函数、初始权系数、学习算法等也就确定了BP网络。确定这些选项时有一定的指导原则,但更多的是靠经验和试凑。 1)隐层数的确定: 1998年Robert Hecht-Nielson证明了对任何在闭区间内的连续函数,都可以用一个隐层的BP网络来逼近,因而一个三层的BP网络可以完成任意的n维到m维的映照。因此我们从含有一个隐层的网络开始进行训练。 2) BP网络常用传递函数: BP网络的传递函数有多种。Log-sigmoid型函数的输入值可取任意值,输出值在0和1之间;tan-sigmod型传递函数tansig的输入值可取任意值,输出值在-1到+1之间;线性传递函数purelin的输入与输出值可取任意值。BP网络通常有一个或多个隐层,该层中的神经元均采用sigmoid型传递函数,输出层的神经元则采用线性传递函数,整个网络的输出可以取任意值。各种传递函数如图5.6所示。 只改变传递函数而其余参数均固定,用本章5.2节所述的样本集训练BP网络时发现,传递函数使用tansig函数时要比logsig函数的误差小。于是在以后的训练中隐层传递函数改用tansig函数,输出层传递函数仍选用purelin函数。 3) 每层节点数的确定: 使用神经网络的目的是实现摄像机输出RGB颜色空间与CIE-XYZ色空间转换,因此BP网络的输入层和输出层的节点个数分别为3。下面主要介绍隐层节点数量的确定。 对于多层前馈网络来说,隐层节点数的确定是成败的关键。若数量太少,则网络所能获取的用以解决问题的信息太少;若数量太多,不仅增加训练时间,更重要的是隐层节点过多还可能出现所谓“过渡吻合”(Overfitting)问题,即测试误差增大导致泛化能力下降,因此合理选择隐层节点数非常重要。关于隐层数及其节点数的选择比较复杂,一般原则是:在能正确反映输入输出关系的基础上,应选用较少的隐层节点数,以使网络结构尽量简单。本论文中采用网络结构增长型方法,即先设置较少的节点数,对网络进行训练,并测试学习误差,然后逐渐增加节点数,直到学习误差不再有明显减少为止。 5.5.2 误差的选取 在神经网络训练过程中选择均方误差MSE较为合理,原因如下: ①&nbsp; 标准BP算法中,误差定义为: &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp;&nbsp;(5.36) 每个样本作用时,都对权矩阵进行了一次修改。由于每次权矩阵的修改都没有考虑权值修改后其它样本作用的输出误差是否也减小,因此将导致迭代次数增加。 ②&nbsp; 累计误差BP算法的全局误差定义为: &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (5.37) 这种算法是为了减小整个训练集的全局误差,而不针对某一特定样本,因此如果作某种修改能使全局误差减小,并不等于说每一个特定样本的误差也都能同时减小。它不能用来比较P和m不同的网络性能。因为对于同一网络来说,P越大,E也越大; P值相同,m越大E也越大。 ③&nbsp; 均方误差MSE: &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (5.38) 其中:—输出节点的个数,—训练样本数目,—网络期望输出值,—网络实际输出值。均方误差克服了上述两种算法的缺点,所以选用均方误差算法较合理。 5.5.3 训练结果 训练一个单隐层的三层BP网络,根据如下经验公式选择隐层节点数[125]: &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (5.39) 式中:n为输入节点个数,m为输出节点个数,a为1到10之间的常数。针对本论文n1取值范围为3~13。训练结果如表5.1所示。 表5.1&nbsp;&nbsp; 隐层节点数与误差的关系 隐层神经元个数 训练误差 测试误差 3 1.25661 1.1275 4 0.797746 0.8232 5 0.631849 0.7278 6 0.570214 0.6707 7 0.552873 0.6895 8 0.445118 0.6575 9 0.385578 0.6497 10 0.259624 0.4555 11 0.185749 0.6644 12 0.183878 0.48 13 0.168587 0.6671 由上表可以看出: ①&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 增加隐层节点数可以减少训练误差,但超过10以后测试误差产生波动,即泛化能力发生变化。综合比较隐层节点数为10与12的训练误差和测试误差,决定隐层节点数选用12。 ②&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 训练误差和测试误差都很大,而且收敛速度极慢(训练过程如图5.7所示),这个问题可以通过对输出量进行归一化来解决。 根据Sigmoid型传递函数输入和输出的范围,对输入变量不进行归一化处理,只对输出变量进行归一化,这是因为在输出数据要求归一化的同时,对输入数据也进行归一化的话,权值的可解释性就更差了。目标值按下式进行变化: &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (5.40) 使目标值落在0.05~0.95之间,这样靠近数据变化区间端点的网络输出值就有一波动范围,网络的性能较好。用新生成的训练样本与测试样本对隐层节点数为12的网络进行训练,得到的训练误差为9.89028×10-5,测试误差为1.9899×10-4,达到了预定的目标(训练过程如图5.8所示)。 5.6 最终训练后的神经网络结构 采用三层BP网络实现摄像机输出RGB颜色空间与CIEXYZ色空间转换,其中隐层含有12个节点,传递函数采用tansig函数;输出层传递函数选用purelin函数。经过测试后结果满意,可以认为该神经网络可以用来实现这个关系映射。网络的结构如图5.9所示: 得到的BP神经网络的权值和阈值为: &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 5.7 本章小结 1)&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 定量地分析了用线性关系转换摄像机RGB空间到CIE-XYZ空间数据后产生的均方误差,表明CCD摄像机与标准观察者之间有比较明显的差别,也就是说RGB与CIE-XYZ间的转换是非线性的。 2)&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 采用MATLAB 中神经网络工具箱实现多层前馈BP网络的RGB到CIEXYZ颜色空间转换,用经过归一化的训练样本与测试样本对隐层节点数为12的三层网络进行训练,得到的训练误差为9.89028×10-5,测试误差为1.9899×10-4,结果表明经过训练的多层前馈BP网络可以满足RGB空间向CIEXYZ颜色空间转换要求,达到了预定目标。 3)&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 确定了用于RGB和XYZ颜色空间转换的BP网络结构,并求出了该神经网络的权值和阈值。使用该网络可以定量表达食品颜色,定量比较高压加工食品颜色的变化,可以使食品颜色测定和控制实现定量化,而不再是主观性很强的模糊描述。 13 / 13</p>
    展开阅读全文
    提示  咨信网温馨提示:
    1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
    2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
    3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
    4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前可先查看【教您几个在下载文档中可以更好的避免被坑】。
    5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
    6、文档遇到问题,请及时联系平台进行协调解决,联系【微信客服】、【QQ客服】,若有其他问题请点击或扫码反馈【服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【版权申诉】”,意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:0574-28810668;投诉电话:18658249818。

    开通VIP折扣优惠下载文档

    自信AI创作助手
    关于本文
    本文标题:BP神经网络基本原理.doc
    链接地址:https://www.zixin.com.cn/doc/2565521.html
    页脚通栏广告

    Copyright ©2010-2026   All Rights Reserved  宁波自信网络信息技术有限公司 版权所有   |  客服电话:0574-28810668    微信客服:咨信网客服    投诉电话:18658249818   

    违法和不良信息举报邮箱:help@zixin.com.cn    文档合作和网站合作邮箱:fuwu@zixin.com.cn    意见反馈和侵权处理邮箱:1219186828@qq.com   | 证照中心

    12321jubao.png12321网络举报中心 电话:010-12321  jubao.png中国互联网举报中心 电话:12377   gongan.png浙公网安备33021202000488号  icp.png浙ICP备2021020529号-1 浙B2-20240490   


    关注我们 :微信公众号  抖音  微博  LOFTER               

    自信网络  |  ZixinNetwork