人工神经网络及其应用实例.doc
《人工神经网络及其应用实例.doc》由会员分享,可在线阅读,更多相关《人工神经网络及其应用实例.doc(27页珍藏版)》请在咨信网上搜索。
1、人工神经网络及其应用实例人工神经网络是在现代神经科学研究成果基础上提出的一种抽象数学模型,它以某种简化、抽象和模拟的方式,反映了大脑功能的若干基本特征,但并非其逼真的描写。人工神经网络可概括定义为:由大量简单元件广泛互连而成的复杂网络系统。所谓简单元件,即人工神经元,是指它可用电子元件、光学元件等模拟,仅起简单的输入输出变换 y = s (x) 的作用。下图是 3中常用的元件类型:线性元件: y = 0.3x,可用线性代数法分析,但是功能有限,现在已不太常用。21.510.50-0.5-1-1.5-2-6-4-20246连续型非线性元件: y = tanh(x),便于解析性计算及器件模拟,是当
2、前研究的主要元件之一。Page 1 of 2521.510.50-0.5-1-1.5-2-6-4-202461, x 0-1, x 0,便于理论分析及阈值逻辑器件实现,也是当前研究的主要元件之一。21.510.50-0.5-1-1.5-2-6-4-20246Page 2 of 25离散型非线性元件: y = 每一神经元有许多输入、输出键,各神经元之间以连接键(又称突触)相连,它决定神经元之间的连接强度(突触强度)和性质(兴奋或抑制),即决定神经元间相互作用的强弱和正负,共有三种类型:兴奋型连接、抑制型连接、无连接。这样,N 个神经元(一般 N 很大)构成一个相互影响的复杂网络系统,通过调整网络
3、参数,可使人工神经网络具有所需要的特定功能,即学习、训练或自组织过程。一个简单的人工神经网络结构图如下所示:上图中,左侧为输入层(输入层的神经元个数由输入的维度决定),右侧为输出层(输出层的神经元个数由输出的维度决定),输入层与输出层之间即为隐层。输入层节点上的神经元接收外部环境的输入模式,并由它传递给相连隐层上的各个神经元。隐层是神经元网络的内部处理层,这些神经元在网络内部构成中间层,不直接与外部输入、输出打交道。人工神经网络所具有的模式变换能力主要体现在隐层的神经元上。输出层用于产生神经网络的输出模式。多层神经网络结构中有代表性的有前向网络(BP 网络)模型、Page 3 of 25多层侧
4、抑制神经网络模型和带有反馈的多层神经网络模型等。本文主要探讨前向网络模型。多层前向神经网络不具有侧抑制和反馈的连接方式,即不具有本层之间或指向前一层的连接弧,只有指向下一层的连接弧。代表是BP 神经网络:输入模式由输入层进入网络,经中间各隐层的顺序变换,最后由输出层产生一个输出模式,如下图所示:输入层隐层输出层多层前向神经网络由隐层神经元的非线性处理衍生它的能力,这个任务的关键在于将神经元的加权输入非线性转换成一个输出的非线性激励函数。下图给出了一个接收 n 个输入 x1, x2 , , xn 的神经元:b1x1w1x2w2sywnxnPage 4 of 25神经元的输出由下式给出:nxj =
5、1这里输入的加权和(括号内部分)由一个非线性函数传递, b 表示与偏差输入相关的权值, w j 表示与第 j 个输入相关的权值。使用最广泛的函数是 S 形函数,其曲线家族包括对数函数和双曲正切函数,这些都可用来对人口动态系统、经济学系统等建模。另外所用的其他函数有高斯函数、正弦函数、反正切函数,在此不一一展开介绍,本文主要使用的激励函数是对数函数,函数表达式为:y = L(u) =函数曲线如下图所示:10.80.60.40.2011 + e-u-0.2-10-8-6-4-20246810对于有限输入量,对数函数输出范围为 y (0,1)。在输入为 u = 0 时,输出值为中间值 y = 0.5
6、。输出在 u = 0 附近随着输入的增加以相对快的Page 5 of 25y = s ( w j j + b)速率增加并非常慢地到达上限。对于 u 0 ,输出起初减少得很快,然后随着下限的接近将会变慢。训练神经元的规则有很多种,这里首先介绍利用 delta 规则的学习,神经元选择为一个单输入单输出的简单情形,数学描述如下:u = wx + b, y =11 + e-u该神经元具有一个输入 x ,权重为 w ,偏差输入为 b ,目标输出为 t ,预报输出为 y 。则预报误差为:E = t - y = t -1 11 + e-u 1 + e- wx-b为消除当误差在整个输入模式上求和时引起的误差符
7、号问题,在delta 规则里使用的误差指示是平方误差,定义为:1 12 21- wx-b)2根据 delta 规则,最优权值(使平方误差最小)可以在训练过程中从初始权值出发,沿负梯度方向下降得到。将平方误差对 w, b (神经元的可调整参数)进行微分,得:eu= -E e-u(1 + e-u )2eweb= = - E xu w (1 + e-u )2= = - E u b (1 + e-u )2根据 delta 原则,权值改变应与误差梯度的负值成比例,引入学习率 b ,每次迭代中的权值改变可表示为:e e-uw (1 + e-u )2ebe-u(1 + e-u )2Page 6 of 25=
8、 t -1 + ee u e-ue u e-uDw = -b = b E xDb = -b = b E 学习率 b 决定了沿梯度方向的移动速度,以确定新的权值。大的b 值会加快权值的改变,小的 b 值则减缓了权值的改变。第 i 次迭代后的新权值可表示为:wi +1 = wi + b E e-u(1 + e-u )2 xbi +1 = bi + b E e-u(1 + e-u )2如果将偏差输入 b 视为输入 x 的一部分,令 x0 = 1, w0 = b,可以得到对于多输入神经元的权值修正式:+1e-u(1 + e-u )2 x j , j = 0,1, 2, n总之,利用 delta 规则的
9、有监督的学习可以按如下方法来实现:一个输入模式( x0 , x1, x2 , , xn)通过连接被传递,它的初始权值被设置为任意值。对加权的输入求和,产生输出 y ,然后 y 与给定的目标输出 t 做比较决定此模式的平方误差 e 。输入和目标输出不断地被提出,在每一次迭代或每一个训练时间后利用 delta 规则进行权值调整直到得到可能的最小平方误差。delta 规则在每一步中通过导数寻找在误差平面中某个特定点局部区域的斜率,它总是应用这个斜率从而试图减小局部误差,因此,delta 规则不能区分误差空间中的全局最小点和局部最小点,它本身不能克服单层神经网络的局限,无法直接应用到多层神经网络(易陷
10、入局部最小点),但它的一般形式是多层神经网络中的学习算法反传算法的核心。在多层前向神经网络的训练过程中,误差导数或关于权值的误差Page 7 of 25wij ji + b E = w表面的斜率对权值的调整是至关重要的,在网络训练期间,所有的输出神经元和隐含神经元权值必须同时调整,因此,有必要找出关于所有权值的误差导数。由于网络层数增多,平方误差 e 与权值的连接没有之前单个神经元时那么直接,故可以使用链式规则的概念来找到导数。下面对一个含有一层隐含神经元的 BP 网络进行讨论,网络结构如下图所示:x0 = 11a0ma01sy1b1y0 = 1x11b0x211zbman1ymxn1anms
11、各个神经元的输入输出关系为:yi =11 + e-uinj =0x, mmi =0设目标输出为 t ,则平方误差 e 定义为:Page 8 of 25, ui = a ji j , i = 1, 2,z = v, v = bi iy12使用链式法则,分别列出平方误差 e 对所有网络参数的导数:ev= -(t - z)ebiev, meyiev, m= = ui yi ui yi (1+ e-ui )2, i = 1, 2, mea ji= = x j , i = 1, 2, m, j = 0,1, 2, n在实际的编程过程中,我们需要的是ebi和ea ji,所以如果有需要,也可以直接采用以下整
12、理之后的形式:ebi= -(t - z) yi , i = 0,1, 2, mea jie-ui(1 + e-ui )2, m, j = 0,1, 2, n研究表明,两层网络在其隐层中使用 S 形激励函数,在输出层中使用线性传输函数,就几乎可以以任意精度逼近任意感兴趣的函数,只要隐层中有足够的单元可用。问题 1:试使用 BP 神经网络去逼近正弦函数的正半周,如下:t = sin(x), x 0,p 由于输入量 x 仅有一维,故 BP 神经网络结构可以设计为:Page 9 of 25= yi , i = 0,1, 2,= bi , i = 1, 2,e e yi e e-uie ui eui a
13、 jiui= -(t - z) bi x j , i = 1, 2,x0 = 1a01sy1y0 = 1a02b1b0a11b21zx1 = xa12sy2各个神经元的输入输出关系为:yi =11 + e-ui1j =0x2i =0根据之前的推导,平方误差 e 对所有网络参数的导数为:ebi= -(t - z) yi , i = 0,1, 2ea jie-ui(1 + e-ui )2网络参数修正方程为:k +1ebikak +1jijik e k e-ui为加快寻找最优权值的速度,可以使用动量法。之前的方法中,收敛到最优权值的速度取决于学习率的大小,但是过大的学习率会导致来回震荡,不能稳定到最
14、优权值点。动量法的引入,使得较大的学习率也可以具有较好的稳定性,即提供了在学习期间到达最优权值时Page 10 of 25, ui = a ji j , i = 1, 2z = v, v = bi iy= -(t - z) bi x j , i = 1, 2, j = 0,1bi ibk - b = bi + b (t - z) yi , i = 0,1, 2= a - b = a ji + b (t - z) bi x j , i = 1, 2, j = 0,1a ji (1 + e-ui )2的稳定性。这种方法基本上是将过去权值变化的平均值附加到每一次权值变化的新权值增量,从而使网络权值的
15、变化更平滑。数学表示如下:Dwk +1 = m Dwk + (1- m ) b (-ew)式中, m 是一个在 0 和 1 之间的动量参数, Dwk 是在前一个训练时间里的权值变化。使用动量法的实际效果是:基本上,如果以前积累的变化与之前方向所暗示的是同一个方向时,动量部分就会加速当前权值改变;如果当前积累的变化是相反的方向,动量将阻止当前的变化。据此编写 MATLAB 程序,源代码如下:beta = 0.1;miu = 0.8;for i = 1 : 1 : 101;x1(1, i) = (i - 1) * pi / 100;t(1, i) = sin(x1(1, i);endx0 = 1;
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 人工 神经网络 及其 应用 实例
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【天****】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【天****】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。