数据挖掘神经网络BP算法.ppt

  1. 1、本文档共15页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
7.3 神经网络算法 7.3.1 神经网络的基本原理 人工神经网络是在研究生物神经系统的启发下发展起来的一种信息处理方法。它模拟生物神经系统结构,由大量处理单元组成非线性自适应动态系统,具有高度非线性的超大规模实践特性,网络的全局作用、大规模并行分布处理及高度的鲁棒性和容错性,有联想记忆、抽象概括和自适应能力,这种抽象概括和自适应能力一般称之为自学能力。 工程上用的人工神经元模型如图所示: 7.3.2 反向传播模型 1.工作原理 神经网络模型分为前馈多层式网络模型、反馈递归式网络模型、随机型网络模型等。 误差反向传播(Back propagation,简称BP网络) ,又称为多层前馈神经网络。 其模型结构如图7.3所示 2.学习过程 BP网络学习过程是一种误差边向后传播边修正权系数的过程,BP算法把网络的学习过程分为正向传播和反向传播两种交替过程。 (1)正向传播 输入信息先传到隐藏层的结点上,经过各单元的特性为S型的激活函数运算后,把隐藏层结点的输出信息传到输出结点,最后给出输出结果。 (2)反向传播 如果得不到实际的输出,则转入反向传播过程,将误差信号沿原来的连接线路返回,通过修改各层神经元的权值,逐次地向输入层传播进行计算,再经过正向传播过程。这两个过程的反复运用,逐渐使得误差信号最小,网络学习过程就结束。 3.BP算法 BP算法如下。 其中,l为学习率;oi为单元i的输出;oj为单元j的输出;Tj为输出层单元j的期望输出;Errj为与隐藏层单元j的误差加权和;wjk为单元j与单元k相连的有向加权边的权重;为改变单元j活性的偏量。 输入:训练样本S,学习率l,多层前馈网络。 输出:一个训练的、对样本分类的神经网络。 方法: (1) 初始化网络的权和阈值 (2)??WHILE终止条件满足{ (3)??FOR S中的每个训练样本X{ (4)??FOR隐藏或输出层每个单元j{( (5) ; //相对于前一层计算单元j的净输入 (6) ; // 计算每个单元j的输出 (7)??FOR输出层每个单元 (8)? ; //计算误差 (9)??FOR由最后一个到第一个隐藏层,对于隐藏层每个单元j (10)? ; //计算关于下一个较高层k的误差 (11)??FOR网络中的每一个权 (12) ?; (13)??FOR网络中每个单元偏量 (14)? 【例7-5】 假设训练样本s的属性值为{1,0,1},实际类别分别为1,两层前馈神经网络NT如图7.4所示,NT中每条有一向加权边的权重、每个隐藏层与输出层单元的偏置如表7-11所示,学习率为0.9。写出输入S训练NT的过程。 首先算出单元4、5、6的输入、输出,具体结果见表7-12,然后计算4、5、6的误差,见表7-13;NT中每条有向加权边的新权重、每个隐藏层与输出层单元的新偏置见表7-14。 图7.4 两层前馈神经网络 表7-11 权重、单元的偏置 单元j 输入Ij 输出Oj 4 0.2×1+0.4×0+(-0.5)×1+(-0.4)=-0.7 1/(l+e-(-0.7))=0.332 5 (-0.3)×l+0.1×0+0.2 × 1+0.2=0.1 1/(l+e-0.1)= 0.525 6 (-0.3) ×0.332+(-0.2)×0.525+0.1=-0.105 1/(l+e-(-0.105))=0.474 表7-12 隐藏层与输出层每个单元的输入、输出 表7-13 隐藏层与输出层每个单元的误差 单元j 误 差 6 0.474×(1-0.474)×(l-0.474)=0.1311 5 0.525×(l-0.525)×(0.1311×(-0.2))=-0.0065 4 0.332×(l-0.332)×(0.1311×(-0.3))=-0.0087 表7-14 有向加权边的新权重、每个隐藏层与输出层单元的新偏置 W46 -0.3+0.9×0.1311×0.332=-0.261 W56 -0.2+0.9×0.1311×0.525=-0.138 W14 0.2+0.9×(-0.00087)×1=0.192 W15 -0.3+0.9×(-0.0065)×1=-0.306 W24 0.4+0.9×(-0.0087)×0=0.4 W25 0.1+0.9×(-0.0065)×0=0.1 W34 -0.5+0.9×(-0.0087)×1=-0.508 W35 0.2+0.9×

您可能关注的文档

文档评论(0)

xiangxiang + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档