神經网络LMS.docVIP

  1. 1、本文档共8页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
神經网络LMS

实验报告 实验名称:基于LMS算法的矩阵变换 实验目的:本次实验主要是让大家对Widrow 和 Hoff 为 ADALINE 网络设计的 LMS 学习算法进一步了解和认识,熟悉ADALINE 网络,熟知LMS学习算法的原理以及其在MATLAB中的程序实现,在掌握这些基本原理的同时把LMS算法运用求解矩阵的实际问题中。 实验内容:在 Windows 环境中用 C 或MATLAB实现LMS学习算法,并实现X=AY的矩阵变换(矩阵A?Rn′m自选) 实验步骤:1、熟读LMS算法,深知其原理,并求出其在MATLAB中的实现程序; 2、在MATLAB中写出矩阵变换程序,并运行,查看结果是否正确; 3、根据实验结果写出实验报告; 实验原理:W-H 学习规则是由威德罗和霍夫提出的用来修正权矢量的学习规则,所以用他们两人姓氏的第一个字母来命名。采用 W-H 学习规则可以用来训练一层网络的权值和偏差使之线性地逼近一个函数式而进行模式联想(Pattern Association)。线性网络具有抛物线型误差函数所形成的误差表面, 所以只有一个误差最小值。通过 W-H 学习规则来计算权值和偏差的变化,并使网络误差的平方和最小化,总能够训练一个网络的误差趋于这个最小值。我们的目的是通过调节权矢量, 使达到最小值。 所以在给定后, 利用 W-H学习规则修正权矢量和偏差矢量,使从误差空间的某一点开始,沿着的斜面向下滑行。 使 mse(we) 最小为目标,计算 ADALINE 网络联接关系向量 we 的梯度下降算法(Gradient Descent Algorithm)为: 其中,s 为学习率(Learning Rate)。上式称为 W-H 学习规则或为最小均方差算法(LMS) disp(Wd); B=[]; %空矩阵,用于存放SSE lr=0.003; %给定学习率 err_goal=0.001; %最终收敛误差 max_exlen=500; %最大迭代次数 for exlen=1:max_exlen X=Wd*Y; %每训练一次得输出X E=(X1-X); %把X与终值XI比较,取差 SSE=sumsqr(E); %算出误差平方和 Wd=Wd+2*lr*E*Y; B=[B,SSE]; if SSE=err_goal %直到误差平方和小于等于0.001则停止训练,输出此时的A exlen=exlen-1; break end end x=1:size(B,2); %作图,选取横坐标 C=err_goal*ones(1,x); %将期望误差写成与B阶数相同的矩阵C plot(x,B,b,x,err_goal,r); %画误差曲线图 xlabel(步长x); ylabel(误差y); title(训练误差与期望误差比较); fprintf(迭代终值\n); disp(A) %显示A 实验结果:当lr=0.003时 误差曲线为: 当lr=0.007时 误差曲线: 当lr=0.01时,实验结果为: 误差曲线: 实验总结:在本次实验中学习率一共取了三次值,分别是0.003,0.007和0.01,学习率取得值不一样,得出的结果也不一样,当学习率为0.003时,结果能够逼近给定误差,但是训练次数比较多,当学习率为0.007时,训练的速度要优于学习率为0.003时的情况,当学习率取0.01时,实验无法得到预期结果,无法逼近误差,实验出现发散的情况。通过本次实验让我对神经网络有了更深层次的了解,同时对LMS算法的原理以及其解决实际问题方面有了更深入的认识,为以后学习BP网络以及其他神经网络打下基础。

文档评论(0)

df9v4fzI + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档