3 第4章 单层感知器.pptVIP

  1. 1、本文档共28页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
3第4章单层感知器整理

5.单层感知器应用实例 2.使用工具箱函数 用到的函数: newp train sim perception_fcn.m 谢谢大家! * * 第4章 单层感知器 编者 Outline 1.单层感知器的结构 2.单层感知器的学习算法 3.感知器的局限性 4.单层感知器相关函数详解 5.单层感知器应用实例 1.单层感知器的结构 单层感知器属于单层前向网络,即除了输入层和输出层之外只拥有一层神经元节点。 感知器(perception )的原理相对简单,是学习其他复杂神经网络的基础 。 由单个神经元组成的单层感知器只能用来解决线性可分的二分类问题。 典型使用场景: 将其用于两类模式分类时,就相当于在高维样本空间中,用一个超平面将样本分开。Rosenblatt证明,如果两类模式线性可分,则算法一定收敛。 1.单层感知器的结构 输入是一个N维向量 其中的每一个分量都对 应于一个权值,隐含层的 输出叠加为一个标量值: 随后在二值阈值元件中对得到的v值进行判断,产生二值输出: 1.单层感知器的结构 二维空间中的超平面是一条直线。在直线下方的点,输出-1;在直线上方的点,输出1。分类面: 2.单层感知器的学习算法 在实际应用中 ,通常采用纠错学习规则的学习算法。 将偏置作为一个固定输入 输入 权值 2.单层感知器的学习算法 (1)定义变量和参数。X为输入,y为实际输出,d为期望输出,b为偏置,w为权值。 (2)初始化。n=0,将权值向量 设置为随机值或全零值。 (3)激活。输入训练样本,对每个训练样本指定其期望输出 。 d (4)计算实际输出。 2.单层感知器的学习算法 (5)更新权值向量。 (6)判断。若满足收敛条件,算法结束;若不满足,n自增1,转到第3步继续执行。 误差小于某个预先设定的较小的值 两次迭代之间的权值变化已经很小 设定最大迭代次数M,当迭代了M次之后算法就停止迭代 条件的混合使用,防止出现算法不收敛现象。 2.单层感知器的学习算法 确定学习率 不应当过大,以便为输入向量提供一个比较稳定的权值估计 不应当过小,以便使权值能够根据输入的向量x实时变化,体现误差对权值的修正作用 粗准焦螺旋 和细准焦螺旋的类比。——自适应学习率。 3.感知器的局限性 单层感知器无法解决线性不可分问题,只能做近似分类。 感知器的激活函数使用阈值函数,输出值只有两种取值,限制了在分类种类上的扩展 。 如果输入样本存在奇异样本,网络需要花费很长的时间。 感知器的学习算法只对单层有效 。 4.单层感知器相关函数详解 net=newp(P,T,TF,LF) P:P是一个R*2矩阵,矩阵的行数R等于感知器网络中输入向量的维数。矩阵的每一行表示输入向量每个分量的取值范围。 T:表示输出节点的个数,标量。 TF:传输函数,可取值为hardlim或hardlims,默认值为hardlim。 LF:学习函数,可取值为learnp或learnpn,默认值为learnp。 net:函数返回创建好的感知器网络。 newp——创建一个感知器,需要经过训练才具有神经网络的功能。 4.单层感知器相关函数详解 p=[-1,1;-1,1] % 输入向量有两个分量,两个分量取值范围均为-1~1 t=1; net=newp(p,t); % 创建 P=[0,0,1,1;0,1,0,1] % 训练样本 T=[0,1,1,1] % 目标输出 或 逻辑 net=train(net,P,T); newP=[0,0.9]‘; % 新的样本 newT=sim(net,newP) % 测试 newP=[0.9,0.9]; newT=sim(net,newP) newT=sim(net,P) 4.单层感知器相关函数详解 [net,tr]=train(net,P,T,Pi,Ai) net:需要训练的神经网络,对于感知器,net是newp函数的输出 P:网络输入。P是R*Q输入矩阵,每一列是一个输入向量 T:网络期望输出 Pi:初始输入延迟,默认值为零 Ai:初始的层延迟,默认值为零 输出net:训练好的网络 tr:训练记录,包括训练的步数epoch和性能perf train——训练感知器网络 4.单层感知器相关函数详解 p=[-100,100] % 输入数据是标量,取值范围-100~100 t=1

文档评论(0)

chenchena + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档