- 1、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
パターン認識特論 rl.sys.wakayama-
パターン認識特論ー閾値論理と線形識別機構ー担当:和田 俊和 部屋 A513 Email twada@講義資料はhttp://wada1.sys.wakayama-u.ac.jp/PRA/ 線形識別機構 閾値論理 線形識別関数とは 識別面:異なるカテゴリー(クラス)に属するパターンを分離する面 線形識別面:線形方程式として表現できる識別面 A A A A A A A A A B B B B B B B 線形識別関数の数学的表現 線形識別の方法:線形識別面に直交するベクトルW上にパターンxを投影し、原点からその投影点までの長さVの大小関係によって帰属するクラスを決定する。 A A A A A A A A A B B B B B B B w w?x |w| V = θ’ If vθ’, x belongs to A Otherwise,x belongs to B 線形識別関数の数学的表現 真面目に長さを計らなくても良い。 A A A A A A A A A B B B B B B B w w?x |w| v = θ’ If w?xθ, x belongs to A Otherwise, x belongs to B |w|v =w?x したがって、w?x と |w|θ’(=θ)の 大小関係を調べれば良 い. w?xの意味(TLUとの関係) TLU:Threshold Logic Unit (McCulloch and Pitts, 1943) If w?xθ, y=0 Otherwise, y=1 w?x は、TLUの内部 活性度と見なすことが できる。 w=(w1,…,wn) x=(x1,…,xn) Wの拡張 xn+1= -1につながった入力を付加する。 If w?x0, y=0 Otherwise, y=1 閾値θをベクトルwに含 めてしまう。 xn+1=-1 -1 Wn+1 線形識別関数の学習(誤識別した場合のwの調整) 教師付き学習:入力データとクラスデータの???(x,t)を与える。( t=0 ?y=0, t=1 ?y=1 ) 誤識別のケース: w?x0 (y=1) and t =0 w?x0 (y=0) and t =1 x w w’ αx x w w’ ‐αx w’=w+α(t-y)x α:学習率 線形識別関数の学習の例(ANDゲート) 初期値:w=(0 ,0.4,0.3),α=0.25 応用:Perceptron (Rosenblatt,1962) 拡張されたTLU Association Unitは任意の二値論理関数(固定) y2: (AD)/(BC) y1: (AB)/(CD) TLUを用いた多クラスの識別 C C C C D D D D D B B B A A A A B C Σ Σ Σ Σ A B C D Σ Σ y2: (AD)/(BC) y1: (AB)/(CD) 多段TLUの学習(1) C C C C D D D D D B B B A A A A B C Σ Σ 層毎に学習する方法 1 0 y1 (AB) (CD) y2 (AD) (BC) Σ Σ Σ Σ A B C D y1 y2 A B C D 1 1 1 0 0 0 1 0 0 1 0 0 0 1 0 0 0 1 0 0 0 0 1 0 多段TLUの学習(2) 問題: 各TLUについて E=1/2 (t-x?w) とし、これを最小化するようにwを変更する。 解法: δw = -α =α(t-x?w)x とし、w’=w+δw によって更新する。 fは微分可能ではないが、 活性度w?xは微分可能。w?x を-1,1 の2クラスに分けた教師信号を個々のTLUに与えれば、学習が 行えるはず。 Σ Σ Σ Σ Σ Σ A B C D 結局、全てのTLUに教師信号を与えるので、 層ごとの学習と同じことになる。 ?E ?w 2 問題点 全てのユニットに教師信号を与えなければならない。(出力層にだけ教師信号を与えたい。) f(x ; w)は不連続関数でありwで微分することができない。(閾値処理に起因する。) ニューラルネット Σ Σ Σ Σ Σ Σ A B C D ニューラルネットの学習 Σ Σ Σ Σ Σ Σ A B C D E=1/2(t-σ(x?w))2をwで微分すると -σ’(x?w) (t-σ(x?w))x が得られる。このことから
文档评论(0)