Submit Search
Upload
パーセプトロン型学習規則
•
Download as PPTX, PDF
•
5 likes
•
3,576 views
S
Shuhei Sowa
Follow
はじめてのパターン認識輪講会資料
Read less
Read more
Science
Report
Share
Report
Share
1 of 23
Download now
Recommended
はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半
Prunus 1350
はじパタ6章前半
はじパタ6章前半
T T
はじめてのパターン認識 第8章 サポートベクトルマシン
はじめてのパターン認識 第8章 サポートベクトルマシン
Motoya Wakiyama
はじぱた7章F5up
はじぱた7章F5up
Tyee Z
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
Motoya Wakiyama
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
Kenyu Uehara
はじパタ8章 svm
はじパタ8章 svm
tetsuro ito
PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半
Ohsawa Goodfellow
Recommended
はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半
Prunus 1350
はじパタ6章前半
はじパタ6章前半
T T
はじめてのパターン認識 第8章 サポートベクトルマシン
はじめてのパターン認識 第8章 サポートベクトルマシン
Motoya Wakiyama
はじぱた7章F5up
はじぱた7章F5up
Tyee Z
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
Motoya Wakiyama
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
Kenyu Uehara
はじパタ8章 svm
はじパタ8章 svm
tetsuro ito
PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半
Ohsawa Goodfellow
はじめてのパターン認識 第11章 11.1-11.2
はじめてのパターン認識 第11章 11.1-11.2
Prunus 1350
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
Hakky St
はじパタ 10章 クラスタリング 前半
はじパタ 10章 クラスタリング 前半
Katsushi Yamashita
はじめてのパターン認識8章サポートベクトルマシン
はじめてのパターン認識8章サポートベクトルマシン
NobuyukiTakayasu
Prml07
Prml07
Tsukasa Fukunaga
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半
koba cky
[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations
Deep Learning JP
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
Toshihiko Iio
サポートベクトルマシン(SVM)の勉強
サポートベクトルマシン(SVM)の勉強
Kazuki Adachi
線形識別モデル
線形識別モデル
貴之 八木
クラシックな機械学習の入門 11.評価方法
クラシックな機械学習の入門 11.評価方法
Hiroshi Nakagawa
わかりやすいパターン認識_2章
わかりやすいパターン認識_2章
weda654
PRML輪読#1
PRML輪読#1
matsuolab
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1
sleepy_yoshi
はじめてのパターン認識 第9章 9.5-9.6
はじめてのパターン認識 第9章 9.5-9.6
Prunus 1350
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
Yasunori Ozaki
RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習
Masayuki Tanaka
主成分分析
主成分分析
大貴 末廣
PRML 4.1 Discriminant Function
PRML 4.1 Discriminant Function
Shintaro Takemura
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2
禎晃 山崎
Structural engineering part 1
Structural engineering part 1
Min Kyaw Thu
Prezentare romania
Prezentare romania
Gabriel Baicu
More Related Content
What's hot
はじめてのパターン認識 第11章 11.1-11.2
はじめてのパターン認識 第11章 11.1-11.2
Prunus 1350
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
Hakky St
はじパタ 10章 クラスタリング 前半
はじパタ 10章 クラスタリング 前半
Katsushi Yamashita
はじめてのパターン認識8章サポートベクトルマシン
はじめてのパターン認識8章サポートベクトルマシン
NobuyukiTakayasu
Prml07
Prml07
Tsukasa Fukunaga
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半
koba cky
[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations
Deep Learning JP
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
Toshihiko Iio
サポートベクトルマシン(SVM)の勉強
サポートベクトルマシン(SVM)の勉強
Kazuki Adachi
線形識別モデル
線形識別モデル
貴之 八木
クラシックな機械学習の入門 11.評価方法
クラシックな機械学習の入門 11.評価方法
Hiroshi Nakagawa
わかりやすいパターン認識_2章
わかりやすいパターン認識_2章
weda654
PRML輪読#1
PRML輪読#1
matsuolab
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1
sleepy_yoshi
はじめてのパターン認識 第9章 9.5-9.6
はじめてのパターン認識 第9章 9.5-9.6
Prunus 1350
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
Yasunori Ozaki
RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習
Masayuki Tanaka
主成分分析
主成分分析
大貴 末廣
PRML 4.1 Discriminant Function
PRML 4.1 Discriminant Function
Shintaro Takemura
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2
禎晃 山崎
What's hot
(20)
はじめてのパターン認識 第11章 11.1-11.2
はじめてのパターン認識 第11章 11.1-11.2
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
はじパタ 10章 クラスタリング 前半
はじパタ 10章 クラスタリング 前半
はじめてのパターン認識8章サポートベクトルマシン
はじめてのパターン認識8章サポートベクトルマシン
Prml07
Prml07
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半
[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
サポートベクトルマシン(SVM)の勉強
サポートベクトルマシン(SVM)の勉強
線形識別モデル
線形識別モデル
クラシックな機械学習の入門 11.評価方法
クラシックな機械学習の入門 11.評価方法
わかりやすいパターン認識_2章
わかりやすいパターン認識_2章
PRML輪読#1
PRML輪読#1
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1
はじめてのパターン認識 第9章 9.5-9.6
はじめてのパターン認識 第9章 9.5-9.6
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習
主成分分析
主成分分析
PRML 4.1 Discriminant Function
PRML 4.1 Discriminant Function
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2
Viewers also liked
Structural engineering part 1
Structural engineering part 1
Min Kyaw Thu
Prezentare romania
Prezentare romania
Gabriel Baicu
Rooks Approach to Leadership
Rooks Approach to Leadership
Pete Rooks
Carlos Joaquín: Competitividad turística, base del desarrollo
Carlos Joaquín: Competitividad turística, base del desarrollo
Haide Serrano
Godrej sky
Godrej sky
grassrootproperties
Cojocaru adriana cristina,grupa 8218,imapa
Cojocaru adriana cristina,grupa 8218,imapa
Adrianna Adda
PF Strategic Leadershp Introductory pages (1)
PF Strategic Leadershp Introductory pages (1)
John Terhune
How to be a better manager
How to be a better manager
Andreea Carp
Runwal My City...My Desire Prelaunched In Dombivali
Runwal My City...My Desire Prelaunched In Dombivali
grassrootproperties
Shasta college bikeability study
Shasta college bikeability study
Melvin Shuster
Suc Manh Cua Su Doan Ket
Suc Manh Cua Su Doan Ket
W360S CORP
North east india paradise unexplored
North east india paradise unexplored
Mridupaban Mudoi
pres06-main
pres06-main
Brian Donhauser
Bear creek sampling program
Bear creek sampling program
Melvin Shuster
Water engineering
Water engineering
Min Kyaw Thu
ваге миасник
ваге миасник
Vahe12
ROZA Sports Catalogue 2015-2016
ROZA Sports Catalogue 2015-2016
Sheikh Sultan
Photoshoot 2
Photoshoot 2
EmilyCollins7
Muktzeh slide set 1
Muktzeh slide set 1
Rachel First
M4_A1_Weber_Jennifer
M4_A1_Weber_Jennifer
Jennifer Weber
Viewers also liked
(20)
Structural engineering part 1
Structural engineering part 1
Prezentare romania
Prezentare romania
Rooks Approach to Leadership
Rooks Approach to Leadership
Carlos Joaquín: Competitividad turística, base del desarrollo
Carlos Joaquín: Competitividad turística, base del desarrollo
Godrej sky
Godrej sky
Cojocaru adriana cristina,grupa 8218,imapa
Cojocaru adriana cristina,grupa 8218,imapa
PF Strategic Leadershp Introductory pages (1)
PF Strategic Leadershp Introductory pages (1)
How to be a better manager
How to be a better manager
Runwal My City...My Desire Prelaunched In Dombivali
Runwal My City...My Desire Prelaunched In Dombivali
Shasta college bikeability study
Shasta college bikeability study
Suc Manh Cua Su Doan Ket
Suc Manh Cua Su Doan Ket
North east india paradise unexplored
North east india paradise unexplored
pres06-main
pres06-main
Bear creek sampling program
Bear creek sampling program
Water engineering
Water engineering
ваге миасник
ваге миасник
ROZA Sports Catalogue 2015-2016
ROZA Sports Catalogue 2015-2016
Photoshoot 2
Photoshoot 2
Muktzeh slide set 1
Muktzeh slide set 1
M4_A1_Weber_Jennifer
M4_A1_Weber_Jennifer
パーセプトロン型学習規則
1.
はじパタ勉強会 第7章 パーセプトロン型学習規則 曽和 修平
2.
パーセプトロン 入力 1 x1 x2 xd w0 w1 w2 wd 出力 望みの出力となるように各重み(wi)を調節
3.
パーセプトロンの学習規則 • 学習データxiを入力した時の出力値について ・正しければ ・正しくなければ • 片方のクラスの符号を反転させた時、分類が正しけれ ばf(x)
≧ 0となり、誤っていればf(x) < 0となる ・f(xi) ≧ 0なら ・f(xi) < 0なら ηは学習の収束速度を決めるパラメータ η = 1の場合を固定増分誤り訂正法と呼ぶ
4.
学習の難しさの尺度 • テストデータにノイズが含まれていると,ノイズのないデータで学 習した識別関数はノイズ分だけ誤り易くなる • マージンhを取る事によってノイズに強くする i番目の学習におけるwiの変更量⊿wiは符号反転を行った学習デ
5.
学習の難しさの尺度(2) • ある識別関数に対して取れるマージンの大きさは クラス間マージンρ(w)の半分 従って最大マージンDmaxは最大クラスマージンを用いて
6.
パーセプトロンの収束定理 • 2クラスの学習データが線形分離可能であればパーセプ トロンの学習規則は有限回の学習で収束する (証明) ・マージンhは次元毎にαの大きさをとるとする h=αd ・学習総数 ・係数ベクトル ・解ベクトルはw*とする 誤りを起こす学習データのみの系列を考える (Miはデータxiが学習で使用された回数)
7.
パーセプトロンの収束定理(2) 解ベクトルw*とwの内積を計算すると (式7.4 より) ここから、解ベクトルw*と係数ベクトルwの内積は学習回数 Mに比例して増加していくことがわかる つまり、係数ベクトルwは解ベクトルw*に近づいていく
8.
パーセプトロンの収束定理(3) ||w||の上限を求めるために,各学習データの長さが||xi||^2≦d を満たしていると仮定し、係数ベクトルの変更量を求める (仮定より) (学習が行われたのでw^Tx_i≦h=αdであるから) これより、M回学習した係数ベクトルは に抑えられる
9.
パーセプトロンの収束定理(3) wとw*の方向余弦の2乗は となるので より と を用いて => となる。これをMについて解くと 従って、学習回数Mには上限があるので学習は収束する. T T
10.
多層パーセプトロン • 1層のパーセプトロンでは線形分離できず正しく識別でき ないようなデータに対して,多層にすることで線形分離可能 にする 入力層 隠れ層 出力層
11.
多層パーセプトロン(2) 係数ベクトルとの内積演算は図7.9の学習回路で実現することが n番目学習データの入力は
12.
多層パーセプトロン(3) n番目学習データが入力されるとVjには の入力が入り 出力関数g(u)を介して が出力される 隠れ素子の出力関数が線形であれば,多層回路を構成しても 等価的に1層の回路で表現できてしまうので、g(u)は非線形 でなければならない。 よく使用される非線形出力関数はシグモイド関数
13.
多層パーセプトロン(4) 出力素子ok(k=1…K)への入力は で与えられ、その出力は で与えられる は出力素子用の(非)線型出力関数である. ソフトマックス関数を用いて確率的な解釈を与える場合も ある シグモイド関数は1つの出力素子の値のみに依存しているが ソフトマックス関数は全ての出力素子の値と関係している.
14.
誤差逆伝播法の学習規則 最小2乗誤差の最小化を最急降下法によって行う n番目の学習データによる誤差の評価関数は となる. 学習データ全体では
15.
誤差逆伝播法の学習規則(2) E(w)を評価関数として用いるバッチアルゴリズムでは学習 データ全体を用いて結合係数の修正量を計算し更新するこ とを1エポックと言う τエポック目の修正量は、合成関数の微分法を用いて 誤差信号 出力関数がシグモイド関数の場合、微分すると出力値が0と1に近い部分で0に なり学習が進まなくなる場合があることに注意.
16.
誤差逆伝播法の学習規則(3) 入力素子xiから隠れ素子Vjへの結合係数wjiの評価関数は出力素子wkj の場合と同じだが、wjiで微分する為、合成関数の微分を2度行う必 要がある
17.
誤差逆伝播法の学習規則(4) 隠れ素子jの誤差信号を で定義すれば と表現できる このアルゴリズムが誤差逆伝播法 確率降下法では となる
18.
誤差逆伝搬法の学習特性 ・初期値依存性 局所最小値がたくさんあり、大域的な最適解を得るのが 難しい。 どのような局所最適解にいきつくかは初期値に依存する ・隠れ素子の数 隠れ素子の数を増やしすぎると、学習データのノイズ 成分にも適合してしまい、汎化誤差が増加する(過学習) 最適な隠れ素子の数はホールドアウト法や交差確認法 などで求める必要がある
19.
過学習と正則化 ・過学習の原因は隠れ素子の数が多くなる事だけではない ・学習が進み、結合係数が大きくなりシグモイド関数の非線 形領域に入り、非線形性が強くなると過学習が生じやすい ・早期終了規則 ・正則化 交差確認法などで汎化誤差を推定し、汎化誤差が上昇する 手前で学習を終わらせる方法 誤差逆伝搬法が提案された当初に使われていた 学習が進んでも結合係数の大きさを抑える方法 最近ではこちらがよく用いられる
20.
過学習と正則化(2) ・正則化 評価関数に結合係数の増加が大きくなる事にたいするペナ ルティ項を追加する この正則化を荷重減衰ペナルティという λは正則化の大きさを決める正則化パラメータ
21.
過学習と正則化(3) 正則化項を加えた時の学習規則は wkjが重みに負帰還をかける形になって,結合係数が大きくなる 事が抑えられる
22.
学習回路の尤度 活性化関数をソフトマックス関数にし、出力に確率的解釈 を与える場合、評価関数は で与えられる.この場合は最尤推定法より結合係数の更新式 を得ることができる 出力okをK個の無関係な確率とみなす場合はベルヌーイ試行 と解釈できる
23.
学習回路の尤度 負の対数尤度は交差エントロピー型誤差関数 出力素子の学習は 出力関数がシグモイド関数の場合は なので となり,出力関数の微分が消え,2乗誤差基準のように非線形部分で 学習が進まなくなるということがないという利点がある
Download now