SlideShare a Scribd company logo
1 of 21
Download to read offline
第7章

パーセプトロン型学習規則
P96
@zaoriku0
目次
7・1 パーセプトロン
-パーセプトロンの学習規則
-学習の難しさの尺度
-パーセプトロンの収束定理

7・2 誤差逆伝搬法
-多層パーセプトロン
-誤差逆伝搬法の学習規則

7・3 誤差逆伝搬法の学習特性
-初期値依存性
-隠れ素子の数
-過学習と正則化
-学習回路の尤度
多層パーセプトロン
i番目の入力
𝑥𝑖

𝑛

j番目の素子

K番目の出力
𝑉𝑗 𝑛

𝑑個

𝑜 𝑘𝑛

𝑀個
𝑀

𝑑

ℎ 𝑗𝑛

=

𝑤 𝑗𝑖 𝑥 𝑖

𝑛

𝑛
𝑘

ℎ =
j=0

𝑖=0

𝑉𝑗 𝑛 = 𝑔( ℎ 𝑗𝑛 )

i=0 バイアス項
J=0 バイアス項

𝑤 𝑘𝑗

𝑉𝑗 𝑛

𝑜 𝑘𝑛 = 𝑔 ( ℎ 𝑘𝑛 )

𝑉𝑗

𝑛

𝑔

𝑜 𝑘𝑛

=

exp 𝑜 𝑘𝑛
𝑛
𝐾
𝑙=1 exp 𝑜 𝑙

ソフトマックス
基本はケツも
シグモイド関数
多層パーセプトロン
i番目の入力
𝑥𝑖

𝑛

j番目の素子

素子jの重みwji
(j:0 ~ M)

K番目の出力
𝑉𝑗 𝑛

𝑜 𝑘𝑛
入力xi
(i:0 ~ d)

𝑑個

𝑀個
𝑀

𝑑

入力は普通シグモイドを
通さない

ℎ 𝑗𝑛

=

𝑤 𝑗𝑖 𝑥 𝑖

𝑛

𝑛
𝑘

ℎ =
j=0

𝑖=0

𝑉𝑗 𝑛 = 𝑔( ℎ 𝑗𝑛 )

wj=0 バイアス項
wk=0 バイアス項

𝑤 𝑘𝑗

𝑉𝑗 𝑛

𝑜 𝑘𝑛 = 𝑔 ( ℎ 𝑘𝑛 )

𝑉𝑗

𝑛

𝑔

𝑜 𝑘𝑛

=

exp 𝑜 𝑘𝑛
𝑛
𝐾
𝑙=1 exp 𝑜 𝑙
7・2・2 誤差逆伝搬法の学習規則(ラメルハートら)
ポイント
・多層パーセプトロンの拡張
w を学習する

-出力誤差から

教師信号(t)と出力(o)の誤差
Error back propagation
出力関数にシグモイド関数を使用するのが有名
(出力を0~1にする)

𝑑

𝑉𝑗 𝑛 = 𝑔( ℎ 𝑗𝑛 )

ℎ 𝑗𝑛 =

𝑤 𝑗𝑖 𝑥 𝑖 𝑛
𝑖=0

同時座標系
(i=0がバイアス)

p.106
7・2・2 誤差逆伝搬法の学習規則
誤差の評価関数
1
𝐸 𝑛 (𝑤) =
2

教師信号

出力信号

𝐾

( 𝑡 𝑘𝑛 − 𝑜 𝑘𝑛 )2
𝑘=1

(7.13)

n番目の学習データ使用

・バッチ学習
・オンライン学習

i

j

k
7・2・2 誤差逆伝搬法の学習規則
誤差の評価関数
1
𝐸 𝑛 (𝑤) =
2

教師信号

出力信号

誤差の評価関数(学習データ全体)
バッチアルゴリズム

𝐾

(
𝑘=1

𝑡 𝑘𝑛

−

𝑜 𝑘𝑛 )2

𝐸(𝑤) =
(7.13)

1
2

例:τエポック目

𝑁

𝐸 𝑛 (𝑤)
𝑛=1

n番目の学習データ使用

・バッチ学習
・オンライン学習

・全データで学習する!
・一回でΔwを更新する

1エポック:
学習データ全体を用い
て修正量を計算、更新

(7.14)
7・2・2 誤差逆伝搬法の学習規則
誤差の評価関数
1
𝐸 𝑛 (𝑤) =
2

教師信号

出力信号

1エポック:
学習データ全体を用い
て修正量を計算、更新

誤差の評価関数(学習データ全体)
バッチアルゴリズム

𝐾

(

𝑡 𝑘𝑛

−

𝑜 𝑘𝑛 )2

𝑘=1

𝐸(𝑤) =
(7.13)

1
2

例:τエポック目

𝑁

𝐸 𝑛 (𝑤)
𝑛=1

(7.14)
シグモイド関数の微分は、元
の関数で表現可能
p106

n番目の学習データ使用
1エポックの変化量を
出すのに全Eを回している?

𝑜 𝑘𝑛 = 𝑔 ( ℎ 𝑘𝑛 )

出力素子の結合係数の更新
𝑤 𝒌𝑗(τ+1) = 𝑤 𝒌𝑗(τ) + Δ𝑤 𝒌𝑗(τ)

𝑁

Δ𝑤 𝒌𝑗(τ) =
𝑛=1

𝑛
δ 𝑘 (τ)

𝜕𝐸 𝑛 (𝑤)
−η
𝜕𝑤 𝒌𝑗

𝑁

𝑉𝑗 𝑛

( 𝑡 𝑘𝑛 − 𝑜 𝑘𝑛 )
𝑛=1

𝑔

外側の微分

=η

ℎ 𝑘𝑛

中身の微分

(7.15)

隠れ素子の結合係数の更新も同様
𝑤 𝒋𝑖(τ+1) = 𝑤 𝒋𝑖 (τ) + Δ𝑤 𝒋𝑖(τ)

𝑁

Δ𝑤 𝒋𝑖(τ) =

−η
𝑛=1

𝜕𝐸 𝑛 (𝑤)
𝜕𝑤 𝒋𝑖

𝑁

𝐾

𝑛
δ 𝑘 (τ)

( 𝑡 𝑘𝑛 − 𝑜 𝑘𝑛 )

=η

𝑔

ℎ 𝑘𝑛

𝑤 𝒌𝑗 𝑔

𝑛=1 𝑘=1

(7.16)

ℎ 𝑗𝑛

𝑥 𝑖𝑛
7・2・2 誤差逆伝搬法の学習規則
確率降下法(SGD?)(オンライン学習)

最急降下法、サンプルをランダムに取って学習

学習データごとにwを逐次更新
出力の重みの修正量

N番目の学習データによるwkjの修正量
𝑛
𝑛
Δ𝑤 𝒌𝑗 (τ) = ηδ 𝑘 (τ) 𝑉𝑗 𝑛 (τ)

(7.16)
𝑛
δ 𝑘 出力の誤差信号 ( 𝑡 𝑘𝑛 − 𝑜 𝑘𝑛 )

N番目の学習データによるwjiの修正量
Δ𝑤 𝑗 𝑛𝑖 (τ) = ηδ 𝑗𝑛 (τ) 𝑥 𝑖 𝑛 (τ)

ℎ 𝑘𝑛

𝑔

隠れ素子の重みの修正量
(7.20)

δ 𝑗𝑛 隠れ素子j の誤差信号

𝐾

𝑔

ℎ 𝑗𝑛

𝑛
δ 𝑘 (τ) 𝑤 𝒌𝑗 (7.18)
𝑘=1

-数十~100程度の訓練データから勾配求めることが多いらしい
-バッチとオンラインの性能差?
バッチはメモリ食う! マルチコアのマルチスレッドで分散して計算するとよい。

ミニバッチ法:SGD
(AI学会誌vol.28)
7・2・2 誤差逆伝搬法の学習規則
確率降下法(オンライン学習)
学習データごとにwを更新

出力の重みの修正量

N番目の学習データによるwkjの修正量
𝑛
𝑛
Δ𝑤 𝒌𝑗 (τ) = ηδ 𝑘 (τ) 𝑉𝑗 𝑛 (τ)

(7.16)
𝑛
δ 𝑘 出力の誤差信号 ( 𝑡 𝑘𝑛 − 𝑜 𝑘𝑛 )

ℎ 𝑘𝑛

𝑔

隠れ素子の重みの修正量

N番目の学習データによるwjiの修正量
Δ𝑤 𝑗 𝑛𝑖 (τ) = ηδ 𝑗𝑛 (τ) 𝑥 𝑖 𝑛 (τ)

(7.20)
𝐾

δ 𝑗𝑛 隠れ素子j の誤差信号

𝑔

ℎ 𝑗𝑛

𝑛
δ 𝑘 (τ) 𝑤 𝒌𝑗 (7.18)
𝑘=1

Δ𝑤 𝑗𝑘 (τ) = η

𝑁
δ 𝑗𝑛 𝑥 𝑘𝑛
𝑛=1

出力から隠れ層への変化量

出力の誤差信号δkをwkを介して
隠れ層jにもどしている

出力をxで表現してる

(7.19) 但し、この式はバッチアルゴ

BP法と呼ばれる
(誤差逆伝播法)
実行例7.1 手書き数字データの学習

p57、p107下
入力:16x16+1(256+1)
隠れ層:10+1
出力:10個
学習データ:各数字650個
テストデータ:他の650個
平均誤識別率:3.1%
5の誤り:44個

入力:8x8x8+1(512+1)
隠れ層:12+1(最適)
出力:10個
学習データ:各数字650個
テストデータ:他の650個
認識率:99%超え
5の誤り:6個
7・3 誤差逆伝搬法の学習特性(学習)
7.3.1 初期依存性

どうつくればいいかの研究もある

p.108

・最適解に行くかどうかは、wの初期値で決まる
・最急降下法、共役勾配法

よくないケース
最急降下法

共役勾配法
http://d.hatena.ne.jp/Zellij/20120712/p1
7.3.3 過学習と正則化

p.109

過学習
・隠れ素子jの数 ↑
・結合係数wの値 ↑ でも起こる

正則化

加重減衰ペナルティ

誤差の評価関数に、結合係数が大きくなりすぎないようペナルティをかける
隠れ層

正則化パラメータ

出力層の重みの修正量

出力層
7.3.2 隠れ素子の数

p.109

学習データで
もう一回テスト

学習データ以外のデータ
でテスト
悪くなっていく
ノイズにも適合するため
(過学習)

良くなっていく

b=3
が良い

最適な素子数は以下
で求める
・ホールドアウト法
・交差確認法
Rで学ぶマシンラーニング
にもっと書いてある

Pima.tr データセット
糖尿病の有無で二群
変数:血圧、BMIなど

参考p12,13
7.3 正則化項の効果(アヤメデータ)

p.110

・出力素子の出力0.5 太線
・出力素子の出力0.01 点線
β = 1(β=10に近い)

β = 1(β=0.5に近い)

学習の進みが遅い
結合係数が小さい
⇒図7.15

正則化パラメータ

隠れ素子数10
7.3.4 隠れ層の数と識別能力

p.112
7.3.5 学習回路の尤度

PRML(上)p236
参考

・尤度関数を誤差関数として使用するとよい!
出力の活性化関数と誤差関数 ⇒ 解くべき問題の型で選択
活性化関数(出力関数)
g()

誤差関数
E()

回帰問題

線形出力関数

二乗和誤差

2クラス分類問題
(多数の独立な)

ロジスティックシグモイド関数 二乗和誤差
ソフトマックス関数(2クラス)
交差エントロピー誤差関数

多クラス分類問題

ソフトマックス関数

多クラス交差エントロピー誤差関数

クラス分類問題では、交差エントロピー誤差関数を使うほうが、
訓練が早く、同時に凡化能力が高まる。Simard et al, 2003 PLML(上) p235
7.3.5 学習回路の尤度

参考 p.52, 91-93
エントロピー関数

K個の異なる2クラス分類
出力okをK個の無関係な確率とみなす場合
以下のベルヌーイ試行とみなせる

(ここで

𝐾
𝑡

𝑜𝑘𝑘 1 − 𝑜𝑘

𝑝 𝑡|𝑥, 𝑤 =

は

となる確率)

1−𝑡 𝑘

負の対数尤度

𝑘=1

誤差の評価関数:交差エントロピー誤差関数
シグモイド関数の微分には
シグモイド関数が残っている!

結合係数の更新式(出力層)

出力関数がシグモイド関数の場合
二乗誤差基準と違い出力関数の微分が消えて、
学習が進まなくなることがない
参考 p.52, 91-93

7.3.5 学習回路の尤度
K個の排他的な1つに割り当てる場合 (ソフトマックス関数)
出力を 𝑔 (ok) = p( tk = 1 |x)のようにする場合
𝐾

𝑝 𝑡 𝑘 = 1|𝑥

𝑡
𝑜𝑘𝑘

𝑝 𝑡 𝑘 = 1|𝑥, 𝑤 =
𝑘=1

負の対数尤度

誤差の評価関数
𝑁

𝐸

𝐾

𝑡 𝑘𝑛 log 𝑜 𝑘𝑛

𝑤 =−
𝑛=1 𝑘=1

結合係数の更新式 p93
最尤推定法
E(w)を各wで微分(=0)をして、各wを出す。

?
まとめ
特徴
出力誤差から

w を学習する

・出力関数 g()
・誤差の評価関数 E()
・更新式 Δw

問題点(本にないものあり)
・局所最適化、過学習 (わりと改善している感)
->正則化
->DropOut[Hinton 12]学習時:Nを半数消す、推論時:Nの出力2/1、複数モデルの平均
->Maxout[Good fellow 13]複数の出力関数の内最大値を取るものを選ぶ、高性能
・誤差の伝播が十分でない(層が深いとき)
・遅い →交差エントロピーの方が速く、凡化性能が良い
→ReLU[Nair 10]h(x)=log(1+e(x)) =~ max(0,x)、 結果もよい →Maxoutも速い
・構造の形はどれくらいがいいのか(層数とかピラミッドとか) →技はあるっぽい

・生理モデルではない
おまけ

Deep Learning

DNN(Deep Neural network)
層の数が多い階層的なニューラルネットワーク
DBN(Deep Belief network)
層ごとに教師なし事前学習で初期値得る
教師あり学習を行う

DBM(Deep Boltzmann Machine)
DBNの拡張
隠れ層が積みあがる

RNN
CNN

RBM(Restricted Boltzmann Machine)
ボルツマンマシンの変種
確率的に伝播するネットワーク
積み重ね

HMMの積み重ねとかもあるみたい

More Related Content

What's hot

はじパタ8章 svm
はじパタ8章 svmはじパタ8章 svm
はじパタ8章 svmtetsuro ito
 
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
はじめてのパターン認識 第5章 k最近傍法(k_nn法)はじめてのパターン認識 第5章 k最近傍法(k_nn法)
はじめてのパターン認識 第5章 k最近傍法(k_nn法)Motoya Wakiyama
 
はじめてのパターン認識 第9章 9.5-9.6
はじめてのパターン認識 第9章 9.5-9.6はじめてのパターン認識 第9章 9.5-9.6
はじめてのパターン認識 第9章 9.5-9.6Prunus 1350
 
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化Miyoshi Yuya
 
はじめてのパターン認識4章後編
はじめてのパターン認識4章後編はじめてのパターン認識4章後編
はじめてのパターン認識4章後編Tanaka Hidenori
 
はじめてのパターン認識 第1章
はじめてのパターン認識 第1章はじめてのパターン認識 第1章
はじめてのパターン認識 第1章Prunus 1350
 
PRML輪読#7
PRML輪読#7PRML輪読#7
PRML輪読#7matsuolab
 
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...Deep Learning JP
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)Yasunori Ozaki
 
はじめてのパターン認識 第8章 サポートベクトルマシン
はじめてのパターン認識 第8章 サポートベクトルマシンはじめてのパターン認識 第8章 サポートベクトルマシン
はじめてのパターン認識 第8章 サポートベクトルマシンMotoya Wakiyama
 
パターン認識と機械学習 13章 系列データ
パターン認識と機械学習 13章 系列データパターン認識と機械学習 13章 系列データ
パターン認識と機械学習 13章 系列データemonosuke
 
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learningベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learningssuserca2822
 
はじめてのパターン認識8章 サポートベクトルマシン
はじめてのパターン認識8章 サポートベクトルマシンはじめてのパターン認識8章 サポートベクトルマシン
はじめてのパターン認識8章 サポートベクトルマシンNobuyukiTakayasu
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3matsuolab
 
線形?非線形?
線形?非線形?線形?非線形?
線形?非線形?nishio
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門tmtm otm
 
PRML輪読#4
PRML輪読#4PRML輪読#4
PRML輪読#4matsuolab
 

What's hot (20)

はじパタ8章 svm
はじパタ8章 svmはじパタ8章 svm
はじパタ8章 svm
 
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
はじめてのパターン認識 第5章 k最近傍法(k_nn法)はじめてのパターン認識 第5章 k最近傍法(k_nn法)
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
 
はじめてのパターン認識 第9章 9.5-9.6
はじめてのパターン認識 第9章 9.5-9.6はじめてのパターン認識 第9章 9.5-9.6
はじめてのパターン認識 第9章 9.5-9.6
 
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
 
はじめてのパターン認識4章後編
はじめてのパターン認識4章後編はじめてのパターン認識4章後編
はじめてのパターン認識4章後編
 
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
 
はじめてのパターン認識 第1章
はじめてのパターン認識 第1章はじめてのパターン認識 第1章
はじめてのパターン認識 第1章
 
PRML輪読#7
PRML輪読#7PRML輪読#7
PRML輪読#7
 
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
 
はじめてのパターン認識 第8章 サポートベクトルマシン
はじめてのパターン認識 第8章 サポートベクトルマシンはじめてのパターン認識 第8章 サポートベクトルマシン
はじめてのパターン認識 第8章 サポートベクトルマシン
 
パターン認識と機械学習 13章 系列データ
パターン認識と機械学習 13章 系列データパターン認識と機械学習 13章 系列データ
パターン認識と機械学習 13章 系列データ
 
PRML 第4章
PRML 第4章PRML 第4章
PRML 第4章
 
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learningベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
 
はじめてのパターン認識8章 サポートベクトルマシン
はじめてのパターン認識8章 サポートベクトルマシンはじめてのパターン認識8章 サポートベクトルマシン
はじめてのパターン認識8章 サポートベクトルマシン
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3
 
線形?非線形?
線形?非線形?線形?非線形?
線形?非線形?
 
PRML Chapter 5
PRML Chapter 5PRML Chapter 5
PRML Chapter 5
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
 
PRML輪読#4
PRML輪読#4PRML輪読#4
PRML輪読#4
 

Viewers also liked

ぼくの実装した最弱のディープラーニング
ぼくの実装した最弱のディープラーニングぼくの実装した最弱のディープラーニング
ぼくの実装した最弱のディープラーニングなおき きしだ
 
単純パーセプトロン
単純パーセプトロン単純パーセプトロン
単純パーセプトロンT2C_
 
無限と計算可能性と対角線論法
無限と計算可能性と対角線論法無限と計算可能性と対角線論法
無限と計算可能性と対角線論法Ryosuke Nakamura
 
20150803.山口大学集中講義
20150803.山口大学集中講義20150803.山口大学集中講義
20150803.山口大学集中講義Hayaru SHOUNO
 
20150803.山口大学講演
20150803.山口大学講演20150803.山口大学講演
20150803.山口大学講演Hayaru SHOUNO
 
TokyoNLP#5 パーセプトロンで楽しい仲間がぽぽぽぽ~ん
TokyoNLP#5 パーセプトロンで楽しい仲間がぽぽぽぽ~んTokyoNLP#5 パーセプトロンで楽しい仲間がぽぽぽぽ~ん
TokyoNLP#5 パーセプトロンで楽しい仲間がぽぽぽぽ~んsleepy_yoshi
 
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-Naoki Yanai
 

Viewers also liked (8)

ぼくの実装した最弱のディープラーニング
ぼくの実装した最弱のディープラーニングぼくの実装した最弱のディープラーニング
ぼくの実装した最弱のディープラーニング
 
単純パーセプトロン
単純パーセプトロン単純パーセプトロン
単純パーセプトロン
 
無限と計算可能性と対角線論法
無限と計算可能性と対角線論法無限と計算可能性と対角線論法
無限と計算可能性と対角線論法
 
20150803.山口大学集中講義
20150803.山口大学集中講義20150803.山口大学集中講義
20150803.山口大学集中講義
 
20150803.山口大学講演
20150803.山口大学講演20150803.山口大学講演
20150803.山口大学講演
 
TokyoNLP#5 パーセプトロンで楽しい仲間がぽぽぽぽ~ん
TokyoNLP#5 パーセプトロンで楽しい仲間がぽぽぽぽ~んTokyoNLP#5 パーセプトロンで楽しい仲間がぽぽぽぽ~ん
TokyoNLP#5 パーセプトロンで楽しい仲間がぽぽぽぽ~ん
 
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-
 
決定木学習
決定木学習決定木学習
決定木学習
 

Similar to はじぱた7章F5up

東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1hirokazutanaka
 
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Seiya Tokui
 
機械学習と深層学習の数理
機械学習と深層学習の数理機械学習と深層学習の数理
機械学習と深層学習の数理Ryo Nakamura
 
Long short-term memory (LSTM)
Long short-term memory (LSTM)Long short-term memory (LSTM)
Long short-term memory (LSTM)Kenta Ishii
 
NN, CNN, and Image Analysis
NN, CNN, and Image AnalysisNN, CNN, and Image Analysis
NN, CNN, and Image AnalysisYuki Shimada
 
スパースモデリングによる多次元信号・画像復元
スパースモデリングによる多次元信号・画像復元スパースモデリングによる多次元信号・画像復元
スパースモデリングによる多次元信号・画像復元Shogo Muramatsu
 
ITエンジニアのための機械学習理論入門 第5章
ITエンジニアのための機械学習理論入門 第5章ITエンジニアのための機械学習理論入門 第5章
ITエンジニアのための機械学習理論入門 第5章Isao Takaesu
 
RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習Masayuki Tanaka
 
パターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズムパターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズムMiyoshi Yuya
 
Variational autoencoder
Variational autoencoderVariational autoencoder
Variational autoencoderMikio Shiga
 
畳み込みネットワークによる高次元信号復元と異分野融合への展開
畳み込みネットワークによる高次元信号復元と異分野融合への展開 畳み込みネットワークによる高次元信号復元と異分野融合への展開
畳み込みネットワークによる高次元信号復元と異分野融合への展開 Shogo Muramatsu
 
20130925.deeplearning
20130925.deeplearning20130925.deeplearning
20130925.deeplearningHayaru SHOUNO
 
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-EncoderDeep Learning JP
 
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】Naoki Hayashi
 
[ICLR/ICML2019読み会] Data Interpolating Prediction: Alternative Interpretation ...
[ICLR/ICML2019読み会] Data Interpolating Prediction: Alternative Interpretation ...[ICLR/ICML2019読み会] Data Interpolating Prediction: Alternative Interpretation ...
[ICLR/ICML2019読み会] Data Interpolating Prediction: Alternative Interpretation ...Takuya Shimada
 
Light weightbinocular sigasia2012_face
Light weightbinocular sigasia2012_faceLight weightbinocular sigasia2012_face
Light weightbinocular sigasia2012_faceishii yasunori
 
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...Akihiro Nitta
 

Similar to はじぱた7章F5up (20)

東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
 
レポート1
レポート1レポート1
レポート1
 
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
 
機械学習と深層学習の数理
機械学習と深層学習の数理機械学習と深層学習の数理
機械学習と深層学習の数理
 
Long short-term memory (LSTM)
Long short-term memory (LSTM)Long short-term memory (LSTM)
Long short-term memory (LSTM)
 
NN, CNN, and Image Analysis
NN, CNN, and Image AnalysisNN, CNN, and Image Analysis
NN, CNN, and Image Analysis
 
スパースモデリングによる多次元信号・画像復元
スパースモデリングによる多次元信号・画像復元スパースモデリングによる多次元信号・画像復元
スパースモデリングによる多次元信号・画像復元
 
ITエンジニアのための機械学習理論入門 第5章
ITエンジニアのための機械学習理論入門 第5章ITエンジニアのための機械学習理論入門 第5章
ITエンジニアのための機械学習理論入門 第5章
 
PRML4.3
PRML4.3PRML4.3
PRML4.3
 
RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習
 
パターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズムパターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズム
 
Variational autoencoder
Variational autoencoderVariational autoencoder
Variational autoencoder
 
畳み込みネットワークによる高次元信号復元と異分野融合への展開
畳み込みネットワークによる高次元信号復元と異分野融合への展開 畳み込みネットワークによる高次元信号復元と異分野融合への展開
畳み込みネットワークによる高次元信号復元と異分野融合への展開
 
20130925.deeplearning
20130925.deeplearning20130925.deeplearning
20130925.deeplearning
 
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
 
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
 
[ICLR/ICML2019読み会] Data Interpolating Prediction: Alternative Interpretation ...
[ICLR/ICML2019読み会] Data Interpolating Prediction: Alternative Interpretation ...[ICLR/ICML2019読み会] Data Interpolating Prediction: Alternative Interpretation ...
[ICLR/ICML2019読み会] Data Interpolating Prediction: Alternative Interpretation ...
 
Light weightbinocular sigasia2012_face
Light weightbinocular sigasia2012_faceLight weightbinocular sigasia2012_face
Light weightbinocular sigasia2012_face
 
Machine Learning Fundamentals IEEE
Machine Learning Fundamentals IEEEMachine Learning Fundamentals IEEE
Machine Learning Fundamentals IEEE
 
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
 

はじぱた7章F5up