SlideShare a Scribd company logo
1 of 26
入門パターン認識と機械学習
@hiro5585
Chapter 12
関連ベクトルマシン
目次
1.RVMの概要
2.グラフィカルモデルによるRVMの表現
3.尤度と事前確率について
4.周辺化尤度の最大化
5.更新式について
6.予測の方法について
2
SVMとRVM
サポートベクトルマシンも関連ベクトルマシンも識別境界を
引くための有効なベクトル(点)だけを保持することで
予測の際の計算量を小さくする
3
SVM RVM
確立時期:1963年
モデルのタイプ:識別関数
計算方法:マージン最大化
サポートベクターの数:中程度
計算量(予測時):中程度
確立時期:2001年
モデルのタイプ:生成モデル
計算方法:尤度最大化
サポートベクターの数:少量
計算量(予測時):少量
RVMの全体の流れ
1.予測したい値𝑦はカーネル回帰で表せる
2. 𝑦に対するカーネル回帰の式を確率で表現する
3.スパース化のため重み𝑎に対する事前確率を導入する
4.(周辺化)尤度を求めてそれが最大となる𝐴, 𝛽を求める
4
𝑦 = 𝒂 𝚻
𝐊 𝒙 + 𝜀
p(𝑦|𝑎, 𝑋, 𝐴, 𝛽) = Ν(𝑦 |𝒂 𝚻
𝐊 𝒙 , 𝛽−1
)
𝑎に対するハイパーパラメータ 𝜀に対するハイパーパラメータ
p(𝑎|𝐴) = Ν(𝑎 |0, 𝐴−1
)
𝛼 𝑘 =
𝑠 𝑘
2
𝑞𝑘
2
− 𝑠 𝑘
⋯ 𝑞𝑘
2
≥ 𝑠 𝑘
∞ ⋯ 𝑞𝑘
2
< 𝑠 𝑘
𝛽 =
𝑛 − 𝑖=0
𝑛
(1 − 𝛼𝑖Σ 𝑎
𝑖𝑖)
|𝑦 − 𝐺𝜇 𝑎|2
・・・12.14式
・・・12.21式
・・・12.17式
・・・12.44式 ・・・12.61式
計算の流れ(1/2)
1.同時確率を求める
2.重み𝑎を積分消去して𝑦の尤度を求める
3.周辺化尤度の式を求める
5
p(y, 𝑎|X, A, B) = Ν(y|𝑎K(X), 𝛽−1)×Ν(𝑎 |0, 𝐴−1)
p y|X, A, 𝛽 = ∫ p(y, 𝑎 |X, A, β) d𝑎 = Ν(y|0, Σ)・・・12.32式
・・・12.22式
L(A, β) = log|Σ| + 𝑦 𝑇Σ−1 𝑦 + (定数) ・・・12.34式
計算の流れ(2/2)
4.要素𝑎 𝑘ごとに微分をするため尤度をばらす
5. 12.43式で偏微分を行い𝑎 𝑘の更新式を得る
6.尤度の各項ごとをβで偏微分する(12.56, 12.59式)
7.結果をまとめて(12.60式)、βの更新式を得る
6
L(A, β) =log|Σ/𝑘| + log(1 +
𝑠 𝑘
𝛼 𝑘
) + 𝑦 𝑇Σ/𝑘
−1
𝑦 −
𝑞 𝑘
2
𝛼 𝑘+𝑠 𝑘
・・・12.40式
𝛼 𝑘 =
𝑠 𝑘
2
𝑞𝑘
2
− 𝑠 𝑘
⋯ 𝑞𝑘
2
≥ 𝑠 𝑘
∞ ⋯ 𝑞𝑘
2
< 𝑠 𝑘
・・・12.44式
𝛽 =
𝑛 − 𝑖=0
𝑛
(1 − 𝛼𝑖Σ 𝑎
𝑖𝑖
)
|𝑦 − 𝐺𝜇 𝑎|2
・・・12.61式
目次
1.RVMの概要
2.グラフィカルモデルによるRVMの表現
3.尤度と事前確率について
4.周辺化尤度の最大化
5.更新式について
6.予測の方法について
7
グラフィカルモデル
確率変数間をグラフで表現したもの
可視化することで変数間の従属(独立)性が分かりやすくなる
8
a b c
p(a, b, c) = p(a) x p(b|a) x p(c|a, b)
a b c
p(a, b, c) = p(b) x p(a|b) x p(c| b)
RVMのグラフィカルモデル表現
重みのハイパーパラメータからカーネル関数の重みが生成
重み、データ、分散のハイパーパラメータから回帰値生成
9
a y
X
A
β
重みを制御する
ハイパーパラメータ
データ
回帰値の分散を制御する
ハイパーパラメータ
カーネル関数の重み
回帰値
(クラス)
RVMモデル
観測できるものは
黒く塗りつぶす
RVMの確率的表現(1/2)
10
a y
X
A
β
重みを制御する
ハイパーパラメータ
データ
回帰値の分散を制御する
ハイパーパラメータ
回帰値
(クラス)
RVMモデル
p(a|X, y, A, β) = p(y, a|X, A, β) / p(y)
∝ p(y, a|X, A, β)
= p(y|a, X, A, β) x p(a|A)
事後確率
尤度 事前確率
ベイズの定理
・・・同時確率
事後確率と同時確率は
比例の関係を持つ
カーネル関数の重み
RVMの確率的表現(1/2)
RVMでは尤度および事前確率にガウス分布を仮定する
事後確率を最大化するパラメータ(μとΣ)を求めればよい
これをMAP(Maximum A Posteriori)推定という
11
p(a|X, y, A, β)∝p(y|a, X, A, β) x p(a|A)
= Ν(y|aK(X), 𝛽−1
) x Ν(a|0, 𝐴−1
)
= Ν(a|μ, Σ)
事後確率 尤度 事前確率
目次
1.RVMの概要
2.グラフィカルモデルによるRVMの表現
3.尤度と事前確率について
4.周辺化尤度の最大化
5.更新式について
6.予測の方法について
12
尤度関数の意味(1/3)
ここで、yがRVMではどのように表現されていたかを考える
カーネル関数の重み付き和に誤差が加わったものが回帰値
グラム行列を用いて表現すると以下のようになる
13
𝑦 = 𝑗=0
𝑛
𝑎 𝑛 Κ 𝑥, 𝑥𝑗 + 𝜀
𝑦 = 𝒂 𝑻
𝐊 𝒙 + 𝜀
尤度関数の意味(2/3)
尤度と回帰式をもう一度眺めてみる
ε はN(ε|0, 𝛽−1)から生起している白色雑音
14
p(y|a, X, A, B) = Ν(y|aK(X), 𝛽−1
)
𝑦 = 𝒂 𝑻
𝐊 𝒙 + 𝜀
尤度関数の意味(3/3)
aK(X)を中心に分散𝛽−1で散らばった分布からyは生起する
15
p(y|a, X, A, β) = Ν(y|aK(X), 𝛽−1
)
p(y)
aK(X)
𝛽−1
事前確率の意味(1/3)
0を中心に分散𝛼−1の分布からaが生起する
つまり、重みaは0付近の値を取る
16
p(a|α) = Ν(a|0, 𝛼−1
)
p(a|α)
0
𝛼−1
事前確率の意味(2/3)
このとき、αが∞の場合を考えると𝛼−1が0となる
17
p(a|α) = Ν(a|0, 𝛼−1
)
p(a|α)
0
𝛼−1
事前確率の意味(3/3)
重みaが0になる確率が1となり対応するカーネルが無効化
事後確率最大化ではそのようなスパースなモデルを学習
18
p(a|α) = Ν(a|0, 0)
p(a|α)
0
1.0
𝑦 = 𝑗=0
𝑛
𝑎 𝑛 Κ 𝑥, 𝑥𝑗 + 𝜀
元の式
目次
1.RVMの概要
2.グラフィカルモデルによるRVMの表現
3.尤度と事前確率について
4.周辺化尤度の最大化
5.更新式について
6.予測の方法について
19
エビデンス近似(1/2)
しかしながら、事後確率のパラメータを求めるのは難しい
そこで、方針を転換して事後確率に比例している
同時確率について計算をややこしくしてるaを積分消去する
20
p(a|X, y, A, β)∝Ν(a|μ, Σ)
事後確率
p(y, a|X, A, B) = p(y|a, X, A, β) x p(a|X, A, B)
= p(y|a, X, B) x p(a|A)
= Ν(y|aK(X), 𝛽−1
) x Ν(a|0, 𝐴−1
)
同時確率
エビデンス近似(2/2)
同時確率について計算をややこしくしてるaを積分消去
そうすると、周辺化した尤度が出てくる
計算すると周辺化尤度はガウス分布になっている
このように、パラメータを積分消去して周辺化尤度を求める
ことをエビデンス近似という
周辺尤度を最大化するようなハイパーパラメータを求める
21
∫ p(y, a|X, A, β) da = ∫ Ν(y|aK(X), 𝛽−1
) x Ν(a|0, 𝐴−1
) da
= Ν(y|0, Σ)
∫ p(y, a|X, A, β) da = p(y|X, A, β)
周辺尤度
周辺化尤度の最大化
周辺尤度の対数をとり最大化を行う
Aのチューニングは𝛼0, 𝛼1, ⋯ , 𝛼 𝑛を個別に偏微分して求める
このとき、対象の𝛼𝑖以外は固定して求める
全ての𝛼𝑖が求まったら、𝛽で偏微分した値を使って𝛽を求める
これを、収束条件に達するまで繰り返す 22
L(A, β) = log p(y|X, A, β)
= log|Σ| + 𝑦 𝑇Σ−1 𝑦 + (定数)
Σ =
𝐼
𝛽
+ KA−1 𝐾 𝑇 A = 𝑑𝑖𝑎𝑔(𝛼0, 𝛼1, ⋯ , 𝛼 𝑛)
チューニング対象
目次
1.RVMの概要
2.グラフィカルモデルによるRVMの表現
3.尤度と事前確率について
4.周辺化尤度の最大化
5.更新式について
6.予測の方法について
23
ハイパーパラメータの更新式
更新式は以下の通り
24
𝛼 𝑘 =
𝑠 𝑘
2
𝑞𝑘
2
− 𝑠 𝑘
⋯ 𝑞𝑘
2
≥ 𝑠 𝑘
∞ ⋯ 𝑞𝑘
2
< 𝑠 𝑘
𝛽 =
𝑛 − 𝑖=0
𝑛
(1 − 𝛼𝑖Σ 𝑎
𝑖𝑖)
|𝑦 − 𝐺𝜇 𝑎|2
目次
1.RVMの概要
2.グラフィカルモデルによるRVMの表現
3.尤度と事前確率について
4.周辺化尤度の最大化
5.更新式について
6.予測の方法について
25
RVMによる予測方法
新しいデータxが入ってきたときの回帰値𝑦を求める
点推定で回帰値を予測する場合は期待値を用いる
26
p(y|𝑥, X, y, A, β) = ∫ p(y|𝑥, a, β)× p(a|X, y, A, β) da
= Ν(a|𝜇 𝑎
𝑇 𝐤 𝑥 , 𝜎2(𝑥))
𝑦 = 𝜇 𝑎
𝑇 𝐤 𝑥
12.25式

More Related Content

What's hot

PRML輪読#6
PRML輪読#6PRML輪読#6
PRML輪読#6matsuolab
 
[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎Deep Learning JP
 
PRML 2.3節 - ガウス分布
PRML 2.3節 - ガウス分布PRML 2.3節 - ガウス分布
PRML 2.3節 - ガウス分布Yuki Soma
 
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじPRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじsleepy_yoshi
 
基礎からのベイズ統計学第5章
基礎からのベイズ統計学第5章基礎からのベイズ統計学第5章
基礎からのベイズ統計学第5章hiro5585
 
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)narumikanno0918
 
PRML 1.5-1.5.5 決定理論
PRML 1.5-1.5.5 決定理論PRML 1.5-1.5.5 決定理論
PRML 1.5-1.5.5 決定理論Akihiro Nitta
 
深層学習 勉強会第5回 ボルツマンマシン
深層学習 勉強会第5回 ボルツマンマシン深層学習 勉強会第5回 ボルツマンマシン
深層学習 勉強会第5回 ボルツマンマシンYuta Sugii
 
PRML輪読#11
PRML輪読#11PRML輪読#11
PRML輪読#11matsuolab
 
PRML輪読#14
PRML輪読#14PRML輪読#14
PRML輪読#14matsuolab
 
【解説】 一般逆行列
【解説】 一般逆行列【解説】 一般逆行列
【解説】 一般逆行列Kenjiro Sugimoto
 
PRML輪読#7
PRML輪読#7PRML輪読#7
PRML輪読#7matsuolab
 
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2禎晃 山崎
 
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜Tomoki Yoshida
 
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2Hiroyuki Kato
 
PRML輪読#12
PRML輪読#12PRML輪読#12
PRML輪読#12matsuolab
 
PRML 4.4-4.5.2 ラプラス近似
PRML 4.4-4.5.2 ラプラス近似PRML 4.4-4.5.2 ラプラス近似
PRML 4.4-4.5.2 ラプラス近似KokiTakamiya
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知Yuya Takashina
 

What's hot (20)

PRML輪読#6
PRML輪読#6PRML輪読#6
PRML輪読#6
 
[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎
 
PRML 2.3節 - ガウス分布
PRML 2.3節 - ガウス分布PRML 2.3節 - ガウス分布
PRML 2.3節 - ガウス分布
 
PRML4.3.3
PRML4.3.3PRML4.3.3
PRML4.3.3
 
Prml 2.3
Prml 2.3Prml 2.3
Prml 2.3
 
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじPRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじ
 
基礎からのベイズ統計学第5章
基礎からのベイズ統計学第5章基礎からのベイズ統計学第5章
基礎からのベイズ統計学第5章
 
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
 
PRML 1.5-1.5.5 決定理論
PRML 1.5-1.5.5 決定理論PRML 1.5-1.5.5 決定理論
PRML 1.5-1.5.5 決定理論
 
深層学習 勉強会第5回 ボルツマンマシン
深層学習 勉強会第5回 ボルツマンマシン深層学習 勉強会第5回 ボルツマンマシン
深層学習 勉強会第5回 ボルツマンマシン
 
PRML輪読#11
PRML輪読#11PRML輪読#11
PRML輪読#11
 
PRML輪読#14
PRML輪読#14PRML輪読#14
PRML輪読#14
 
【解説】 一般逆行列
【解説】 一般逆行列【解説】 一般逆行列
【解説】 一般逆行列
 
PRML輪読#7
PRML輪読#7PRML輪読#7
PRML輪読#7
 
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2
 
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
 
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
 
PRML輪読#12
PRML輪読#12PRML輪読#12
PRML輪読#12
 
PRML 4.4-4.5.2 ラプラス近似
PRML 4.4-4.5.2 ラプラス近似PRML 4.4-4.5.2 ラプラス近似
PRML 4.4-4.5.2 ラプラス近似
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知
 

Viewers also liked

[PRML] パターン認識と機械学習(第2章:確率分布)
[PRML] パターン認識と機械学習(第2章:確率分布)[PRML] パターン認識と機械学習(第2章:確率分布)
[PRML] パターン認識と機械学習(第2章:確率分布)Ryosuke Sasaki
 
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)Ryosuke Sasaki
 
Guide for program Implement for PRML
Guide for program Implement for PRML  Guide for program Implement for PRML
Guide for program Implement for PRML Masato Nakai
 
入門パターン認識と機械学習3章
入門パターン認識と機械学習3章入門パターン認識と機械学習3章
入門パターン認識と機械学習3章hiro5585
 
PATTERN RECOGNITION AND MACHINE LEARNING (1.1)
PATTERN RECOGNITION AND MACHINE LEARNING (1.1)PATTERN RECOGNITION AND MACHINE LEARNING (1.1)
PATTERN RECOGNITION AND MACHINE LEARNING (1.1)Yuma Yoshimoto
 
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)Itaru Otomaru
 
パターン認識と機械学習 〜指数型分布族とノンパラメトリック〜
パターン認識と機械学習 〜指数型分布族とノンパラメトリック〜パターン認識と機械学習 〜指数型分布族とノンパラメトリック〜
パターン認識と機械学習 〜指数型分布族とノンパラメトリック〜Mitsuki Ogasahara
 
Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504Wataru Kishimoto
 
Bishop prml 10.2.2-10.2.5_wk77_100412-0059
Bishop prml 10.2.2-10.2.5_wk77_100412-0059Bishop prml 10.2.2-10.2.5_wk77_100412-0059
Bishop prml 10.2.2-10.2.5_wk77_100412-0059Wataru Kishimoto
 
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」Koichi Hamada
 
パターン認識と機械学習 §8.3.4 有向グラフとの関係
パターン認識と機械学習 §8.3.4 有向グラフとの関係パターン認識と機械学習 §8.3.4 有向グラフとの関係
パターン認識と機械学習 §8.3.4 有向グラフとの関係Prunus 1350
 
Bishop prml 11.5-11.6_wk77_100606-1152(発表に使った資料)
Bishop prml 11.5-11.6_wk77_100606-1152(発表に使った資料)Bishop prml 11.5-11.6_wk77_100606-1152(発表に使った資料)
Bishop prml 11.5-11.6_wk77_100606-1152(発表に使った資料)Wataru Kishimoto
 
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成Prunus 1350
 
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布Nagayoshi Yamashita
 
「機械学習 By スタンフォード大学」勉強会 2015.09.11
「機械学習 By スタンフォード大学」勉強会 2015.09.11「機械学習 By スタンフォード大学」勉強会 2015.09.11
「機械学習 By スタンフォード大学」勉強会 2015.09.11Minoru Chikamune
 
SVMについて
SVMについてSVMについて
SVMについてmknh1122
 
機械学習の理論と実践
機械学習の理論と実践機械学習の理論と実践
機械学習の理論と実践Preferred Networks
 

Viewers also liked (18)

[PRML] パターン認識と機械学習(第2章:確率分布)
[PRML] パターン認識と機械学習(第2章:確率分布)[PRML] パターン認識と機械学習(第2章:確率分布)
[PRML] パターン認識と機械学習(第2章:確率分布)
 
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
 
Guide for program Implement for PRML
Guide for program Implement for PRML  Guide for program Implement for PRML
Guide for program Implement for PRML
 
入門パターン認識と機械学習3章
入門パターン認識と機械学習3章入門パターン認識と機械学習3章
入門パターン認識と機械学習3章
 
PATTERN RECOGNITION AND MACHINE LEARNING (1.1)
PATTERN RECOGNITION AND MACHINE LEARNING (1.1)PATTERN RECOGNITION AND MACHINE LEARNING (1.1)
PATTERN RECOGNITION AND MACHINE LEARNING (1.1)
 
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
 
パターン認識と機械学習 〜指数型分布族とノンパラメトリック〜
パターン認識と機械学習 〜指数型分布族とノンパラメトリック〜パターン認識と機械学習 〜指数型分布族とノンパラメトリック〜
パターン認識と機械学習 〜指数型分布族とノンパラメトリック〜
 
Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504
 
Bishop prml 10.2.2-10.2.5_wk77_100412-0059
Bishop prml 10.2.2-10.2.5_wk77_100412-0059Bishop prml 10.2.2-10.2.5_wk77_100412-0059
Bishop prml 10.2.2-10.2.5_wk77_100412-0059
 
機械学習
機械学習機械学習
機械学習
 
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
 
パターン認識と機械学習 §8.3.4 有向グラフとの関係
パターン認識と機械学習 §8.3.4 有向グラフとの関係パターン認識と機械学習 §8.3.4 有向グラフとの関係
パターン認識と機械学習 §8.3.4 有向グラフとの関係
 
Bishop prml 11.5-11.6_wk77_100606-1152(発表に使った資料)
Bishop prml 11.5-11.6_wk77_100606-1152(発表に使った資料)Bishop prml 11.5-11.6_wk77_100606-1152(発表に使った資料)
Bishop prml 11.5-11.6_wk77_100606-1152(発表に使った資料)
 
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成
 
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
 
「機械学習 By スタンフォード大学」勉強会 2015.09.11
「機械学習 By スタンフォード大学」勉強会 2015.09.11「機械学習 By スタンフォード大学」勉強会 2015.09.11
「機械学習 By スタンフォード大学」勉強会 2015.09.11
 
SVMについて
SVMについてSVMについて
SVMについて
 
機械学習の理論と実践
機械学習の理論と実践機械学習の理論と実践
機械学習の理論と実践
 

Similar to 入門パターン認識と機械学習12章

PRML読み会第一章
PRML読み会第一章PRML読み会第一章
PRML読み会第一章Takushi Miki
 
パターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズムパターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズムMiyoshi Yuya
 
Jokyonokai130531
Jokyonokai130531Jokyonokai130531
Jokyonokai130531nwpmq516
 
Prml7 2
Prml7 2Prml7 2
Prml7 2K5_sem
 
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介Taku Yoshioka
 
RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習Masayuki Tanaka
 
Implement for Deep Learning of RBM Network in C.
Implement for Deep Learning of  RBM Network in C.Implement for Deep Learning of  RBM Network in C.
Implement for Deep Learning of RBM Network in C.Masato Nakai
 
[DSO] Machine Learning Seminar Vol.2 Chapter 3
[DSO] Machine Learning Seminar Vol.2 Chapter 3[DSO] Machine Learning Seminar Vol.2 Chapter 3
[DSO] Machine Learning Seminar Vol.2 Chapter 3Teruyuki Sakaue
 
データマイニング勉強会3
データマイニング勉強会3データマイニング勉強会3
データマイニング勉強会3Yohei Sato
 
Quantum Support Vector Machine
Quantum Support Vector MachineQuantum Support Vector Machine
Quantum Support Vector MachineYuma Nakamura
 

Similar to 入門パターン認識と機械学習12章 (13)

PRML読み会第一章
PRML読み会第一章PRML読み会第一章
PRML読み会第一章
 
PRML4.3
PRML4.3PRML4.3
PRML4.3
 
パターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズムパターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズム
 
Jokyonokai130531
Jokyonokai130531Jokyonokai130531
Jokyonokai130531
 
Prml7 2
Prml7 2Prml7 2
Prml7 2
 
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介
 
RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習
 
Implement for Deep Learning of RBM Network in C.
Implement for Deep Learning of  RBM Network in C.Implement for Deep Learning of  RBM Network in C.
Implement for Deep Learning of RBM Network in C.
 
[DSO] Machine Learning Seminar Vol.2 Chapter 3
[DSO] Machine Learning Seminar Vol.2 Chapter 3[DSO] Machine Learning Seminar Vol.2 Chapter 3
[DSO] Machine Learning Seminar Vol.2 Chapter 3
 
Tokyo r #43
Tokyo r #43Tokyo r #43
Tokyo r #43
 
データマイニング勉強会3
データマイニング勉強会3データマイニング勉強会3
データマイニング勉強会3
 
Prml revenge7.1.1
Prml revenge7.1.1Prml revenge7.1.1
Prml revenge7.1.1
 
Quantum Support Vector Machine
Quantum Support Vector MachineQuantum Support Vector Machine
Quantum Support Vector Machine
 

入門パターン認識と機械学習12章