Submit Search
Upload
入門パターン認識と機械学習12章
•
2 likes
•
1,909 views
hiro5585
Follow
入門パターン認識と機械学習12章 関連ベクトルマシン
Read less
Read more
Engineering
Report
Share
Report
Share
1 of 26
Recommended
PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」
Keisuke Sugawara
PRML 第4章
PRML 第4章
Akira Miyazawa
PRML輪読#2
PRML輪読#2
matsuolab
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
Toshihiko Iio
PRML輪読#1
PRML輪読#1
matsuolab
PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講
Sotetsu KOYAMADA(小山田創哲)
PRML輪読#4
PRML輪読#4
matsuolab
PRML輪読#3
PRML輪読#3
matsuolab
Recommended
PRML第9章「混合モデルとEM」
PRML第9章「混合モデルとEM」
Keisuke Sugawara
PRML 第4章
PRML 第4章
Akira Miyazawa
PRML輪読#2
PRML輪読#2
matsuolab
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
Toshihiko Iio
PRML輪読#1
PRML輪読#1
matsuolab
PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講
Sotetsu KOYAMADA(小山田創哲)
PRML輪読#4
PRML輪読#4
matsuolab
PRML輪読#3
PRML輪読#3
matsuolab
PRML輪読#6
PRML輪読#6
matsuolab
[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎
Deep Learning JP
PRML 2.3節 - ガウス分布
PRML 2.3節 - ガウス分布
Yuki Soma
PRML4.3.3
PRML4.3.3
sleepy_yoshi
Prml 2.3
Prml 2.3
Yuuki Saitoh
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじ
sleepy_yoshi
基礎からのベイズ統計学第5章
基礎からのベイズ統計学第5章
hiro5585
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
narumikanno0918
PRML 1.5-1.5.5 決定理論
PRML 1.5-1.5.5 決定理論
Akihiro Nitta
深層学習 勉強会第5回 ボルツマンマシン
深層学習 勉強会第5回 ボルツマンマシン
Yuta Sugii
PRML輪読#11
PRML輪読#11
matsuolab
PRML輪読#14
PRML輪読#14
matsuolab
【解説】 一般逆行列
【解説】 一般逆行列
Kenjiro Sugimoto
PRML輪読#7
PRML輪読#7
matsuolab
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2
禎晃 山崎
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
Tomoki Yoshida
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
Hiroyuki Kato
PRML輪読#12
PRML輪読#12
matsuolab
PRML 4.4-4.5.2 ラプラス近似
PRML 4.4-4.5.2 ラプラス近似
KokiTakamiya
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知
Yuya Takashina
[PRML] パターン認識と機械学習(第2章:確率分布)
[PRML] パターン認識と機械学習(第2章:確率分布)
Ryosuke Sasaki
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
Ryosuke Sasaki
More Related Content
What's hot
PRML輪読#6
PRML輪読#6
matsuolab
[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎
Deep Learning JP
PRML 2.3節 - ガウス分布
PRML 2.3節 - ガウス分布
Yuki Soma
PRML4.3.3
PRML4.3.3
sleepy_yoshi
Prml 2.3
Prml 2.3
Yuuki Saitoh
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじ
sleepy_yoshi
基礎からのベイズ統計学第5章
基礎からのベイズ統計学第5章
hiro5585
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
narumikanno0918
PRML 1.5-1.5.5 決定理論
PRML 1.5-1.5.5 決定理論
Akihiro Nitta
深層学習 勉強会第5回 ボルツマンマシン
深層学習 勉強会第5回 ボルツマンマシン
Yuta Sugii
PRML輪読#11
PRML輪読#11
matsuolab
PRML輪読#14
PRML輪読#14
matsuolab
【解説】 一般逆行列
【解説】 一般逆行列
Kenjiro Sugimoto
PRML輪読#7
PRML輪読#7
matsuolab
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2
禎晃 山崎
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
Tomoki Yoshida
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
Hiroyuki Kato
PRML輪読#12
PRML輪読#12
matsuolab
PRML 4.4-4.5.2 ラプラス近似
PRML 4.4-4.5.2 ラプラス近似
KokiTakamiya
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知
Yuya Takashina
What's hot
(20)
PRML輪読#6
PRML輪読#6
[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎
PRML 2.3節 - ガウス分布
PRML 2.3節 - ガウス分布
PRML4.3.3
PRML4.3.3
Prml 2.3
Prml 2.3
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじ
基礎からのベイズ統計学第5章
基礎からのベイズ統計学第5章
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
PRML 1.5-1.5.5 決定理論
PRML 1.5-1.5.5 決定理論
深層学習 勉強会第5回 ボルツマンマシン
深層学習 勉強会第5回 ボルツマンマシン
PRML輪読#11
PRML輪読#11
PRML輪読#14
PRML輪読#14
【解説】 一般逆行列
【解説】 一般逆行列
PRML輪読#7
PRML輪読#7
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2
PRML輪読#12
PRML輪読#12
PRML 4.4-4.5.2 ラプラス近似
PRML 4.4-4.5.2 ラプラス近似
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知
Viewers also liked
[PRML] パターン認識と機械学習(第2章:確率分布)
[PRML] パターン認識と機械学習(第2章:確率分布)
Ryosuke Sasaki
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
Ryosuke Sasaki
Guide for program Implement for PRML
Guide for program Implement for PRML
Masato Nakai
入門パターン認識と機械学習3章
入門パターン認識と機械学習3章
hiro5585
PATTERN RECOGNITION AND MACHINE LEARNING (1.1)
PATTERN RECOGNITION AND MACHINE LEARNING (1.1)
Yuma Yoshimoto
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
Itaru Otomaru
パターン認識と機械学習 〜指数型分布族とノンパラメトリック〜
パターン認識と機械学習 〜指数型分布族とノンパラメトリック〜
Mitsuki Ogasahara
Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504
Wataru Kishimoto
Bishop prml 10.2.2-10.2.5_wk77_100412-0059
Bishop prml 10.2.2-10.2.5_wk77_100412-0059
Wataru Kishimoto
機械学習
機械学習
Hikaru Takemura
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
Koichi Hamada
パターン認識と機械学習 §8.3.4 有向グラフとの関係
パターン認識と機械学習 §8.3.4 有向グラフとの関係
Prunus 1350
Bishop prml 11.5-11.6_wk77_100606-1152(発表に使った資料)
Bishop prml 11.5-11.6_wk77_100606-1152(発表に使った資料)
Wataru Kishimoto
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成
Prunus 1350
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
Nagayoshi Yamashita
「機械学習 By スタンフォード大学」勉強会 2015.09.11
「機械学習 By スタンフォード大学」勉強会 2015.09.11
Minoru Chikamune
SVMについて
SVMについて
mknh1122
機械学習の理論と実践
機械学習の理論と実践
Preferred Networks
Viewers also liked
(18)
[PRML] パターン認識と機械学習(第2章:確率分布)
[PRML] パターン認識と機械学習(第2章:確率分布)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
Guide for program Implement for PRML
Guide for program Implement for PRML
入門パターン認識と機械学習3章
入門パターン認識と機械学習3章
PATTERN RECOGNITION AND MACHINE LEARNING (1.1)
PATTERN RECOGNITION AND MACHINE LEARNING (1.1)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
パターン認識と機械学習 〜指数型分布族とノンパラメトリック〜
パターン認識と機械学習 〜指数型分布族とノンパラメトリック〜
Bishop prml 9.3_wk77_100408-1504
Bishop prml 9.3_wk77_100408-1504
Bishop prml 10.2.2-10.2.5_wk77_100412-0059
Bishop prml 10.2.2-10.2.5_wk77_100412-0059
機械学習
機械学習
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
パターン認識と機械学習 §8.3.4 有向グラフとの関係
パターン認識と機械学習 §8.3.4 有向グラフとの関係
Bishop prml 11.5-11.6_wk77_100606-1152(発表に使った資料)
Bishop prml 11.5-11.6_wk77_100606-1152(発表に使った資料)
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
「機械学習 By スタンフォード大学」勉強会 2015.09.11
「機械学習 By スタンフォード大学」勉強会 2015.09.11
SVMについて
SVMについて
機械学習の理論と実践
機械学習の理論と実践
Similar to 入門パターン認識と機械学習12章
PRML読み会第一章
PRML読み会第一章
Takushi Miki
PRML4.3
PRML4.3
hiroki yamaoka
パターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズム
Miyoshi Yuya
Jokyonokai130531
Jokyonokai130531
nwpmq516
Prml7 2
Prml7 2
K5_sem
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介
Taku Yoshioka
RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習
Masayuki Tanaka
Implement for Deep Learning of RBM Network in C.
Implement for Deep Learning of RBM Network in C.
Masato Nakai
[DSO] Machine Learning Seminar Vol.2 Chapter 3
[DSO] Machine Learning Seminar Vol.2 Chapter 3
Teruyuki Sakaue
Tokyo r #43
Tokyo r #43
Akifumi Eguchi
データマイニング勉強会3
データマイニング勉強会3
Yohei Sato
Prml revenge7.1.1
Prml revenge7.1.1
Naoya Nakamura
Quantum Support Vector Machine
Quantum Support Vector Machine
Yuma Nakamura
Similar to 入門パターン認識と機械学習12章
(13)
PRML読み会第一章
PRML読み会第一章
PRML4.3
PRML4.3
パターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズム
Jokyonokai130531
Jokyonokai130531
Prml7 2
Prml7 2
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介
RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習
Implement for Deep Learning of RBM Network in C.
Implement for Deep Learning of RBM Network in C.
[DSO] Machine Learning Seminar Vol.2 Chapter 3
[DSO] Machine Learning Seminar Vol.2 Chapter 3
Tokyo r #43
Tokyo r #43
データマイニング勉強会3
データマイニング勉強会3
Prml revenge7.1.1
Prml revenge7.1.1
Quantum Support Vector Machine
Quantum Support Vector Machine
入門パターン認識と機械学習12章
1.
入門パターン認識と機械学習 @hiro5585 Chapter 12 関連ベクトルマシン
2.
目次 1.RVMの概要 2.グラフィカルモデルによるRVMの表現 3.尤度と事前確率について 4.周辺化尤度の最大化 5.更新式について 6.予測の方法について 2
3.
SVMとRVM サポートベクトルマシンも関連ベクトルマシンも識別境界を 引くための有効なベクトル(点)だけを保持することで 予測の際の計算量を小さくする 3 SVM RVM 確立時期:1963年 モデルのタイプ:識別関数 計算方法:マージン最大化 サポートベクターの数:中程度 計算量(予測時):中程度 確立時期:2001年 モデルのタイプ:生成モデル 計算方法:尤度最大化 サポートベクターの数:少量 計算量(予測時):少量
4.
RVMの全体の流れ 1.予測したい値𝑦はカーネル回帰で表せる 2. 𝑦に対するカーネル回帰の式を確率で表現する 3.スパース化のため重み𝑎に対する事前確率を導入する 4.(周辺化)尤度を求めてそれが最大となる𝐴, 𝛽を求める 4 𝑦
= 𝒂 𝚻 𝐊 𝒙 + 𝜀 p(𝑦|𝑎, 𝑋, 𝐴, 𝛽) = Ν(𝑦 |𝒂 𝚻 𝐊 𝒙 , 𝛽−1 ) 𝑎に対するハイパーパラメータ 𝜀に対するハイパーパラメータ p(𝑎|𝐴) = Ν(𝑎 |0, 𝐴−1 ) 𝛼 𝑘 = 𝑠 𝑘 2 𝑞𝑘 2 − 𝑠 𝑘 ⋯ 𝑞𝑘 2 ≥ 𝑠 𝑘 ∞ ⋯ 𝑞𝑘 2 < 𝑠 𝑘 𝛽 = 𝑛 − 𝑖=0 𝑛 (1 − 𝛼𝑖Σ 𝑎 𝑖𝑖) |𝑦 − 𝐺𝜇 𝑎|2 ・・・12.14式 ・・・12.21式 ・・・12.17式 ・・・12.44式 ・・・12.61式
5.
計算の流れ(1/2) 1.同時確率を求める 2.重み𝑎を積分消去して𝑦の尤度を求める 3.周辺化尤度の式を求める 5 p(y, 𝑎|X, A,
B) = Ν(y|𝑎K(X), 𝛽−1)×Ν(𝑎 |0, 𝐴−1) p y|X, A, 𝛽 = ∫ p(y, 𝑎 |X, A, β) d𝑎 = Ν(y|0, Σ)・・・12.32式 ・・・12.22式 L(A, β) = log|Σ| + 𝑦 𝑇Σ−1 𝑦 + (定数) ・・・12.34式
6.
計算の流れ(2/2) 4.要素𝑎 𝑘ごとに微分をするため尤度をばらす 5. 12.43式で偏微分を行い𝑎
𝑘の更新式を得る 6.尤度の各項ごとをβで偏微分する(12.56, 12.59式) 7.結果をまとめて(12.60式)、βの更新式を得る 6 L(A, β) =log|Σ/𝑘| + log(1 + 𝑠 𝑘 𝛼 𝑘 ) + 𝑦 𝑇Σ/𝑘 −1 𝑦 − 𝑞 𝑘 2 𝛼 𝑘+𝑠 𝑘 ・・・12.40式 𝛼 𝑘 = 𝑠 𝑘 2 𝑞𝑘 2 − 𝑠 𝑘 ⋯ 𝑞𝑘 2 ≥ 𝑠 𝑘 ∞ ⋯ 𝑞𝑘 2 < 𝑠 𝑘 ・・・12.44式 𝛽 = 𝑛 − 𝑖=0 𝑛 (1 − 𝛼𝑖Σ 𝑎 𝑖𝑖 ) |𝑦 − 𝐺𝜇 𝑎|2 ・・・12.61式
7.
目次 1.RVMの概要 2.グラフィカルモデルによるRVMの表現 3.尤度と事前確率について 4.周辺化尤度の最大化 5.更新式について 6.予測の方法について 7
8.
グラフィカルモデル 確率変数間をグラフで表現したもの 可視化することで変数間の従属(独立)性が分かりやすくなる 8 a b c p(a,
b, c) = p(a) x p(b|a) x p(c|a, b) a b c p(a, b, c) = p(b) x p(a|b) x p(c| b)
9.
RVMのグラフィカルモデル表現 重みのハイパーパラメータからカーネル関数の重みが生成 重み、データ、分散のハイパーパラメータから回帰値生成 9 a y X A β 重みを制御する ハイパーパラメータ データ 回帰値の分散を制御する ハイパーパラメータ カーネル関数の重み 回帰値 (クラス) RVMモデル 観測できるものは 黒く塗りつぶす
10.
RVMの確率的表現(1/2) 10 a y X A β 重みを制御する ハイパーパラメータ データ 回帰値の分散を制御する ハイパーパラメータ 回帰値 (クラス) RVMモデル p(a|X, y,
A, β) = p(y, a|X, A, β) / p(y) ∝ p(y, a|X, A, β) = p(y|a, X, A, β) x p(a|A) 事後確率 尤度 事前確率 ベイズの定理 ・・・同時確率 事後確率と同時確率は 比例の関係を持つ カーネル関数の重み
11.
RVMの確率的表現(1/2) RVMでは尤度および事前確率にガウス分布を仮定する 事後確率を最大化するパラメータ(μとΣ)を求めればよい これをMAP(Maximum A Posteriori)推定という 11 p(a|X,
y, A, β)∝p(y|a, X, A, β) x p(a|A) = Ν(y|aK(X), 𝛽−1 ) x Ν(a|0, 𝐴−1 ) = Ν(a|μ, Σ) 事後確率 尤度 事前確率
12.
目次 1.RVMの概要 2.グラフィカルモデルによるRVMの表現 3.尤度と事前確率について 4.周辺化尤度の最大化 5.更新式について 6.予測の方法について 12
13.
尤度関数の意味(1/3) ここで、yがRVMではどのように表現されていたかを考える カーネル関数の重み付き和に誤差が加わったものが回帰値 グラム行列を用いて表現すると以下のようになる 13 𝑦 = 𝑗=0 𝑛 𝑎
𝑛 Κ 𝑥, 𝑥𝑗 + 𝜀 𝑦 = 𝒂 𝑻 𝐊 𝒙 + 𝜀
14.
尤度関数の意味(2/3) 尤度と回帰式をもう一度眺めてみる ε はN(ε|0, 𝛽−1)から生起している白色雑音 14 p(y|a,
X, A, B) = Ν(y|aK(X), 𝛽−1 ) 𝑦 = 𝒂 𝑻 𝐊 𝒙 + 𝜀
15.
尤度関数の意味(3/3) aK(X)を中心に分散𝛽−1で散らばった分布からyは生起する 15 p(y|a, X, A,
β) = Ν(y|aK(X), 𝛽−1 ) p(y) aK(X) 𝛽−1
16.
事前確率の意味(1/3) 0を中心に分散𝛼−1の分布からaが生起する つまり、重みaは0付近の値を取る 16 p(a|α) = Ν(a|0,
𝛼−1 ) p(a|α) 0 𝛼−1
17.
事前確率の意味(2/3) このとき、αが∞の場合を考えると𝛼−1が0となる 17 p(a|α) = Ν(a|0,
𝛼−1 ) p(a|α) 0 𝛼−1
18.
事前確率の意味(3/3) 重みaが0になる確率が1となり対応するカーネルが無効化 事後確率最大化ではそのようなスパースなモデルを学習 18 p(a|α) = Ν(a|0,
0) p(a|α) 0 1.0 𝑦 = 𝑗=0 𝑛 𝑎 𝑛 Κ 𝑥, 𝑥𝑗 + 𝜀 元の式
19.
目次 1.RVMの概要 2.グラフィカルモデルによるRVMの表現 3.尤度と事前確率について 4.周辺化尤度の最大化 5.更新式について 6.予測の方法について 19
20.
エビデンス近似(1/2) しかしながら、事後確率のパラメータを求めるのは難しい そこで、方針を転換して事後確率に比例している 同時確率について計算をややこしくしてるaを積分消去する 20 p(a|X, y, A,
β)∝Ν(a|μ, Σ) 事後確率 p(y, a|X, A, B) = p(y|a, X, A, β) x p(a|X, A, B) = p(y|a, X, B) x p(a|A) = Ν(y|aK(X), 𝛽−1 ) x Ν(a|0, 𝐴−1 ) 同時確率
21.
エビデンス近似(2/2) 同時確率について計算をややこしくしてるaを積分消去 そうすると、周辺化した尤度が出てくる 計算すると周辺化尤度はガウス分布になっている このように、パラメータを積分消去して周辺化尤度を求める ことをエビデンス近似という 周辺尤度を最大化するようなハイパーパラメータを求める 21 ∫ p(y, a|X,
A, β) da = ∫ Ν(y|aK(X), 𝛽−1 ) x Ν(a|0, 𝐴−1 ) da = Ν(y|0, Σ) ∫ p(y, a|X, A, β) da = p(y|X, A, β) 周辺尤度
22.
周辺化尤度の最大化 周辺尤度の対数をとり最大化を行う Aのチューニングは𝛼0, 𝛼1, ⋯
, 𝛼 𝑛を個別に偏微分して求める このとき、対象の𝛼𝑖以外は固定して求める 全ての𝛼𝑖が求まったら、𝛽で偏微分した値を使って𝛽を求める これを、収束条件に達するまで繰り返す 22 L(A, β) = log p(y|X, A, β) = log|Σ| + 𝑦 𝑇Σ−1 𝑦 + (定数) Σ = 𝐼 𝛽 + KA−1 𝐾 𝑇 A = 𝑑𝑖𝑎𝑔(𝛼0, 𝛼1, ⋯ , 𝛼 𝑛) チューニング対象
23.
目次 1.RVMの概要 2.グラフィカルモデルによるRVMの表現 3.尤度と事前確率について 4.周辺化尤度の最大化 5.更新式について 6.予測の方法について 23
24.
ハイパーパラメータの更新式 更新式は以下の通り 24 𝛼 𝑘 = 𝑠
𝑘 2 𝑞𝑘 2 − 𝑠 𝑘 ⋯ 𝑞𝑘 2 ≥ 𝑠 𝑘 ∞ ⋯ 𝑞𝑘 2 < 𝑠 𝑘 𝛽 = 𝑛 − 𝑖=0 𝑛 (1 − 𝛼𝑖Σ 𝑎 𝑖𝑖) |𝑦 − 𝐺𝜇 𝑎|2
25.
目次 1.RVMの概要 2.グラフィカルモデルによるRVMの表現 3.尤度と事前確率について 4.周辺化尤度の最大化 5.更新式について 6.予測の方法について 25
26.
RVMによる予測方法 新しいデータxが入ってきたときの回帰値𝑦を求める 点推定で回帰値を予測する場合は期待値を用いる 26 p(y|𝑥, X, y,
A, β) = ∫ p(y|𝑥, a, β)× p(a|X, y, A, β) da = Ν(a|𝜇 𝑎 𝑇 𝐤 𝑥 , 𝜎2(𝑥)) 𝑦 = 𝜇 𝑎 𝑇 𝐤 𝑥 12.25式