SlideShare a Scribd company logo
1 of 185
Download to read offline
Gaussianmodels
ガウシアンモデル
MLaPP Chapter 4
きょうの話題
 ガウス分布とは
 ガウス分布にもとづく判別分析
 ガウス分布を用いた補間
 ガウス分布とベイジアン
きょうの話題
 ガウス分布とは
 ガウス分布にもとづく判別分析
 ガウス分布を用いた補間
 ガウス分布とベイジアン
割愛します
m(_ _)m
きょうの話題
 ガウス分布とは
 ガウス分布にもとづく判別分析
 ガウス分布を用いた補間
きょうの話題
 ガウス分布とは
 ガウス分布にもとづく判別分析
 ガウス分布を用いた補間
ガウス分布 (Gaussian Distribution)
もっともよく使われる分布の王者
正規分布 (Normal Distribution) とも呼ぶ
ガウス分布とは
概要
ガウス分布 (Gaussian Distribution)
もっともよく使われる分布の王者
正規分布 (Normal Distribution) とも呼ぶ
単変量が許されるのは
小学生まで!!!
ガウス分布とは
概要
ガウス分布 (Gaussian Distribution)
もっともよく使われる分布の王者
正規分布 (Normal Distribution) とも呼ぶ
ガウス分布とは
概要
ガウス分布とは
概要
ガウス分布 (Gaussian Distribution)
もっともよく使われる分布の王者
正規分布 (Normal Distribution) とも呼ぶ
ガウス分布とは
概要
ガウス分布 (Gaussian Distribution)
もっともよく使われる分布の王者
正規分布 (Normal Distribution) とも呼ぶ
大事なのは
この後ろの部分
(前半は正規化係数)
ガウス分布とは
expの中を詳しく
ガウス分布とは
expの中を詳しく
ガウス分布とは
expの中を詳しく
こういう v⊤Av みたいな形を「2次形式」といいます
ガウス分布とは
expの中を詳しく
こういう v⊤Av みたいな形を「2次形式」といいます
2次形式の性質はあいだの行列の固有値で決まるので
ちょっと Σ-1 を固有値分解してみましょう
ガウス分布とは
expの中を詳しく
とすると
ガウス分布とは
expの中を詳しく
とすると
ガウス分布とは
expの中を詳しく
とすると
ガウス分布とは
expの中を詳しく
ということは、2次元で考えれば
ガウス分布とは
expの中を詳しく
ということは、2次元で考えれば
Σ は半正定値
(固有値が非負)
↓
分布の等高線が
楕円になる!
ガウス分布とは
expの中を詳しく
この
は
ガウス分布とは
expの中を詳しく
この
は x と μ のユークリッド距離
の分散を補正したもの(=マハラノビス距離)の2乗
ガウス分布とは
expの中を詳しく
この
は x と μ のユークリッド距離
の分散を補正したもの(=マハラノビス距離)の2乗
ガウス分布とは
expの中を詳しく
この
は x と μ のユークリッド距離
の分散を補正したもの(=マハラノビス距離)の2乗
→ ガウス分布を書き直すと
ガウス分布 (Gaussian Distribution)
もっともよく使われる分布の王者
正規分布 (Normal Distribution) とも呼ぶ
ガウス分布とは
概要、再び
ガウス分布 (Gaussian Distribution)
もっともよく使われる分布の王者
正規分布 (Normal Distribution) とも呼ぶ
ガウス分布とは
概要、再び
一言でいえば
ガウス分布とは
どの辺が王者なのか
一言でいえば
「ガウス分布たん可愛いよ (;´Д`)ハァハァ」
ガウス分布とは
どの辺が王者なのか
一言でいえば
「ガウス分布たん可愛いよ (;´Д`)ハァハァ」
「シンプルでありながら現実に即している」
ガウス分布とは
どの辺が王者なのか
一言でいえば
「ガウス分布たん可愛いよ (;´Д`)ハァハァ」
「シンプルでありながら現実に即している」
• 中心極限定理のたどり着く先である
ガウス分布とは
どの辺が王者なのか
一言でいえば
「ガウス分布たん可愛いよ (;´Д`)ハァハァ」
「シンプルでありながら現実に即している」
• 中心極限定理のたどり着く先である
• たった2つのパラメータで定まる
ガウス分布とは
どの辺が王者なのか
一言でいえば
「ガウス分布たん可愛いよ (;´Д`)ハァハァ」
「シンプルでありながら現実に即している」
• 中心極限定理のたどり着く先である
• たった2つのパラメータで定まる
• しかもその2つが解釈しやすい(平均と分散)
ガウス分布とは
どの辺が王者なのか
一言でいえば
「ガウス分布たん可愛いよ (;´Д`)ハァハァ」
「シンプルでありながら現実に即している」
• 中心極限定理のたどり着く先である
• たった2つのパラメータで定まる
• しかもその2つが解釈しやすい(平均と分散)
• 平均と分散以外に持っている知識は最小限
ガウス分布とは
どの辺が王者なのか
一言でいえば
「ガウス分布たん可愛いよ (;´Д`)ハァハァ」
「シンプルでありながら現実に即している」
• 中心極限定理のたどり着く先である
• たった2つのパラメータで定まる
• しかもその2つが解釈しやすい(平均と分散)
• 平均と分散以外に持っている知識は最小限
• 一見複雑なのに線形代数だけで計算がすむ
ガウス分布とは
どの辺が王者なのか
一言でいえば
「ガウス分布たん可愛いよ (;´Д`)ハァハァ」
「シンプルでありながら現実に即している」
• 中心極限定理のたどり着く先である
• たった2つのパラメータで定まる
• しかもその2つが解釈しやすい(平均と分散)
• 平均と分散以外に持っている知識は最小限
• 一見複雑なのに線形代数だけで計算がすむ
ガウス分布とは
どの辺が王者なのか
実際には世の中みんなガウス
分布に従っているわけじゃない
対数正規分布、パレート分布、
二項分布、ポアソン分布……
分布に対して分かっていること
があるならそれを使えばいい
ないなら、ガウス分布を使おう
一言でいえば
「ガウス分布たん可愛いよ (;´Д`)ハァハァ」
「シンプルでありながら現実に即している」
• 中心極限定理のたどり着く先である
• たった2つのパラメータで定まる
• しかもその2つが解釈しやすい(平均と分散)
• 平均と分散以外に持っている知識は最小限
• 一見複雑なのに線形代数だけで計算がすむ
ガウス分布とは
どの辺が王者なのか
一言でいえば
「ガウス分布たん可愛いよ (;´Д`)ハァハァ」
「シンプルでありながら現実に即している」
• 中心極限定理のたどり着く先である
• たった2つのパラメータで定まる
• しかもその2つが解釈しやすい(平均と分散)
• 平均と分散以外に持っている知識は最小限
• 一見複雑なのに線形代数だけで計算がすむ
ガウス分布とは
どの辺が王者なのか
いま、一つのガウス分布に独立に従う N 個のデータ点
{x1, x2,…, xN} があるとする:
ガウス分布とは
最尤推定法によるあてはめ
いま、一つのガウス分布に独立に従う N 個のデータ点
{x1, x2,…, xN} があるとする:
このとき、 μ と Σ の最尤推定量は
ガウス分布とは
最尤推定法によるあてはめ
いま、一つのガウス分布に独立に従う N 個のデータ点
{x1, x2,…, xN} があるとする:
このとき、 μ と Σ の最尤推定量は
ガウス分布とは
最尤推定法によるあてはめ
最尤推定量が
標本平均・標本
分散そのもの!
2つのパラメータが単に分布の平均と分散である
というだけでなく、最尤推定量が標本平均・分散と一致
ガウス分布とは
最尤推定法によるあてはめ
一言でいえば
「ガウス分布たん可愛いよ (;´Д`)ハァハァ」
「シンプルでありながら現実に即している」
• 中心極限定理のたどり着く先である
• たった2つのパラメータで定まる
• しかもその2つが解釈しやすい(平均と分散)
• 平均と分散以外に持っている知識は最小限
• 一見複雑なのに線形代数だけで計算がすむ
ガウス分布とは
どの辺が王者なのか
一言でいえば
「ガウス分布たん可愛いよ (;´Д`)ハァハァ」
「シンプルでありながら現実に即している」
• 中心極限定理のたどり着く先である
• たった2つのパラメータで定まる
• しかもその2つが解釈しやすい(平均と分散)
• 平均と分散以外に持っている知識は最小限
• 一見複雑なのに線形代数だけで計算がすむ
ガウス分布とは
どの辺が王者なのか
【定理】
ガウス分布は特定の平均と分散を持つ分布の
中で、もっともエントロピーが大きい分布である
(証明は教科書参照)
ガウス分布とは
ガウス分布の情報量
【定理】
ガウス分布は特定の平均と分散を持つ分布の
中で、もっともエントロピーが大きい分布である
(証明は教科書参照)
エントロピーが大きい=表現できる情報量が多い
正体不明の分布を表すのに、できるだけ仮定を置かず
幅広い可能性に対応できるようにしている
ガウス分布とは
ガウス分布の情報量
一言でいえば
「ガウス分布たん可愛いよ (;´Д`)ハァハァ」
「シンプルでありながら現実に即している」
• 中心極限定理のたどり着く先である
• たった2つのパラメータで定まる
• しかもその2つが解釈しやすい(平均と分散)
• 平均と分散以外に持っている知識は最小限
• 一見複雑なのに線形代数だけで計算がすむ
ガウス分布とは
どの辺が王者なのか
一言でいえば
「ガウス分布たん可愛いよ (;´Д`)ハァハァ」
「シンプルでありながら現実に即している」
• 中心極限定理のたどり着く先である
• たった2つのパラメータで定まる
• しかもその2つが解釈しやすい(平均と分散)
• 平均と分散以外に持っている知識は最小限
• 一見複雑なのに線形代数だけで計算がすむ
ガウス分布とは
どの辺が王者なのか
ガウス分布は
ガウス分布とは
ガウス分布の変換
ガウス分布は
• 線形変換した分布
ガウス分布とは
ガウス分布の変換
ガウス分布は
• 線形変換した分布
• 周辺分布
ガウス分布とは
ガウス分布の変換
ガウス分布は
• 線形変換した分布
• 周辺分布
• 条件付き分布
ガウス分布とは
ガウス分布の変換
ガウス分布は
• 線形変換した分布
• 周辺分布
• 条件付き分布
もガウス分布になる
ガウス分布とは
ガウス分布の変換
ガウス分布は
• 線形変換した分布
• 周辺分布
• 条件付き分布
もガウス分布になる
→ 分布関数全体は不要。 μ と Σ さえ求めればいい!
ガウス分布とは
ガウス分布の変換
ガウス分布は
• 線形変換した分布
• 周辺分布
• 条件付き分布
もガウス分布になる
→ 分布関数全体は不要。 μ と Σ さえ求めればいい!
ガウス分布とは
ガウス分布の変換
x1 ∼ N (μ1,Σ1) を以下のように変換すると
ガウス分布とは
ガウス分布の線形変換
x1 ∼ N (μ1,Σ1) を以下のように変換すると
変換後も x2 ∼ N (μ2,Σ2) となる
ガウス分布とは
ガウス分布の線形変換
x1 ∼ N (μ1,Σ1) を以下のように変換すると
変換後も x2 ∼ N (μ2,Σ2) となる
ただし
ガウス分布とは
ガウス分布の線形変換
x1 ∼ N (μ1,Σ1) を以下のように変換すると
変換後も x2 ∼ N (μ2,Σ2) となる
ただし
ガウス分布とは
ガウス分布の線形変換
x1 と同じ変換
x1 の拡大分の
2乗拡大
ガウス分布は
• 線形変換した分布
• 周辺分布
• 条件付き分布
もガウス分布になる
→ 分布関数全体は不要。 μ と Σ さえ求めればいい!
ガウス分布とは
ガウス分布の変換
ガウス分布は
• 線形変換した分布
• 周辺分布
• 条件付き分布
もガウス分布になる
→ 分布関数全体は不要。 μ と Σ さえ求めればいい!
ガウス分布とは
ガウス分布の変換
x = (x1,x2) ∼ N (μ,Σ) とする。ただし
ガウス分布とは
ガウス分布の周辺分布
x = (x1,x2) ∼ N (μ,Σ) とする。ただし
ガウス分布とは
ガウス分布の周辺分布
x2
x1
Σ =
Σ12
Σ11 Σ12
Σ21
x2x1
μ2
μ1
μ =
x2
x1
対応する部分を
区切っただけ
x = (x1,x2) ∼ N (μ,Σ) とする。ただし
ガウス分布とは
ガウス分布の周辺分布
x = (x1,x2) ∼ N (μ,Σ) とする。ただし
周辺分布は
x1 ∼ N (μ1,Σ11)
ガウス分布とは
ガウス分布の周辺分布
対応する部分を
区切っただけ
x = (x1,x2) ∼ N (μ,Σ) とする。ただし
周辺分布は
x1 ∼ N (μ1,Σ11)
x2 ∼ N (μ2,Σ22)
ガウス分布とは
ガウス分布の周辺分布
対応する部分を
区切っただけ
ガウス分布は
• 線形変換した分布
• 周辺分布
• 条件付き分布
もガウス分布になる
→ 分布関数全体は不要。 μ と Σ さえ求めればいい!
ガウス分布とは
ガウス分布の変換
ガウス分布は
• 線形変換した分布
• 周辺分布
• 条件付き分布
もガウス分布になる
→ 分布関数全体は不要。 μ と Σ さえ求めればいい!
ガウス分布とは
ガウス分布の変換
x = (x1,x2) ∼ N (μ,Σ) とする。ただし
ガウス分布とは
ガウス分布の条件付き分布
x = (x1,x2) ∼ N (μ,Σ) とする。ただし
ガウス分布とは
ガウス分布の条件付き分布
精度行列(分散の逆行列)
を考えると見通しが良い
x = (x1,x2) ∼ N (μ,Σ) とする。ただし
ガウス分布とは
ガウス分布の条件付き分布
x = (x1,x2) ∼ N (μ,Σ) とする。ただし
条件付き分布は x1|x2 ∼ N (μ1|2,Σ1|2)
ガウス分布とは
ガウス分布の条件付き分布
x = (x1,x2) ∼ N (μ,Σ) とする。ただし
条件付き分布は x1|x2 ∼ N (μ1|2,Σ1|2)
ガウス分布とは
ガウス分布の条件付き分布
x = (x1,x2) ∼ N (μ,Σ) とする。ただし
条件付き分布は x1|x2 ∼ N (μ1|2,Σ1|2)
ガウス分布とは
ガウス分布の条件付き分布
μ に x2 が入る
ことだけ注意!
x = (x1,x2) ∼ N (μ,Σ) とする。ただし
条件付き分布は x1|x2 ∼ N (μ1|2,Σ1|2)
ガウス分布とは
ガウス分布の条件付き分布
μ に x2 が入る
ことだけ注意!
ガウス分布は
• 線形変換した分布
• 周辺分布
• 条件付き分布
もガウス分布になる
→ 分布関数全体は不要。 μ と Σ さえ求めればいい!
ガウス分布とは
ガウス分布の変換
ガウス分布は
• 線形変換した分布
• 周辺分布
• 条件付き分布
もガウス分布になる
→ 分布関数全体は不要。 μ と Σ さえ求めればいい!
ガウス分布とは
ガウス分布の変換
一言でいえば
「ガウス分布たん可愛いよ (;´Д`)ハァハァ」
「シンプルでありながら現実に即している」
• 中心極限定理のたどり着く先である
• たった2つのパラメータで定まる
• しかもその2つが解釈しやすい(平均と分散)
• 平均と分散以外に持っている知識は最小限
• 一見複雑なのに線形代数だけで計算がすむ
ガウス分布とは
どの辺が王者なのか
ガウス分布 (Gaussian Distribution)
• 中心極限定理のたどり着く先である
• たった2つのパラメータで定まる
• しかもその2つが解釈しやすい(平均と分散)
• 平均と分散以外に持っている知識は最小限
• 一見複雑なのに線形代数だけで計算がすむ
ガウス分布とは
まとめ
きょうの話題
 ガウス分布とは
 ガウス分布にもとづく判別分析
 ガウス分布を用いた補間
きょうの話題
 ガウス分布とは
 ガウス分布にもとづく判別分析
 ガウス分布を用いた補間
ガウス分布にもとづく判別分析
判別分析とは
分類問題に対する手法の一つ
分類問題 (classification)
クラスのわかっているデータ(教師データ)をもとに、
未知のデータを分類する問題
ガウス分布にもとづく判別分析
判別分析とは
ガウス判別分析の解き方
1. データは、クラスごとに固有のガウス分布から iid で生成
されていると仮定する
2. 教師データからパラメータを推定する
3. 未知のデータに対し各クラスに属する確率を求め最も高
いクラスに分類する
55 60 65 70 75 80
80
100
120
140
160
180
200
220
240
260
280
ガウス分布にもとづく判別分析
判別分析とは
ガウス判別分析の解き方
1. データは、クラスごとに固有のガウス分布から iid で生成
されていると仮定する
2. 教師データからパラメータを推定する
3. 未知のデータに対し各クラスに属する確率を求め最も高
いクラスに分類する
55 60 65 70 75 80
80
100
120
140
160
180
200
220
240
260
280
55 60 65 70 75 80
80
100
120
140
160
180
200
220
240
260
280
ガウス分布にもとづく判別分析
判別分析とは
ガウス判別分析の解き方
1. データは、クラスごとに固有のガウス分布から iid で生成
されていると仮定する
2. 教師データからパラメータを推定する
3. 未知のデータに対し各クラスに属する確率を求め最も高
いクラスに分類する
生成モデルを仮定
55 60 65 70 75 80
80
100
120
140
160
180
200
220
240
260
280
ガウス分布にもとづく判別分析
判別分析とは
ガウス判別分析の解き方
1. データは、クラスごとに固有のガウス分布から iid で生成
されていると仮定する
2. 教師データからパラメータを推定する
3. 未知のデータに対し各クラスに属する確率を求め最も高
いクラスに分類する
生成モデルを仮定
ガウス分布にもとづく判別分析
生成モデル
クラスごとに固有のガウス分布
パラメータ θ が与えられて、クラスを c に定めたときに
x が生成される確率
ガウス分布にもとづく判別分析
生成モデル
クラスごとに固有のガウス分布
パラメータ θ が与えられて、クラスを c に定めたときに
x が生成される確率
ガウス分布にもとづく判別分析
生成モデル
クラスごとに固有のガウス分布
パラメータ θ が与えられて、クラスを c に定めたときに
x が生成される確率
ガウス分布にもとづく判別分析
生成モデル
クラスごとに固有のガウス分布
パラメータ θ が与えられて、クラスを c に定めたときに
x が生成される確率
ガウス分布にもとづく判別分析
生成モデル
クラスごとに固有のガウス分布
パラメータ θ が与えられて、クラスを c に定めたときに
x が生成される確率
ガウス分布にもとづく判別分析
生成モデル
クラスごとに固有のガウス分布
パラメータ θ が与えられて、クラスを c に定めたときに
x が生成される確率
クラス c の
平均と分散
モデル全体のパラメータ
(各 μc, Σc を含む)
ガウス分布にもとづく判別分析
生成モデル
クラスごとに固有のガウス分布
パラメータ θ が与えられて、クラスを c に定めたときに
x が生成される確率
ついでに、下記も仮定:クラス c の出やすさは πc
ガウス分布にもとづく判別分析
生成モデル
クラスごとに固有のガウス分布
パラメータ θ が与えられて、クラスを c に定めたときに
x が生成される確率
ついでに、下記も仮定:クラス c の出やすさは πc
各 πc も
パラメータ θ
の一部
ガウス分布にもとづく判別分析
判別分析とは
ガウス判別分析の解き方
1. データは、クラスごとに固有のガウス分布から iid で生成
されていると仮定する
2. 教師データからパラメータを推定する
3. 未知のデータに対し各クラスに属する確率を求め最も高
いクラスに分類する
55 60 65 70 75 80
80
100
120
140
160
180
200
220
240
260
280
ガウス分布にもとづく判別分析
判別分析とは
ガウス判別分析の解き方
1. データは、クラスごとに固有のガウス分布から iid で生成
されていると仮定する
2. 教師データからパラメータを推定する
3. 未知のデータに対し各クラスに属する確率を求め最も高
いクラスに分類する
55 60 65 70 75 80
80
100
120
140
160
180
200
220
240
260
280
55 60 65 70 75 80
80
100
120
140
160
180
200
220
240
260
280
ガウス分布にもとづく判別分析
判別分析とは
ガウス判別分析の解き方
1. データは、クラスごとに固有のガウス分布から iid で生成
されていると仮定する
2. 教師データからパラメータを推定する
3. 未知のデータに対し各クラスに属する確率を求め最も高
いクラスに分類する
ベイズの法則に
より計算
55 60 65 70 75 80
80
100
120
140
160
180
200
220
240
260
280
ガウス分布にもとづく判別分析
判別分析とは
ガウス判別分析の解き方
1. データは、クラスごとに固有のガウス分布から iid で生成
されていると仮定する
2. 教師データからパラメータを推定する
3. 未知のデータに対し各クラスに属する確率を求め最も高
いクラスに分類する
ベイズの法則に
より計算
ガウス分布にもとづく判別分析
クラス事後確率
未知のデータ点 x が与えられたときに、
それがクラス c に属する確率
ガウス分布にもとづく判別分析
クラス事後確率
未知のデータ点 x が与えられたときに、
それがクラス c に属する確率
ガウス分布にもとづく判別分析
クラス事後確率
未知のデータ点 x が与えられたときに、
それがクラス c に属する確率
ガウス分布にもとづく判別分析
クラス事後確率
未知のデータ点 x が与えられたときに、
それがクラス c に属する確率
ガウス分布にもとづく判別分析
クラス事後確率
未知のデータ点 x が与えられたときに、
それがクラス c に属する確率
みなさんベイズの公式
覚えてますか!?
ガウス分布にもとづく判別分析
クラス事後確率
未知のデータ点 x が与えられたときに、
それがクラス c に属する確率
ガウス分布にもとづく判別分析
クラス事後確率
未知のデータ点 x が与えられたときに、
それがクラス c に属する確率
尤度
ガウス分布にもとづく判別分析
クラス事後確率
未知のデータ点 x が与えられたときに、
それがクラス c に属する確率
尤度 事前分布
ガウス分布にもとづく判別分析
クラス事後確率
未知のデータ点 x が与えられたときに、
それがクラス c に属する確率
尤度 事前分布
ガウス分布にもとづく判別分析
クラス事後確率
未知のデータ点 x が与えられたときに、
それがクラス c に属する確率
ガウス分布にもとづく判別分析
クラス事後確率
未知のデータ点 x が与えられたときに、
それがクラス c に属する確率
ガウス分布にもとづく判別分析
クラス事後確率
未知のデータ点 x が与えられたときに、
それがクラス c に属する確率
よって x は下記のように分類される
ガウス分布にもとづく判別分析
判別分析とは
ガウス判別分析の解き方
1. データは、クラスごとに固有のガウス分布から iid で生成
されていると仮定する
2. 教師データからパラメータを推定する
3. 未知のデータに対し各クラスに属する確率を求め最も高
いクラスに分類する
55 60 65 70 75 80
80
100
120
140
160
180
200
220
240
260
280
ガウス分布にもとづく判別分析
判別分析とは
ガウス判別分析の解き方
1. データは、クラスごとに固有のガウス分布から iid で生成
されていると仮定する
2. 教師データからパラメータを推定する
3. 未知のデータに対し各クラスに属する確率を求め最も高
いクラスに分類する
55 60 65 70 75 80
80
100
120
140
160
180
200
220
240
260
280
ガウス分布にもとづく判別分析
いろいろなガウス判別分析
パラメータへの制限や推定法によって、ガウス判別分
析はいくつかの種類に分けられる
• 制限なし QDA
• 等分散 LDA
• 特徴量が独立 Naïve Bayes
• 等分散&特徴量が独立 Diagonal LDA
• 事前分布で正則化
ガウス分布にもとづく判別分析
いろいろなガウス判別分析
パラメータへの制限や推定法によって、ガウス判別分
析はいくつかの種類に分けられる
• 制限なし
• 等分散
• 特徴量が独立
• 等分散&特徴量が独立
• 事前分布で正則化
ガウス分布にもとづく判別分析
2次判別分析
パラメータへなにも制約をおかなかった場合、一般に
分離境界は2次式になる
→ 2次判別分析 (QuadraticDiscriminantAnalysis)
ガウス分布にもとづく判別分析
2次判別分析
パラメータへなにも制約をおかなかった場合、一般に
分離境界は2次式になる
→ 2次判別分析 (QuadraticDiscriminantAnalysis)
ガウス分布にもとづく判別分析
2次判別分析
パラメータへなにも制約をおかなかった場合、一般に
分離境界は2次式になる
→ 2次判別分析 (QuadraticDiscriminantAnalysis)
ガウス分布にもとづく判別分析
2次判別分析
パラメータへなにも制約をおかなかった場合、一般に
分離境界は2次式になる
→ 2次判別分析 (QuadraticDiscriminantAnalysis)
分散が同じだと
境界が直線に
ガウス分布にもとづく判別分析
いろいろなガウス判別分析
パラメータへの制限や推定法によって、ガウス判別分
析はいくつかの種類に分けられる
• 制限なし
• 等分散
• 特徴量が独立
• 等分散&特徴量が独立
• 事前分布で正則化
ガウス分布にもとづく判別分析
いろいろなガウス判別分析
パラメータへの制限や推定法によって、ガウス判別分
析はいくつかの種類に分けられる
• 制限なし 2次判別分析 (QDA)
• 等分散
• 特徴量が独立
• 等分散&特徴量が独立
• 事前分布で正則化
ガウス分布にもとづく判別分析
いろいろなガウス判別分析
パラメータへの制限や推定法によって、ガウス判別分
析はいくつかの種類に分けられる
• 制限なし 2次判別分析 (QDA)
• 等分散
• 特徴量が独立
• 等分散&特徴量が独立
• 事前分布で正則化
ガウス分布にもとづく判別分析
2次判別分析
分散が各クラスで共通だと分離境界は1次式になる
→ 線形判別分析 (LinearDiscriminantAnalysis)
ガウス分布にもとづく判別分析
2次判別分析
分散が各クラスで共通だと分離境界は1次式になる
→ 線形判別分析 (LinearDiscriminantAnalysis)
ガウス分布にもとづく判別分析
2次判別分析
分散が各クラスで共通だと分離境界は1次式になる
→ 線形判別分析 (LinearDiscriminantAnalysis)
よく PCA との対比で語られること
の多い LDA ですが、実は背後に
等分散なガウス分布
を生成モデルとして仮定していた!
ガウス分布にもとづく判別分析
2次判別分析
分散が各クラスで共通だと分離境界は1次式になる
→ 線形判別分析 (LinearDiscriminantAnalysis)
よく PCA との対比で語られること
の多い LDA ですが、実は背後に
等分散なガウス分布
を生成モデルとして仮定していた!
LDAって言ってもトピックモデルの
方 (Latent Dirichlet allocation)
じゃないよ!
ガウス分布にもとづく判別分析
いろいろなガウス判別分析
パラメータへの制限や推定法によって、ガウス判別分
析はいくつかの種類に分けられる
• 制限なし 2次判別分析 (QDA)
• 等分散
• 特徴量が独立
• 等分散&特徴量が独立
• 事前分布で正則化
ガウス分布にもとづく判別分析
いろいろなガウス判別分析
パラメータへの制限や推定法によって、ガウス判別分
析はいくつかの種類に分けられる
• 制限なし 2次判別分析 (QDA)
• 等分散 線形判別分析 (LDA)
• 特徴量が独立
• 等分散&特徴量が独立
• 事前分布で正則化
ガウス分布にもとづく判別分析
いろいろなガウス判別分析
パラメータへの制限や推定法によって、ガウス判別分
析はいくつかの種類に分けられる
• 制限なし 2次判別分析 (QDA)
• 等分散 線形判別分析 (LDA)
• 特徴量が独立
• 等分散&特徴量が独立
• 事前分布で正則化
ガウス分布にもとづく判別分析
単純ベイズ法
特徴量が独立=データの各次元が独立
x = (x1, x2, …, xi, …, xN)
独立
ガウス分布にもとづく判別分析
単純ベイズ法
特徴量が独立=データの各次元が独立
x = (x1, x2, …, xi, …, xN)
つまり
独立
独立 ⇔
同時分布を積に
分解できる
ガウス分布にもとづく判別分析
単純ベイズ法
特徴量が独立=データの各次元が独立
x = (x1, x2, …, xi, …, xN)
つまり
これはガウス分布による単純ベイズ (Naïve Bayes) と等価!
独立
独立 ⇔
同時分布を積に
分解できる
ガウス分布にもとづく判別分析
単純ベイズ法
特徴量が独立=データの各次元が独立
x = (x1, x2, …, xi, …, xN)
つまり
独立
独立 ⇔
同時分布を積に
分解できる
ガウス分布にもとづく判別分析
単純ベイズ法
特徴量が独立=データの各次元が独立
x = (x1, x2, …, xi, …, xN)
つまり
独立
独立 ⇔
同時分布を積に
分解できる
ガウス分布にもとづく判別分析
単純ベイズ法
特徴量が独立=データの各次元が独立
x = (x1, x2, …, xi, …, xN)
つまり
独立
独立 ⇔
同時分布を積に
分解できる
ただし
ガウス分布にもとづく判別分析
単純ベイズ法
特徴量が独立=データの各次元が独立
x = (x1, x2, …, xi, …, xN)
つまり
独立
独立 ⇔
同時分布を積に
分解できる
ただし
ガウス判別分析の観点で言うと、分散を対角行列に
制限している(無相関)ことに等しい
ガウス分布にもとづく判別分析
いろいろなガウス判別分析
パラメータへの制限や推定法によって、ガウス判別分
析はいくつかの種類に分けられる
• 制限なし 2次判別分析 (QDA)
• 等分散 線形判別分析 (LDA)
• 特徴量が独立
• 等分散&特徴量が独立
• 事前分布で正則化
ガウス分布にもとづく判別分析
いろいろなガウス判別分析
パラメータへの制限や推定法によって、ガウス判別分
析はいくつかの種類に分けられる
• 制限なし 2次判別分析 (QDA)
• 等分散 線形判別分析 (LDA)
• 特徴量が独立 単純ベイズ
• 等分散&特徴量が独立
• 事前分布で正則化
ガウス分布にもとづく判別分析
いろいろなガウス判別分析
パラメータへの制限や推定法によって、ガウス判別分
析はいくつかの種類に分けられる
• 制限なし 2次判別分析 (QDA)
• 等分散 線形判別分析 (LDA)
• 特徴量が独立 単純ベイズ
• 等分散&特徴量が独立
• 事前分布で正則化
ガウス分布にもとづく判別分析
対角線形判別分析
分散行列を対角かつ各クラスで共通に制限したものを
対角線形判別分析 (Diagonal LDA) と呼ぶ
ガウス分布にもとづく判別分析
対角線形判別分析
分散行列を対角かつ各クラスで共通に制限したものを
対角線形判別分析 (Diagonal LDA) と呼ぶ
正則化がかなり強く働くので、高次元データに強い
ガウス分布にもとづく判別分析
対角線形判別分析
分散行列を対角かつ各クラスで共通に制限したものを
対角線形判別分析 (Diagonal LDA) と呼ぶ
正則化がかなり強く働くので、高次元データに強い
Σ の推定値には合併経験分散 (PooledEmpiricalVariance) を用いることが多い
ガウス分布にもとづく判別分析
対角線形判別分析
分散行列を対角かつ各クラスで共通に制限したものを
対角線形判別分析 (Diagonal LDA) と呼ぶ
正則化がかなり強く働くので、高次元データに強い
Σ の推定値には合併経験分散 (PooledEmpiricalVariance) を用いることが多い
クラス内分散の
不偏推定量
みたいなもの
ガウス分布にもとづく判別分析
いろいろなガウス判別分析
パラメータへの制限や推定法によって、ガウス判別分
析はいくつかの種類に分けられる
• 制限なし 2次判別分析 (QDA)
• 等分散 線形判別分析 (LDA)
• 特徴量が独立 単純ベイズ
• 等分散&特徴量が独立
• 事前分布で正則化
ガウス分布にもとづく判別分析
いろいろなガウス判別分析
パラメータへの制限や推定法によって、ガウス判別分
析はいくつかの種類に分けられる
• 制限なし 2次判別分析 (QDA)
• 等分散 線形判別分析 (LDA)
• 特徴量が独立 単純ベイズ
• 等分散&特徴量が独立 対角線形判別分析
• 事前分布で正則化
ガウス分布にもとづく判別分析
いろいろなガウス判別分析
パラメータへの制限や推定法によって、ガウス判別分
析はいくつかの種類に分けられる
• 制限なし 2次判別分析 (QDA)
• 等分散 線形判別分析 (LDA)
• 特徴量が独立 単純ベイズ
• 等分散&特徴量が独立 対角線形判別分析
• 事前分布で正則化
ガウス分布にもとづく判別分析
事前分布による正則化
ベイジアンなら直截的に Σ の値を制限するのではなく
事前分布を使って正則化をすることも出来る
ここでは2種類紹介する
• 分散に逆ウィシャート分布
• 平均のオフセットにラプラス分布
ガウス分布にもとづく判別分析
事前分布による正則化
ベイジアンなら直截的に Σ の値を制限するのではなく
事前分布を使って正則化をすることも出来る
ここでは2種類紹介する
• 分散に逆ウィシャート分布
• 平均のオフセットにラプラス分布
ガウス分布にもとづく判別分析
事前分布による正則化
ベイジアンなら直截的に Σ の値を制限するのではなく
事前分布を使って正則化をすることも出来る
ここでは2種類紹介する
• 分散に逆ウィシャート分布
• 平均のオフセットにラプラス分布
おさらい:ベイズの公式
MAP推定では尤度だけでなく
事前分布も推定に影響を与える
ガウス分布にもとづく判別分析
事前分布による正則化
ベイジアンなら直截的に Σ の値を制限するのではなく
事前分布を使って正則化をすることも出来る
ここでは2種類紹介する
• 分散に逆ウィシャート分布
• 平均のオフセットにラプラス分布
ガウス分布にもとづく判別分析
事前分布による正則化
ベイジアンなら直截的に Σ の値を制限するのではなく
事前分布を使って正則化をすることも出来る
ここでは2種類紹介する
• 分散に逆ウィシャート分布
• 平均のオフセットにラプラス分布
ガウス分布にもとづく判別分析
正則化判別分析
分散の事前分布として逆ウィシャート分布
をおく
ガウス分布にもとづく判別分析
正則化判別分析
分散の事前分布として逆ウィシャート分布
をおく
このとき分散の推定量は以下( λ は ν0 で定まる量)
ガウス分布にもとづく判別分析
正則化判別分析
分散の事前分布として逆ウィシャート分布
をおく
このとき分散の推定量は以下( λ は ν0 で定まる量)
の非対角成分
を薄めている感じ
(λ=1で対角LDAに一致)
ガウス分布にもとづく判別分析
正則化判別分析
分散の事前分布として逆ウィシャート分布
をおく
このとき分散の推定量は以下( λ は ν0 で定まる量)
次元が高すぎて( D>N )、 が計算出来ないときは
データ行列 X の特異値分解 を使うとよい
ガウス分布にもとづく判別分析
事前分布による正則化
ベイジアンなら直截的に Σ の値を制限するのではなく
事前分布を使って正則化をすることも出来る
ここでは2種類紹介する
• 分散に逆ウィシャート分布
• 平均のオフセットにラプラス分布
ガウス分布にもとづく判別分析
事前分布による正則化
ベイジアンなら直截的に Σ の値を制限するのではなく
事前分布を使って正則化をすることも出来る
ここでは2種類紹介する
• 分散に逆ウィシャート分布
• 平均のオフセットにラプラス分布
ガウス分布にもとづく判別分析
NearestShrunken CentroidsClassifier
対角LDAですら高次元データには弱い
→ Σ は対角行列かつ各クラス共通に制限したうえで
さらに不要な特徴量を削りたい(L0 正則化に近い)
クラス平均 μc を各次元 j について、クラス共通の平均
各クラスごとのオフセットという形に分解
この Δcj が0になろうとするような事前分布
(中心0のラプラス分布)をおく
→ すべての c について Δcj=0 となれば特徴量 j は削れた!
ガウス分布にもとづく判別分析
NearestShrunken CentroidsClassifier
対角LDAですら高次元データには弱い
→ Σ は対角行列かつ各クラス共通に制限したうえで
さらに不要な特徴量を削りたい(L0 正則化に近い)
クラス平均 μc を各次元 j について、クラス共通の平均
各クラスごとのオフセットという形に分解
この Δcj が0になろうとするような事前分布
(中心0のラプラス分布)をおく
→ すべての c について Δcj=0 となれば特徴量 j は削れた!
ガウス分布にもとづく判別分析
NearestShrunken CentroidsClassifier
対角LDAですら高次元データには弱い
→ Σ は対角行列かつ各クラス共通に制限したうえで
さらに不要な特徴量を削りたい(L0 正則化に近い)
ガウス分布にもとづく判別分析
事前分布による正則化
ベイジアンなら直截的に Σ の値を制限するのではなく
事前分布を使って正則化をすることも出来る
ここでは2種類紹介する
• 分散に逆ウィシャート分布
• 平均のオフセットにラプラス分布
ガウス分布にもとづく判別分析
事前分布による正則化
ベイジアンなら直截的に Σ の値を制限するのではなく
事前分布を使って正則化をすることも出来る
ここでは2種類紹介する
• 分散に逆ウィシャート分布
• 平均のオフセットにラプラス分布
ガウス分布にもとづく判別分析
いろいろなガウス判別分析
パラメータへの制限や推定法によって、ガウス判別分
析はいくつかの種類に分けられる
• 制限なし 2次判別分析 (QDA)
• 等分散 線形判別分析 (LDA)
• 特徴量が独立 単純ベイズ
• 等分散&特徴量が独立 対角線形判別分析
• 事前分布で正則化
ガウス分布にもとづく判別分析
いろいろなガウス判別分析
パラメータへの制限や推定法によって、ガウス判別分
析はいくつかの種類に分けられる
• 制限なし 2次判別分析 (QDA)
• 等分散 線形判別分析 (LDA)
• 特徴量が独立 単純ベイズ
• 等分散&特徴量が独立 対角線形判別分析
• 事前分布で正則化 正則化判別分析
Nearest Shrunken
Centroids Classifier
ガウス分布にもとづく判別分析
いろいろなガウス判別分析
パラメータへの制限や推定法によって、ガウス判別分
析はいくつかの種類に分けられる
• 制限なし 2次判別分析 (QDA)
• 等分散 線形判別分析 (LDA)
• 特徴量が独立 単純ベイズ
• 等分散&特徴量が独立 対角線形判別分析
• 事前分布で正則化 正則化判別分析
Nearest Shrunken
Centroids Classifier
きょうの話題
 ガウス分布とは
 ガウス分布にもとづく判別分析
 ガウス分布を用いた補間
きょうの話題
 ガウス分布とは
 ガウス分布にもとづく判別分析
 ガウス分布を用いた補間
ガウス分布による補間
補間とは
補間問題 (Interpolation)
与えられたデータ点 {(xi,yi)} から定義域全体の関
数 y(x) の振る舞いを推定すること
(ふつう最小点と最大点のあいだのみを扱うことが多い)
機械学習の言葉でいえば回帰 (regression) にあたる
ガウス分布による補間
2通りのデータ
ここで扱う手法は、データの種類によって2つに別れる
• ノイズのないデータ
• ノイズのあるデータ
ガウス分布による補間
2通りのデータ
ここで扱う手法は、データの種類によって2つに別れる
• ノイズのないデータ
• ノイズのあるデータ
ガウス分布による補間
ノイズのないデータの補間
対象とする区間を D 等分し、そのi番目を
yi = ƒ(xi)
とする
ガウス分布による補間
ノイズのないデータの補間
対象とする区間を D 等分し、そのi番目を
yi = ƒ(xi)
とする。 ƒ はなめらかだと仮定して
とおく(両隣の平均+ずれ)
ガウス分布による補間
ノイズのないデータの補間
対象とする区間を D 等分し、そのi番目を
yi = ƒ(xi)
とする。 ƒ はなめらかだと仮定して
とおく(両隣の平均+ずれ)
ガウス分布による補間
ノイズのないデータの補間
対象とする区間を D 等分し、そのi番目を
yi = ƒ(xi)
とする。 ƒ はなめらかだと仮定して
とおく(両隣の平均+ずれ)
ただし
行列の形で
書き直した
ガウス分布による補間
ノイズのないデータの補間
対象とする区間を D 等分し、そのi番目を
yi = ƒ(xi)
とする。 ƒ はなめらかだと仮定して
とおく(両隣の平均+ずれ)
ただし
行列の形で
書き直した
D 列
D-2 行
ガウス分布による補間
ノイズのないデータの補間
対象とする区間を D 等分し、そのi番目を
yi = ƒ(xi)
とする。 ƒ はなめらかだと仮定して
とおく(両隣の平均+ずれ)
ただし
行列の形で
書き直した
ガウス分布による補間
ノイズのないデータの補間
y=(y1, y2), y1:未知データ, y2:既知データとする
y = 既知未知
ガウス分布による補間
ノイズのないデータの補間
y=(y1, y2), y1:未知データ, y2:既知データとする
すると
y = 既知未知
ガウス分布による補間
ノイズのないデータの補間
y=(y1, y2), y1:未知データ, y2:既知データとする
すると
→ y1が予測できる!
y = 既知未知
ガウス分布による補間
ノイズのないデータの補間
y=(y1, y2), y1:未知データ, y2:既知データとする
すると
→ y1が予測できる!
y = 既知未知
ガウス分布による補間
2通りのデータ
ここで扱う手法は、データの種類によって2つに別れる
• ノイズのないデータ
• ノイズのあるデータ
ガウス分布による補間
2通りのデータ
ここで扱う手法は、データの種類によって2つに別れる
• ノイズのないデータ
• ノイズのあるデータ
ガウス分布による補間
ノイズのあるデータの補間
やることはさっきと同じ!
唯一の違いはデータ y が線形ガウスシステムで
生成されているとみなすこと
すると
ガウス分布による補間
2通りのデータ
ここで扱う手法は、データの種類によって2つに別れる
• ノイズのないデータ
• ノイズのあるデータ
ガウス分布による補間
2通りのデータ
ここで扱う手法は、データの種類によって2つに別れる
• ノイズのないデータ
• ノイズのあるデータ
きょうの話題
 ガウス分布とは
 ガウス分布にもとづく判別分析
 ガウス分布を用いた補間
きょうの話題
 ガウス分布とは
 ガウス分布にもとづく判別分析
 ガウス分布を用いた補間
きょうの話題
 ガウス分布とは
 ガウス分布にもとづく判別分析
 ガウス分布を用いた補間

More Related Content

What's hot

変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明Haruka Ozaki
 
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational AutoencoderDeep Learning JP
 
PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現hagino 3000
 
パターン認識と機械学習 13章 系列データ
パターン認識と機械学習 13章 系列データパターン認識と機械学習 13章 系列データ
パターン認識と機械学習 13章 系列データemonosuke
 
[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎Deep Learning JP
 
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化Miyoshi Yuya
 
パターン認識と機械学習入門
パターン認識と機械学習入門パターン認識と機械学習入門
パターン認識と機械学習入門Momoko Hayamizu
 
機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化gree_tech
 
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデルKei Nakagawa
 
Cosine Based Softmax による Metric Learning が上手くいく理由
Cosine Based Softmax による Metric Learning が上手くいく理由Cosine Based Softmax による Metric Learning が上手くいく理由
Cosine Based Softmax による Metric Learning が上手くいく理由tancoro
 
PRML勉強会第3回 2章前半 2013/11/28
PRML勉強会第3回 2章前半 2013/11/28PRML勉強会第3回 2章前半 2013/11/28
PRML勉強会第3回 2章前半 2013/11/28kurotaki_weblab
 
20190721 gaussian process
20190721 gaussian process20190721 gaussian process
20190721 gaussian processYoichi Tokita
 
[DL輪読会] マルチエージェント強化学習と心の理論
[DL輪読会] マルチエージェント強化学習と心の理論[DL輪読会] マルチエージェント強化学習と心の理論
[DL輪読会] マルチエージェント強化学習と心の理論Deep Learning JP
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介Naoki Hayashi
 
制限ボルツマンマシン入門
制限ボルツマンマシン入門制限ボルツマンマシン入門
制限ボルツマンマシン入門佑馬 斎藤
 
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介Taku Yoshioka
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3matsuolab
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門Kawamoto_Kazuhiko
 
バンディット問題について
バンディット問題についてバンディット問題について
バンディット問題についてjkomiyama
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定Akira Masuda
 

What's hot (20)

変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明
 
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
 
PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現
 
パターン認識と機械学習 13章 系列データ
パターン認識と機械学習 13章 系列データパターン認識と機械学習 13章 系列データ
パターン認識と機械学習 13章 系列データ
 
[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎
 
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
 
パターン認識と機械学習入門
パターン認識と機械学習入門パターン認識と機械学習入門
パターン認識と機械学習入門
 
機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化
 
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル
 
Cosine Based Softmax による Metric Learning が上手くいく理由
Cosine Based Softmax による Metric Learning が上手くいく理由Cosine Based Softmax による Metric Learning が上手くいく理由
Cosine Based Softmax による Metric Learning が上手くいく理由
 
PRML勉強会第3回 2章前半 2013/11/28
PRML勉強会第3回 2章前半 2013/11/28PRML勉強会第3回 2章前半 2013/11/28
PRML勉強会第3回 2章前半 2013/11/28
 
20190721 gaussian process
20190721 gaussian process20190721 gaussian process
20190721 gaussian process
 
[DL輪読会] マルチエージェント強化学習と心の理論
[DL輪読会] マルチエージェント強化学習と心の理論[DL輪読会] マルチエージェント強化学習と心の理論
[DL輪読会] マルチエージェント強化学習と心の理論
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
制限ボルツマンマシン入門
制限ボルツマンマシン入門制限ボルツマンマシン入門
制限ボルツマンマシン入門
 
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
 
バンディット問題について
バンディット問題についてバンディット問題について
バンディット問題について
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
 

More from Shinichi Tamura

NIPS 2016 輪読: Supervised Word Movers Distance
NIPS 2016 輪読: Supervised Word Movers DistanceNIPS 2016 輪読: Supervised Word Movers Distance
NIPS 2016 輪読: Supervised Word Movers DistanceShinichi Tamura
 
ESL 17.3.2-17.4: Graphical Lasso and Boltzmann Machines
ESL 17.3.2-17.4: Graphical Lasso and Boltzmann MachinesESL 17.3.2-17.4: Graphical Lasso and Boltzmann Machines
ESL 17.3.2-17.4: Graphical Lasso and Boltzmann MachinesShinichi Tamura
 
MLaPP 2章 「確率」(前編)
MLaPP 2章 「確率」(前編)MLaPP 2章 「確率」(前編)
MLaPP 2章 「確率」(前編)Shinichi Tamura
 
PRML 13.2.2: The Forward-Backward Algorithm
PRML 13.2.2: The Forward-Backward AlgorithmPRML 13.2.2: The Forward-Backward Algorithm
PRML 13.2.2: The Forward-Backward AlgorithmShinichi Tamura
 
PRML 9.1-9.2: K-means Clustering & Mixtures of Gaussians
PRML 9.1-9.2: K-means Clustering & Mixtures of GaussiansPRML 9.1-9.2: K-means Clustering & Mixtures of Gaussians
PRML 9.1-9.2: K-means Clustering & Mixtures of GaussiansShinichi Tamura
 
PRML 2.4-2.5: The Exponential Family & Nonparametric Methods
PRML 2.4-2.5: The Exponential Family & Nonparametric MethodsPRML 2.4-2.5: The Exponential Family & Nonparametric Methods
PRML 2.4-2.5: The Exponential Family & Nonparametric MethodsShinichi Tamura
 
ESL 4.4.3-4.5: Logistic Reression (contd.) and Separating Hyperplane
ESL 4.4.3-4.5: Logistic Reression (contd.) and Separating HyperplaneESL 4.4.3-4.5: Logistic Reression (contd.) and Separating Hyperplane
ESL 4.4.3-4.5: Logistic Reression (contd.) and Separating HyperplaneShinichi Tamura
 

More from Shinichi Tamura (7)

NIPS 2016 輪読: Supervised Word Movers Distance
NIPS 2016 輪読: Supervised Word Movers DistanceNIPS 2016 輪読: Supervised Word Movers Distance
NIPS 2016 輪読: Supervised Word Movers Distance
 
ESL 17.3.2-17.4: Graphical Lasso and Boltzmann Machines
ESL 17.3.2-17.4: Graphical Lasso and Boltzmann MachinesESL 17.3.2-17.4: Graphical Lasso and Boltzmann Machines
ESL 17.3.2-17.4: Graphical Lasso and Boltzmann Machines
 
MLaPP 2章 「確率」(前編)
MLaPP 2章 「確率」(前編)MLaPP 2章 「確率」(前編)
MLaPP 2章 「確率」(前編)
 
PRML 13.2.2: The Forward-Backward Algorithm
PRML 13.2.2: The Forward-Backward AlgorithmPRML 13.2.2: The Forward-Backward Algorithm
PRML 13.2.2: The Forward-Backward Algorithm
 
PRML 9.1-9.2: K-means Clustering & Mixtures of Gaussians
PRML 9.1-9.2: K-means Clustering & Mixtures of GaussiansPRML 9.1-9.2: K-means Clustering & Mixtures of Gaussians
PRML 9.1-9.2: K-means Clustering & Mixtures of Gaussians
 
PRML 2.4-2.5: The Exponential Family & Nonparametric Methods
PRML 2.4-2.5: The Exponential Family & Nonparametric MethodsPRML 2.4-2.5: The Exponential Family & Nonparametric Methods
PRML 2.4-2.5: The Exponential Family & Nonparametric Methods
 
ESL 4.4.3-4.5: Logistic Reression (contd.) and Separating Hyperplane
ESL 4.4.3-4.5: Logistic Reression (contd.) and Separating HyperplaneESL 4.4.3-4.5: Logistic Reression (contd.) and Separating Hyperplane
ESL 4.4.3-4.5: Logistic Reression (contd.) and Separating Hyperplane
 

Recently uploaded

モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineerYuki Kikuchi
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NTT DATA Technology & Innovation
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?akihisamiyanaga1
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 

Recently uploaded (8)

モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 

MLaPP 4章 「ガウシアンモデル」