SlideShare a Scribd company logo
1 of 47
Download to read offline
はじパタ!輪読会
第3章前半
ベイズの識別規則	
2013.07.16 (火)
担当: @_kobacky	
http://www.amazon.co.jp/dp/4627849710
自己紹介	
• Twitter ID : @_kobacky
• どこで働いている?
•  株式会社 ALBERT システム開発部
• 日頃のお仕事?
•  システム設計・プログラム開発
•  レコメンドエンジンとか、Twitterの解析を行うシステムとか
•  ウェブサイト運用
•  etc.
3.1で学ぶこと	
• 3.1.1 ベイズの識別規則
• 3.1.2 ベイズの識別規則の例
• 3.1.3 尤度比
• 3.1.4 ベイズの識別規則は誤り率最小
• 3.1.5 最小損失基準に基づくベイズの識別規則
• 3.1.6 リジェクト
3.1で学ぶこと	
• 3.1.1 ベイズの識別規則
• 3.1.2 ベイズの識別規則の例
• 3.1.3 尤度比
• 3.1.4 ベイズの識別規則は誤り率最小
• 3.1.5 最小損失基準に基づくベイズの識別規則
• 3.1.6 リジェクト
本章で扱う識別問題	
•  観測データ x と所属するクラスの間に確率分布が仮定される
識別問題(p21)
P(x|C2)	
x	
P(x|C1)	
の
生
起
確
率	
x
3.1.1. 最大事後確率基準	
• チェックポイント
•  事前確率・事後確率とは何か?
•  修正項における尤度・周辺確率とは何か?
•  ベイズの定理を用いて識別境界をどのように決定するか?
突然ですが・・	
• 目の前にくじの入った袋があります。
•  袋の中には赤い紙と青い紙が折り畳まれて入っています。
•  紙を広げるとその中に「あたり」「はずれ」のどちらかが記述
されています。
突然ですが・・	
• 目の前にくじの入った袋があります。
•  袋の中には赤い紙と青い紙が折り畳まれて入っています。
•  紙を広げるとその中に「あたり」「はずれ」のどちらかが記述
されています。
• これまで100人の人がくじを引きました。
•  60人が赤い紙、40人が青い紙でした。
•  30人が「あたり」でした。
•  「あたり」を引いた人のうち10人は赤い紙で、20人は青い紙でした。
突然ですが・・	
• 目の前にくじの入った袋があります。
•  袋の中には赤い紙と青い紙が折り畳まれて入っています。
•  紙を広げるとその中に「あたり」「はずれ」のどちらかが記述
されています。
• これまで100人の人がくじを引きました。
•  60人が赤い紙、40人が青い紙でした。
•  30人が「あたり」でした。
•  「あたり」を引いた人のうち10人は赤い紙で、20人は青い紙でした。
•  とある情報スジからくじの色と「あたり」の割合には何かし
らの関係があるという情報をつかんでいます。
(勉強会発表時の実演 )	
• ここで @Prunus1350 さんがクジを引くことになりま
した。
(勉強会発表時の実演 )	
• ここで @Prunus1350 さんがクジを引くことになりま
した。
• この時点で @Prunus1350 さんが当たりを引く確率
は 「30 / 100」である予測できます。
(勉強会発表時の実演 )	
• ここで @Prunus1350 さんがクジを引くことになりま
した。
• この時点で @Prunus1350 さんが当たりを引く確率
は 「30 / 100」である予測できます。
• ここで @Prunus1350 さんがクジを引いたところ、青
いクジを引き当てました。
(勉強会発表時の実演 )	
• ここで @Prunus1350 さんがクジを引くことになりま
した。
• この時点で @Prunus1350 さんが当たりを引く確率
は 「30 / 100」である予測できます。
• ここで @Prunus1350 さんがクジを引いたところ、青
いクジを引き当てました。
• この時点で @Prunus1350 さんが当たりを引く確率
は 「20 / 40」である予測できます。
(勉強会発表時の実演 )	
• ここで @Prunus1350 さんがクジを引くことになりま
した。
• この時点で @Prunus1350 さんが当たりを引く確率
は 「30 / 100」である予測できます。
• ここで @Prunus1350 さんがクジを引いたところ、青
いクジを引き当てました。
• この時点で @Prunus1350 さんが当たりを引く確率
は 「20 / 40」である予測できます。
クジの色を観測する前から
わかる確率
「事前確率」	
クジの色を観測したことに
よってわかった確率
「事後確率」
(勉強会発表時の実演 )	
• ここで @Prunus1350 さんがクジを引くことになりま
した。
• この時点で @Prunus1350 さんが当たりを引く確率
は 「30 / 100」である予測できます。
• ここで @Prunus1350 さんがクジを引いたところ、青
いクジを引き当てました。
• この時点で @Prunus1350 さんが当たりを引く確率
は 「20 / 40」である予測できます。
• (・・ちなみに @Prunus1350 さんがクジを開いたとこ
ろ見事当たりでした。さすが @Prunus1350 さん!)
ベイズの定理	
• ベイズの識別規則はベイズの定理で定義される最大
事後確率が最も大きなクラスに観測データを分類す
る。
•  x : 観測データ
•  くじ袋の例では [赤 or 青]
•  Ci : 識別クラス(i = 1,2,3,・・・, K)
•  くじ袋の例では [あたり or はずれ]
P Ci x( )=
p x Ci( )
p x( )
× P Ci( )
x = 赤	
 x = 青	
あたり	
 10	
 20	
はずれ	
 50	
 20	
合計	
 60	
 40
ベイズの定理	
• ベイズの定理は下記の項からなる
•  事後確率
•  事前確率
•  クラス条件付き確率(尤度)
•  周辺確率
P Ci x( )=
p x Ci( )
p x( )
× P Ci( )
事後確率	
尤度	
周辺確率	
事前確率
ベイズの定理	
• 事後確率
•  観測データ x が与えられた下で、それがクラス Ci に属する条件
付き確率
•  事前確率
•  Ci の生起確率
•  データを観測する前からわかっている確率
P Ci x( )=
p x Ci( )
p x( )
× P Ci( )
事後確率	
尤度	
周辺確率	
事前確率
ベイズの定理	
• 尤度
•  クラスCiが与えられた下での観測データ x の確率分布
P Ci x( )=
p x Ci( )
p x( )
× P Ci( )
事後確率	
尤度	
周辺確率	
事前確率	
C1	
 C2	
x
ベイズの定理	
• 周辺確率
•  観測データ x の生起確率
•  全てのクラスに対する観測データ x の同時確率を合計(周辺化)
することで得られる。
P Ci x( )=
p x Ci( )
p x( )
× P Ci( )
事後確率	
尤度	
周辺確率	
事前確率	
p x( )= p Ci, x( )
i=1
K
∑
最大事後確率基準による識別	
•  識別においては、観測データ x に対して事後確率が一番大きなクラ
スを採用する。
•  事前確率p(x) はクラスが異なっても一定であるため、識別において
は無視できる。
argmax
i
P Ci x( )
= argmax
i
p x Ci( )P Ci( )
p x( )
= argmax
i
p x Ci( )P Ci( )
3.1.2. ベイズの識別規則の例	
• チェックポイント
•  実際の事後確率演算の流れはどのようになるか?
状況設定	
• 下記の観測データから「健康な人(G=1)」「健康で
ない人(G=0)」を識別したい。
•  「喫煙している(S=1)」 or 「喫煙していない(S=0)」
•  「飲酒している(T=1)」 or 「飲酒していない(T=0)」
• ある街の住人からランダムに(識別モデル作成用に)
1000人サンプリング
サンプル数	
 喫煙する人
(S=1)	
飲酒する人
(T=1)	
健康な人(G=1)	
 800人	
 320人	
 640人	
健康でない人(G=0)	
 200人	
 160人	
 40人
演算の目標	
• 最終的に求めたいものはS, T, G 全ての組み合わせ
(8通り)における事後確率
• 右辺の確率を順番に演算していく
サンプル数	
 喫煙する人
(S=1)	
飲酒する人
(T=1)	
健康な人(G=1)	
 800人	
 320人	
 640人	
健康でない人(G=0)	
 200人	
 160人	
 40人	
P G | S,T( )=
P S,T |G( )P G( )
P S,T( )
事前確率の演算	
• P(G=1) = 800/1000 = 4/5
• P(G=0) = 200/1000 = 1/5
サンプル数	
 喫煙する人
(S=1)	
飲酒する人
(T=1)	
健康な人(G=1)	
 800人	
 320人	
 640人	
健康でない人(G=0)	
 200人	
 160人	
 40人	
P G | S,T( )=
P S,T |G( )P G( )
P S,T( )
尤度の演算	
• 条件付き独立 P(S,T|G) = P(S|G) P(T|G) を仮定
サンプル数	
 喫煙する人
(S=1)	
飲酒する人
(T=1)	
健康な人(G=1)	
 800人	
 320人	
 640人	
健康でない人(G=0)	
 200人	
 160人	
 40人	
S=1	
 S=0	
G=1	
 320/800	
 480/800	
G=0	
 160/200	
 40/200	
T=1	
 T=0	
G=1	
 640/800	
 160/800	
G=0	
 40/200	
 160/200	
P(S|G)の演算	
 P(T|G)の演算	
P G | S,T( )=
P S,T |G( )P G( )
P S,T( )
S=1, T=1	
 S=0, T=1	
 S=1, T=0	
 S=0, T=0	
G=1	
 (2/5) X (4/5)	
 (3/5) X (4/5)	
 (2/5) X (1/5)	
 (3/5) X (1/5)	
G=0	
 (4/5) X (1/5)	
 (1/5) X (1/5)	
 (4/5) X (4/5)	
 (1/5) X (4/5)	
P(S,T|G)の演算
周辺確率の演算	
•  周辺化により P(S,T) を演算
P G | S,T( )=
P S,T |G( )P G( )
P S,T( )
S=1, T=1	
 S=0, T=1	
 S=1, T=0	
 S=0, T=0	
P(S,T|G=1)	
 (2/5) X (4/5)	
 (3/5) X (4/5)	
 (2/5) X (1/5)	
 (3/5) X (1/5)	
P(S,T|G=0)	
 (4/5) X (1/5)	
 (1/5) X (1/5)	
 (4/5) X (4/5)	
 (1/5) X (4/5)	
P(S,T,G=1)	
 (8/25) X (4/5)	
 (12/25) X (4/5)	
 (2/25) X (4/5)	
 (3/25) X (4/5)	
P(S,T,G=0)	
 (4/25) X (1/5)	
 (1/25) X (1/5)	
 (16/25) X (1/5)	
 (4/25) X (1/5)	
P(S,T)	
 36/125	
 49/125	
 24/125	
 16/125	
•  ①→②: P(S,T,G) = P(S,T|G) X P(G)
•  ②→③: P(S,T) = P(S,T,G=0) + P(S,T,G=1) (←周辺化)
①	
②	
③
事後確率の演算	
•  ベイズの定理より事後確率を演算
P G | S,T( )=
P S,T |G( )P G( )
P S,T( )
S=1, T=1	
 S=0, T=1	
 S=1, T=0	
 S=0, T=0	
P(G=1|S,T)	
 8/9	
 48/49	
 1/3	
 3/4	
P(G=0|S,T)	
 1/9	
 1/49	
 2/3	
 1/4	
• 観測データ S, T に対して事後確率の大きい方のクラ
スとして判定される。
3.1.3. 尤度比	
•  ある観測データ x が2つのクラスのどちらであるかを識別する
際、尤度の比と事前確率の比を比べれば識別ができるという
だけのお話。
p x Ci( )P Ci( )
>
<
!
"
#
$
%
&
p x Cj( )P Cj( )
⇒ Ci
⇒ Cj
!
"
#
$
%
&
p x Ci( )
p x Cj( )
>
<
!
"
#
$
%
&
P Cj( )
P Ci( )
⇒ Ci
⇒ Cj
!
"
#
$
%
&
3.1.4. ベイズの識別規則は誤り率最小	
• チェックポイント
•  ベイズの識別規則における「条件付きベイズ誤り率」とは何
か?
•  ベイズ誤り率の定義と計算方法はどういうものか?
•  なぜベイズの識別境界で誤り率は最小になるのか?
条件付きベイズ誤り率	
•  ある観測データ x が与えられた時、ベイズの識別規則に従っ
て識別を行った場合に誤識別する確率
•  ε(x) = min [P(C1|x), P(C2|x)]
P(C1|x)	
x	
x1	
P(C2|x)	
 観測データ x の値が
x1 である場合に
誤識別をする確率	
R2(C2と判定される領域)	
R1(C1と判定される領域)
ベイズ誤り率	
•  条件付きベイズ誤り率の(xに関する)期待値
ε*
= E ε x( ){ }= ε x( )p x( )dx
R1+R2
∫ 期待値の定義より
ベイズ誤り率	
•  条件付きベイズ誤り率の(xに関する)期待値
ε*
= E ε x( ){ }= ε x( )p x( )dx
R1+R2
∫
ε(x)の定義代入	
= min P C1 x( ), P C2 x( )!
"
#
$p x( )dx
R1+R2
∫
ベイズ誤り率	
•  条件付きベイズ誤り率の(xに関する)期待値
ε*
= E ε x( ){ }= ε x( )p x( )dx
R1+R2
∫
ベイズの定理代入	
= min P C1 x( ), P C2 x( )!
"
#
$p x( )dx
R1+R2
∫
= min
p x C1( )P C1( )
p x( )
,
p x C2( )P C2( )
p x( )
!
"
#
#
$
%
&
&
p x( )dx
R1+R2
∫
ベイズ誤り率	
•  条件付きベイズ誤り率の(xに関する)期待値
ε*
= E ε x( ){ }= ε x( )p x( )dx
R1+R2
∫
p(x) で約分	
= min P C1 x( ), P C2 x( )!
"
#
$p x( )dx
R1+R2
∫
= min
p x C1( )P C1( )
p x( )
,
p x C2( )P C2( )
p x( )
!
"
#
#
$
%
&
&
p x( )dx
R1+R2
∫
= min p x C1( )P C1( ), p x C2( )P C2( )!
"
#
$dx
R1+R2
∫
ベイズ誤り率	
•  条件付きベイズ誤り率の(xに関する)期待値
ε*
= E ε x( ){ }= ε x( )p x( )dx
R1+R2
∫
ベイズの識別規則によって識別境界が定められているとすると、
R2の領域では p(x|C1)P(C1) < p(x|C2)P(C2)
R1の領域では p(x|C2)P(C2) < p(x|C1)P(C1)
= min P C1 x( ), P C2 x( )!
"
#
$p x( )dx
R1+R2
∫
= min
p x C1( )P C1( )
p x( )
,
p x C2( )P C2( )
p x( )
!
"
#
#
$
%
&
&
p x( )dx
R1+R2
∫
= min p x C1( )P C1( ), p x C2( )P C2( )!
"
#
$dx
R1+R2
∫
= p x C1( )P C1( )( )dx
R2
∫ + p x C2( )P C2( )( )dx
R1
∫
ベイズ誤り率	
•  条件付きベイズ誤り率の(xに関する)期待値
ε*
= p x C1( )P C1( )( )dx
R2
∫ + p x C2( )P C2( )( )dx
R1
∫
P(x|C1)P(C1)	
x	
R2(C2と判定される領域)	
R1(C1と判定される領域)	
P(x|C2)P(C2)
ベイズ誤り率	
•  条件付きベイズ誤り率の(xに関する)期待値
ε*
= p x C1( )P C1( )( )dx
R2
∫ + p x C2( )P C2( )( )dx
R1
∫
P(x|C1)P(C1)	
x	
R2(C2と判定される領域)	
R1(C1と判定される領域)	
P(x|C2)P(C2)	
識別境界をずらすと
誤り率が増加する
3.1.5. 最小損失基準に基づくベイズの識別規則	
• チェックポイント
•  最小損失基準という考え方は何故必要か?
•  損失行列とはどういうものか?
•  最大事後確率基準に基づく識別との関係は?
損失の考え方	
•  「病気の人を健康であると誤識別するリスク」は「健康な人を
病気であると誤識別するリスク」よりも高い。
•  危険性を考慮した識別が必要。
•  損失:Lij
•  真のクラスがCj であるサンプルを Ci と判断することによって被る損失
•  一般に i = j の時の損失は小さい
•  識別対象のクラスがK個ある場合、K x K の損失行列が定義
できる。
L11 L12
L21 L22
!
"
#
#
$
%
&
&
=
0 10
20 0
!
"
#
$
%
&
損失行列の例
最小損失基準に基づく識別	
•  観測データ x をクラス Ci と判断した時に被る損失を定義
r Ci x( )= LikP Ck x( )
k=1
K
∑
観測データ x を
Ckと判断する確率	
•  観測データ x に対して損失が最も小さいクラスに識別する
argmin
i
r Ci x( )
最小損失基準に基づく識別の例(2 クラス)	
•  事後確率は下記の通りとする
•  P(C1|x) = 0.6
•  P(C2|x) = 0.4
•  最大事後確率基準では観測データ x は C1 と判定される
•  下記の損失行列を定義
r Ci x( )= LikP Ck x( )
k=1
K
∑
L11 L12
L21 L22
!
"
#
#
$
%
&
&
=
0 20
10 0
!
"
#
$
%
&
真のクラス:C1 (k=1)	
 真のクラス:C2 (k=2)	
 合計	
識別:C1 (i=1)	
 0 x 0.6	
 20 x 0.4	
 8	
識別:C2 (i=2)	
 10 x 0.6	
 0 x 0.4	
 6	
C2をC1と識別した時
の損失が大きいので、
最小損失基準に基づ
く識別ではC2と判定	
損失	
L12 × P(C1|x)	
 L22 × P(C2|x)
P(病気|x)	
r(健康|x)	
P(健康|x)	
r(病気|x)	
健康と識別	
 病気と識別	
損失の定義による識別境界の移動	
•  図3.2 (p28) 参考
•  健康(C1)と病気(C2)に対して、「健康な人を病気と判断する
時の損失が大きい」損失行列を定義
•  識別境界が左方に移動し、健康と判断されにくくなる。
L11 L12
L21 L22
!
"
#
#
$
%
&
&
=
0 2
0.5 0
!
"
#
$
%
&
r Ci x( )= LikP Ck x( )
k=1
K
∑
3.1.6 リジェクト	
• チェックポイント
•  リジェクトはどのような目的で行うか?
•  リジェクトの判断を実際にどのように行うか?
リジェクトの概念	
• 誤り率の大きな領域で判断を避ける(リジェクトする)
•  ε(x) >= t なる x の領域
•  t :しきい値
• リジェクトを含めた識別規則
•  最大事後確率が 1-t より大きい場合、識別を行う
•  全てのクラスの事後確率が1-t 以下の場合リジェクト
• 例:t = 0.3, K=3 の場合の事後確率と識別結果
No	
 P(C1 | x)	
 P(C2 | x)	
 P(C3 | x)	
 識別結果	
①	
 0.1	
 0.1	
 0.8	
 C3	
②	
 0.5	
 0.2	
 0.3	
 リジェクト	
③	
 0.9	
 0.07	
 0.03	
 C1	
どのクラスに
識別しても誤
り率は0.3 を
超える
リジェクト率と(誤)認識率の関係	
• 認識率
•  [正答数] / ([全テストデータ数] – [リジェクトされたデータ数])
• 誤識別率
•  [誤り数] / ([全テストデータ数] – [リジェクトされたデータ数])
•  しきい値との関係
•  しきい値を下げるとリジェクト率が上がる
•  しきい値を下げる(リジェクト率が上がる)と認識率は上がり、誤認識率
は下がる。
ありがとうございました!

More Related Content

What's hot

はじぱた7章F5up
はじぱた7章F5upはじぱた7章F5up
はじぱた7章F5upTyee Z
 
3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布Junya Saito
 
続・わかりやすいパターン認識_3章
続・わかりやすいパターン認識_3章続・わかりやすいパターン認識_3章
続・わかりやすいパターン認識_3章weda654
 
はじパタ8章 svm
はじパタ8章 svmはじパタ8章 svm
はじパタ8章 svmtetsuro ito
 
マハラノビス距離とユークリッド距離の違い
マハラノビス距離とユークリッド距離の違いマハラノビス距離とユークリッド距離の違い
マハラノビス距離とユークリッド距離の違いwada, kazumi
 
PyMCがあれば,ベイズ推定でもう泣いたりなんかしない
PyMCがあれば,ベイズ推定でもう泣いたりなんかしないPyMCがあれば,ベイズ推定でもう泣いたりなんかしない
PyMCがあれば,ベイズ推定でもう泣いたりなんかしないToshihiro Kamishima
 
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半koba cky
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシンShinya Shimizu
 
はじめてのパターン認識 第8章 サポートベクトルマシン
はじめてのパターン認識 第8章 サポートベクトルマシンはじめてのパターン認識 第8章 サポートベクトルマシン
はじめてのパターン認識 第8章 サポートベクトルマシンMotoya Wakiyama
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明Haruka Ozaki
 
差分プライバシーとは何か? (定義 & 解釈編)
差分プライバシーとは何か? (定義 & 解釈編)差分プライバシーとは何か? (定義 & 解釈編)
差分プライバシーとは何か? (定義 & 解釈編)Kentaro Minami
 
はじめてのパターン認識8章サポートベクトルマシン
はじめてのパターン認識8章サポートベクトルマシンはじめてのパターン認識8章サポートベクトルマシン
はじめてのパターン認識8章サポートベクトルマシンNobuyukiTakayasu
 
パーセプトロン型学習規則
パーセプトロン型学習規則パーセプトロン型学習規則
パーセプトロン型学習規則Shuhei Sowa
 
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?hoxo_m
 
PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現hagino 3000
 
モデルアーキテクチャ観点からのDeep Neural Network高速化
モデルアーキテクチャ観点からのDeep Neural Network高速化モデルアーキテクチャ観点からのDeep Neural Network高速化
モデルアーキテクチャ観点からのDeep Neural Network高速化Yusuke Uchida
 
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法Ken'ichi Matsui
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門joisino
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介Naoki Hayashi
 
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement LearningPreferred Networks
 

What's hot (20)

はじぱた7章F5up
はじぱた7章F5upはじぱた7章F5up
はじぱた7章F5up
 
3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布
 
続・わかりやすいパターン認識_3章
続・わかりやすいパターン認識_3章続・わかりやすいパターン認識_3章
続・わかりやすいパターン認識_3章
 
はじパタ8章 svm
はじパタ8章 svmはじパタ8章 svm
はじパタ8章 svm
 
マハラノビス距離とユークリッド距離の違い
マハラノビス距離とユークリッド距離の違いマハラノビス距離とユークリッド距離の違い
マハラノビス距離とユークリッド距離の違い
 
PyMCがあれば,ベイズ推定でもう泣いたりなんかしない
PyMCがあれば,ベイズ推定でもう泣いたりなんかしないPyMCがあれば,ベイズ推定でもう泣いたりなんかしない
PyMCがあれば,ベイズ推定でもう泣いたりなんかしない
 
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
 
はじめてのパターン認識 第8章 サポートベクトルマシン
はじめてのパターン認識 第8章 サポートベクトルマシンはじめてのパターン認識 第8章 サポートベクトルマシン
はじめてのパターン認識 第8章 サポートベクトルマシン
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明
 
差分プライバシーとは何か? (定義 & 解釈編)
差分プライバシーとは何か? (定義 & 解釈編)差分プライバシーとは何か? (定義 & 解釈編)
差分プライバシーとは何か? (定義 & 解釈編)
 
はじめてのパターン認識8章サポートベクトルマシン
はじめてのパターン認識8章サポートベクトルマシンはじめてのパターン認識8章サポートベクトルマシン
はじめてのパターン認識8章サポートベクトルマシン
 
パーセプトロン型学習規則
パーセプトロン型学習規則パーセプトロン型学習規則
パーセプトロン型学習規則
 
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?
 
PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現
 
モデルアーキテクチャ観点からのDeep Neural Network高速化
モデルアーキテクチャ観点からのDeep Neural Network高速化モデルアーキテクチャ観点からのDeep Neural Network高速化
モデルアーキテクチャ観点からのDeep Neural Network高速化
 
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
 

Viewers also liked

はじめてのパターン認識勉強会 20130716
はじめてのパターン認識勉強会 20130716はじめてのパターン認識勉強会 20130716
はじめてのパターン認識勉強会 20130716Hiroko Onari
 
はじパタ2章
はじパタ2章はじパタ2章
はじパタ2章tetsuro ito
 
はじめてのパターン認識読書会 第四回 前半
はじめてのパターン認識読書会 第四回 前半はじめてのパターン認識読書会 第四回 前半
はじめてのパターン認識読書会 第四回 前半Atsushi Hayakawa
 
オイラーの公式で感じる次元の呪い
オイラーの公式で感じる次元の呪いオイラーの公式で感じる次元の呪い
オイラーの公式で感じる次元の呪いYoshiteru Kamiyama
 
第5回パターン認識勉強会
第5回パターン認識勉強会第5回パターン認識勉強会
第5回パターン認識勉強会Yohei Sato
 
第一回ぞくパタ
第一回ぞくパタ第一回ぞくパタ
第一回ぞくパタAkifumi Eguchi
 
エクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについてエクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについてHiroshi Shimizu
 
はじパタ2nd 20130702 otanet
はじパタ2nd 20130702 otanetはじパタ2nd 20130702 otanet
はじパタ2nd 20130702 otanet博三 太田
 
見やすいプレゼン資料の作り方 - リニューアル増量版
見やすいプレゼン資料の作り方 - リニューアル増量版見やすいプレゼン資料の作り方 - リニューアル増量版
見やすいプレゼン資料の作り方 - リニューアル増量版MOCKS | Yuta Morishige
 
はじパタLT Section1
はじパタLT Section1はじパタLT Section1
はじパタLT Section1Tadayuki Onishi
 
わかパタ 1章
わかパタ 1章わかパタ 1章
わかパタ 1章weda654
 
20160708 データ処理のプラットフォームとしてのpython 札幌
20160708 データ処理のプラットフォームとしてのpython 札幌20160708 データ処理のプラットフォームとしてのpython 札幌
20160708 データ処理のプラットフォームとしてのpython 札幌Ryuji Tamagawa
 
人工生命の応用_1
人工生命の応用_1人工生命の応用_1
人工生命の応用_1Teppei Baba
 
第2回ぞくパタ
第2回ぞくパタ第2回ぞくパタ
第2回ぞくパタAkifumi Eguchi
 

Viewers also liked (20)

はじめてのパターン認識勉強会 20130716
はじめてのパターン認識勉強会 20130716はじめてのパターン認識勉強会 20130716
はじめてのパターン認識勉強会 20130716
 
はじパタ2章
はじパタ2章はじパタ2章
はじパタ2章
 
はじめてのパターン認識読書会 第四回 前半
はじめてのパターン認識読書会 第四回 前半はじめてのパターン認識読書会 第四回 前半
はじめてのパターン認識読書会 第四回 前半
 
オイラーの公式で感じる次元の呪い
オイラーの公式で感じる次元の呪いオイラーの公式で感じる次元の呪い
オイラーの公式で感じる次元の呪い
 
第5回パターン認識勉強会
第5回パターン認識勉強会第5回パターン認識勉強会
第5回パターン認識勉強会
 
第一回ぞくパタ
第一回ぞくパタ第一回ぞくパタ
第一回ぞくパタ
 
はじパタLT2
はじパタLT2はじパタLT2
はじパタLT2
 
エクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについてエクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについて
 
はじパタ2nd 20130702 otanet
はじパタ2nd 20130702 otanetはじパタ2nd 20130702 otanet
はじパタ2nd 20130702 otanet
 
見やすいプレゼン資料の作り方 - リニューアル増量版
見やすいプレゼン資料の作り方 - リニューアル増量版見やすいプレゼン資料の作り方 - リニューアル増量版
見やすいプレゼン資料の作り方 - リニューアル増量版
 
はじパタLT Section1
はじパタLT Section1はじパタLT Section1
はじパタLT Section1
 
1
 1 1
1
 
わかパタ 1章
わかパタ 1章わかパタ 1章
わかパタ 1章
 
20160708 データ処理のプラットフォームとしてのpython 札幌
20160708 データ処理のプラットフォームとしてのpython 札幌20160708 データ処理のプラットフォームとしてのpython 札幌
20160708 データ処理のプラットフォームとしてのpython 札幌
 
人工生命の応用_1
人工生命の応用_1人工生命の応用_1
人工生命の応用_1
 
KDD2015論文読み会
KDD2015論文読み会KDD2015論文読み会
KDD2015論文読み会
 
知能型システム論(後半)
知能型システム論(後半)知能型システム論(後半)
知能型システム論(後半)
 
強化学習勉強会・論文紹介(第22回)
強化学習勉強会・論文紹介(第22回)強化学習勉強会・論文紹介(第22回)
強化学習勉強会・論文紹介(第22回)
 
はじパタLT3
はじパタLT3はじパタLT3
はじパタLT3
 
第2回ぞくパタ
第2回ぞくパタ第2回ぞくパタ
第2回ぞくパタ
 

Similar to 20130716 はじパタ3章前半 ベイズの識別規則

モンテカルロ法と情報量
モンテカルロ法と情報量モンテカルロ法と情報量
モンテカルロ法と情報量Shohei Miyashita
 
みどりぼん読書会 第4章
みどりぼん読書会 第4章みどりぼん読書会 第4章
みどりぼん読書会 第4章Masanori Takano
 
ロジスティック回帰分析の入門 -予測モデル構築-
ロジスティック回帰分析の入門 -予測モデル構築-ロジスティック回帰分析の入門 -予測モデル構築-
ロジスティック回帰分析の入門 -予測モデル構築-Koichiro Gibo
 
パターン認識モデル初歩の初歩
パターン認識モデル初歩の初歩パターン認識モデル初歩の初歩
パターン認識モデル初歩の初歩t_ichioka_sg
 
みどりぼん3章前半
みどりぼん3章前半みどりぼん3章前半
みどりぼん3章前半Akifumi Eguchi
 
統計モデリングで癌の5年生存率データから良い病院を探す
統計モデリングで癌の5年生存率データから良い病院を探す統計モデリングで癌の5年生存率データから良い病院を探す
統計モデリングで癌の5年生存率データから良い病院を探す. .
 
カテゴリカルデータの解析 (Kashiwa.R#3)
カテゴリカルデータの解析 (Kashiwa.R#3)カテゴリカルデータの解析 (Kashiwa.R#3)
カテゴリカルデータの解析 (Kashiwa.R#3)Takumi Tsutaya
 
「全ての確率はコイン投げに通ず」 Japan.R 発表資料
「全ての確率はコイン投げに通ず」 Japan.R 発表資料「全ての確率はコイン投げに通ず」 Japan.R 発表資料
「全ての確率はコイン投げに通ず」 Japan.R 発表資料Ken'ichi Matsui
 
K070 点推定
K070 点推定K070 点推定
K070 点推定t2tarumi
 
ITエンジニアのための機械学習理論入門 第5章
ITエンジニアのための機械学習理論入門 第5章ITエンジニアのための機械学習理論入門 第5章
ITエンジニアのための機械学習理論入門 第5章Isao Takaesu
 
プログラミングコンテストでの乱択アルゴリズム
プログラミングコンテストでの乱択アルゴリズムプログラミングコンテストでの乱択アルゴリズム
プログラミングコンテストでの乱択アルゴリズムTakuya Akiba
 
Survival analysis0702 2
Survival analysis0702 2Survival analysis0702 2
Survival analysis0702 2Nobuaki Oshiro
 
K070k80 点推定 区間推定
K070k80 点推定 区間推定K070k80 点推定 区間推定
K070k80 点推定 区間推定t2tarumi
 
ブートストラップ法とその周辺とR
ブートストラップ法とその周辺とRブートストラップ法とその周辺とR
ブートストラップ法とその周辺とRDaisuke Yoneoka
 
演習II.第1章 ベイズ推論の考え方 Part 2.講義ノート
演習II.第1章 ベイズ推論の考え方 Part 2.講義ノート演習II.第1章 ベイズ推論の考え方 Part 2.講義ノート
演習II.第1章 ベイズ推論の考え方 Part 2.講義ノートWataru Shito
 
「生物統計学」演習問題集
「生物統計学」演習問題集「生物統計学」演習問題集
「生物統計学」演習問題集Keiji Miura
 
パターン認識 第10章 決定木
パターン認識 第10章 決定木 パターン認識 第10章 決定木
パターン認識 第10章 決定木 Miyoshi Yuya
 
公平性を保証したAI/機械学習
アルゴリズムの最新理論
公平性を保証したAI/機械学習
アルゴリズムの最新理論公平性を保証したAI/機械学習
アルゴリズムの最新理論
公平性を保証したAI/機械学習
アルゴリズムの最新理論Kazuto Fukuchi
 
20170422 数学カフェ Part1
20170422 数学カフェ Part120170422 数学カフェ Part1
20170422 数学カフェ Part1Kenta Oono
 

Similar to 20130716 はじパタ3章前半 ベイズの識別規則 (20)

モンテカルロ法と情報量
モンテカルロ法と情報量モンテカルロ法と情報量
モンテカルロ法と情報量
 
みどりぼん読書会 第4章
みどりぼん読書会 第4章みどりぼん読書会 第4章
みどりぼん読書会 第4章
 
ロジスティック回帰分析の入門 -予測モデル構築-
ロジスティック回帰分析の入門 -予測モデル構築-ロジスティック回帰分析の入門 -予測モデル構築-
ロジスティック回帰分析の入門 -予測モデル構築-
 
パターン認識モデル初歩の初歩
パターン認識モデル初歩の初歩パターン認識モデル初歩の初歩
パターン認識モデル初歩の初歩
 
みどりぼん3章前半
みどりぼん3章前半みどりぼん3章前半
みどりぼん3章前半
 
統計モデリングで癌の5年生存率データから良い病院を探す
統計モデリングで癌の5年生存率データから良い病院を探す統計モデリングで癌の5年生存率データから良い病院を探す
統計モデリングで癌の5年生存率データから良い病院を探す
 
カテゴリカルデータの解析 (Kashiwa.R#3)
カテゴリカルデータの解析 (Kashiwa.R#3)カテゴリカルデータの解析 (Kashiwa.R#3)
カテゴリカルデータの解析 (Kashiwa.R#3)
 
「全ての確率はコイン投げに通ず」 Japan.R 発表資料
「全ての確率はコイン投げに通ず」 Japan.R 発表資料「全ての確率はコイン投げに通ず」 Japan.R 発表資料
「全ての確率はコイン投げに通ず」 Japan.R 発表資料
 
K070 点推定
K070 点推定K070 点推定
K070 点推定
 
Survival analysis0702
Survival analysis0702Survival analysis0702
Survival analysis0702
 
ITエンジニアのための機械学習理論入門 第5章
ITエンジニアのための機械学習理論入門 第5章ITエンジニアのための機械学習理論入門 第5章
ITエンジニアのための機械学習理論入門 第5章
 
プログラミングコンテストでの乱択アルゴリズム
プログラミングコンテストでの乱択アルゴリズムプログラミングコンテストでの乱択アルゴリズム
プログラミングコンテストでの乱択アルゴリズム
 
Survival analysis0702 2
Survival analysis0702 2Survival analysis0702 2
Survival analysis0702 2
 
K070k80 点推定 区間推定
K070k80 点推定 区間推定K070k80 点推定 区間推定
K070k80 点推定 区間推定
 
ブートストラップ法とその周辺とR
ブートストラップ法とその周辺とRブートストラップ法とその周辺とR
ブートストラップ法とその周辺とR
 
演習II.第1章 ベイズ推論の考え方 Part 2.講義ノート
演習II.第1章 ベイズ推論の考え方 Part 2.講義ノート演習II.第1章 ベイズ推論の考え方 Part 2.講義ノート
演習II.第1章 ベイズ推論の考え方 Part 2.講義ノート
 
「生物統計学」演習問題集
「生物統計学」演習問題集「生物統計学」演習問題集
「生物統計学」演習問題集
 
パターン認識 第10章 決定木
パターン認識 第10章 決定木 パターン認識 第10章 決定木
パターン認識 第10章 決定木
 
公平性を保証したAI/機械学習
アルゴリズムの最新理論
公平性を保証したAI/機械学習
アルゴリズムの最新理論公平性を保証したAI/機械学習
アルゴリズムの最新理論
公平性を保証したAI/機械学習
アルゴリズムの最新理論
 
20170422 数学カフェ Part1
20170422 数学カフェ Part120170422 数学カフェ Part1
20170422 数学カフェ Part1
 

Recently uploaded

TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案sugiuralab
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineerYuki Kikuchi
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NTT DATA Technology & Innovation
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?akihisamiyanaga1
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 

Recently uploaded (9)

TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 

20130716 はじパタ3章前半 ベイズの識別規則