SlideShare a Scribd company logo
1 of 25
ベイズファクターと
モデル選択
自己紹介
• 前田和寛(MAEDA Kazuhiro)
• 比治山大学短期大学部 総合生活デザイン学科
• kazum@hijiyama-u.ac.jp
• http://kz-md.net/
• Twitter: @kazutan #ビールうめぇ
本日の内容
• ベイズの定理について考える
• ベイズファクターとモデル選択
※イメージを掴んでもらうことを意識してます
• 細かいところで用語が不適切な場合があるかもしれません
ベイズの定理について考える
ベイズの式
𝑃 𝐴|𝐵 =
𝑃(𝐵|𝐴)𝑃(𝐴)
𝑃(𝐵)
• 𝑃 𝐴
• ある事象Aが起こる確率
• 𝑃 𝐵
• ある事象Bが起こる確率
• 𝑃 𝐵 𝐴
• ある事象Aが起こった上での
事象Bが起こる確率
• 𝑃 𝐴 𝐵
• ある事象Bが起こった上での
事象Aが起こる確率
A B
ベイズの式(例)
𝑃 𝐴|𝐵 =
𝑃(𝐵|𝐴)𝑃(𝐴)
𝑃(𝐵)
• 𝑃 𝐴
• 事象「カープのホームゲーム」が
起こる確率
• 𝑃 𝐵
• 事象「カープが勝つ」が起こる確
率
• 𝑃 𝐵 𝐴
• 「カープのホームゲーム」という
条件での「カープが勝った」確率
• 𝑃 𝐴 𝐵
• 「カープが勝った」という条件で
の「カープのホームゲーム」確率
A B
実際に計算してみる(1)
勝 負 計
ホーム 18 7 25
アウェイ 12 14 26
計 30 21 51
• 𝑃 𝐴 = 0.49
• 事象「カープのホームゲーム」が
起こる確率
• 𝑃 𝐵 = 0.59
• 事象「カープが勝つ」が起こる確
率
• 𝑃 𝐵 𝐴 =
0.35
0.49
= 0.72
• 「カープのホームゲーム」という
条件での「カープが勝った」確率
• 𝑃 𝐴 𝐵 =
0.72∗0.49
0.59
= 0.60
• 「カープが勝った」という条件で
の「カープのホームゲーム」確率
勝 負 計
ホーム 0.35 0.14 0.49
アウェイ 0.24 0.27 0.51
計 0.59 0.41 1.00
※ 2014年5月末までの成績で算出してます
事前確率と事後確率
𝑃 𝐴|𝐵 =
𝑃(𝐵|𝐴)𝑃(𝐴)
𝑃(𝐵)
• Aを「原因」となる事象、Bを
「結果」となる事象として考え
ると…
• 𝑃 𝐴
• 結果が起こる前、つまり事前の状
態の確率・・・事前確率
• 𝑃 𝐵
• 得られた(測定した)結果
• 𝑃 𝐵 𝐴
• 原因があった時(条件下)での、結
果が発生する確率
• 𝑃 𝐴 𝐵
• その結果が起こった後、つまり事
後の状態の確率・・・事後確率
A B
よぉわからんけぇカープで例えてくれ
𝑃 𝐴|𝐵 =
𝑃(𝐵|𝐴)𝑃(𝐴)
𝑃(𝐵)
• A:「カープのホームゲーム」
B:「カープが勝利」
• 𝑃 𝐴
• 「カープがホームゲーム」である
確率
• 𝑃 𝐵
• カープが勝つ確率
• 𝑃 𝐵 𝐴
• 「ホームゲーム」で行われたなら
ば「カープが勝つ」確率
• 𝑃 𝐴 𝐵
• 「カープが勝った」というニュー
スから、「ホームゲーム」であっ
た確率
A B
仮説(H)とデータ(D)で考えてみよう
𝑃 𝐻|𝐷 =
𝑃(𝐷|𝐻)𝑃(𝐻)
𝑃(𝐷)
• H:なんらかの仮説
D:得られたデータ
• 𝑃 𝐻
• (データを取る前の)仮説の確率
• 𝑃 𝐷
• そのデータが得られる確率
• 𝑃 𝐷 𝐻
• その仮説が正しいとするときに、
そのデータが得られる確率
• 𝑃 𝐻 𝐷
• データが得られた後での、仮説
が正しい確率
H D
よぉわからんけぇカープで(ry
𝑃 𝐻|𝐷 =
𝑃(𝐷|𝐻)𝑃(𝐻)
𝑃(𝐷)
• 6月1日「カープが勝った」が、
この試合が「ホームゲーム」で
ある確率は?
• H:「6/1はホームゲーム」
D:「カープが勝つ」
• ホームゲームの確率は0.49
• 5月末カープの勝率は0.59
• 同ホームでの勝率は0.72
• 𝑃 𝐻
• ホームゲームが開催される確率
• 𝑃 𝐷
• カープの勝率
• 𝑃 𝐷 𝐻
• ホームでのカープの勝率
• 𝑃 𝐻 𝐷
• 「カープが勝った」ときのホーム
ゲームである確率
• さあ計算してみよう!
• (てかもう答え前に出してる)
𝑃(𝐷|𝐻)について踏み込んでみよう
• 仮説Hが正しいとした時に得られるデータ(D)の確率
• カープで(ry : ホームゲーム(仮説H)である時の、5月末までの成績(デー
タ)で得られるカープの勝率
• 言い換えれば…
得られたデータから、その仮説がどのくらい「もっともなのか」を表
す確率
• この6/1の勝利ゲームが「ホームゲーム」だった、と仮定しよう
• ホームゲームは0.49だけ行われてる…からそのまま考えたらこのとおりだけど…
• それじゃあ、ホームゲームで今のところ実際にどれだけ勝ってる?→0.72
• てことは、データからみたら、この仮定はこの確率くらい「もっともらしい」よ
ね。
• この𝑃(𝐷|𝐻)は、尤度と言われる
• 母数を含む仮説モデルの場合。データ分布とも。
事前分布・事後分布・尤度
• ベイズの式は、以下のように表現できます
• 事後確率 =
尤度 × 事前確率
基準化定数
• 基準化定数はさっきの分母P(D)のこと。
「全事象の確率の総和は1である」という制約から、そうなるように設定
…つまり「定数」です
• 定数は定数なので、更に書き換えると…
• [事後確率] ∝ [尤度]×[事前確率]
• 事後確率は、尤度と事前確率をかけたものに比例する
• つまりこの2つが重要となっている!
ベイスファクターと
モデル選択
ホーム(H0)とアウェー(H1)で考えてみる
• 仮説H0 :ホームゲーム
𝑃 𝐻0|𝐷 =
𝑃(𝐷|𝐻0)𝑃(𝐻0)
𝑃(𝐷)
• さっきまで説明したものと同一
• 仮説H1 :アウェーゲーム
𝑃 𝐻1|𝐷 =
𝑃(𝐷|𝐻1)𝑃(𝐻1)
𝑃(𝐷)
• 仮説「アウェー」になっている
• それ以外は同一
どっちがいい仮説(モデル)なの?
ベイズファクター
• さっきの2つの仮説(モデル)について、事後確率を比べてみる
(比を取る)
𝑃 𝐻1|𝐷
𝑃 𝐻0|𝐷
=
𝑃(𝐷|𝐻1)𝑃(𝐻1)
𝑃(𝐷|𝐻0)𝑃(𝐻0)
=
𝑃(𝐷|𝐻1)
𝑃(𝐷|𝐻0)
×
𝑃(𝐻1)
𝑃(𝐻0)
• これは、[事後確率の比]=[尤度の比]×[事前確率の比]となります
• この式を変形すると…
• [尤度の比(ベイズファクター)] =
[事後確率の比(事後オッズ)]
[事前確率の比(事前オッズ)]
• つまり、「2つの仮説(モデル)のもっともらしさを比較したもの」
がベイズファクター!
なにがどうなればいいの?
• ベイズファクターは簡単に言うと
「2つのモデルそれぞれのもっとらしさを比べた指標」
• 先の例で言うと…
• ベイズファクターが1より大きい
→ H1のモデルの方が(相対的に)もっともらしい、となる
• ベイズファクターが1より小さい
→H0 のモデルの方が(相対的に)もっともらしい、となる
• ではカープで…
•
𝑃 𝐻1|𝐷
𝑃 𝐻0|𝐷
=
0.47
0.72
=0.65
• これってどうなの?
ベイズファクターの基準
• Kass & Raftery(1995)の基準
• 基準というか「目安」
• 他にも有名なものが色々あり
• 大切なのは、「有意水準」
みたいにズバッと切るもの
ではないこと
• そもそもそれに問題提起され
て広がってきた側面もあるん
ですしね・・・
BF 2logBF M0と比べた
M1に対する判断
BF < 1 2logBF < 0 M0の方が良い
1 < BF < 3 0 < 2logBF <2 かろうじて優れてい
る
3 < BF < 12 2 < 2logBF < 5 優れている
12 < BF < 150 5 < 2logBF < 10 かなり優れている
150 < BF 10 < 2logBF 非常に優れている
追記: 先の式で大きい方を分子に持ってきて、
その上でBFを見たほうがスムーズです。
あと基準(目安)はいろいろあります。
ベイズファクターの問題点
• 2つのモデルの相対的比較である
• ベイズファクターの式: 2つのモデルの「もっとらしさの比」
→数値の大小は、「2つを比較してどっちがいいか」にしかならない
• 複数の指標を算出して、トータルで考えていくべし
→ この後紹介します
• 計算が鬼(になることが多い)
• 詳細は省略します…
• パラメータが増えたり、事前分布などによって大変になるようです
他のモデル指標も考えよう BIC
• Bayes information criterion(ベイズ情報量基準)
𝐵𝐼𝐶ℎ = −2 log 𝑃 𝐷 𝜃ℎ, 𝑀ℎ + 𝐾ℎ log 𝐼
𝜃ℎはモデル𝑀ℎのもとでのパラメータの最尤推定値
𝐾ℎはパラメータの数、𝐼はサンプルサイズ
• 2つのモデルでそれぞれ算出された𝐵𝐼𝐶0と𝐵𝐼𝐶1の差が、
2logBFの近似となる
• 算出が比較的カンタンなので、用いられることも多い
• ただし、これはベイズファクターとは別物だということには注意
他のモデル指標も考えよう DIC
• Deviance information criterion(偏差情報量基準)
𝐷𝐼𝐶ℎ = −
2
𝑇
𝑡=1
𝑇
log 𝑃 𝐷 𝜃ℎ
(𝑡)
, 𝑀ℎ + 2𝐾ℎ
• 𝜃ℎ
(𝑡)
はパラメータ𝜃の事後分布から得られたT個の無作為標本
• この𝜃ℎ
(𝑡)
にマルコフ連鎖の連鎖要素をそのまま持ってこれる
→ MCMCとの相性がいい
• 2つのモデルについてDICを算出し、値が小さいモデルのほうが
データに対する当てはまりがいいと評価
• また、この指標も相対的な比較のための指標
他のモデル指標も考えよう 事後予測p
値
• 事後分布が算出されるんだから、それに基づく分布から標本分
布をだせるんでね?
→ 事後予測分布
• そしたらこの分布と元データの分布は近くなるはずでね?
→ 指標化したのが事後予測p値
• 0.5に近ければモデルのデータへの当てはまりがいい
• 2つのモデル比較ではなく、1つのモデルに対するデータへの当てはま
りを見る指標
• ただし、実際に事後予測p値を用いるときには、ベイズファクターなど
を補完するものとしたほうが無難とのこと
そもそもなんでベイズファクターを…?
• 帰無仮説の呪縛からの開放
• 伝統的な検定は「帰無仮説」と「対立仮説」という構図
• でもベイズファクターなら「独立する2つのモデル(仮説)」を比較
・・・別に「帰無仮説」なんてなくていい
• 正規分布の呪縛からの開放
• このベイズの式には、事前分布を組み込んでいる
• 「事前分布は正規分布でなくていい」
→ より柔軟な統計モデルをあてはめて検討可能
・・・ベイズ推定が利用される
※ この先は、あとのメンバーにお任せします
さいごに
ベイズファクターは2つの対立する 仮説について,データが支持
する程度の比を直接数量化 した量である。100倍支持するのであ
れば十分であり, 1.04倍支持するのでは不十分だ,ということに
は多くの 研究者が同意するだろう。しかしながら,文献中には
明 確なガイドラインはなく,また我々もそれを提供しな い。な
ぜならば,恣意的な決定規則を与えたくはないか らだ。
p値についてのよく知られた警句を思い出すとよ い:
『神はp<.05をp<.06と等しく,そして同じくらい 強く愛してく
ださる』
Rosnow & Rosenthal (1989)の一部より(岡田, 2014)
参考資料(主なもののみ記載)
• 涌井良幸「道具としてのベイズ時計」
• 入門書としてまず読んでみるにはちょうどいいです
• 今回の前半部分を作成するのに参考にさせていただきました
• 大久保街亜・岡田謙介「伝えるための心理統計」
• 本書の6章2節にベイズ統計学に関する説明があります
• ベイズファクターを用いた具体例も記載してあります
• 豊田秀樹(編)「マルコフ連鎖モンテカルロ法」
• 通称MCMC本。
• 本書の3章2節にベイズファクター及びモデル指標の説明があります
• 岡田謙介 (2014). ベイズ統計による情報仮説の評価は分散分析にとって代
わるのか? 基礎心理学研究, 32(2), 223-231

More Related Content

What's hot

3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布Junya Saito
 
負の二項分布について
負の二項分布について負の二項分布について
負の二項分布についてHiroshi Shimizu
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明Haruka Ozaki
 
21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)Toru Imai
 
相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心takehikoihayashi
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門Kawamoto_Kazuhiko
 
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)Takao Yamanaka
 
2 6.ゼロ切断・過剰モデル
2 6.ゼロ切断・過剰モデル2 6.ゼロ切断・過剰モデル
2 6.ゼロ切断・過剰モデルlogics-of-blue
 
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータStanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータMiki Katsuragi
 
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展Shiga University, RIKEN
 
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学Ken'ichi Matsui
 
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)Yoshitake Takebayashi
 
Stochastic Variational Inference
Stochastic Variational InferenceStochastic Variational Inference
Stochastic Variational InferenceKaede Hayashi
 
Rで階層ベイズモデル
Rで階層ベイズモデルRで階層ベイズモデル
Rで階層ベイズモデルYohei Sato
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)Takao Yamanaka
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)Kota Matsui
 
心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理する心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理するHiroshi Shimizu
 
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章Shuyo Nakatani
 
幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなしToru Imai
 

What's hot (20)

3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布
 
Stan超初心者入門
Stan超初心者入門Stan超初心者入門
Stan超初心者入門
 
負の二項分布について
負の二項分布について負の二項分布について
負の二項分布について
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明
 
21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)
 
相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
 
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)
 
2 6.ゼロ切断・過剰モデル
2 6.ゼロ切断・過剰モデル2 6.ゼロ切断・過剰モデル
2 6.ゼロ切断・過剰モデル
 
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータStanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
 
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
 
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学
 
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
 
Stochastic Variational Inference
Stochastic Variational InferenceStochastic Variational Inference
Stochastic Variational Inference
 
Rで階層ベイズモデル
Rで階層ベイズモデルRで階層ベイズモデル
Rで階層ベイズモデル
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
 
心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理する心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理する
 
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
 
幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなし
 

Viewers also liked

ベイズ主義による研究の報告方法
ベイズ主義による研究の報告方法ベイズ主義による研究の報告方法
ベイズ主義による研究の報告方法Masaru Tokuoka
 
心理学者のためのGlmm・階層ベイズ
心理学者のためのGlmm・階層ベイズ心理学者のためのGlmm・階層ベイズ
心理学者のためのGlmm・階層ベイズHiroshi Shimizu
 
1 3.分散分析 anova
1 3.分散分析 anova1 3.分散分析 anova
1 3.分散分析 anovalogics-of-blue
 
1 4.回帰分析と分散分析
1 4.回帰分析と分散分析1 4.回帰分析と分散分析
1 4.回帰分析と分散分析logics-of-blue
 
TensorFlowで逆強化学習
TensorFlowで逆強化学習TensorFlowで逆強化学習
TensorFlowで逆強化学習Mitsuhisa Ohta
 
シンギュラリティを知らずに機械学習を語るな
シンギュラリティを知らずに機械学習を語るなシンギュラリティを知らずに機械学習を語るな
シンギュラリティを知らずに機械学習を語るなhoxo_m
 
エクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについてエクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについてHiroshi Shimizu
 

Viewers also liked (8)

ベイズ主義による研究の報告方法
ベイズ主義による研究の報告方法ベイズ主義による研究の報告方法
ベイズ主義による研究の報告方法
 
心理学者のためのGlmm・階層ベイズ
心理学者のためのGlmm・階層ベイズ心理学者のためのGlmm・階層ベイズ
心理学者のためのGlmm・階層ベイズ
 
2 3.GLMの基礎
2 3.GLMの基礎2 3.GLMの基礎
2 3.GLMの基礎
 
1 3.分散分析 anova
1 3.分散分析 anova1 3.分散分析 anova
1 3.分散分析 anova
 
1 4.回帰分析と分散分析
1 4.回帰分析と分散分析1 4.回帰分析と分散分析
1 4.回帰分析と分散分析
 
TensorFlowで逆強化学習
TensorFlowで逆強化学習TensorFlowで逆強化学習
TensorFlowで逆強化学習
 
シンギュラリティを知らずに機械学習を語るな
シンギュラリティを知らずに機械学習を語るなシンギュラリティを知らずに機械学習を語るな
シンギュラリティを知らずに機械学習を語るな
 
エクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについてエクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについて
 

ベイズファクターとモデル選択