Submit Search
Upload
ベイズファクターとモデル選択
•
Download as PPTX, PDF
•
22 likes
•
19,143 views
kazutantan
Follow
2014年6月8日に広島大学にて開催された魁!! 広島ベイズ塾のワークショップで発表したスライド。
Read less
Read more
Data & Analytics
Report
Share
Report
Share
1 of 25
Download now
Recommended
これからの仮説検証・モデル評価
これからの仮説検証・モデル評価
daiki hojo
階層ベイズとWAIC
階層ベイズとWAIC
Hiroshi Shimizu
階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門
shima o
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
Deep Learning Lab(ディープラーニング・ラボ)
階層ベイズと自由エネルギー
階層ベイズと自由エネルギー
Hiroshi Shimizu
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
Naoki Hayashi
Cmdstanr入門とreduce_sum()解説
Cmdstanr入門とreduce_sum()解説
Hiroshi Shimizu
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
takehikoihayashi
Recommended
これからの仮説検証・モデル評価
これからの仮説検証・モデル評価
daiki hojo
階層ベイズとWAIC
階層ベイズとWAIC
Hiroshi Shimizu
階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門
shima o
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
Deep Learning Lab(ディープラーニング・ラボ)
階層ベイズと自由エネルギー
階層ベイズと自由エネルギー
Hiroshi Shimizu
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
Naoki Hayashi
Cmdstanr入門とreduce_sum()解説
Cmdstanr入門とreduce_sum()解説
Hiroshi Shimizu
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
takehikoihayashi
3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布
Junya Saito
Stan超初心者入門
Stan超初心者入門
Hiroshi Shimizu
負の二項分布について
負の二項分布について
Hiroshi Shimizu
変分ベイズ法の説明
変分ベイズ法の説明
Haruka Ozaki
21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)
Toru Imai
相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心
takehikoihayashi
グラフィカルモデル入門
グラフィカルモデル入門
Kawamoto_Kazuhiko
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)
Takao Yamanaka
2 6.ゼロ切断・過剰モデル
2 6.ゼロ切断・過剰モデル
logics-of-blue
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
Miki Katsuragi
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
Shiga University, RIKEN
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学
Ken'ichi Matsui
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
Yoshitake Takebayashi
Stochastic Variational Inference
Stochastic Variational Inference
Kaede Hayashi
Rで階層ベイズモデル
Rで階層ベイズモデル
Yohei Sato
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
Takao Yamanaka
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
Kota Matsui
心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理する
Hiroshi Shimizu
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
Shuyo Nakatani
幾何を使った統計のはなし
幾何を使った統計のはなし
Toru Imai
ベイズ主義による研究の報告方法
ベイズ主義による研究の報告方法
Masaru Tokuoka
心理学者のためのGlmm・階層ベイズ
心理学者のためのGlmm・階層ベイズ
Hiroshi Shimizu
More Related Content
What's hot
3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布
Junya Saito
Stan超初心者入門
Stan超初心者入門
Hiroshi Shimizu
負の二項分布について
負の二項分布について
Hiroshi Shimizu
変分ベイズ法の説明
変分ベイズ法の説明
Haruka Ozaki
21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)
Toru Imai
相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心
takehikoihayashi
グラフィカルモデル入門
グラフィカルモデル入門
Kawamoto_Kazuhiko
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)
Takao Yamanaka
2 6.ゼロ切断・過剰モデル
2 6.ゼロ切断・過剰モデル
logics-of-blue
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
Miki Katsuragi
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
Shiga University, RIKEN
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学
Ken'ichi Matsui
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
Yoshitake Takebayashi
Stochastic Variational Inference
Stochastic Variational Inference
Kaede Hayashi
Rで階層ベイズモデル
Rで階層ベイズモデル
Yohei Sato
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
Takao Yamanaka
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
Kota Matsui
心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理する
Hiroshi Shimizu
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
Shuyo Nakatani
幾何を使った統計のはなし
幾何を使った統計のはなし
Toru Imai
What's hot
(20)
3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布
Stan超初心者入門
Stan超初心者入門
負の二項分布について
負の二項分布について
変分ベイズ法の説明
変分ベイズ法の説明
21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)
相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心
グラフィカルモデル入門
グラフィカルモデル入門
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)
2 6.ゼロ切断・過剰モデル
2 6.ゼロ切断・過剰モデル
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
Stochastic Variational Inference
Stochastic Variational Inference
Rで階層ベイズモデル
Rで階層ベイズモデル
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
心理学におけるベイズ統計の流行を整理する
心理学におけるベイズ統計の流行を整理する
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
幾何を使った統計のはなし
幾何を使った統計のはなし
Viewers also liked
ベイズ主義による研究の報告方法
ベイズ主義による研究の報告方法
Masaru Tokuoka
心理学者のためのGlmm・階層ベイズ
心理学者のためのGlmm・階層ベイズ
Hiroshi Shimizu
2 3.GLMの基礎
2 3.GLMの基礎
logics-of-blue
1 3.分散分析 anova
1 3.分散分析 anova
logics-of-blue
1 4.回帰分析と分散分析
1 4.回帰分析と分散分析
logics-of-blue
TensorFlowで逆強化学習
TensorFlowで逆強化学習
Mitsuhisa Ohta
シンギュラリティを知らずに機械学習を語るな
シンギュラリティを知らずに機械学習を語るな
hoxo_m
エクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについて
Hiroshi Shimizu
Viewers also liked
(8)
ベイズ主義による研究の報告方法
ベイズ主義による研究の報告方法
心理学者のためのGlmm・階層ベイズ
心理学者のためのGlmm・階層ベイズ
2 3.GLMの基礎
2 3.GLMの基礎
1 3.分散分析 anova
1 3.分散分析 anova
1 4.回帰分析と分散分析
1 4.回帰分析と分散分析
TensorFlowで逆強化学習
TensorFlowで逆強化学習
シンギュラリティを知らずに機械学習を語るな
シンギュラリティを知らずに機械学習を語るな
エクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについて
ベイズファクターとモデル選択
1.
ベイズファクターと モデル選択
2.
自己紹介 • 前田和寛(MAEDA Kazuhiro) •
比治山大学短期大学部 総合生活デザイン学科 • kazum@hijiyama-u.ac.jp • http://kz-md.net/ • Twitter: @kazutan #ビールうめぇ
3.
本日の内容 • ベイズの定理について考える • ベイズファクターとモデル選択 ※イメージを掴んでもらうことを意識してます •
細かいところで用語が不適切な場合があるかもしれません
4.
ベイズの定理について考える
5.
ベイズの式 𝑃 𝐴|𝐵 = 𝑃(𝐵|𝐴)𝑃(𝐴) 𝑃(𝐵) •
𝑃 𝐴 • ある事象Aが起こる確率 • 𝑃 𝐵 • ある事象Bが起こる確率 • 𝑃 𝐵 𝐴 • ある事象Aが起こった上での 事象Bが起こる確率 • 𝑃 𝐴 𝐵 • ある事象Bが起こった上での 事象Aが起こる確率 A B
6.
ベイズの式(例) 𝑃 𝐴|𝐵 = 𝑃(𝐵|𝐴)𝑃(𝐴) 𝑃(𝐵) •
𝑃 𝐴 • 事象「カープのホームゲーム」が 起こる確率 • 𝑃 𝐵 • 事象「カープが勝つ」が起こる確 率 • 𝑃 𝐵 𝐴 • 「カープのホームゲーム」という 条件での「カープが勝った」確率 • 𝑃 𝐴 𝐵 • 「カープが勝った」という条件で の「カープのホームゲーム」確率 A B
7.
実際に計算してみる(1) 勝 負 計 ホーム
18 7 25 アウェイ 12 14 26 計 30 21 51 • 𝑃 𝐴 = 0.49 • 事象「カープのホームゲーム」が 起こる確率 • 𝑃 𝐵 = 0.59 • 事象「カープが勝つ」が起こる確 率 • 𝑃 𝐵 𝐴 = 0.35 0.49 = 0.72 • 「カープのホームゲーム」という 条件での「カープが勝った」確率 • 𝑃 𝐴 𝐵 = 0.72∗0.49 0.59 = 0.60 • 「カープが勝った」という条件で の「カープのホームゲーム」確率 勝 負 計 ホーム 0.35 0.14 0.49 アウェイ 0.24 0.27 0.51 計 0.59 0.41 1.00 ※ 2014年5月末までの成績で算出してます
8.
事前確率と事後確率 𝑃 𝐴|𝐵 = 𝑃(𝐵|𝐴)𝑃(𝐴) 𝑃(𝐵) •
Aを「原因」となる事象、Bを 「結果」となる事象として考え ると… • 𝑃 𝐴 • 結果が起こる前、つまり事前の状 態の確率・・・事前確率 • 𝑃 𝐵 • 得られた(測定した)結果 • 𝑃 𝐵 𝐴 • 原因があった時(条件下)での、結 果が発生する確率 • 𝑃 𝐴 𝐵 • その結果が起こった後、つまり事 後の状態の確率・・・事後確率 A B
9.
よぉわからんけぇカープで例えてくれ 𝑃 𝐴|𝐵 = 𝑃(𝐵|𝐴)𝑃(𝐴) 𝑃(𝐵) •
A:「カープのホームゲーム」 B:「カープが勝利」 • 𝑃 𝐴 • 「カープがホームゲーム」である 確率 • 𝑃 𝐵 • カープが勝つ確率 • 𝑃 𝐵 𝐴 • 「ホームゲーム」で行われたなら ば「カープが勝つ」確率 • 𝑃 𝐴 𝐵 • 「カープが勝った」というニュー スから、「ホームゲーム」であっ た確率 A B
10.
仮説(H)とデータ(D)で考えてみよう 𝑃 𝐻|𝐷 = 𝑃(𝐷|𝐻)𝑃(𝐻) 𝑃(𝐷) •
H:なんらかの仮説 D:得られたデータ • 𝑃 𝐻 • (データを取る前の)仮説の確率 • 𝑃 𝐷 • そのデータが得られる確率 • 𝑃 𝐷 𝐻 • その仮説が正しいとするときに、 そのデータが得られる確率 • 𝑃 𝐻 𝐷 • データが得られた後での、仮説 が正しい確率 H D
11.
よぉわからんけぇカープで(ry 𝑃 𝐻|𝐷 = 𝑃(𝐷|𝐻)𝑃(𝐻) 𝑃(𝐷) •
6月1日「カープが勝った」が、 この試合が「ホームゲーム」で ある確率は? • H:「6/1はホームゲーム」 D:「カープが勝つ」 • ホームゲームの確率は0.49 • 5月末カープの勝率は0.59 • 同ホームでの勝率は0.72 • 𝑃 𝐻 • ホームゲームが開催される確率 • 𝑃 𝐷 • カープの勝率 • 𝑃 𝐷 𝐻 • ホームでのカープの勝率 • 𝑃 𝐻 𝐷 • 「カープが勝った」ときのホーム ゲームである確率 • さあ計算してみよう! • (てかもう答え前に出してる)
12.
𝑃(𝐷|𝐻)について踏み込んでみよう • 仮説Hが正しいとした時に得られるデータ(D)の確率 • カープで(ry
: ホームゲーム(仮説H)である時の、5月末までの成績(デー タ)で得られるカープの勝率 • 言い換えれば… 得られたデータから、その仮説がどのくらい「もっともなのか」を表 す確率 • この6/1の勝利ゲームが「ホームゲーム」だった、と仮定しよう • ホームゲームは0.49だけ行われてる…からそのまま考えたらこのとおりだけど… • それじゃあ、ホームゲームで今のところ実際にどれだけ勝ってる?→0.72 • てことは、データからみたら、この仮定はこの確率くらい「もっともらしい」よ ね。 • この𝑃(𝐷|𝐻)は、尤度と言われる • 母数を含む仮説モデルの場合。データ分布とも。
13.
事前分布・事後分布・尤度 • ベイズの式は、以下のように表現できます • 事後確率
= 尤度 × 事前確率 基準化定数 • 基準化定数はさっきの分母P(D)のこと。 「全事象の確率の総和は1である」という制約から、そうなるように設定 …つまり「定数」です • 定数は定数なので、更に書き換えると… • [事後確率] ∝ [尤度]×[事前確率] • 事後確率は、尤度と事前確率をかけたものに比例する • つまりこの2つが重要となっている!
14.
ベイスファクターと モデル選択
15.
ホーム(H0)とアウェー(H1)で考えてみる • 仮説H0 :ホームゲーム 𝑃
𝐻0|𝐷 = 𝑃(𝐷|𝐻0)𝑃(𝐻0) 𝑃(𝐷) • さっきまで説明したものと同一 • 仮説H1 :アウェーゲーム 𝑃 𝐻1|𝐷 = 𝑃(𝐷|𝐻1)𝑃(𝐻1) 𝑃(𝐷) • 仮説「アウェー」になっている • それ以外は同一 どっちがいい仮説(モデル)なの?
16.
ベイズファクター • さっきの2つの仮説(モデル)について、事後確率を比べてみる (比を取る) 𝑃 𝐻1|𝐷 𝑃
𝐻0|𝐷 = 𝑃(𝐷|𝐻1)𝑃(𝐻1) 𝑃(𝐷|𝐻0)𝑃(𝐻0) = 𝑃(𝐷|𝐻1) 𝑃(𝐷|𝐻0) × 𝑃(𝐻1) 𝑃(𝐻0) • これは、[事後確率の比]=[尤度の比]×[事前確率の比]となります • この式を変形すると… • [尤度の比(ベイズファクター)] = [事後確率の比(事後オッズ)] [事前確率の比(事前オッズ)] • つまり、「2つの仮説(モデル)のもっともらしさを比較したもの」 がベイズファクター!
17.
なにがどうなればいいの? • ベイズファクターは簡単に言うと 「2つのモデルそれぞれのもっとらしさを比べた指標」 • 先の例で言うと… •
ベイズファクターが1より大きい → H1のモデルの方が(相対的に)もっともらしい、となる • ベイズファクターが1より小さい →H0 のモデルの方が(相対的に)もっともらしい、となる • ではカープで… • 𝑃 𝐻1|𝐷 𝑃 𝐻0|𝐷 = 0.47 0.72 =0.65 • これってどうなの?
18.
ベイズファクターの基準 • Kass &
Raftery(1995)の基準 • 基準というか「目安」 • 他にも有名なものが色々あり • 大切なのは、「有意水準」 みたいにズバッと切るもの ではないこと • そもそもそれに問題提起され て広がってきた側面もあるん ですしね・・・ BF 2logBF M0と比べた M1に対する判断 BF < 1 2logBF < 0 M0の方が良い 1 < BF < 3 0 < 2logBF <2 かろうじて優れてい る 3 < BF < 12 2 < 2logBF < 5 優れている 12 < BF < 150 5 < 2logBF < 10 かなり優れている 150 < BF 10 < 2logBF 非常に優れている 追記: 先の式で大きい方を分子に持ってきて、 その上でBFを見たほうがスムーズです。 あと基準(目安)はいろいろあります。
19.
ベイズファクターの問題点 • 2つのモデルの相対的比較である • ベイズファクターの式:
2つのモデルの「もっとらしさの比」 →数値の大小は、「2つを比較してどっちがいいか」にしかならない • 複数の指標を算出して、トータルで考えていくべし → この後紹介します • 計算が鬼(になることが多い) • 詳細は省略します… • パラメータが増えたり、事前分布などによって大変になるようです
20.
他のモデル指標も考えよう BIC • Bayes
information criterion(ベイズ情報量基準) 𝐵𝐼𝐶ℎ = −2 log 𝑃 𝐷 𝜃ℎ, 𝑀ℎ + 𝐾ℎ log 𝐼 𝜃ℎはモデル𝑀ℎのもとでのパラメータの最尤推定値 𝐾ℎはパラメータの数、𝐼はサンプルサイズ • 2つのモデルでそれぞれ算出された𝐵𝐼𝐶0と𝐵𝐼𝐶1の差が、 2logBFの近似となる • 算出が比較的カンタンなので、用いられることも多い • ただし、これはベイズファクターとは別物だということには注意
21.
他のモデル指標も考えよう DIC • Deviance
information criterion(偏差情報量基準) 𝐷𝐼𝐶ℎ = − 2 𝑇 𝑡=1 𝑇 log 𝑃 𝐷 𝜃ℎ (𝑡) , 𝑀ℎ + 2𝐾ℎ • 𝜃ℎ (𝑡) はパラメータ𝜃の事後分布から得られたT個の無作為標本 • この𝜃ℎ (𝑡) にマルコフ連鎖の連鎖要素をそのまま持ってこれる → MCMCとの相性がいい • 2つのモデルについてDICを算出し、値が小さいモデルのほうが データに対する当てはまりがいいと評価 • また、この指標も相対的な比較のための指標
22.
他のモデル指標も考えよう 事後予測p 値 • 事後分布が算出されるんだから、それに基づく分布から標本分 布をだせるんでね? →
事後予測分布 • そしたらこの分布と元データの分布は近くなるはずでね? → 指標化したのが事後予測p値 • 0.5に近ければモデルのデータへの当てはまりがいい • 2つのモデル比較ではなく、1つのモデルに対するデータへの当てはま りを見る指標 • ただし、実際に事後予測p値を用いるときには、ベイズファクターなど を補完するものとしたほうが無難とのこと
23.
そもそもなんでベイズファクターを…? • 帰無仮説の呪縛からの開放 • 伝統的な検定は「帰無仮説」と「対立仮説」という構図 •
でもベイズファクターなら「独立する2つのモデル(仮説)」を比較 ・・・別に「帰無仮説」なんてなくていい • 正規分布の呪縛からの開放 • このベイズの式には、事前分布を組み込んでいる • 「事前分布は正規分布でなくていい」 → より柔軟な統計モデルをあてはめて検討可能 ・・・ベイズ推定が利用される ※ この先は、あとのメンバーにお任せします
24.
さいごに ベイズファクターは2つの対立する 仮説について,データが支持 する程度の比を直接数量化 した量である。100倍支持するのであ れば十分であり,
1.04倍支持するのでは不十分だ,ということに は多くの 研究者が同意するだろう。しかしながら,文献中には 明 確なガイドラインはなく,また我々もそれを提供しな い。な ぜならば,恣意的な決定規則を与えたくはないか らだ。 p値についてのよく知られた警句を思い出すとよ い: 『神はp<.05をp<.06と等しく,そして同じくらい 強く愛してく ださる』 Rosnow & Rosenthal (1989)の一部より(岡田, 2014)
25.
参考資料(主なもののみ記載) • 涌井良幸「道具としてのベイズ時計」 • 入門書としてまず読んでみるにはちょうどいいです •
今回の前半部分を作成するのに参考にさせていただきました • 大久保街亜・岡田謙介「伝えるための心理統計」 • 本書の6章2節にベイズ統計学に関する説明があります • ベイズファクターを用いた具体例も記載してあります • 豊田秀樹(編)「マルコフ連鎖モンテカルロ法」 • 通称MCMC本。 • 本書の3章2節にベイズファクター及びモデル指標の説明があります • 岡田謙介 (2014). ベイズ統計による情報仮説の評価は分散分析にとって代 わるのか? 基礎心理学研究, 32(2), 223-231
Download now