SlideShare a Scribd company logo
1 of 48
マルコフ連鎖モンテカルロ法
Markov Chain Monte Carlo methods
2014.06.08 ベイズ推定による多変量解析入門 @広島大学総合科学研究科
広島大学大学院 総合科学研究科
竹林由武
所 属 広島大学大学院研究員
日本学術振興会特別研究員 (PD)
専 門 臨床心理学
趣 味 猫ときどき統計勉強
自己紹介
http://blue.zero.jp/yokumura/workshop.html
https://sites.google.com/site/studygroup13csrm/activity
執筆担当
第10章 カテゴリカルデータのパス解析
第14章 潜在混合分布モデル
RやMplusを用いた
データ解析の
勉強会の主催
臨床疫学研究における
報告の質向上のための
諸活動に参加
http://www.amazon.co.jp/M-
plus%E3%81%A8R%E3%81
%AB%E3%82%88%E3%82%8
B%E6%A7%8B%E9%80%A0
%E6%96%B9%E7%A8%8B%
E5%BC%8F%E3%83%A2%E3
%83%87%E3%83%AA%E3%
83%B3%E3%82%B0%E5%85
%A5%E9%96%80-
%E5%B0%8F%E6%9D%89-
%E8%80%83%E5%8F%B8/dp
/4762828254
http://www.lancaster.ac.uk/pg/jamest/Group/stats3.htmlから拝借
ベイズ推定って
良く知らない言葉が多いし難しそう,複雑そう…..
従来の推定法
得られたデータを
もっともらしく表現する
パラメータ(回帰係数)
を探そう
例えば重回帰モデル
データ (Y)=切片+回帰係数 ×データ (X)+誤差
データ 推定値
回帰係数は .75だ!!
知りたいパラメータ
① パラメータの(事後)分布を推定する
② 推定に事前の情報を取り込む
データ
従来の推定法
パラメータ
の推定値
ベイズ推定法
事前の情報
研究者の理論 (主観)
先行研究の知見など
従来の推定法とベイズ推定の違い
ベイズの定理
パラメータ
の分布
ここが
わかれば
OK!!
パラメータが確率的に分布する
相関係数は0.5だ !!
相関係数が.50の確率が一番高い。
.25や.75は.50より確率が低い。
0や1である確率はほぼない。
確
率
(
密
度
)
パラメータの値 (θ)
0 0.5 1
確
率
(
密
度
)
パラメータの値 (θ)
固定されたパラメータ値
(1つの値を取る)
10 0.5
従来の推定 (最尤推定)法 ベイズ推定
① パラメータの分布を推定する
パラメータが確率的に分布する
確
率
(
密
度
)
パラメータの値 (θ)
確
率
(
密
度
)
パラメータの値 (θ)
固定されたパラメータ値
(1つの値を取る)
1 0 0.5 10 0.5
① パラメータの分布を推定する
相関係数は0.5だ !!
相関係数が.50の確率が一番高い。
.25や.75は.50より確率が低い。
0や1である確率はほぼない。
従来の推定 (最尤推定)法 ベイズ推定
ベイズ主義頻度主義
頻度主義の考え方
標本平均の平均→母数の推定値
母集団
(母平均)
標本
A
標本
B
標本
C
標本
D
サンプルを繰り返していけば,誤差がなくなって
真の値 (母数)がぴったり推定できる
母平均は「観察によらず」一定
(真の値の存在)
確
率(
密
度
)
パラ メ ータ の値  (θ)
固定さ れたパラ メ ータ 値
(1つの値を取る)
10 0.5
ベイズ主義の考え方
標本の標本分布→母数の推定値
母集団
(母平均)
標本
A
標本
B
標本
C
標本
D
リサンプルが作り出す分布は,
真の値に近づいていくに違いない
観察によって当然変わりうる
確率的に分布する
パラ メ ータ が確率的に分布する
確
率
(密
度
)
パラ メ ータ の値  (θ)
0 0.5 1
頻度主義 vs ベイズ主義
95%信頼区間
何度もサンプルを繰り返せば,
95%の確率で,真の値が
この範囲に入る
95%信用区間
(仮に真の値を仮定するなら)
95%の確率で母平均が,
この範囲に入る
母数は一定で,
観測が確率に変動する
ベイズ主義信用区間
頻度主義的信頼区間 確
率
(
密
度
)
パラ メ ータ の値  (θ)
0 0.5 1
95%信頼区間
ベイズの定理おさらい
P (A|B)
P (A)P (B|A)
= ×
P (B)
A B
P(A|B): 条件付き確率
事象Bのもとで,事象Bが起こる確率
P(B|A): 条件付き確率
事象Aのもとで,事象Bが起こる確率
P (A) or P (B): 周辺確率
事象Aのみ,事象Bのみが起こる確率
U
A
U
B
P(A|B)
A → θ
B → D
ベイズの定理を統計学に応用する
P (θ|D)
P (θ)P (D|θ)
= P (D)
P (A|B)
P (A)P (B|A)
= ×
P (B)
事象Aを母数・パラメータ (θ),
事象Bを得られたデータ (D)
に置き換える
×
※ 離散変数の場合
※ 離散変数の場合
ベイズの定理を統計学に応用する
P (θ|D)
P (θ)P (D|θ)
= P (D)
×
データが得られた時に,母数がθである確率
母数がθである時に,データが得られる確
率
データによらず母数が発生する確率
P (θ|D)
P (θ)
P (D|θ)
※ 離散変数の場合
ベイズの定理を統計学に応用する
P (θ|D)
P (θ)P (D|θ)
= P (D)
×
事後確率
尤度
事前確率
P (θ|D)
P (θ)
P (D|θ)
※ 離散変数の場合
ベイズの定理を統計学に応用する
事後確率
事前確率尤度
= データが得られる確率
×
事後確率
尤度
事前確率
P (θ|D)
P (θ)
P (D|θ)
ベイズの定理を統計学に応用する
事後分布
事前分布尤度
= データが得られる確率
×
尤度
事前分布
π (θ|D)
π (θ)
f (D|θ)
※ 連続変数の場合
事後分布
ベイズの定理を統計学に応用する
事後分布
posterior
事前分布
prior
尤度
likelihood
f (D|θ) π (θ) π(θ|D)
事後分布は尤度と事前分布の積に比例する
∝
×
∝
※分母のデータが得られる確率は,母数を含まないため比例定数になっている
従来の推定法
得られたデータ (D)を
もっともらしく表現する
パラメータ(θ)
を探そう
データ 推定値
= f ( D | θ) 尤度
母数が θである時に,
データが得られる確率
従来の推定法
尤度を最大化するパラメータを探す
事後分布
posterior
事前分布
prior
尤度
likelihood
f (D|θ) π (θ) π(θ|D)
事後分布は尤度と事前分布の積に比例する
∝
×
ベイズの定理を統計学に応用する
∝
データ事前の情報
パラメータ
の分布
② 推定に事前情報を取り込む
データ取得前に,事後分布の性質に関して想定されうる情報
事後分布の性質を,
想定可能な知見がある
・先行研究の知見
・歴史的コンセンサス
・専門家へのインタビュー
事後分布の性質は
まったく検討がつかない
分布の性質を指定する
(種類,平均,分散)
無情報事前分布を使う
(一様分布)
② 推定に事前情報を取り込む
データ取得前に,事後分布の性質に関して想定されうる情報
事後分布の性質を,
想定可能な知見がある
事後分布の性質は
まったく検討がつかない
分布の性質を指定する
(種類,平均,分散)
無情報事前分布を使う
平均と分散の事後分布を
Let’s Bayes!!
事後分布
posterior
事前分布
prior
尤度
likelihood ×
正規分布
工場Aで作られるコーヒーから3つ抽出
内容量は分散1で正規分布することが,
わかってる
工場Aで作られるコーヒーの内容量の
「平均値の事後分布」が知りたい
事後分布
得ら れたデータ (D)
99ml 101ml 103ml
事前の情報
平均
100 ml
μ ml
データ
正規分布
機械の設定100ml
正規分布
他は定数
円周率 (π) = 3.14159…
ネイピア定数 (e) =2.71828….
分布を示す式
f (x)
平均値 (u)
分散 (σ2)
f (x) = N (μ,σ2)
分散
平均
平均と分散によって,
分布の形状が決まる
1
2ps
æ
è
ç
ö
ø
÷e
-
(x-m)2
2´s2
1
2p ´2
æ
è
ç
ö
ø
÷e
-
(x-100)2
2´4
事前の情報
N (100, 4)
分布の形状 = 正規分布
平均 = 100ml (機械の設定)
分散 = 4 (経験から)
事前分布
事前分布 π (D)
あるパラメータが得られる確率 (密度)
1
2p
æ
è
ç
ö
ø
÷e
-
(m-101)2
2´1/3
1
2p
æ
è
ç
ö
ø
÷e
-
(99-m)2
2´1
1
2p
æ
è
ç
ö
ø
÷e
-
(101-m)2
2´1
1
2p
æ
è
ç
ö
ø
÷e
-
(103-m)2
2´1
尤度
f (D|μ)
× ×
=
あるパラメータの元でデータが得られる確率 (密度)
得ら れたデータ (D)
99ml 101ml 103ml
3
+定数
尤度 f (D|μ)
平均 = 101
分散 = 1/3
1
2p
æ
è
ç
ö
ø
÷e
-
(m-101)2
2´1/3
尤度
f (D|μ) =
平均 = 101
分散 = 1/3
3
+定数
あるパラメータの元でデータが得られる確率 (密度)
尤度 f (D|μ)
N (101, 1/3)
事後分布
posterior
事前分布
prior
尤度
likelihood∝ ×
N (109, 4/13) N (100, 4)
e
-
(m-100)2
2´4
e
-
(m-109)2
2´4/13
N (101, 1/3)
e
-
(m-101)2
2´1/3
※e以前の式は定数なので,省略
事前分布
尤度
事後分布
事前分布に
無情報事前分布を使うと…
事前分布の影響
無情報事前分布を使うと最尤推定値とほぼ一致する
事後分布
posterior
尤度
likelihood
∝
マルコフ連鎖モンテカルロ法
パラメータが増えると,指数関数的に計算量が増える
次元の呪いで事後分布の推定が困難になる
gooランキング「数学嫌いでも,興味を持たずにはいられない数学用語」第5位
シミュレーションによって呪いを解いて
事後分布を推定する
gooランキング「職場で使ってみたいドラクエの呪文」第27位
マルコフ連鎖モンテカルロ法
ランダムに与えたパラメータの初期値を,
一定の手順に従って,更新していくことで,
事後分布に従ったパラメータを得る
代表的な手順
・ギブスサンプリング法
・メトロポリス・ヘイスティング法
ギブスサンプリング
2つのパラメータ (x1, x2)の場合
step1 x1の初期値を指定する
step2 x2を初期値で固定して,x1をサンプリング
step3 x1をstep2で得られた値に固定してx2をサンプリング
step4 x2をstep3で得られた値に固定してx1をサンプリング
以下、 step3,4を繰り返す。
一つのステップの中で,
前の状態に基づいて,
新しい状態を作りだしている
マルコフ連鎖
モンテカルロ法
シミュレーションを使ってる
反復
100
反復
10000
x1
x2
x1
x2
STEPをひたすら繰り返し得られた点列から
安定した分布が得られる
(定常分布)
http://stackoverflow.com/questions/19949435/
3d-plot-of-bivariate-distribution-using-r-or-matlab
x1x2
初期値の影響を大きくうける初期の期間
(バーンイン区間)は分布の推定から除く
バーンイン区間
バーンイン
区間
分布の推定に用いる
区間
バーンイン区間を推定に用いると
事後分布が歪む
300辺りまで,落ち着かない 事後分布が歪む
バーンイン区間を切り捨てると,
事後分布の歪みは少なくなる
500回 1000回 5000回
定常分布に収束する
十分な期間シミュレーションすると
事後分布が安定した分布に収束する
報告する数値 (詳細は徳岡君)
平均 (または中央値)
標準偏差
信用区間
95%信用区間が一般的
この区間に0がなければ有意,
という判断が可能
点推定値
収束判断の指標
定常分布に達しているか数値で判断
• Gelman & Rubinの指標
• Raftery and Lewisの指標
• Gewekeの指標
• Heidelberger and Welchの指標
• 自己相関
これを報告しておけば,
文句はいわれまい
Gelman and Rubinの指標
Potential Scale Reduction (PSR) または
^
R(アールハット)
初期値を変えて,MCMC推定を複数回やった時に,
それぞれの推定結果に違いがないかという発想
複数のマルコフ連鎖間の分散がマルコフ連鎖内の分
散に比べて十分小さくなれば収束。
大抵は 1.01を越えなければ良い。
初期値を変えて,
2つ走らせた結果を格納
Gewekeの指標
MCMCの最初の方
と最後の方の平均に
差がないか検定
Z値が±1.96以内に
入っていれば,
差はない
→収束してる
ベイズ推定のメリット
データや推定値についての分布の制約がない
※ モデルが要請する制約はある
-回帰分析: 残差が正規分布
-ロジスティック回帰: 残差が二項分布
事後分布の形状も正規分布以外にできる
- 分散の分布などはガンマ分布に従う
- 分散パラメータの非負の制約も簡単にできる
事前情報を旨く上手に扱うことで,
少数サンプルでも妥当な推定ができる
何これ? おいしそう!!
ベイズ推定のデメリット
推定にかかる時間が長い
− 最尤法に比べて10倍以上は時間がかかる
適合度指標が限られる
– 最尤法は豊富な適合度指標を参照できる
まとめ
ベイズ推定では,
① パラメータの分布が得られる
② 事前の情報を推定に活用できる
MCMCで推定結果をえる時には,
① 初期値,事前分布を指定,バーンイン区間指定
② 収束したかどうか数値でチェック
収束を確認したら,
点推定値と信用区間を報告
簡単だね,
いつからやろう...
参考文献
① ②
③ ④
①②③④の順序で
読むのがおすすめです!!

More Related Content

What's hot

ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定Akira Masuda
 
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデルKei Nakagawa
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)Takao Yamanaka
 
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法Ken'ichi Matsui
 
変分推論と Normalizing Flow
変分推論と Normalizing Flow変分推論と Normalizing Flow
変分推論と Normalizing FlowAkihiro Nitta
 
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学Ken'ichi Matsui
 
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布Nagayoshi Yamashita
 
Stanコードの書き方 中級編
Stanコードの書き方 中級編Stanコードの書き方 中級編
Stanコードの書き方 中級編Hiroshi Shimizu
 
深層学習 勉強会第5回 ボルツマンマシン
深層学習 勉強会第5回 ボルツマンマシン深層学習 勉強会第5回 ボルツマンマシン
深層学習 勉強会第5回 ボルツマンマシンYuta Sugii
 
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介Taku Yoshioka
 
連続最適化勉強会
連続最適化勉強会連続最適化勉強会
連続最適化勉強会shima o
 
条件付き確率場の推論と学習
条件付き確率場の推論と学習条件付き確率場の推論と学習
条件付き確率場の推論と学習Masaki Saito
 
ガウス過程回帰の導出 ( GPR : Gaussian Process Regression )
ガウス過程回帰の導出 ( GPR : Gaussian Process Regression )ガウス過程回帰の導出 ( GPR : Gaussian Process Regression )
ガウス過程回帰の導出 ( GPR : Gaussian Process Regression )Kenji Urai
 
基礎からのベイズ統計学第5章
基礎からのベイズ統計学第5章基礎からのベイズ統計学第5章
基礎からのベイズ統計学第5章hiro5585
 
PRML輪読#10
PRML輪読#10PRML輪読#10
PRML輪読#10matsuolab
 
Stanの便利な事後処理関数
Stanの便利な事後処理関数Stanの便利な事後処理関数
Stanの便利な事後処理関数daiki hojo
 
ベイズ統計入門
ベイズ統計入門ベイズ統計入門
ベイズ統計入門Miyoshi Yuya
 

What's hot (20)

ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
 
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
 
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
 
Stan超初心者入門
Stan超初心者入門Stan超初心者入門
Stan超初心者入門
 
MCMC法
MCMC法MCMC法
MCMC法
 
変分推論と Normalizing Flow
変分推論と Normalizing Flow変分推論と Normalizing Flow
変分推論と Normalizing Flow
 
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学
 
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
 
Stanコードの書き方 中級編
Stanコードの書き方 中級編Stanコードの書き方 中級編
Stanコードの書き方 中級編
 
深層学習 勉強会第5回 ボルツマンマシン
深層学習 勉強会第5回 ボルツマンマシン深層学習 勉強会第5回 ボルツマンマシン
深層学習 勉強会第5回 ボルツマンマシン
 
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介
 
連続最適化勉強会
連続最適化勉強会連続最適化勉強会
連続最適化勉強会
 
条件付き確率場の推論と学習
条件付き確率場の推論と学習条件付き確率場の推論と学習
条件付き確率場の推論と学習
 
ガウス過程回帰の導出 ( GPR : Gaussian Process Regression )
ガウス過程回帰の導出 ( GPR : Gaussian Process Regression )ガウス過程回帰の導出 ( GPR : Gaussian Process Regression )
ガウス過程回帰の導出 ( GPR : Gaussian Process Regression )
 
基礎からのベイズ統計学第5章
基礎からのベイズ統計学第5章基礎からのベイズ統計学第5章
基礎からのベイズ統計学第5章
 
ELBO型VAEのダメなところ
ELBO型VAEのダメなところELBO型VAEのダメなところ
ELBO型VAEのダメなところ
 
PRML輪読#10
PRML輪読#10PRML輪読#10
PRML輪読#10
 
Stanの便利な事後処理関数
Stanの便利な事後処理関数Stanの便利な事後処理関数
Stanの便利な事後処理関数
 
ベイズ統計入門
ベイズ統計入門ベイズ統計入門
ベイズ統計入門
 

Viewers also liked

学部生向けベイズ統計イントロ(公開版)
学部生向けベイズ統計イントロ(公開版)学部生向けベイズ統計イントロ(公開版)
学部生向けベイズ統計イントロ(公開版)考司 小杉
 
5分でわかるベイズ確率
5分でわかるベイズ確率5分でわかるベイズ確率
5分でわかるベイズ確率hoxo_m
 
MCMCと正規分布の推測
MCMCと正規分布の推測MCMCと正規分布の推測
MCMCと正規分布の推測Gen Fujita
 
ベイズ統計モデリングと心理学
ベイズ統計モデリングと心理学ベイズ統計モデリングと心理学
ベイズ統計モデリングと心理学Shushi Namba
 
ノンパラベイズ入門の入門
ノンパラベイズ入門の入門ノンパラベイズ入門の入門
ノンパラベイズ入門の入門Shuyo Nakatani
 
Rで階層ベイズモデル
Rで階層ベイズモデルRで階層ベイズモデル
Rで階層ベイズモデルYohei Sato
 
エクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについてエクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについてHiroshi Shimizu
 

Viewers also liked (7)

学部生向けベイズ統計イントロ(公開版)
学部生向けベイズ統計イントロ(公開版)学部生向けベイズ統計イントロ(公開版)
学部生向けベイズ統計イントロ(公開版)
 
5分でわかるベイズ確率
5分でわかるベイズ確率5分でわかるベイズ確率
5分でわかるベイズ確率
 
MCMCと正規分布の推測
MCMCと正規分布の推測MCMCと正規分布の推測
MCMCと正規分布の推測
 
ベイズ統計モデリングと心理学
ベイズ統計モデリングと心理学ベイズ統計モデリングと心理学
ベイズ統計モデリングと心理学
 
ノンパラベイズ入門の入門
ノンパラベイズ入門の入門ノンパラベイズ入門の入門
ノンパラベイズ入門の入門
 
Rで階層ベイズモデル
Rで階層ベイズモデルRで階層ベイズモデル
Rで階層ベイズモデル
 
エクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについてエクセルで統計分析 統計プログラムHADについて
エクセルで統計分析 統計プログラムHADについて
 

Similar to マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)

データサイエンス概論第一=4-1 相関・頻度・ヒストグラム
データサイエンス概論第一=4-1 相関・頻度・ヒストグラムデータサイエンス概論第一=4-1 相関・頻度・ヒストグラム
データサイエンス概論第一=4-1 相関・頻度・ヒストグラムSeiichi Uchida
 
データ入力が終わってから分析前にすること
データ入力が終わってから分析前にすることデータ入力が終わってから分析前にすること
データ入力が終わってから分析前にすることMasaru Tokuoka
 
ISMB読み会 2nd graph kernel
ISMB読み会 2nd graph kernelISMB読み会 2nd graph kernel
ISMB読み会 2nd graph kernel弘毅 露崎
 
理科教育学研究のための統計分析入門
理科教育学研究のための統計分析入門理科教育学研究のための統計分析入門
理科教育学研究のための統計分析入門Hiroshi Unzai
 
[Tokyor08] Rによるデータサイエンス 第2部 第3章 対応分析
[Tokyor08] Rによるデータサイエンス第2部 第3章 対応分析[Tokyor08] Rによるデータサイエンス第2部 第3章 対応分析
[Tokyor08] Rによるデータサイエンス 第2部 第3章 対応分析Yohei Sato
 
Imputation of Missing Values using Random Forest
Imputation of Missing Values using  Random ForestImputation of Missing Values using  Random Forest
Imputation of Missing Values using Random ForestSatoshi Kato
 
Model seminar shibata_100710
Model seminar shibata_100710Model seminar shibata_100710
Model seminar shibata_100710Kazuya Nishina
 
StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章
StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章
StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章Shushi Namba
 
Connecting embedding for knowledge graph entity typing
Connecting embedding for knowledge graph entity typingConnecting embedding for knowledge graph entity typing
Connecting embedding for knowledge graph entity typing禎晃 山崎
 
データサイエンス概論第一=3-2 主成分分析と因子分析
データサイエンス概論第一=3-2 主成分分析と因子分析データサイエンス概論第一=3-2 主成分分析と因子分析
データサイエンス概論第一=3-2 主成分分析と因子分析Seiichi Uchida
 
ベイズモデリングで見る因子分析
ベイズモデリングで見る因子分析ベイズモデリングで見る因子分析
ベイズモデリングで見る因子分析Shushi Namba
 
FDRの使い方 (Kashiwa.R #3)
FDRの使い方 (Kashiwa.R #3)FDRの使い方 (Kashiwa.R #3)
FDRの使い方 (Kashiwa.R #3)Haruka Ozaki
 
forestFloorパッケージを使ったrandomForestの感度分析
forestFloorパッケージを使ったrandomForestの感度分析forestFloorパッケージを使ったrandomForestの感度分析
forestFloorパッケージを使ったrandomForestの感度分析Satoshi Kato
 
データサイエンス概論第一=1-1 データとは
データサイエンス概論第一=1-1 データとはデータサイエンス概論第一=1-1 データとは
データサイエンス概論第一=1-1 データとはSeiichi Uchida
 
RNAseqによる変動遺伝子抽出の統計: A Review
RNAseqによる変動遺伝子抽出の統計: A ReviewRNAseqによる変動遺伝子抽出の統計: A Review
RNAseqによる変動遺伝子抽出の統計: A Reviewsesejun
 
統計学勉強会#2
統計学勉強会#2統計学勉強会#2
統計学勉強会#2Hidehisa Arai
 

Similar to マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話) (17)

データサイエンス概論第一=4-1 相関・頻度・ヒストグラム
データサイエンス概論第一=4-1 相関・頻度・ヒストグラムデータサイエンス概論第一=4-1 相関・頻度・ヒストグラム
データサイエンス概論第一=4-1 相関・頻度・ヒストグラム
 
データ入力が終わってから分析前にすること
データ入力が終わってから分析前にすることデータ入力が終わってから分析前にすること
データ入力が終わってから分析前にすること
 
ISMB読み会 2nd graph kernel
ISMB読み会 2nd graph kernelISMB読み会 2nd graph kernel
ISMB読み会 2nd graph kernel
 
理科教育学研究のための統計分析入門
理科教育学研究のための統計分析入門理科教育学研究のための統計分析入門
理科教育学研究のための統計分析入門
 
[Tokyor08] Rによるデータサイエンス 第2部 第3章 対応分析
[Tokyor08] Rによるデータサイエンス第2部 第3章 対応分析[Tokyor08] Rによるデータサイエンス第2部 第3章 対応分析
[Tokyor08] Rによるデータサイエンス 第2部 第3章 対応分析
 
Imputation of Missing Values using Random Forest
Imputation of Missing Values using  Random ForestImputation of Missing Values using  Random Forest
Imputation of Missing Values using Random Forest
 
Model seminar shibata_100710
Model seminar shibata_100710Model seminar shibata_100710
Model seminar shibata_100710
 
StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章
StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章
StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章
 
Nttr study 20130206_share
Nttr study 20130206_shareNttr study 20130206_share
Nttr study 20130206_share
 
Connecting embedding for knowledge graph entity typing
Connecting embedding for knowledge graph entity typingConnecting embedding for knowledge graph entity typing
Connecting embedding for knowledge graph entity typing
 
データサイエンス概論第一=3-2 主成分分析と因子分析
データサイエンス概論第一=3-2 主成分分析と因子分析データサイエンス概論第一=3-2 主成分分析と因子分析
データサイエンス概論第一=3-2 主成分分析と因子分析
 
ベイズモデリングで見る因子分析
ベイズモデリングで見る因子分析ベイズモデリングで見る因子分析
ベイズモデリングで見る因子分析
 
FDRの使い方 (Kashiwa.R #3)
FDRの使い方 (Kashiwa.R #3)FDRの使い方 (Kashiwa.R #3)
FDRの使い方 (Kashiwa.R #3)
 
forestFloorパッケージを使ったrandomForestの感度分析
forestFloorパッケージを使ったrandomForestの感度分析forestFloorパッケージを使ったrandomForestの感度分析
forestFloorパッケージを使ったrandomForestの感度分析
 
データサイエンス概論第一=1-1 データとは
データサイエンス概論第一=1-1 データとはデータサイエンス概論第一=1-1 データとは
データサイエンス概論第一=1-1 データとは
 
RNAseqによる変動遺伝子抽出の統計: A Review
RNAseqによる変動遺伝子抽出の統計: A ReviewRNAseqによる変動遺伝子抽出の統計: A Review
RNAseqによる変動遺伝子抽出の統計: A Review
 
統計学勉強会#2
統計学勉強会#2統計学勉強会#2
統計学勉強会#2
 

More from Yoshitake Takebayashi

単一事例研究法と統計的推測:ベイズ流アプローチを架け橋として
単一事例研究法と統計的推測:ベイズ流アプローチを架け橋として単一事例研究法と統計的推測:ベイズ流アプローチを架け橋として
単一事例研究法と統計的推測:ベイズ流アプローチを架け橋としてYoshitake Takebayashi
 
単一事例研究法と統計的推測:ベイズ流アプローチを架け橋として (文字飛び回避版はこちら -> https://www.slideshare.net/yos...
単一事例研究法と統計的推測:ベイズ流アプローチを架け橋として (文字飛び回避版はこちら -> https://www.slideshare.net/yos...単一事例研究法と統計的推測:ベイズ流アプローチを架け橋として (文字飛び回避版はこちら -> https://www.slideshare.net/yos...
単一事例研究法と統計的推測:ベイズ流アプローチを架け橋として (文字飛び回避版はこちら -> https://www.slideshare.net/yos...Yoshitake Takebayashi
 
フェーズI/IIに置けるベイジアン・アダプティブ・メソッド
フェーズI/IIに置けるベイジアン・アダプティブ・メソッドフェーズI/IIに置けるベイジアン・アダプティブ・メソッド
フェーズI/IIに置けるベイジアン・アダプティブ・メソッドYoshitake Takebayashi
 
STARD2015に学ぶ「診断精度の分析」の書き方
 STARD2015に学ぶ「診断精度の分析」の書き方 STARD2015に学ぶ「診断精度の分析」の書き方
STARD2015に学ぶ「診断精度の分析」の書き方Yoshitake Takebayashi
 
項目反応理論による尺度運用
項目反応理論による尺度運用項目反応理論による尺度運用
項目反応理論による尺度運用Yoshitake Takebayashi
 
ベイズ推定の概要@広島ベイズ塾
ベイズ推定の概要@広島ベイズ塾ベイズ推定の概要@広島ベイズ塾
ベイズ推定の概要@広島ベイズ塾Yoshitake Takebayashi
 
「操作変数法」の報告事例
「操作変数法」の報告事例「操作変数法」の報告事例
「操作変数法」の報告事例Yoshitake Takebayashi
 
第4回DARM勉強会 (構造方程式モデリング)
第4回DARM勉強会 (構造方程式モデリング)第4回DARM勉強会 (構造方程式モデリング)
第4回DARM勉強会 (構造方程式モデリング)Yoshitake Takebayashi
 
内容的妥当性,構造的妥当性と仮説検定の評価
内容的妥当性,構造的妥当性と仮説検定の評価内容的妥当性,構造的妥当性と仮説検定の評価
内容的妥当性,構造的妥当性と仮説検定の評価Yoshitake Takebayashi
 
13.01.20.第1回DARM勉強会資料#3
13.01.20.第1回DARM勉強会資料#313.01.20.第1回DARM勉強会資料#3
13.01.20.第1回DARM勉強会資料#3Yoshitake Takebayashi
 
13.01.20.第1回DARM勉強会資料#2
13.01.20.第1回DARM勉強会資料#213.01.20.第1回DARM勉強会資料#2
13.01.20.第1回DARM勉強会資料#2Yoshitake Takebayashi
 
13.01.20.第1回DARM勉強会資料#1
13.01.20.第1回DARM勉強会資料#113.01.20.第1回DARM勉強会資料#1
13.01.20.第1回DARM勉強会資料#1Yoshitake Takebayashi
 
13.01.20. 第1回DARM勉強会資料#4
13.01.20. 第1回DARM勉強会資料#413.01.20. 第1回DARM勉強会資料#4
13.01.20. 第1回DARM勉強会資料#4Yoshitake Takebayashi
 

More from Yoshitake Takebayashi (20)

単一事例研究法と統計的推測:ベイズ流アプローチを架け橋として
単一事例研究法と統計的推測:ベイズ流アプローチを架け橋として単一事例研究法と統計的推測:ベイズ流アプローチを架け橋として
単一事例研究法と統計的推測:ベイズ流アプローチを架け橋として
 
単一事例研究法と統計的推測:ベイズ流アプローチを架け橋として (文字飛び回避版はこちら -> https://www.slideshare.net/yos...
単一事例研究法と統計的推測:ベイズ流アプローチを架け橋として (文字飛び回避版はこちら -> https://www.slideshare.net/yos...単一事例研究法と統計的推測:ベイズ流アプローチを架け橋として (文字飛び回避版はこちら -> https://www.slideshare.net/yos...
単一事例研究法と統計的推測:ベイズ流アプローチを架け橋として (文字飛び回避版はこちら -> https://www.slideshare.net/yos...
 
フェーズI/IIに置けるベイジアン・アダプティブ・メソッド
フェーズI/IIに置けるベイジアン・アダプティブ・メソッドフェーズI/IIに置けるベイジアン・アダプティブ・メソッド
フェーズI/IIに置けるベイジアン・アダプティブ・メソッド
 
STARD2015に学ぶ「診断精度の分析」の書き方
 STARD2015に学ぶ「診断精度の分析」の書き方 STARD2015に学ぶ「診断精度の分析」の書き方
STARD2015に学ぶ「診断精度の分析」の書き方
 
潜在クラス分析
潜在クラス分析潜在クラス分析
潜在クラス分析
 
分類分析 (taxometric analysis)
分類分析 (taxometric analysis)分類分析 (taxometric analysis)
分類分析 (taxometric analysis)
 
項目反応理論による尺度運用
項目反応理論による尺度運用項目反応理論による尺度運用
項目反応理論による尺度運用
 
ベイズ推定の概要@広島ベイズ塾
ベイズ推定の概要@広島ベイズ塾ベイズ推定の概要@広島ベイズ塾
ベイズ推定の概要@広島ベイズ塾
 
「操作変数法」の報告事例
「操作変数法」の報告事例「操作変数法」の報告事例
「操作変数法」の報告事例
 
観察研究の質の評価
観察研究の質の評価観察研究の質の評価
観察研究の質の評価
 
観察研究の必須事項
観察研究の必須事項観察研究の必須事項
観察研究の必須事項
 
観察研究の必須事項
観察研究の必須事項観察研究の必須事項
観察研究の必須事項
 
第4回DARM勉強会 (構造方程式モデリング)
第4回DARM勉強会 (構造方程式モデリング)第4回DARM勉強会 (構造方程式モデリング)
第4回DARM勉強会 (構造方程式モデリング)
 
内容的妥当性,構造的妥当性と仮説検定の評価
内容的妥当性,構造的妥当性と仮説検定の評価内容的妥当性,構造的妥当性と仮説検定の評価
内容的妥当性,構造的妥当性と仮説検定の評価
 
Darm3(samplesize)
Darm3(samplesize)Darm3(samplesize)
Darm3(samplesize)
 
第2回DARM勉強会
第2回DARM勉強会第2回DARM勉強会
第2回DARM勉強会
 
13.01.20.第1回DARM勉強会資料#3
13.01.20.第1回DARM勉強会資料#313.01.20.第1回DARM勉強会資料#3
13.01.20.第1回DARM勉強会資料#3
 
13.01.20.第1回DARM勉強会資料#2
13.01.20.第1回DARM勉強会資料#213.01.20.第1回DARM勉強会資料#2
13.01.20.第1回DARM勉強会資料#2
 
13.01.20.第1回DARM勉強会資料#1
13.01.20.第1回DARM勉強会資料#113.01.20.第1回DARM勉強会資料#1
13.01.20.第1回DARM勉強会資料#1
 
13.01.20. 第1回DARM勉強会資料#4
13.01.20. 第1回DARM勉強会資料#413.01.20. 第1回DARM勉強会資料#4
13.01.20. 第1回DARM勉強会資料#4
 

マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)