SlideShare a Scribd company logo
1 of 30
Chapter 5
基本的な回帰とモデルのチェック
~重回帰~
Osaka.Stan#2 (2016.12.23)
広島大学大学院教育学研究科
平川 真
重回帰 (multiple linear regression)
✓目的変数を複数の説明変数で予測する
→回帰分析の説明変数が複数になっただけ
2
𝑦
𝑥2
𝑥1
本書で扱うデータ
出欠率に関する架空データ (n = 50)
A: アルバイトが好きかどうかの2値 (好き = 1)
Score: 学問への興味の強さ (200点満点)
Y: 1年間の出欠率 (出席回数 / 総授業回数)
* 総授業回数は200~500(人によって異なる)
3
解析の目的
✓2つの説明変数AとScoreで、応答変数Yがどれほど予測できる
か知りたい
✓それぞれの説明変数が出欠率にどれほど影響しているか知りたい
出欠率
Score
A
4
データの分布の確認
{GGally}のggpairs()を
カスタマイズ(↓)したら→に
カスタマイズ、、、
5
データの分布の確認
6
これでも
まぁそれなりに
データの分布の確認
アルバイトが好きな
学生は出席率が低そう
説明変数間に
相関はなさそう
学問への興味が強い
学生は出席率が高そう
Scoreは正規分布
に従いそう
7
メカニズムの想像
✓アルバイトが好きな学生は出席率が低そう
✓学問への興味が強い学生は出席率が高そう
⇒AとScoreの2変数の線形結合によって、
出席率 (Y) が決まる、と仮定
⇒𝑌 = 𝑏1 + 𝑏2 𝐴 + 𝑏3 𝑆𝑐𝑜𝑟𝑒(決定的な関係)
加えて、
出欠率は他の変数や測定誤差などの影響もうける、と仮定
それらの影響を 𝜖 (ノイズ) とし、平均0の正規分布に従う、と仮定
⇒𝑌 = 𝑏1 + 𝑏2 𝐴 + 𝑏3 𝑆𝑐𝑜𝑟𝑒 + 𝜖(確率的な関係) 8
モデル式の記述
モデル式5-1
𝑌 𝑛 = 𝑏1 + 𝑏2 𝐴 𝑛 + 𝑏3 𝑆𝑐𝑜𝑟𝑒 𝑛 + 𝜖 𝑛 𝑛 = 1, … , 𝑁
𝜖 𝑛 ~𝑁𝑜𝑟𝑚𝑎𝑙 0, 𝜎 𝑛 = 1, … , 𝑁
9
AとScoreの線形結合 ノイズ
ノイズは平均0, 標準偏差𝜎
の正規分布従う
モデル式の記述
モデル式5-2 ( 𝜖 を消去)
𝑌 𝑛 ~𝑁𝑜𝑟𝑚𝑎𝑙 𝑏1 + 𝑏2 𝐴 𝑛 + 𝑏3 𝑆𝑐𝑜𝑟𝑒 𝑛 , 𝜎 𝑛 = 1, … , 𝑁
10
(再) モデル式5-1
𝑌 𝑛 = 𝑏1 + 𝑏2 𝐴 𝑛 + 𝑏3 𝑆𝑐𝑜𝑟𝑒 𝑛 + 𝜖 𝑛 𝑛 = 1, … , 𝑁
𝜖 𝑛 ~𝑁𝑜𝑟𝑚𝑎𝑙 0, 𝜎 𝑛 = 1, … , 𝑁
モデル式の記述
モデル式5-3
𝜇 𝑛 = 𝑏1 + 𝑏2 𝐴 𝑛 + 𝑏3 𝑆𝑐𝑜𝑟𝑒 𝑛 𝑛 = 1, … , 𝑁
𝑌 𝑛 ~𝑁𝑜𝑟𝑚𝑎𝑙 𝜇[𝑛], 𝜎 𝑛 = 1, … , 𝑁
11
Yの予測値*はAとScoreの線形結合で決定する
予測値*を中心に標準偏差𝜎の正規分布
に従うノイズがのって、Yの値が決まる
*ここでは予測値を一つの値の指すものとして使っており、本書とは異なる意味で使ってます。
本書では予測値は予測分布のとりうる値を指します。
モデル式5-2(再)
𝑌 𝑛 ~𝑁𝑜𝑟𝑚𝑎𝑙 𝜇[𝑛], 𝜎
𝜇 𝑛 = 𝑏1 + 𝑏2 𝐴 𝑛 + 𝑏3 𝑆𝑐𝑜𝑟𝑒 𝑛 𝑛 = 1, … , 𝑁
12
Yは正規分布から発生している
正規分布の平均パラメタは、説明変数の線形結合で表現され
る
𝑌 𝑛 ~𝑁𝑜𝑟𝑚𝑎𝑙 𝑏1 + 𝑏2 𝐴 𝑛 + 𝑏3 𝑆𝑐𝑜𝑟𝑒 𝑛 , 𝜎 𝑛 = 1, … , 𝑁
⇒平均パラメタを代入してやればモデル式5-2
Stanで実装
13
(再) モデル式5-3
𝜇 𝑛 = 𝑏1 + 𝑏2 𝐴 𝑛 + 𝑏3 𝑆𝑐𝑜𝑟𝑒 𝑛 𝑛 = 1, … 𝑁
𝑌 𝑛 ~𝑁𝑜𝑟𝑚𝑎𝑙 𝜇[𝑛], 𝜎 𝑛 = 1, … , 𝑁
そのまま
model5-3.stan
←Scoreは200点満点だったが、
0-1の範囲で指定されている
←のちにベイズ予測区間を描くので、
予測分布からのMCMCサンプルを生成
とりあえず実行
14
run-model5-3.R
1秒だけMCMC(*´Д`)ハァハァ
他にも50人分のmuとy_pred, lp__が出力されるが省略
←Scoreを200で割って、
0-1の範囲にしている
推定結果の解釈
得られた事後平均をモデル式に代入すると
回帰係数は「説明変数が1増えたときのyの平均的な変化量」
15
収束している模
様
𝜇 𝑛 = 0.13 − 0.14 ∗ 𝐴 𝑛 + 0.32 ∗
𝑆𝑐𝑜𝑟𝑒 𝑛
200
𝑛 = 1, … , 𝑁
𝑌 𝑛 ~𝑁𝑜𝑟𝑚𝑎𝑙 𝜇[𝑛], 0.05 𝑛 = 1, … , 𝑁
データのスケーリング
データのスケーリングをする理由:
大きさがバラバラだとパラメタの探索が非効率になり、
計算に時間がかかったり、収束しにくくなったりするため
16
←Scoreを200で割って、
0-1の範囲にしている
run-model5-3.R
←Scoreは200点満点だったが、
0-1の範囲で指定されている
model5-3.stan
試してみた
17
model5-3.stan
Scoreを0-1の範囲にせず
データをわたした場合
←回帰係数は説明変数が1増加した
ときのyの増分なので、小さくなる
0.32/200=0.0016
ほんとだ
外挿について
外挿: データ範囲の外側を予測すること
アルバイト好きでScoreが0点の学生の出席率は?
0.13 − 0.14 ∗ 1 + 0.32 ∗
0
200
= −0.01
18
𝜇 𝑛 = 0.13 − 0.14 ∗ 𝐴 𝑛 + 0.32 ∗
𝑆𝑐𝑜𝑟𝑒 𝑛
200
𝑛 = 1, … , 𝑁
𝑌 𝑛 ~𝑁𝑜𝑟𝑚𝑎𝑙 𝜇 𝑛 , 0.05 𝑛 = 1, … , 𝑁
出席率が負?
データの範囲外の値について
の予測はしない方がよい
パラメタの幅の確認
分布でしょ!
19
95%ベイズ信頼区間
[0.06~0.19] [-0.17~-0.11]
[0.22~0.42] [0.04~0.06]
図によるモデルのチェック
ベイズ予測区間
* 説明変数が2つの場合、データに
平面をあてはまることになる
⇒3次元の図は見にくいので、
Aの値別に描画
* ここでは80%区間で描画している
20
実測値と予測値のプロット
先のような可視化は、3変数以上になると難しい
⇒実測値と予測値*の関係を把握
多くの点が𝑦 = 𝑥の直線の近く
⇒2変数で応答変数を十分に予測
できている
* 予測値=予測分布の取りうる値
21
推定されたノイズの分布
ノイズについての仮定: 𝑁𝑜𝑟𝑚𝑎𝑙 (0, 𝜎)に従う
⇒この仮定の妥当性をチェック
各人のノイズ(実測値―予測値)の
MAP推定値を集計
破線: 平均0, SD=0.05の正規分布
乖離が小さい→
22
MCMCサンプルの散布図行列
パラメタ間の関係を把握
23
まとめ
重回帰: 複数の変数で応答変数を予測する
モデル:
交互作用→Chap7.1
多重共線性→Chap7.4
24
𝑌 𝑛 ~𝑁𝑜𝑟𝑚𝑎𝑙 𝜇[𝑛], 𝜎
𝜇 𝑛 = 𝑏0 + 𝑏1 𝑋1 + 𝑏2 𝑋2 + ⋯ + 𝑏 𝑘 𝑋 𝑘
1)Yは正規分布から発生している
2) 正規分布の平均パラメタは、
説明変数の線形結合で表現される
おまけ
~モデルの理解を深めるために~
Osaka.Stan#2 (2016.12.23)
架空データの作り方
架空データを自分で作って(*´Д`)ハァハァする
(真値がわかっているので、モデルの性質を把握しやすい)
26
rnorm(): 正規分布に従う乱数を発生
Cf. モデル式
𝑌 𝑛 = 𝑏0 + 𝑏1 𝑥1 + 𝑏2 𝑥2 + 𝜖 𝑛
𝜖 𝑛 ~𝑁𝑜𝑟𝑚𝑎𝑙 0, 𝜎
同じ
lm()で分析すると↓
←平均3, 標準偏差1の
正規分布に従う乱数を100個発生
Stanで推定
27
モデル (modelブロックのみ)
実行コード
Cf. 発生させたデータ
パラメタの真値は 𝑏0 = 3, 𝑏1 = 2, 𝑏2 = 5, 𝜎 = 2.5
うまく推定できている
←パラメタについて
弱情報事前分布を設定
ノイズの大きさをいじってみる
28
𝜎 = 0.5
𝜎 = 10
cf. 𝜎 = 3
実測値と予測値が
対応しにくくなる
パラメタのベイズ信頼区間は
ノイズが大きくなると広がる
* 事後平均値はlm()と一致する
ノイズが大きいと乱数の発生毎に
係数は大きく変化
説明変数に相関をもたせてみる
29
母相関がrhoとなる2変数の発生コード
↓MCMCサンプルの散布図行列
説明変数に相関をもたせてみる
30

More Related Content

What's hot

PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5sleepy_yoshi
 
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装するSMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装するsleepy_yoshi
 
PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7sleepy_yoshi
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3matsuolab
 
13.01.20. 第1回DARM勉強会資料#4
13.01.20. 第1回DARM勉強会資料#413.01.20. 第1回DARM勉強会資料#4
13.01.20. 第1回DARM勉強会資料#4Yoshitake Takebayashi
 
一般化線形混合モデル入門の入門
一般化線形混合モデル入門の入門一般化線形混合モデル入門の入門
一般化線形混合モデル入門の入門Yu Tamura
 
第4回DARM勉強会 (構造方程式モデリング)
第4回DARM勉強会 (構造方程式モデリング)第4回DARM勉強会 (構造方程式モデリング)
第4回DARM勉強会 (構造方程式モデリング)Yoshitake Takebayashi
 
【論文紹介】Distributed Representations of Sentences and Documents
【論文紹介】Distributed Representations of Sentences and Documents【論文紹介】Distributed Representations of Sentences and Documents
【論文紹介】Distributed Representations of Sentences and DocumentsTomofumi Yoshida
 
PRML輪読#6
PRML輪読#6PRML輪読#6
PRML輪読#6matsuolab
 
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1sleepy_yoshi
 
続・わかりやすいパターン認識 9章
続・わかりやすいパターン認識 9章続・わかりやすいパターン認識 9章
続・わかりやすいパターン認識 9章hakusai
 
続・わかりやすいパターン認識第5章
続・わかりやすいパターン認識第5章続・わかりやすいパターン認識第5章
続・わかりやすいパターン認識第5章Roy Ray
 
PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5sleepy_yoshi
 
PRML輪読#4
PRML輪読#4PRML輪読#4
PRML輪読#4matsuolab
 
データ解析13 線形判別分析
データ解析13 線形判別分析データ解析13 線形判別分析
データ解析13 線形判別分析Hirotaka Hachiya
 
R Study Tokyo03
R Study Tokyo03R Study Tokyo03
R Study Tokyo03Yohei Sato
 
Rで実験計画法 前編
Rで実験計画法 前編Rで実験計画法 前編
Rで実験計画法 前編itoyan110
 
Rで実験計画法 後編
Rで実験計画法 後編Rで実験計画法 後編
Rで実験計画法 後編itoyan110
 
cs-12. 式の抽象化と関数,モジュール,算法(アルゴリズム)
cs-12. 式の抽象化と関数,モジュール,算法(アルゴリズム) cs-12. 式の抽象化と関数,モジュール,算法(アルゴリズム)
cs-12. 式の抽象化と関数,モジュール,算法(アルゴリズム) kunihikokaneko1
 

What's hot (20)

PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5
 
詳説word2vec
詳説word2vec詳説word2vec
詳説word2vec
 
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装するSMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
 
PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3
 
13.01.20. 第1回DARM勉強会資料#4
13.01.20. 第1回DARM勉強会資料#413.01.20. 第1回DARM勉強会資料#4
13.01.20. 第1回DARM勉強会資料#4
 
一般化線形混合モデル入門の入門
一般化線形混合モデル入門の入門一般化線形混合モデル入門の入門
一般化線形混合モデル入門の入門
 
第4回DARM勉強会 (構造方程式モデリング)
第4回DARM勉強会 (構造方程式モデリング)第4回DARM勉強会 (構造方程式モデリング)
第4回DARM勉強会 (構造方程式モデリング)
 
【論文紹介】Distributed Representations of Sentences and Documents
【論文紹介】Distributed Representations of Sentences and Documents【論文紹介】Distributed Representations of Sentences and Documents
【論文紹介】Distributed Representations of Sentences and Documents
 
PRML輪読#6
PRML輪読#6PRML輪読#6
PRML輪読#6
 
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1
 
続・わかりやすいパターン認識 9章
続・わかりやすいパターン認識 9章続・わかりやすいパターン認識 9章
続・わかりやすいパターン認識 9章
 
続・わかりやすいパターン認識第5章
続・わかりやすいパターン認識第5章続・わかりやすいパターン認識第5章
続・わかりやすいパターン認識第5章
 
PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5
 
PRML輪読#4
PRML輪読#4PRML輪読#4
PRML輪読#4
 
データ解析13 線形判別分析
データ解析13 線形判別分析データ解析13 線形判別分析
データ解析13 線形判別分析
 
R Study Tokyo03
R Study Tokyo03R Study Tokyo03
R Study Tokyo03
 
Rで実験計画法 前編
Rで実験計画法 前編Rで実験計画法 前編
Rで実験計画法 前編
 
Rで実験計画法 後編
Rで実験計画法 後編Rで実験計画法 後編
Rで実験計画法 後編
 
cs-12. 式の抽象化と関数,モジュール,算法(アルゴリズム)
cs-12. 式の抽象化と関数,モジュール,算法(アルゴリズム) cs-12. 式の抽象化と関数,モジュール,算法(アルゴリズム)
cs-12. 式の抽象化と関数,モジュール,算法(アルゴリズム)
 

Viewers also liked

2017年3月版データマエショリスト入門(誤植修正版)
2017年3月版データマエショリスト入門(誤植修正版)2017年3月版データマエショリスト入門(誤植修正版)
2017年3月版データマエショリスト入門(誤植修正版)Yuya Matsumura
 
MCMCサンプルの使い方 ~見る・決める・探す・発生させる~
MCMCサンプルの使い方 ~見る・決める・探す・発生させる~MCMCサンプルの使い方 ~見る・決める・探す・発生させる~
MCMCサンプルの使い方 ~見る・決める・探す・発生させる~. .
 
Sappo ro#6資料2 ー完全版ー
Sappo ro#6資料2 ー完全版ーSappo ro#6資料2 ー完全版ー
Sappo ro#6資料2 ー完全版ーWakana_kudo
 
Osaka.Stan #3 Chapter 5-2
Osaka.Stan #3 Chapter 5-2Osaka.Stan #3 Chapter 5-2
Osaka.Stan #3 Chapter 5-2Takayuki Goto
 
NagoyaStat#7 StanとRでベイズ統計モデリング(アヒル本)4章の発表資料
NagoyaStat#7 StanとRでベイズ統計モデリング(アヒル本)4章の発表資料NagoyaStat#7 StanとRでベイズ統計モデリング(アヒル本)4章の発表資料
NagoyaStat#7 StanとRでベイズ統計モデリング(アヒル本)4章の発表資料nishioka1
 
Stanでpsychophysics──階層ベイズモデルで恒常法データを分析する──【※Docswellにも同じものを上げています】
Stanでpsychophysics──階層ベイズモデルで恒常法データを分析する──【※Docswellにも同じものを上げています】Stanでpsychophysics──階層ベイズモデルで恒常法データを分析する──【※Docswellにも同じものを上げています】
Stanでpsychophysics──階層ベイズモデルで恒常法データを分析する──【※Docswellにも同じものを上げています】Hiroyuki Muto
 
NagoyaStat #5 データ解析のための
統計モデリング入門 第10章
NagoyaStat #5 データ解析のための
統計モデリング入門 第10章NagoyaStat #5 データ解析のための
統計モデリング入門 第10章
NagoyaStat #5 データ解析のための
統計モデリング入門 第10章nishioka1
 
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章nocchi_airport
 
StanとRで折れ線回帰──空間的視点取得課題の反応時間データを説明する階層ベイズモデルを例に──【※Docswellにも同じものを上げています】
StanとRで折れ線回帰──空間的視点取得課題の反応時間データを説明する階層ベイズモデルを例に──【※Docswellにも同じものを上げています】StanとRで折れ線回帰──空間的視点取得課題の反応時間データを説明する階層ベイズモデルを例に──【※Docswellにも同じものを上げています】
StanとRで折れ線回帰──空間的視点取得課題の反応時間データを説明する階層ベイズモデルを例に──【※Docswellにも同じものを上げています】Hiroyuki Muto
 
Prophet入門【理論編】Facebookの時系列予測ツール
Prophet入門【理論編】Facebookの時系列予測ツールProphet入門【理論編】Facebookの時系列予測ツール
Prophet入門【理論編】Facebookの時系列予測ツールhoxo_m
 
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデルMasashi Komori
 
データ解析のための統計モデリング入門 1~2章
データ解析のための統計モデリング入門 1~2章 データ解析のための統計モデリング入門 1~2章
データ解析のための統計モデリング入門 1~2章 itoyan110
 
Prophet入門【R編】Facebookの時系列予測ツール
Prophet入門【R編】Facebookの時系列予測ツールProphet入門【R編】Facebookの時系列予測ツール
Prophet入門【R編】Facebookの時系列予測ツールhoxo_m
 
StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章
StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章
StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章Shushi Namba
 
Prophet入門【Python編】Facebookの時系列予測ツール
Prophet入門【Python編】Facebookの時系列予測ツールProphet入門【Python編】Facebookの時系列予測ツール
Prophet入門【Python編】Facebookの時系列予測ツールhoxo_m
 
StanとRでベイズ統計モデリング読書会 導入編(1章~3章)
StanとRでベイズ統計モデリング読書会 導入編(1章~3章)StanとRでベイズ統計モデリング読書会 導入編(1章~3章)
StanとRでベイズ統計モデリング読書会 導入編(1章~3章)Hiroshi Shimizu
 

Viewers also liked (16)

2017年3月版データマエショリスト入門(誤植修正版)
2017年3月版データマエショリスト入門(誤植修正版)2017年3月版データマエショリスト入門(誤植修正版)
2017年3月版データマエショリスト入門(誤植修正版)
 
MCMCサンプルの使い方 ~見る・決める・探す・発生させる~
MCMCサンプルの使い方 ~見る・決める・探す・発生させる~MCMCサンプルの使い方 ~見る・決める・探す・発生させる~
MCMCサンプルの使い方 ~見る・決める・探す・発生させる~
 
Sappo ro#6資料2 ー完全版ー
Sappo ro#6資料2 ー完全版ーSappo ro#6資料2 ー完全版ー
Sappo ro#6資料2 ー完全版ー
 
Osaka.Stan #3 Chapter 5-2
Osaka.Stan #3 Chapter 5-2Osaka.Stan #3 Chapter 5-2
Osaka.Stan #3 Chapter 5-2
 
NagoyaStat#7 StanとRでベイズ統計モデリング(アヒル本)4章の発表資料
NagoyaStat#7 StanとRでベイズ統計モデリング(アヒル本)4章の発表資料NagoyaStat#7 StanとRでベイズ統計モデリング(アヒル本)4章の発表資料
NagoyaStat#7 StanとRでベイズ統計モデリング(アヒル本)4章の発表資料
 
Stanでpsychophysics──階層ベイズモデルで恒常法データを分析する──【※Docswellにも同じものを上げています】
Stanでpsychophysics──階層ベイズモデルで恒常法データを分析する──【※Docswellにも同じものを上げています】Stanでpsychophysics──階層ベイズモデルで恒常法データを分析する──【※Docswellにも同じものを上げています】
Stanでpsychophysics──階層ベイズモデルで恒常法データを分析する──【※Docswellにも同じものを上げています】
 
NagoyaStat #5 データ解析のための
統計モデリング入門 第10章
NagoyaStat #5 データ解析のための
統計モデリング入門 第10章NagoyaStat #5 データ解析のための
統計モデリング入門 第10章
NagoyaStat #5 データ解析のための
統計モデリング入門 第10章
 
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
 
StanとRで折れ線回帰──空間的視点取得課題の反応時間データを説明する階層ベイズモデルを例に──【※Docswellにも同じものを上げています】
StanとRで折れ線回帰──空間的視点取得課題の反応時間データを説明する階層ベイズモデルを例に──【※Docswellにも同じものを上げています】StanとRで折れ線回帰──空間的視点取得課題の反応時間データを説明する階層ベイズモデルを例に──【※Docswellにも同じものを上げています】
StanとRで折れ線回帰──空間的視点取得課題の反応時間データを説明する階層ベイズモデルを例に──【※Docswellにも同じものを上げています】
 
Prophet入門【理論編】Facebookの時系列予測ツール
Prophet入門【理論編】Facebookの時系列予測ツールProphet入門【理論編】Facebookの時系列予測ツール
Prophet入門【理論編】Facebookの時系列予測ツール
 
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
 
データ解析のための統計モデリング入門 1~2章
データ解析のための統計モデリング入門 1~2章 データ解析のための統計モデリング入門 1~2章
データ解析のための統計モデリング入門 1~2章
 
Prophet入門【R編】Facebookの時系列予測ツール
Prophet入門【R編】Facebookの時系列予測ツールProphet入門【R編】Facebookの時系列予測ツール
Prophet入門【R編】Facebookの時系列予測ツール
 
StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章
StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章
StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章
 
Prophet入門【Python編】Facebookの時系列予測ツール
Prophet入門【Python編】Facebookの時系列予測ツールProphet入門【Python編】Facebookの時系列予測ツール
Prophet入門【Python編】Facebookの時系列予測ツール
 
StanとRでベイズ統計モデリング読書会 導入編(1章~3章)
StanとRでベイズ統計モデリング読書会 導入編(1章~3章)StanとRでベイズ統計モデリング読書会 導入編(1章~3章)
StanとRでベイズ統計モデリング読書会 導入編(1章~3章)
 

Similar to Osaka.stan#2 chap5-1

第8回スキル養成講座講義資料.pdf
第8回スキル養成講座講義資料.pdf第8回スキル養成講座講義資料.pdf
第8回スキル養成講座講義資料.pdfkeiodig
 
Neural word embedding as implicit matrix factorization の論文紹介
Neural word embedding as implicit matrix factorization の論文紹介Neural word embedding as implicit matrix factorization の論文紹介
Neural word embedding as implicit matrix factorization の論文紹介Masanao Ochi
 
Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル). .
 
Probabilistic Graphical Models 輪読会 Chapter5
Probabilistic Graphical Models 輪読会 Chapter5Probabilistic Graphical Models 輪読会 Chapter5
Probabilistic Graphical Models 輪読会 Chapter5Daiki Shimada
 
ベイズ統計によるデータ解析
ベイズ統計によるデータ解析ベイズ統計によるデータ解析
ベイズ統計によるデータ解析Kunihiro Hisatsune
 
データ解析6 重回帰分析
データ解析6 重回帰分析データ解析6 重回帰分析
データ解析6 重回帰分析Hirotaka Hachiya
 
第5回スキル養成講座 講義スライド
第5回スキル養成講座 講義スライド第5回スキル養成講座 講義スライド
第5回スキル養成講座 講義スライドkeiodig
 
ベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-oldベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-oldNaoki Hayashi
 
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion ModelsDeep Learning JP
 
実験計画法入門 Part 3
実験計画法入門 Part 3実験計画法入門 Part 3
実験計画法入門 Part 3haji mizu
 
幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなしToru Imai
 
強化学習その3
強化学習その3強化学習その3
強化学習その3nishio
 
数理最適化と機械学習の 融合アプローチ -分類と新しい枠組み-
数理最適化と機械学習の融合アプローチ-分類と新しい枠組み-数理最適化と機械学習の融合アプローチ-分類と新しい枠組み-
数理最適化と機械学習の 融合アプローチ -分類と新しい枠組み-MIKIOKUBO3
 
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores,  Clusters and Cloudsの解説LCCC2010:Learning on Cores,  Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説Preferred Networks
 
パターン認識 第10章 決定木
パターン認識 第10章 決定木 パターン認識 第10章 決定木
パターン認識 第10章 決定木 Miyoshi Yuya
 
はじめての確率論 測度から確率へ 57~60ページ ノート
はじめての確率論 測度から確率へ 57~60ページ ノートはじめての確率論 測度から確率へ 57~60ページ ノート
はじめての確率論 測度から確率へ 57~60ページ ノートChihiro Kusunoki
 

Similar to Osaka.stan#2 chap5-1 (20)

prml_titech_9.0-9.2
prml_titech_9.0-9.2prml_titech_9.0-9.2
prml_titech_9.0-9.2
 
第8回スキル養成講座講義資料.pdf
第8回スキル養成講座講義資料.pdf第8回スキル養成講座講義資料.pdf
第8回スキル養成講座講義資料.pdf
 
Neural word embedding as implicit matrix factorization の論文紹介
Neural word embedding as implicit matrix factorization の論文紹介Neural word embedding as implicit matrix factorization の論文紹介
Neural word embedding as implicit matrix factorization の論文紹介
 
EMNLP 2011 reading
EMNLP 2011 readingEMNLP 2011 reading
EMNLP 2011 reading
 
Tokyor24 doradora09
Tokyor24 doradora09Tokyor24 doradora09
Tokyor24 doradora09
 
Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)
 
Probabilistic Graphical Models 輪読会 Chapter5
Probabilistic Graphical Models 輪読会 Chapter5Probabilistic Graphical Models 輪読会 Chapter5
Probabilistic Graphical Models 輪読会 Chapter5
 
ベイズ統計によるデータ解析
ベイズ統計によるデータ解析ベイズ統計によるデータ解析
ベイズ統計によるデータ解析
 
データ解析6 重回帰分析
データ解析6 重回帰分析データ解析6 重回帰分析
データ解析6 重回帰分析
 
第5回スキル養成講座 講義スライド
第5回スキル養成講座 講義スライド第5回スキル養成講座 講義スライド
第5回スキル養成講座 講義スライド
 
レポート1
レポート1レポート1
レポート1
 
ベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-oldベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-old
 
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
 
実験計画法入門 Part 3
実験計画法入門 Part 3実験計画法入門 Part 3
実験計画法入門 Part 3
 
幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなし
 
強化学習その3
強化学習その3強化学習その3
強化学習その3
 
数理最適化と機械学習の 融合アプローチ -分類と新しい枠組み-
数理最適化と機械学習の融合アプローチ-分類と新しい枠組み-数理最適化と機械学習の融合アプローチ-分類と新しい枠組み-
数理最適化と機械学習の 融合アプローチ -分類と新しい枠組み-
 
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores,  Clusters and Cloudsの解説LCCC2010:Learning on Cores,  Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
 
パターン認識 第10章 決定木
パターン認識 第10章 決定木 パターン認識 第10章 決定木
パターン認識 第10章 決定木
 
はじめての確率論 測度から確率へ 57~60ページ ノート
はじめての確率論 測度から確率へ 57~60ページ ノートはじめての確率論 測度から確率へ 57~60ページ ノート
はじめての確率論 測度から確率へ 57~60ページ ノート
 

More from Makoto Hirakawa

今日は何回やればいいのか―状態空間モデルで最大挙上重量を推定し、挙上回数を決める―
今日は何回やればいいのか―状態空間モデルで最大挙上重量を推定し、挙上回数を決める―今日は何回やればいいのか―状態空間モデルで最大挙上重量を推定し、挙上回数を決める―
今日は何回やればいいのか―状態空間モデルで最大挙上重量を推定し、挙上回数を決める―Makoto Hirakawa
 
いいからベイズ推定してみる
いいからベイズ推定してみるいいからベイズ推定してみる
いいからベイズ推定してみるMakoto Hirakawa
 
Rで架空データの発生
Rで架空データの発生Rで架空データの発生
Rで架空データの発生Makoto Hirakawa
 
重回帰分析で交互作用効果
重回帰分析で交互作用効果重回帰分析で交互作用効果
重回帰分析で交互作用効果Makoto Hirakawa
 
重回帰分析で交互作用効果
重回帰分析で交互作用効果重回帰分析で交互作用効果
重回帰分析で交互作用効果Makoto Hirakawa
 

More from Makoto Hirakawa (6)

今日は何回やればいいのか―状態空間モデルで最大挙上重量を推定し、挙上回数を決める―
今日は何回やればいいのか―状態空間モデルで最大挙上重量を推定し、挙上回数を決める―今日は何回やればいいのか―状態空間モデルで最大挙上重量を推定し、挙上回数を決める―
今日は何回やればいいのか―状態空間モデルで最大挙上重量を推定し、挙上回数を決める―
 
いいからベイズ推定してみる
いいからベイズ推定してみるいいからベイズ推定してみる
いいからベイズ推定してみる
 
ベータ分布
ベータ分布ベータ分布
ベータ分布
 
Rで架空データの発生
Rで架空データの発生Rで架空データの発生
Rで架空データの発生
 
重回帰分析で交互作用効果
重回帰分析で交互作用効果重回帰分析で交互作用効果
重回帰分析で交互作用効果
 
重回帰分析で交互作用効果
重回帰分析で交互作用効果重回帰分析で交互作用効果
重回帰分析で交互作用効果
 

Osaka.stan#2 chap5-1

Editor's Notes

  1. 率だから二項分布でモデリングしないと、思われる方もいるかもしれない 分母にあたる授業回数(2項分布でいうN試行数)が多ければ、正規分布で十分近似できるので、このデータで重回帰する。 二項分布をもちいたモデリングについては、次回。
  2. Yの分布についての読み取りがないのは何か理由がある? 逆になぜScoreについての読み取りがあるのか
  3. 心理統計的な書き方に近い
  4. Muについて、心理統計の本ではyの予測値yhutという言い方をしている その言い方でいえば、 Yの予測値はAとScoreの線形結合で決定する 予測値を中心に標準偏差𝜎の正規分布に従うノイズがのって、Yの値が決まる 本書では予測値は予測分布のとりうる値(MCMCサンプル)を指します。
  5. モデル5-3の①と②を逆転して
  6. データの範囲を指定していた方がよい? 予測分布からのMCMCサンプリング
  7. アルバイトが好きな学生(1)はそうでない学生(0)に比べて、出席率が平均的に0.14低い Scoreは0~200点が0~1に変換されているので、0点の学生は200点の学生に比べて出席率が平均的に0.32高い、ということ。 150点の学生は50点の学生に比べて、出席率が平均的に0.16高い
  8. パラメタの大きさを1程度にそろえる、とある。 パラメタ?
  9. モデルはデータブロックでScoreの範囲についての部分を削除している。 Scoreのデータを200で割らずにわたす
  10. 本では「出席率のベースラインmu」といういいかた
  11. パラメタの値が0より大きい(または小さい)確率を伝統的な統計学における回帰係数の有意性判定になぞらえてBayesian p-valueと呼ぶ流儀もある
  12. これまで95%で描画してきたのは伝統的な統計学を意識してのこと 解析者が適宜区間を変えてよいという立場。 この章の解析においては8割の確率で予測を当てれば十分だ、という意向で80%区間
  13. 「80%区間が直線を含んでいる」というのは十分に予測できている根拠になる? データ数が少ないなどで、80%区間が広がることもある、のでは ここでの予測値は、予測
  14. ここでの予測値はMCMCサンプルであって、特定の値ではない。
  15. Spearmanの順位相関係数×100
  16. 教科書ではtransformed parametersで書いてるけど、モデルブロックでmuを書くこともできる。 書き方の一例として。(ただしgene quaで使えなくなるので、予測区間を書いたりするための予測分布からのMCMCサンプリングを出すときには、transformed paraで書く必要) パラメタの弱情報事前分布として、それぞれ設定。 Sigmaはパラメタの下限を0にしている。ハーフコーシー。 推定はうまくいっているが、乱数依存のところがある。
  17. 事後平均値はlmと一致するが、パラメタのベイズ信頼区間はノイズが大きいと広がる
  18. 回帰係数パラメタの相関
  19. 説明変数の相関をいれると推定にちょっと時間がかかる