SlideShare a Scribd company logo
1 of 58
Download to read offline
予測理論とpredictability
(総論的な)
1
名前:馬場真哉
Webサイト: logics of blue で検索!
http://logics-of-blue.com/
2
Caution!
私の主観的な見方で読み解いたものです
正確な表現ではないかもしれません
「分かり易さ」を最重視しました。
3
調査・研究の目的って何?
4
あなたの調査結果はどこへ向かう?
 漁獲量/来遊量を予測
 海獣の漁業被害を予測
 耳石を調べて成長を予測
 環境要因からハビタットを予測
 食性を調べて生物間相互作用を予測
とりあえず予測って言っとく?
5
今回発表する内容
そもそも……
予測って何?
わかりきってる・・・?
6
98% VS 80%
ロサンゼルスの天気予報 日本の天気予報
的中率
やはりアメリカはすごい?
7
ロサンゼルスは
雨が降らないだけ
8
完全的中予報を作ろう
絶滅するかしないか
どちらかでしょう
増えるか減るか
どちらかでしょう
これは予測といえるのか?
雨か雨でないか
どちらかでしょう
9
こんな予測ができました
こんな予測が出されたらどうする?
二択ならなんでも予測できます!
的中率は50%だけどね。
10
的中率50%の予測が世界を変える
宝クジの当たり外れの確率
当たり:
𝟏
𝟏𝟎𝟎𝟎𝟎𝟎𝟎𝟎𝟎
外れ:
𝟗𝟗𝟗𝟗𝟗𝟗𝟗𝟗
𝟏𝟎𝟎𝟎𝟎𝟎𝟎𝟎𝟎
50%の確率で7億円手に入る
的中率50%の予測さえあれば
11
まとめ
完全的中予測でも
「予測した」と言えないことがある
的中率50%でも
優秀な「予測」であることもある
12
本発表の問い
予測って何?
良い予測とは?
予測ができていない状況とは?
研究成果が役に立つためには?
13
発表の流れ
Step1 予測能力:predictabilityを定義する
Step2 予測ができていない状況を定義する
Step3 predictabilityを推定する
14
発表の流れ
Step1 予測能力:predictabilityを定義する
Step2 予測ができていない状況を定義する
実はこの二つはほとんど同じこと
15
predictabilityの発想(Delsole 2004)
予測ができた
予測された結果と
実測値が等しい
Ex)
ロサンゼルスの天気予報
「晴れ」と言い続ければ98%の確率で
予測された結果と実測値が等しくなる
16
predictabilityの発想(Delsole 2004)
予測ができた
「予測ができていない」
ではない
Ex)
宝クジの当たり外れの確率
𝟏
𝟏𝟎𝟎𝟎𝟎𝟎𝟎𝟎𝟎
𝟗𝟗𝟗𝟗𝟗𝟗𝟗𝟗
𝟏𝟎𝟎𝟎𝟎𝟎𝟎𝟎𝟎
    
𝟏
𝟐
       
𝟏
𝟐
    
予測無し
予測有り
当たり ハズレ
17
予測ができていない状況を定義する
予測ができない 何もわからない
完全にランダムなコインを投げる
表・ウラになる確率=50%
既に分かってる確率分布を
「予測できていない状況」と定める
18
予測ができていない状況を定義する
予測ができない 確率50%
天気予報をする
ロサンゼルスで晴れになる確率=98%
この確率分布を
「予測できていない状況」と定める
19
ここまでのまとめ
予測結果の同質性ではなく異質性に着目する
「晴」といった時、本当に晴になったから良い予測
予測ができた
予測された結果と
実測値が等しい
予測無しの状況との『違いが大きい』から良い予測
予測ができた
「予測ができていない」
ではない
20
発表の流れ
Step1 予測能力:predictabilityを定義する
Step2 予測ができていない状況を定義する
Step3 predictabilityを推定する
21
発表の流れ
Step3 predictabilityを推定する
22
predictabilityを推定する
1.情報理論を用いた方法
2.意思決定モデルを用いた方法
相対エントロピー
予測情報量
相互情報量
コスト/ロスモデル
厳密にはpredictabilityじゃないけど、
予測の評価方法として外せないので。
23
predictabilityを推定する
1.情報理論を用いた方法
相対エントロピー
予測情報量
相互情報量
24
情報を定義する(Shannon 1948)
情報の特徴①
珍しいことがわかると価値が高まる
情報の特徴②
情報は足し算で増えていく
確率が小さいほど、情報量は大きい
対数を付けて掛け算を足し算にする
情報量= − log(𝑝)
25
predictabilityを定義する(Delsole 2004)
予測がない時
次投げるコインの確率分布
𝑝 𝑿 𝑡+1 =
1
2
1
2
表 ウラ
26
predictabilityを定義する(Delsole 2004)
「表」予測が出された時の
次投げるコインの確率分布
𝑝 𝑿 𝑡+1 𝒐 𝑡 =
2
3
1
3
表 ウラ
本当は「予測かどうか」を判別するので「予測」と言ってはいけない。
本来は「観測値が得られた時の確率分布」が正しい。
あくまでも、説明の簡単のため。
27
相対エントロピーを定義する(Kullback 1959)
𝑝 𝑿 𝑡+1 𝒐 𝑡 =
2
3
1
3
表 ウラ
𝑝 𝑿 𝑡+1 =
1
2
1
2
表 ウラ予測できてない
予測してみた
この違いを見る
28
相対エントロピーを定義する(Kullback 1959)
①情報量を引き算する
②期待値をとる
予測無し確率分布の情報量
ー予測してみた時の確率分布の情報量
相対エントロピー(Relative entropy)
=確率分布の違いを表す
29
相対エントロピーを定義する(Kullback 1959)
①情報量を引き算する
𝑅 = 𝑝 𝑿 𝑡+1 𝒐 𝑡 log
𝑝 𝑿 𝑡+1 𝒐 𝑡
𝑝(𝑿 𝑡+1)
②期待値をとる(確率をかけてから合計する)
予測無し確率分布の情報量
ー予測してみた時の確率分布の情報量
相対エントロピー(Relative entropy)
=確率分布の差異を表す
対数の外に出せば引き算
30
情報理論その②
相対エントロピーをつかうと「確率分布の違い」は分かる
逆に言えば「違いが判る」だけ
もっと積極的に「良くなった」と主張したい!
「良くなった」時ってどんな時?
31
「よくなった」という言葉を定義する
良くなった 「わからないこと」が減った
32
「よくなった」という言葉を定義する
良くなった 「わからないこと」が減った
わからない 「情報がほしい!」状況
33
「よくなった」という言葉を定義する
良くなった 「わからないこと」が減った
わからない 「情報がほしい!」状況
もし「その事実」を知った時に情報が増えたと感じたら、
それは、「情報がほしい=よくわかっていない」というコト
→ゆえに情報量の期待値で不確実性を定量化できる
34
「よくなった」という言葉を定義する
良くなった 「わからないこと」が減った
わからない 「情報がほしい!」状況
平均情報量=不確実性
𝐻 𝑿 𝑡+1 = − 𝑝(𝑿 𝑡+1) × log 𝑝(𝑿 𝑡+1)
35
「よくなった」という言葉を定義する
良くなった 「わからないこと」が減った
わからない 「情報がほしい!」状況
平均情報量=不確実性
𝐻 𝑿 𝑡+1 = − 𝑝(𝑿 𝑡+1) × log 𝑝(𝑿 𝑡+1)
情報量
その情報量が
得られる確率
36
予測情報量を定義する
𝑃 = 𝐻 𝑿 𝑡+1 − 𝐻 𝑿 𝑡+1 𝒐 𝑡
=もともとの不確実性
-予測してみた時の不確実性
=予測が出されることによって減少した
「わからなさ(不確実性)」の量
予測情報量(predictive information)
37
各指標の比較
相対エントロピー(R)
予測情報量(P)
・確率分布の違いを表す
・Rは常に0以上(違いがなければ0)
・不確実性の減少量を表す
・不確実性は分布が(0.5、0.5)の時最大
・Pはマイナスになることもある
次から話の内容が少し変わります
注意してね。
今まではpredictabilityの話。
次からは「平均predictability」の話です。
39
今までの予測
𝑝 𝑿 𝑡+1 𝒐 𝑡 =
2
3
1
3
表 ウラ
「表」と予測された時の確率分布のみ
これから扱う予測
𝑝 𝑿 𝑡+1 𝒐 𝑡 =  
2
3
1
3
1
4
3
4
表 ウラ
前回表
前回ウラ
予測の場合分けを増やした
(表予測の結果とウラ予測の両方の結果を使った)
平均predictability(Delsole 2004)
40
平均predictability
平均予測情報量
ave𝑃 = 𝐻 𝑿 𝑡+1 − 𝑝 𝒐 𝑡 𝐻 𝑿 𝑡+1 𝒐 𝑡
=もともとの不確実性
-予測後の不確実性の平均値
= 𝑝 𝑿 𝑡+1, 𝒐 𝑡 log
𝑝 𝑿 𝑡+1 𝒐 𝑡
𝑝(𝑿 𝑡+1)
41
平均predictability
平均相対エントロピー
ave𝑅 = 𝑝 𝒐 𝑡 𝑝 𝑿 𝑡+1 𝒐 𝑡 log
𝑝 𝑿 𝑡+1 𝒐 𝑡
𝑝(𝑿 𝑡+1)
=相対エントロピーの平均値
= 𝑝 𝑿 𝑡+1, 𝒐 𝑡 log
𝑝 𝑿 𝑡+1 𝒐 𝑡
𝑝(𝑿 𝑡+1)
確率 相対エントロピー
42
平均predictability
平均予測情報量
=平均相対エントロピー
𝑝 𝑿 𝑡+1, 𝒐 𝑡 log
𝑝 𝑿 𝑡+1 𝒐 𝑡
𝑝(𝑿 𝑡+1)
全て相互情報量(MI)で表すことが可能
平均をとると、両者は等しくなる
相互情報量(MI)
予測
合計
表 ウラ
実際
表 5 10
ウラ 5 9990
合計 10 9990 10000
43
平均predictabilityを直観的に
ものすごく表になりにくいコインの予測
予測
合計
表 ウラ
実際
表 5 10
ウラ 5 9990
合計 10 9990 10000
44
平均predictabilityを直観的に
ものすごく表になりにくいコインの予測
確率分布が異なる
→相対エントロピーは高い
45
平均predictabilityを直観的に
予測
合計
表 ウラ
実際
表 5 10
ウラ 5 9990
合計 10 9990 10000
表予測の的中率は50%
→不確実性がとても高く、予測情報量は低い
ものすごく表になりにくいコインの予測
46
平均predictabilityを直観的に
予測
合計
表 ウラ
実際
表 5 10
ウラ 5 9990
合計 10 9990 10000
?
ものすごく表になりにくいコインの予測
47
平均predictabilityを直観的に
予測
合計
表 ウラ
実際
表 5 5 10
ウラ 5 9985 9990
合計 10 9990 10000
宝くじの予測
ウラ予測の不確実性はとても低くなる
→表予測とウラ予測を平均すると不確実性は低くなる
48
よーするに(数式を無視したい人向け)
平均予測情報量 平均相対エントロピー
相互情報量(MI)
表予測とウラ予測で各指標の平均値をとると
49
まとめ~予測とは何か?~
予測ができた
「予測ができていない」
とは違っている
predictabilityの考え方:違いを調べる
違っている 不確実性が減る
情報理論から導かれた結果
予測 違いをもたらすモノ
不確実性の減少をもたらすモノ
50
predictabilityを推定する
1.情報理論を用いた方法
2.意思決定モデルを用いた方法
相対エントロピー
予測情報量
相互情報量
コスト/ロスモデル
51
predictabilityを推定する
2.意思決定モデルを用いた方法
コスト/ロスモデル
52
意思決定モデル
predictabilityの考え方:違いを調べる
予測 違いをもたらすモノ
今まで
これから
確率分布が違っている
意思決定の結果が違っている
確率分布だけでなく、
予測を使う人の特性も加味する
53
意思決定モデルによる予測の評価(White 1966)
VS予測を利用して
意思決定を行う
利用しないで
意思決定を行う
予測の能力を評価する
意思決定の結果がもたらす差異を基準にして
意思決定の結果
得られた利益
意思決定の結果
得られた利益
比較
54
予測で儲ける仕組みと理屈
コイン投げのゲーム
 掛け金を支払う(いくらでもOK)
 掛け金は戻ってこない
 表が出たら「掛け金×指定倍率」のお金をもらう
 ウラが出たら何ももらえない
55
予測で儲ける仕組みと理屈
𝑝 𝑿 𝑡+1 =
1
2
1
2
表 ウラ
1.2倍 1.6倍 4.0倍
損 損 得
予測できてない
56
予測で儲ける仕組みと理屈
表 ウラ
𝑝 𝑿 𝑡+1 𝒐 𝑡 =
2
3
1
3
損 得 得
1.2倍 1.6倍 4.0倍
予測してみた
57
予測で儲ける仕組みと理屈
表 ウラ
𝑝 𝑿 𝑡+1 𝒐 𝑡 =
2
3
1
3 損
1.2倍
得
1.6倍
得
4.0倍
𝑝 𝑿 𝑡+1 =  
1
2
1
2 損 損 得
予測できてない
予測してみた 表 ウラ
結果が変わったのはここだけ
=意思決定が変わるのはこの人だけ
58
意思決定モデルまとめ
1.2倍 1.6倍 4.0倍
表 ウラ
𝑝 𝑿 𝑡+1 =  
1
2
1
2
予測できてない
𝑝 𝑿 𝑡+1 𝒐 𝑡 =
2
3
1
3
予測してみた 表 ウラ
予測の結果の確率分布
ユーザーの特性
確率分布・ユーザーの特性
どちらを改善しても、予測は改善される。
→特定のユーザーの特性に合わせた予測を出すことも可能

More Related Content

What's hot

ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定Akira Masuda
 
統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-Shiga University, RIKEN
 
2 6.ゼロ切断・過剰モデル
2 6.ゼロ切断・過剰モデル2 6.ゼロ切断・過剰モデル
2 6.ゼロ切断・過剰モデルlogics-of-blue
 
学振特別研究員になるために~2024年度申請版
 学振特別研究員になるために~2024年度申請版 学振特別研究員になるために~2024年度申請版
学振特別研究員になるために~2024年度申請版Masahito Ohue
 
再現性問題は若手研究者の突破口
再現性問題は若手研究者の突破口再現性問題は若手研究者の突破口
再現性問題は若手研究者の突破口Yuki Yamada
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知Yuya Takashina
 
Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Kota Matsui
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理Taiji Suzuki
 
『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会takehikoihayashi
 
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリングmlm_kansai
 
統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333Issei Kurahashi
 
Rで階層ベイズモデル
Rで階層ベイズモデルRで階層ベイズモデル
Rで階層ベイズモデルYohei Sato
 
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデルMasashi Komori
 
ランダムフォレスト
ランダムフォレストランダムフォレスト
ランダムフォレストKinki University
 
初めてのグラフカット
初めてのグラフカット初めてのグラフカット
初めてのグラフカットTsubasa Hirakawa
 
スペクトラルグラフ理論入門
スペクトラルグラフ理論入門スペクトラルグラフ理論入門
スペクトラルグラフ理論入門irrrrr
 
ベルヌーイ分布における超パラメータ推定のための経験ベイズ法
ベルヌーイ分布における超パラメータ推定のための経験ベイズ法ベルヌーイ分布における超パラメータ推定のための経験ベイズ法
ベルヌーイ分布における超パラメータ推定のための経験ベイズ法智文 中野
 

What's hot (20)

ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
 
統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-
 
時系列分析入門
時系列分析入門時系列分析入門
時系列分析入門
 
2 6.ゼロ切断・過剰モデル
2 6.ゼロ切断・過剰モデル2 6.ゼロ切断・過剰モデル
2 6.ゼロ切断・過剰モデル
 
学振特別研究員になるために~2024年度申請版
 学振特別研究員になるために~2024年度申請版 学振特別研究員になるために~2024年度申請版
学振特別研究員になるために~2024年度申請版
 
再現性問題は若手研究者の突破口
再現性問題は若手研究者の突破口再現性問題は若手研究者の突破口
再現性問題は若手研究者の突破口
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知
 
Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2
 
2 3.GLMの基礎
2 3.GLMの基礎2 3.GLMの基礎
2 3.GLMの基礎
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
 
『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会
 
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
 
統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333
 
Rによるベイジアンネットワーク入門
Rによるベイジアンネットワーク入門Rによるベイジアンネットワーク入門
Rによるベイジアンネットワーク入門
 
Rで階層ベイズモデル
Rで階層ベイズモデルRで階層ベイズモデル
Rで階層ベイズモデル
 
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
 
ランダムフォレスト
ランダムフォレストランダムフォレスト
ランダムフォレスト
 
初めてのグラフカット
初めてのグラフカット初めてのグラフカット
初めてのグラフカット
 
スペクトラルグラフ理論入門
スペクトラルグラフ理論入門スペクトラルグラフ理論入門
スペクトラルグラフ理論入門
 
ベルヌーイ分布における超パラメータ推定のための経験ベイズ法
ベルヌーイ分布における超パラメータ推定のための経験ベイズ法ベルヌーイ分布における超パラメータ推定のための経験ベイズ法
ベルヌーイ分布における超パラメータ推定のための経験ベイズ法
 

Viewers also liked

1 5.パラメトリックブートストラップ検定と確率分布
1 5.パラメトリックブートストラップ検定と確率分布1 5.パラメトリックブートストラップ検定と確率分布
1 5.パラメトリックブートストラップ検定と確率分布logics-of-blue
 
2 5 3.一般化線形モデル色々_Gamma回帰と対数線形モデル
2 5 3.一般化線形モデル色々_Gamma回帰と対数線形モデル2 5 3.一般化線形モデル色々_Gamma回帰と対数線形モデル
2 5 3.一般化線形モデル色々_Gamma回帰と対数線形モデルlogics-of-blue
 
2 5 2.一般化線形モデル色々_ロジスティック回帰
2 5 2.一般化線形モデル色々_ロジスティック回帰2 5 2.一般化線形モデル色々_ロジスティック回帰
2 5 2.一般化線形モデル色々_ロジスティック回帰logics-of-blue
 
2 1.予測と確率分布
2 1.予測と確率分布2 1.予測と確率分布
2 1.予測と確率分布logics-of-blue
 
2 2.尤度と最尤法
2 2.尤度と最尤法2 2.尤度と最尤法
2 2.尤度と最尤法logics-of-blue
 
1 3.分散分析 anova
1 3.分散分析 anova1 3.分散分析 anova
1 3.分散分析 anovalogics-of-blue
 
2 4.devianceと尤度比検定
2 4.devianceと尤度比検定2 4.devianceと尤度比検定
2 4.devianceと尤度比検定logics-of-blue
 
2 7.一般化線形混合モデル
2 7.一般化線形混合モデル2 7.一般化線形混合モデル
2 7.一般化線形混合モデルlogics-of-blue
 
1 4.回帰分析と分散分析
1 4.回帰分析と分散分析1 4.回帰分析と分散分析
1 4.回帰分析と分散分析logics-of-blue
 
1 6.変数選択とAIC
1 6.変数選択とAIC1 6.変数選択とAIC
1 6.変数選択とAIClogics-of-blue
 

Viewers also liked (14)

1 5.パラメトリックブートストラップ検定と確率分布
1 5.パラメトリックブートストラップ検定と確率分布1 5.パラメトリックブートストラップ検定と確率分布
1 5.パラメトリックブートストラップ検定と確率分布
 
1 7.Type II ANOVA
1 7.Type II ANOVA1 7.Type II ANOVA
1 7.Type II ANOVA
 
1 2.t検定
1 2.t検定1 2.t検定
1 2.t検定
 
2 5 3.一般化線形モデル色々_Gamma回帰と対数線形モデル
2 5 3.一般化線形モデル色々_Gamma回帰と対数線形モデル2 5 3.一般化線形モデル色々_Gamma回帰と対数線形モデル
2 5 3.一般化線形モデル色々_Gamma回帰と対数線形モデル
 
1 1.はじめに
1 1.はじめに1 1.はじめに
1 1.はじめに
 
2 5 2.一般化線形モデル色々_ロジスティック回帰
2 5 2.一般化線形モデル色々_ロジスティック回帰2 5 2.一般化線形モデル色々_ロジスティック回帰
2 5 2.一般化線形モデル色々_ロジスティック回帰
 
2 1.予測と確率分布
2 1.予測と確率分布2 1.予測と確率分布
2 1.予測と確率分布
 
2 2.尤度と最尤法
2 2.尤度と最尤法2 2.尤度と最尤法
2 2.尤度と最尤法
 
1 8.交互作用
1 8.交互作用1 8.交互作用
1 8.交互作用
 
1 3.分散分析 anova
1 3.分散分析 anova1 3.分散分析 anova
1 3.分散分析 anova
 
2 4.devianceと尤度比検定
2 4.devianceと尤度比検定2 4.devianceと尤度比検定
2 4.devianceと尤度比検定
 
2 7.一般化線形混合モデル
2 7.一般化線形混合モデル2 7.一般化線形混合モデル
2 7.一般化線形混合モデル
 
1 4.回帰分析と分散分析
1 4.回帰分析と分散分析1 4.回帰分析と分散分析
1 4.回帰分析と分散分析
 
1 6.変数選択とAIC
1 6.変数選択とAIC1 6.変数選択とAIC
1 6.変数選択とAIC
 

予測理論とpredictability