SlideShare a Scribd company logo
1 of 30
目的
手法
結果
LDAにおけるベイズ汎化誤差の厳密な漸近形
林 直輝(株式会社NTTデータ数理システム; 東京工業大学)
潜在ディリクレ配分(LDA)におけるベイズ汎化誤差を理論的に解明すること
LDAのベイズ汎化誤差が正則モデルと大きく異なる挙動となることを証明した
LDAにおける真の分布と学習モデルのKL情報量を代数幾何学的に解析した
2 一般潜在ディリクレ配分 LDA 特異モデル 学習係数 実対数閾値 ベイズ推測
モデルの”固有次元”(実対数閾値)●とパラメータ数/2◆
モデルのトピック数
ベイズ汎化誤差―と最尤・MAP汎化誤差の下界---
サンプルサイズn
𝐺 𝑛: ベイズ汎化誤差
𝔼 𝐺 𝑛 =
𝜆
𝑛
+ 𝑜
1
𝑛
Based on https://arxiv.org/abs/2008.01304
“固有次元”を 𝜆 と置くと→
目的
手法
結果
LDAにおけるベイズ汎化誤差の厳密な漸近形
林 直輝(株式会社NTTデータ数理システム; 東京工業大学)
潜在ディリクレ配分(LDA)におけるベイズ汎化誤差を理論的に解明すること
LDAのベイズ汎化誤差が正則モデルと大きく異なる挙動となることを証明した
LDAにおける真の分布と学習モデルのKL情報量を代数幾何学的に解析した
2 一般潜在ディリクレ配分 LDA 特異モデル 学習係数 実対数閾値 ベイズ推測
モデルの”固有次元”(実対数閾値)●とパラメータ数/2◆
モデルのトピック数
ベイズ汎化誤差―と最尤・MAP汎化誤差の下界---
サンプルサイズn
𝐺 𝑛: ベイズ汎化誤差
𝔼 𝐺 𝑛 =
𝜆
𝑛
+ 𝑜
1
𝑛
Based on https://arxiv.org/abs/2008.01304
“固有次元”を 𝜆 と置くと→
概要
3
ポイント
1. LDAは特異モデル故に汎化誤差は不明
→これを理論的に解明した
2. 多くの汎化誤差解析はバウンド評価
→厳密な漸近形を導出した
3. “固有次元”λの理論値はsBICに必要
→精密なモデル選択が可能となった
目次
1. 潜在ディリクレ配分(LDA)
2. 特異モデルの汎化誤差解析
3. 主定理
4. 考察と結論
4
目次
1. 潜在ディリクレ配分(LDA)
2.
3.
4.
5
1.潜在ディリクレ配分(LDA)
• 文書 𝑧 𝑛 と単語 𝑥 𝑛 :観測
• トピック 𝑦 𝑛 :不可観測
• 文書→単語の出現確率を推定するモデル
6
𝑥 𝑛
∼ 𝑞 𝑥 𝑧 :真の分布
𝑝 𝑥 𝑧, 𝑦, 𝑤 :学習モデル
estimate
n
xyz
1.潜在ディリクレ配分(LDA)
7
ART
Horsthuis
fractal
NAME
MATH
Weierstrass
fractal
NAME
・
・
・
・
・
・
ART draw
・
・
・
NAME Takagi
LDAによるデータ(単語)の生成過程モデリング
Document 1
Document N
[4] HW. 2020a, modified
1.潜在ディリクレ配分(LDA)
8
ART
Horsthuis
fractal
NAME
MATH
Weierstrass
fractal
NAME
・
・
・
・
・
・
ART draw
・
・
・
NAME Takagi
LDAによるデータ(単語)の生成過程モデリング
Document 1
Document N
[4] HW. 2020a, modified
文書jのトピック比率 𝑏𝑗 = 𝑏1𝑗, … , 𝑏 𝐻𝑗
トピックkの単語比率 𝑎 𝑘 = 𝑎1𝑘, … , 𝑎 𝑀𝑘
1.潜在ディリクレ配分(LDA)
• LDAの学習モデル:
𝑝 𝑥|𝑧, 𝑦, 𝐴, 𝐵 ≔ 𝑗
𝑁
𝑘
𝐻
𝑏 𝑘𝑗Cat 𝑥 𝑎 𝑘
𝑦 𝑘 𝑧 𝑗
.
‒ 文書 𝑧, トピック 𝑦, 単語 𝑥, :
それぞれ(N,H,M)次元の onehot ベクトル.
‒ パラメータ 𝐴; 𝑀 × 𝐻, 𝐵; 𝐻 × 𝑁 :確率行列
𝑘 𝑎𝑖𝑘 = 1, 𝑗 𝑏 𝑘𝑗 = 1.
‒ トピックを周辺化すると,
𝑝 𝑥 𝑧, 𝐴, 𝐵 = 𝑘 𝑗
𝑁
𝑏 𝑘𝑗Cat 𝑥 𝑎 𝑘
𝑧 𝑗
.
9
0.3 0.1 0.5
0.3 0.1 0.1
0.4 0.8 0.4
確率行列の例
1.潜在ディリクレ配分(LDA)
• LDAはテキストマイニング以外にも様々な領域で
役に立つ
‒ 画像解析,計量経済学,地球科学,……
• LDAの推定性能(汎化誤差)は未知
‒ 階層構造による特異性
10
目次
1.
2. 特異モデルの汎化誤差解析
3.
4.
11
真の分布を𝑞 𝑥 ,予測分布を𝑝∗
𝑥 = 𝑃 𝑥 𝑥 𝑛
とする.
• 汎化誤差 𝐺 𝑛 :真から予測へのKL情報量
𝐺 𝑛 = 𝑞 𝑥 log
𝑞 𝑥
𝑝∗ 𝑥
d𝑥 .
12
真の分布
データ
予測分布
2.特異モデルの汎化誤差解析
汎化誤差
• 特異学習理論:特異な場合の汎化誤差解析
• 事後分布が正規分布で近似できなくても、
汎化誤差の平均値の挙動が分かる:
𝔼 𝐺 𝑛 =
𝜆
𝑛
−
𝑚 − 1
𝑛 log 𝑛
+ 𝑜
1
𝑛 log 𝑛
• 係数𝜆を実対数閾値、 𝑚を多重度という.
‒ KL(q||p)の零点が作る代数多様体から定まる.
• 周辺尤度𝑍 𝑛も 𝜆, 𝑚 が主要項となる:
− log 𝑍 𝑛 = 𝑛𝑆 𝑛 + 𝜆 log 𝑛 − 𝑚 − 1 log log 𝑛 + 𝑂𝑝 1 .
Snは経験エントロピー.
13
[7] Watanabe. 2001
2.特異モデルの汎化誤差解析
2.特異モデルの汎化誤差解析
• 実対数閾値𝜆の直感的意味:体積次元
𝜆 = lim
𝑡→+0
log 𝑉 𝑡
log 𝑡
, 𝑉 𝑡 =
𝐾 𝑤 <𝑡
𝜑 𝑤 d𝑤 .
‒ KL(q||p) = 𝐾 𝑤 の零点近傍の体積次元,常に有理数
14
𝐾 𝑤 < 𝑡の模式図
黒+:零点集合
赤//: 𝑉 𝑡 の積分領域
𝑡 → +0
2.特異モデルの汎化誤差解析
• 実対数閾値𝜆の直感的意味:体積次元
𝜆 = lim
𝑡→+0
log 𝑉 𝑡
log 𝑡
, 𝑉 𝑡 =
𝐾 𝑤 <𝑡
𝜑 𝑤 d𝑤 .
‒ KL(q||p) = 𝐾 𝑤 の零点近傍の体積次元,常に有理数
• 似た概念:ミンコフスキー次元𝑑∗
𝑑∗ = 𝑑 − lim
𝑡→+0
log 𝒱 𝑡
log 𝑡
, 𝒱 𝑡 =
dist 𝑆,𝑤 <𝑡
d𝑤 .
‒ 部分空間 𝑆 ⊂ ℝ 𝑑 のフラクタル次元,無理数になりうる
15
2.特異モデルの汎化誤差解析
• (𝜆, 𝑚) を求める多くの研究がある:
16
特異モデル 文献
混合正規分布 Yamazaki, et. al. in 2003 [9]
縮小ランク回帰=行列分解 Aoyagi, et. al. in 2005 [1]
マルコフモデル Zwiernik in 2011 [10]
非負値行列分解 H, et. al. in 2017/2020 [3]/[5]
… …
本研究の位置づけ:
特異モデルの汎化誤差解析の知識体系への貢献
2.特異モデルの汎化誤差解析
• (𝜆, 𝑚) を求める多くの研究がある:
17
特異モデル 文献
混合正規分布 Yamazaki, et. al. in 2003 [9]
縮小ランク回帰=行列分解 Aoyagi, et. al. in 2005 [1]
マルコフモデル Zwiernik in 2011 [10]
非負値行列分解 H, et. al. in 2017/2020 [3]/[5]
… …
本研究の位置づけ:
特異モデルの汎化誤差解析の知識体系への貢献
従来研究:ほとんどの研究ではλの上界のみ解明
本研究:LDAのλとmの厳密値を解明
目次
1.
2.
3. 主定理
4.
18
3.主定理
【本研究の主結果】
LDAの実対数閾値𝜆を明らかにした:
(1) ①N+H0≦M+H & ②M+H0≦N+H & ③H+H0≦M+Nの
とき,
19
𝜆 =
1
8
2 𝐻 + 𝐻0 𝑀 + 𝑁 − 𝑀 − 𝑁 2 − 𝐻 + 𝐻0
2 − 𝛿,
𝛿 =
𝑁
2
, 𝑀 + 𝑁 + 𝐻 + 𝐻0: 偶数.
𝑁
2
−
1
8
, 𝑀 + 𝑁 + 𝐻 + 𝐻0: 奇数.
Thm. 3.1. in https://arxiv.org/abs/2008.01304
3.主定理
【本研究の主結果】
LDAの実対数閾値𝜆を明らかにした:
(2) not ①, i.e. M+H<N+H0のとき,
20
𝜆 =
1
2
𝑀𝐻 + 𝑁𝐻0 − 𝐻𝐻0 − 𝑁 .
Thm. 3.1. in https://arxiv.org/abs/2008.01304
3.主定理
【本研究の主結果】
LDAの実対数閾値𝜆を明らかにした:
(3) not ②, i.e. N+H<M+H0のとき,
21
𝜆 =
1
2
𝑁𝐻 + 𝑀𝐻0 − 𝐻𝐻0 − 𝑁 .
Thm. 3.1. in https://arxiv.org/abs/2008.01304
3.主定理
【本研究の主結果】
LDAの実対数閾値𝜆を明らかにした:
(4) not ③, i.e. M+N<H+H0のとき,
多重度は(1)の奇数ケースで 𝑚 = 2,それ以外で 𝑚 = 1.
22
𝜆 =
1
2
𝑀𝑁 − 𝑁 .
Thm. 3.1. in https://arxiv.org/abs/2008.01304
目次
1.
2.
3.
4. 考察と結論
23
4.考察と結論
• 真を固定してトピック数を増やすとどうなるか?
24
実対数閾値lim
𝑛→∞
𝑛𝔼𝐺𝑛
正則モデルと大きく異なる挙動
• パラメータ次元/2(黄◆):
線型に増加して非有界
• LDAの実対数閾値(青●):
非線形かつ上に有界
𝑑
2
=
𝑀 − 1 𝐻 + 𝐻 − 1 𝑁
2
.
𝑑
2
𝜆
4.考察と結論
• ベイズ推測以外の推定手法との比較は?
25
• 同次元の正則モデル(黄---):
最尤・MAP汎化誤差の下界
• LDA(青ー):
同次元の正則モデル未満
汎化誤差𝔼𝐺𝑛
𝔼 𝐺 𝑛
MAP ≈
𝜇
𝑛
𝜆 ≤
𝑑
2
≪ 𝜇 by [8]Watanabe.2018
⇒ 𝜇 − 𝜆 ≥
𝑑
2
− 𝜆.
𝔼 𝐺 𝑛
LDA
≈
𝜆
𝑛
𝔼 𝐺 𝑛
Regular
≈
𝑑
2𝑛
4.考察と結論
• モデル選択への応用
‒ 周辺尤度ベースのモデル選択:BIC, WBIC, sBIC, …
• 特異ベイズ情報量規準sBIC
‒ 特異学習理論の周辺尤度を基にして周辺尤度を近似:
− log 𝑍 𝑛 = 𝑛𝑆 𝑛 + 𝜆 log 𝑛 − 𝑚 − 1 log log 𝑛 + 𝑂𝑝 1 .
‒ WBICより数値的分散が小さく正確
‒ 実対数閾値 𝜆 の理論値が必要
• 主定理→sBICによるモデル選択がLDAで可能に
26
[2] Drton & Plummer. 2017
4.考察と結論
【結論】
• LDA:テキスト解析などに用いられる階層モデル
‒ 階層性により特異モデル→ベイズ汎化誤差が不明
• 特異学習理論:ベイズ汎化誤差は実対数閾値によって
決定される
‒ LDAのベイズ汎化誤差解析を可能とする
• LDAについて実対数閾値を厳密に解明
‒ sBICによる精密なモデル選択が可能に
27
文献
[1] Aoyagi, M & Watanabe, S. Stochastic complexities of reduced rank regression in
Bayesian estimation. Neural Netw. 2005;18(7):924–33.
[2] Drton, M & Plummer, M. A Bayesian information criterion for singular models. J R
Stat Soc B. 2017;79:323–80 with discussion.
[3] H, N & Watanabe, S. (2017). Tighter upper bound of real log canonical threshold of
non-negative matrix factorization and its application to Bayesian inference. In IEEE
symposium series on computational intelligence (IEEE SSCI). (pp. 718–725).
[4] H, N & Watanabe, S. (2020a). Asymptotic Bayesian generalization error in latent
Dirichlet allocation. SN Computer Science. 2020;1(69):1-22.
[5] H, N. (2020b). Variational approximation error in non-negative matrix factorization.
Neural Netw. 2020;126(June):65-75.
[6] Nakada, R & Imaizumi, M. Adaptive approximation and generalization of deep
neural network with Intrinsic dimensionality. JMLR. 2020;21(174):1-38.
[7] Watanabe, S. Algebraic geometrical methods for hierarchical learning machines.
Neural Netw. 2001;13(4):1049–60.
[8] Watanabe, S. Mathematical theory of Bayesian statistics. Florida: CR Press. 2018.
[9] Yamazaki, K & Watanabe, S. Singularities in mixture models and upper bounds of
stochastic complexity. Neural Netw. 2003;16(7):1029–38.
[10] Zwiernik P. An asymptotic behaviour of the marginal likelihood for general Markov
models. J Mach Learn Res. 2011;12(Nov):3283–310.
28
音声ソフトと利益相反(CoI)
【音声ソフト】
• 『VOICEROID2 琴葉 茜・葵』(株式会社AHS)
【CoI】
• 本発表は著者個人の研究活動に依る.
• 所属組織における業務は一切関係ない.
29
音声ソフトと利益相反(CoI)
【音声ソフト】
• 『VOICEROID2 琴葉 茜・葵』(株式会社AHS)
【CoI】
• 本発表は著者個人の研究活動に依る.
• 所属組織における業務は一切関係ない.
30

More Related Content

What's hot

[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential EquationsDeep Learning JP
 
アンサンブル学習
アンサンブル学習アンサンブル学習
アンサンブル学習Hidekazu Tanaka
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門tmtm otm
 
第五回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場第五回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場Daisuke Yoneoka
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1matsuolab
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII
 
[DL輪読会]When Does Label Smoothing Help?
[DL輪読会]When Does Label Smoothing Help?[DL輪読会]When Does Label Smoothing Help?
[DL輪読会]When Does Label Smoothing Help?Deep Learning JP
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)Kota Matsui
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -tmtm otm
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Yoshitaka Ushiku
 
幾何と機械学習: A Short Intro
幾何と機械学習: A Short Intro幾何と機械学習: A Short Intro
幾何と機械学習: A Short IntroIchigaku Takigawa
 
遺伝的アルゴリズム (Genetic Algorithm)を始めよう!
遺伝的アルゴリズム(Genetic Algorithm)を始めよう!遺伝的アルゴリズム(Genetic Algorithm)を始めよう!
遺伝的アルゴリズム (Genetic Algorithm)を始めよう!Kazuhide Okamura
 
機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論Taiji Suzuki
 
パターン認識 第10章 決定木
パターン認識 第10章 決定木 パターン認識 第10章 決定木
パターン認識 第10章 決定木 Miyoshi Yuya
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方joisino
 
【解説】 一般逆行列
【解説】 一般逆行列【解説】 一般逆行列
【解説】 一般逆行列Kenjiro Sugimoto
 

What's hot (20)

[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations
 
アンサンブル学習
アンサンブル学習アンサンブル学習
アンサンブル学習
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
 
第五回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場第五回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
 
Rの高速化
Rの高速化Rの高速化
Rの高速化
 
[DL輪読会]When Does Label Smoothing Help?
[DL輪読会]When Does Label Smoothing Help?[DL輪読会]When Does Label Smoothing Help?
[DL輪読会]When Does Label Smoothing Help?
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
 
幾何と機械学習: A Short Intro
幾何と機械学習: A Short Intro幾何と機械学習: A Short Intro
幾何と機械学習: A Short Intro
 
MICの解説
MICの解説MICの解説
MICの解説
 
coordinate descent 法について
coordinate descent 法についてcoordinate descent 法について
coordinate descent 法について
 
画像処理基礎
画像処理基礎画像処理基礎
画像処理基礎
 
遺伝的アルゴリズム (Genetic Algorithm)を始めよう!
遺伝的アルゴリズム(Genetic Algorithm)を始めよう!遺伝的アルゴリズム(Genetic Algorithm)を始めよう!
遺伝的アルゴリズム (Genetic Algorithm)を始めよう!
 
機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論
 
パターン認識 第10章 決定木
パターン認識 第10章 決定木 パターン認識 第10章 決定木
パターン認識 第10章 決定木
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方
 
【解説】 一般逆行列
【解説】 一般逆行列【解説】 一般逆行列
【解説】 一般逆行列
 

Similar to 【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】

【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】Naoki Hayashi
 
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)MLSE
 
みどりぼん読書会 第4章
みどりぼん読書会 第4章みどりぼん読書会 第4章
みどりぼん読書会 第4章Masanori Takano
 
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」Naoki Hayashi
 
関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCA関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCAAkisato Kimura
 
Approximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLPApproximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLPKoji Matsuda
 
Partial least squares回帰と画像認識への応用
Partial least squares回帰と画像認識への応用Partial least squares回帰と画像認識への応用
Partial least squares回帰と画像認識への応用Shohei Kumagai
 
PRML輪読#14
PRML輪読#14PRML輪読#14
PRML輪読#14matsuolab
 
ISMB読み会 2nd graph kernel
ISMB読み会 2nd graph kernelISMB読み会 2nd graph kernel
ISMB読み会 2nd graph kernel弘毅 露崎
 
Nips yomikai 1226
Nips yomikai 1226Nips yomikai 1226
Nips yomikai 1226Yo Ehara
 
Tokyo r12 - R言語による回帰分析入門
Tokyo r12 - R言語による回帰分析入門Tokyo r12 - R言語による回帰分析入門
Tokyo r12 - R言語による回帰分析入門Yohei Sato
 
アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法Satoshi Hara
 
Deep learningbook chap7
Deep learningbook chap7Deep learningbook chap7
Deep learningbook chap7Shinsaku Kono
 
モンテカルロサンプリング
モンテカルロサンプリングモンテカルロサンプリング
モンテカルロサンプリングKosei ABE
 
関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)Akisato Kimura
 

Similar to 【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】 (20)

【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
 
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
 
みどりぼん読書会 第4章
みどりぼん読書会 第4章みどりぼん読書会 第4章
みどりぼん読書会 第4章
 
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
 
関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCA関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCA
 
Approximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLPApproximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLP
 
PRML Chapter 5
PRML Chapter 5PRML Chapter 5
PRML Chapter 5
 
Partial least squares回帰と画像認識への応用
Partial least squares回帰と画像認識への応用Partial least squares回帰と画像認識への応用
Partial least squares回帰と画像認識への応用
 
PRML輪読#14
PRML輪読#14PRML輪読#14
PRML輪読#14
 
ISMB読み会 2nd graph kernel
ISMB読み会 2nd graph kernelISMB読み会 2nd graph kernel
ISMB読み会 2nd graph kernel
 
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
一般化線形モデル (GLM) & 一般化加法モデル(GAM) 一般化線形モデル (GLM) & 一般化加法モデル(GAM)
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
 
W8PRML5.1-5.3
W8PRML5.1-5.3W8PRML5.1-5.3
W8PRML5.1-5.3
 
Nips yomikai 1226
Nips yomikai 1226Nips yomikai 1226
Nips yomikai 1226
 
はじパタLT2
はじパタLT2はじパタLT2
はじパタLT2
 
Sakashita
SakashitaSakashita
Sakashita
 
Tokyo r12 - R言語による回帰分析入門
Tokyo r12 - R言語による回帰分析入門Tokyo r12 - R言語による回帰分析入門
Tokyo r12 - R言語による回帰分析入門
 
アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法
 
Deep learningbook chap7
Deep learningbook chap7Deep learningbook chap7
Deep learningbook chap7
 
モンテカルロサンプリング
モンテカルロサンプリングモンテカルロサンプリング
モンテカルロサンプリング
 
関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)
 

More from Naoki Hayashi

【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論
【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論
【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論Naoki Hayashi
 
Bayesian Generalization Error and Real Log Canonical Threshold in Non-negativ...
Bayesian Generalization Error and Real Log Canonical Threshold in Non-negativ...Bayesian Generalization Error and Real Log Canonical Threshold in Non-negativ...
Bayesian Generalization Error and Real Log Canonical Threshold in Non-negativ...Naoki Hayashi
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介Naoki Hayashi
 
ベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-oldベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-oldNaoki Hayashi
 
諸君,じゃんけんに負けたからといって落ち込むことはない.長津田にも飯はある.
諸君,じゃんけんに負けたからといって落ち込むことはない.長津田にも飯はある.諸君,じゃんけんに負けたからといって落ち込むことはない.長津田にも飯はある.
諸君,じゃんけんに負けたからといって落ち込むことはない.長津田にも飯はある.Naoki Hayashi
 
IEEESSCI2017-FOCI4-1039
IEEESSCI2017-FOCI4-1039IEEESSCI2017-FOCI4-1039
IEEESSCI2017-FOCI4-1039Naoki Hayashi
 
すずかけはいいぞ
すずかけはいいぞすずかけはいいぞ
すずかけはいいぞNaoki Hayashi
 
RPG世界の形状及び距離の幾何学的考察(#rogyconf61)
RPG世界の形状及び距離の幾何学的考察(#rogyconf61)RPG世界の形状及び距離の幾何学的考察(#rogyconf61)
RPG世界の形状及び距離の幾何学的考察(#rogyconf61)Naoki Hayashi
 
RPG世界の形状及び距離の幾何学的考察(rogyconf61)
RPG世界の形状及び距離の幾何学的考察(rogyconf61)RPG世界の形状及び距離の幾何学的考察(rogyconf61)
RPG世界の形状及び距離の幾何学的考察(rogyconf61)Naoki Hayashi
 
Rogyゼミ7thスライドpublic
Rogyゼミ7thスライドpublicRogyゼミ7thスライドpublic
Rogyゼミ7thスライドpublicNaoki Hayashi
 
Rogyゼミスライド6th
Rogyゼミスライド6thRogyゼミスライド6th
Rogyゼミスライド6thNaoki Hayashi
 
Rogy目覚まし(仮)+おまけ
Rogy目覚まし(仮)+おまけRogy目覚まし(仮)+おまけ
Rogy目覚まし(仮)+おまけNaoki Hayashi
 
ぼくのつくったこうだいさいてんじぶつ
ぼくのつくったこうだいさいてんじぶつぼくのつくったこうだいさいてんじぶつ
ぼくのつくったこうだいさいてんじぶつNaoki Hayashi
 
情報統計力学のすすめ
情報統計力学のすすめ情報統計力学のすすめ
情報統計力学のすすめNaoki Hayashi
 

More from Naoki Hayashi (19)

【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論
【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論
【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論
 
Bayesian Generalization Error and Real Log Canonical Threshold in Non-negativ...
Bayesian Generalization Error and Real Log Canonical Threshold in Non-negativ...Bayesian Generalization Error and Real Log Canonical Threshold in Non-negativ...
Bayesian Generalization Error and Real Log Canonical Threshold in Non-negativ...
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
ベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-oldベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-old
 
諸君,じゃんけんに負けたからといって落ち込むことはない.長津田にも飯はある.
諸君,じゃんけんに負けたからといって落ち込むことはない.長津田にも飯はある.諸君,じゃんけんに負けたからといって落ち込むことはない.長津田にも飯はある.
諸君,じゃんけんに負けたからといって落ち込むことはない.長津田にも飯はある.
 
201803NC
201803NC201803NC
201803NC
 
201703NC
201703NC201703NC
201703NC
 
IEEESSCI2017-FOCI4-1039
IEEESSCI2017-FOCI4-1039IEEESSCI2017-FOCI4-1039
IEEESSCI2017-FOCI4-1039
 
201709ibisml
201709ibisml201709ibisml
201709ibisml
 
すずかけはいいぞ
すずかけはいいぞすずかけはいいぞ
すずかけはいいぞ
 
RPG世界の形状及び距離の幾何学的考察(#rogyconf61)
RPG世界の形状及び距離の幾何学的考察(#rogyconf61)RPG世界の形状及び距離の幾何学的考察(#rogyconf61)
RPG世界の形状及び距離の幾何学的考察(#rogyconf61)
 
RPG世界の形状及び距離の幾何学的考察(rogyconf61)
RPG世界の形状及び距離の幾何学的考察(rogyconf61)RPG世界の形状及び距離の幾何学的考察(rogyconf61)
RPG世界の形状及び距離の幾何学的考察(rogyconf61)
 
Rogyゼミ7thスライドpublic
Rogyゼミ7thスライドpublicRogyゼミ7thスライドpublic
Rogyゼミ7thスライドpublic
 
Rogyゼミスライド6th
Rogyゼミスライド6thRogyゼミスライド6th
Rogyゼミスライド6th
 
Rogy目覚まし(仮)+おまけ
Rogy目覚まし(仮)+おまけRogy目覚まし(仮)+おまけ
Rogy目覚まし(仮)+おまけ
 
ぼくのつくったこうだいさいてんじぶつ
ぼくのつくったこうだいさいてんじぶつぼくのつくったこうだいさいてんじぶつ
ぼくのつくったこうだいさいてんじぶつ
 
情報統計力学のすすめ
情報統計力学のすすめ情報統計力学のすすめ
情報統計力学のすすめ
 
Rogyゼミ2014 10
Rogyゼミ2014 10Rogyゼミ2014 10
Rogyゼミ2014 10
 
Rogyzemi
RogyzemiRogyzemi
Rogyzemi
 

【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】