SlideShare a Scribd company logo
1 of 59
Download to read offline
非負値行列分解における
漸近的Bayes汎化誤差
林 直輝 (16M30250)
指導教官:渡邊澄夫 教授
12018/2/1 東工大修論発表
目次
• 背景
• 主定理
• 実験と考察
• 結論
2018/2/1 東工大修論発表 2
1. 背景
2018/2/1 東工大修論発表 3
目次
• 背景
– 非負値行列分解
– 実対数閾値
– 研究目的
• 主定理
• 実験と考察
• 結論
2018/2/1 東工大修論発表 4
NMFは広く応用されている
• 非負値行列分解 (Non-negative Matrix Factorization,
NMF) は,複合データを解析するために様々な分野
で使われている機械学習手法である
• 応用例
– 購買バスケットデータ → 購買解析
– 画像,音声,…… → 信号処理
– テキストデータ → テキストマイニング・解析
– マイクロアレイデータ → バイオインフォマティクス
↑ 知識・構造の発見
NMF: data → knowledge
2018/2/1 東工大修論発表 5
NMFは特異モデル
• NMF は階層構造を持つ統計モデル
• 尤度・事後分布は正規分布で
近似することができない
• 従来の統計的漸近理論は成立しない
2018/2/1 東工大修論発表 6
AIC BIC
伝統的な統計学:
「正規分布でいつでも近似できる」
伝統的な統計学:
「正規分布でいつでも近似できる」
NMFは特異モデル
• NMF は階層構造を持つ統計モデル
• 尤度・事後分布は正規分布で
近似することができない
• 従来の統計的漸近理論は成立しない
2018/2/1 東工大修論発表 7
AIC BIC
伝統的な統計学:
「正規分布でいつでも近似できる」
NMFは特異モデル
• NMF は階層構造を持つ統計モデル
• 尤度・事後分布は正規分布で
近似することができない
• 従来の統計的漸近理論は成立しない
2018/2/1 東工大修論発表 8
AIC BIC
伝統的な統計学:
「正規分布でいつでも近似できる」• NMF は階層構造を持つ統計モデル
• 尤度・事後分布は正規分布で
近似することができない
• 従来の統計的漸近理論は成立しない
階層構造による パラメータの識別不能性 :
𝑿𝒀 = 𝑿𝑷𝑷−𝟏
𝒀; 𝐟𝐨𝐫 ∃𝑷 ≠ 𝑰; 𝑿, 𝒀, 𝑿𝑷, 𝑷−𝟏
𝒀 ≥ 𝟎
𝟏 𝟑
𝟏 𝟑
𝟏 𝟒
𝟏 𝟏 𝟒
𝟓 𝟏 𝟒
=
𝟏 𝟑
𝟏 𝟑
𝟏 𝟒
𝟐 −𝟑
𝟏 𝟐
𝟐 −𝟑
𝟏 𝟐
−𝟏
𝟏 𝟏 𝟒
𝟓 𝟏 𝟒
=
𝟏
𝟕
𝟓 𝟑
𝟓 𝟑
𝟔 𝟓
𝟏𝟕 𝟓 𝟐𝟎
𝟗 𝟏 𝟒
=
𝟏𝟔 𝟒 𝟏𝟔
𝟏𝟔 𝟒 𝟏𝟔
𝟐𝟏 𝟓 𝟐𝟎
2018/2/1 東工大修論発表 9
AIC BIC
NMFは特異モデル
伝統的な統計学:
「正規分布でいつでも近似できる」• NMF は階層構造を持つ統計モデル
• 尤度・事後分布は正規分布で
近似することができない
• 従来の統計的漸近理論は成立しない
階層構造による パラメータの識別不能性 :
𝑿𝒀 = 𝑿𝑷𝑷−𝟏
𝒀; 𝐟𝐨𝐫 ∃𝑷 ≠ 𝑰; 𝑿, 𝒀, 𝑿𝑷, 𝑷−𝟏
𝒀 ≥ 𝟎
𝟏 𝟑
𝟏 𝟑
𝟏 𝟒
𝟏 𝟏 𝟒
𝟓 𝟏 𝟒
=
𝟏 𝟑
𝟏 𝟑
𝟏 𝟒
𝟐 −𝟑
𝟏 𝟐
𝟐 −𝟑
𝟏 𝟐
−𝟏
𝟏 𝟏 𝟒
𝟓 𝟏 𝟒
=
𝟏
𝟕
𝟓 𝟑
𝟓 𝟑
𝟔 𝟓
𝟏𝟕 𝟓 𝟐𝟎
𝟗 𝟏 𝟒
=
𝟏𝟔 𝟒 𝟏𝟔
𝟏𝟔 𝟒 𝟏𝟔
𝟐𝟏 𝟓 𝟐𝟎
2018/2/1 東工大修論発表 10
AIC BIC
1つの非負行列に
対して2つ以上の
分解が存在する
NMFは特異モデル
伝統的な統計学:
「正規分布でいつでも近似できる」• NMF は階層構造を持つ統計モデル
• 尤度・事後分布は正規分布で
近似することができない
• 従来の統計的漸近理論は成立しない
2018/2/1 東工大修論発表 11
• 強い初期値依存性
• 多くの局所解や鞍点を持つ
– 大域的に最適な解は,ほぼ得られない.
In addition +
AIC BIC
NMFは特異モデル
• NMF は``data → knowledge’’として応用されている
2018/2/1 東工大修論発表 12
NMFの学習理論は未だない
• NMF は``data → knowledge’’として応用されている
• 数学的な構造は未解明
– 学習理論は構築されていない
– 予測精度は明らかにされていない
数値計算の正しさは保証されない
理論的な制御変数・ハイパーパラメータの
調整方法は存在しない
2018/2/1 東工大修論発表 13
NMFの学習理論は未だない
• NMF は``data → knowledge’’として応用されている
• 数学的な構造は未解明
– 学習理論は構築されていない
– 予測精度は明らかにされていない
2018/2/1 東工大修論発表 14
NMFの学習理論の構築は
理論と応用両面から重要
NMFの学習理論は未だない
目次
• 背景
– 非負値行列分解
– 実対数閾値
– 研究目的
• 主定理
• 実験と考察
• 結論
2018/2/1 東工大修論発表 15
• 一般に,[Watanabe, 2001]
– n をサンプルサイズ
– Bayes汎化誤差を 𝑮 𝒏
とするとその平均値の漸近挙動は:
𝔼 𝑮 𝒏 =
𝝀
𝒏
+ 𝒐
𝟏
𝒏
.
• 主要項の係数𝝀 はモデル依存
• 𝝀 は実対数閾値(real log canonical
threshold, RLCT) と呼ばれる
2018/2/1 東工大修論発表 16
RLCTと学習の関係は?
Bayesは最尤より誤差が小さい
• 階層的なモデルでは, 係数 𝝀 はBayes推定の場合
の方が最尤・事後確率最大化推定よりも小さい
[Watanabe,2001 and 2009]
• Bayes推定は汎化誤差を減らすために効果的
• 本研究ではBayes推定の枠組みでNMFを考える
– NMFのBayes推定は [Cemgil, 2009] で提案されているが,
離散的な場合のみ.本研究では連続的な場合も扱う.
2018/2/1 東工大修論発表 17
NMFのRLCTは未解明
• NMF は``data → knowledge’’として応用されている
• 数学的な構造は未解明
– 学習理論は構築されていない
– 予測精度は明らかにされていない
↑ 先述の課題は
NMFのRLCTは未解明ということ
2018/2/1 東工大修論発表 18
RLCTの定義と応用
• RLCTは``学習係数’’として特徴づけられる
• 数学的な定義は以下の1変数複素函数を解析接続
したものの最大極の符号反転である:
𝜻 𝒛 = න𝑲 𝜽 𝒛 𝝋 𝜽 𝒅𝜽,
ここで 𝑲 は真の分布から学習機械へのKL情報量で,𝝋
は事前分布である.
• RLCTの理論値を用いるモデル選択手法が提案され
ている[Drton, et al. 2017].
2018/2/1 東工大修論発表 19
RLCTの定義と応用
• RLCTは``学習係数’’として特徴づけられる
• 数学的な定義は以下の1変数複素函数を解析接続
したものの最大極の符号反転である:
𝜻 𝒛 = න𝑲 𝜽 𝒛 𝝋 𝜽 𝒅𝜽,
ここで 𝑲 は真の分布から学習機械へのKL情報量で,𝝋
は事前分布である.
• RLCTの理論値を用いるモデル選択手法が提案され
ている[Drton, et al. 2017].
2018/2/1 東工大修論発表 20
sBIC
(singular BIC)
目次
• 背景
– 非負値行列分解
– 実対数閾値
– 研究目的
• 主定理
• 実験と考察
• 結論
2018/2/1 東工大修論発表 21
研究目的
非負値行列分解(NMF)の数値計算結果の検証や理
論的な学習アルゴリズムの考案のために,その学習
理論の構築を目指して
• 予測精度(汎化誤差)の理論値に着目
→実対数閾値(RLCT)に着目・これを解明
※一般に予測と発見は異なるが,知識発見の確からしさ
(自由エネルギーの漸近挙動)についてもRLCTは支配的
2018/2/1 東工大修論発表 22
2. 主定理
2018/2/1 東工大修論発表 23
目次
• 背景
• 主定理
– NMFのBayes推定の枠組み
– 主結果と証明
• 実験と考察
• 結論
2018/2/1 東工大修論発表 24
定式化と設定
• データ行列: 𝑾 𝒏 = 𝑾 𝟏, … , 𝑾 𝒏 ; 𝑴 × 𝑵(× 𝒏)
– 一般のため,複数(n>1)の行列の分解を考える.
2018/2/1 東工大修論発表 25
[Kohjima et al. 2016/6, modified]
𝑾𝑴
𝑵
定式化と設定
• データ行列: 𝑾 𝒏 = 𝑾 𝟏, … , 𝑾 𝒏 ; 𝑴 × 𝑵(× 𝒏)
– 一般のため,複数(n>1)の行列の分解を考える.
• 真の分解: 𝑨; 𝑴 × 𝑯 𝟎, 𝑩; 𝑯 𝟎 × 𝑵
• 学習機械の分解: 𝑿; 𝑴 × 𝑯, 𝒀; 𝑯 × 𝑵
2018/2/1 東工大修論発表 26
[Kohjima et al. 2016/6, modified]
𝑾𝑴
𝑵 𝑯 𝟎 𝑵
𝑯 𝟎
𝑴 𝑨
𝑩
定式化と設定
• データ行列: 𝑾 𝒏 = 𝑾 𝟏, … , 𝑾 𝒏 ; 𝑴 × 𝑵(× 𝒏)
– 一般のため,複数(n>1)の行列の分解を考える.
• 真の分解: 𝑨; 𝑴 × 𝑯 𝟎, 𝑩; 𝑯 𝟎 × 𝑵
• 学習機械の分解: 𝑿; 𝑴 × 𝑯, 𝒀; 𝑯 × 𝑵
• Bayes法の枠組みだとどうなるか?
2018/2/1 東工大修論発表 27
[Kohjima et al. 2016/6, modified]
𝑾𝑴
𝑵 𝑯 𝟎 𝑵
𝑯 𝟎
𝑴 𝑨
𝑩
• 確率密度函数の記号定義
– 𝑞 𝑊 : 真の分布,
– 𝑝 𝑊 𝑋, 𝑌 : 学習機械,
– 𝑝∗ 𝑊 : Bayes予測分布,
これらの定義域はEuclid空間.
– 𝜑 𝑋, 𝑌 : 事前分布,
– 𝑝 𝑋, 𝑌 𝑊 𝑛 : データが与えられたときの事後分布,
これらの定義域はEuclid空間のコンパクト部分集合.
2018/2/1 東工大修論発表 28
定式化と設定
data
parameter
• 確率密度函数を
𝒒 𝑾 ∝ 𝐞𝐱𝐩 −
𝟏
𝟐
𝑾 − 𝑨𝑩 𝟐 ,
𝒑 𝑾 𝑿, 𝒀 ∝ 𝐞𝐱𝐩 −
𝟏
𝟐
𝑾 − 𝑿𝒀 𝟐
,
とし,事前分布 𝝋 は真の分解 𝑨, 𝑩 の近傍で正かつ有
界であるとする.
• 正規分布だけでなく指数分布やPoisson分布でも主定
理は成り立つ(考察で詳述).
2018/2/1 東工大修論発表 29
定式化と設定
Bayes推定の枠組み
• 事後分布は次で定義される:
𝒑 𝑿, 𝒀 𝑾 𝒏 =
𝟏
𝒁 𝒏
ෑ
𝒊=𝟏
𝒏
𝒑 𝑾𝒊 𝑿, 𝒀 𝝋 𝑿, 𝒀 .
ここで 𝒁 𝒏 は正規化定数である.
• Bayes予測分布は次で定義される:
𝒑∗
𝑾 = න𝒑 𝑾 𝑿, 𝒀 𝒑 𝑿, 𝒀 𝑾 𝒏
)𝒅𝑿𝒅𝒀 .
2018/2/1 東工大修論発表 30
Bayes推定の枠組み
• Bayes汎化誤差は真の分布から予測分布への
KL情報量によって定義される:
𝑮 𝒏 = න 𝒒 𝑾 𝐥𝐨𝐠
𝒒 𝑾
𝒑∗ 𝑾
𝒅𝑾.
• 予測分布がデータ依存であるから,汎化誤差は確率
変数であり揺らいでいる.
• データの取り方についての平均についての漸近挙動:
𝔼 𝑮 𝒏 =
𝝀
𝒏
+ 𝒐
𝟏
𝒏
.
2018/2/1 東工大修論発表 31
目次
• 背景
• 主定理
– NMFのBayes推定の枠組み
– 主結果と証明
• 実験と考察
• 結論
2018/2/1 東工大修論発表 32
NMFのRLCTの定義
• NMFのRLCTを,以下の一変数複素函数を解析接続し
たものの最大極の符号反転で定義する:
𝜻 𝒛 = ඵ 𝑿𝒀 − 𝑨𝑩 𝟐 𝒛
𝒅𝑿𝒅𝒀 .
2018/2/1 東工大修論発表 33
• NMFのRLCTを,以下の一変数複素函数を解析接続し
たものの最大極の符号反転で定義する:
𝜻 𝒛 = ඵ 𝑿𝒀 − 𝑨𝑩 𝟐 𝒛
𝒅𝑿𝒅𝒀 .
• 𝜻 𝒛 は複素数平面全体に有理型函数として一意に解
析接続され,その極はすべて負の有理数となることが
証明できる.
• 𝜻 𝒛 の最大極を −𝝀 とする.
このとき𝝀をNMFのRLCTという.
2018/2/1 東工大修論発表 34
NMFのRLCTの定義
• NMFのRLCTを,以下の一変数複素函数を解析接続し
たものの最大極の符号反転で定義する:
𝜻 𝒛 = ඵ 𝑿𝒀 − 𝑨𝑩 𝟐 𝒛
𝒅𝑿𝒅𝒀 .
• 𝜻 𝒛 は複素数平面全体に有理型函数として一意に解
析接続され,その極はすべて負の有理数となることが
証明できる.
• 𝜻 𝒛 の最大極を −𝝀 とする.
このとき𝝀をNMFのRLCTという.
2018/2/1 東工大修論発表 35
NMFのRLCTの定義
𝐎
𝐗 𝐗 𝐗 𝐗 𝐗
𝒛 = −𝝀
ℂ
• NMFのRLCT𝝀 は以下の不等式を満足する:
𝝀 ≤
𝟏
𝟐
𝑯 − 𝑯 𝟎 𝐦𝐢𝐧 𝑴, 𝑵 + 𝑯 𝟎 𝑴 + 𝑵 − 𝟐 + 𝜹 𝑯 𝟎
,
ここで
𝜹 𝑯 𝟎
= ቊ
𝟏 (𝑯 𝟎 ≅ 𝟏, 𝐦𝐨𝐝 𝟐)
𝟎 (𝒐𝒕𝒉𝒆𝒓𝒘𝒊𝒔𝒆)
.
• 𝑯 = 𝑯 𝟎 = 𝟏 𝐨𝐫 𝟐 or 𝑯 𝟎 = 𝟎のとき,等号が成立する.
主定理
2018/2/1 東工大修論発表 36
Naoki Hayashi, Sumio Watanabe. "Upper Bound of Bayesian Generalization Error in Non-negative Matrix Factorization",Neurocomputing,
Volume 266C, 29 November 2017, pp.21-28. (2017/4/27 accepted).
Naoki Hayashi, Sumio Watanabe."Tighter Upper Bound of Real Log Canonical Threshold of Non-negative Matrix Factorization and its
Application to Bayesian Inference." 2017 IEEE Symposium Series on Computational Intelligence (IEEE SSCI 2017), Honolulu, Hawaii, USA.
Nov. 27 - Dec 1, 2017. (2017/11/28).
• 𝑯 𝟎 = 𝟎 のときの厳密値を不等式評価で解明した.
• 二乗誤差の零点が作る代数多様体の次元と
多項式イデアルの生成元に着目し,
𝑯 = 𝑯 𝟎 = 𝟏及び2のときの厳密値を解明した.
– 最も非自明な箇所.非負値制約により代数多様体の次元の考
察が容易ではない.
• 𝑯 = 𝑯 𝟎 の場合の上界を,上述の厳密値を用いながら
不等式評価で導出した.
• 一般の場合の上界を, 𝑯 = 𝑯 𝟎 の場合の上界と𝑯 𝟎 = 𝟎
のときの厳密値を用いて導出した.
□2018/2/1 東工大修論発表 37
Sketch of Proof
3. 実験と考察
2018/2/1 東工大修論発表 38
目次
• 背景
• 主定理
• 実験と考察
– 理論的な応用
– 数値実験と予想
• 結論
• (付録: 証明の概要)
2018/2/1 東工大修論発表 39
汎化誤差をバウンドできる
• 以下の漸近挙動を用いて,Bayes汎化誤差の上界を主
定理から直ちに導出できる:
𝔼 𝑮 𝒏 =
𝝀
𝒏
+ 𝒐
𝟏
𝒏
.
• 実際,次が成立する:
𝔼 𝑮 𝒏 ≤
𝟏
𝟐𝒏
𝑯 − 𝑯 𝟎 𝐦𝐢𝐧 𝑴, 𝑵 + 𝑯 𝟎 𝑴 + 𝑵 − 𝟐 + 𝜹 𝑯 𝟎
+ 𝒐
𝟏
𝒏
.
– これは汎化誤差の理論値の範囲を示している.
– すなわち数値計算の理論保証を与えている.
• どのような分布の時に汎化誤差はバウンドされるか?
2018/2/1 東工大修論発表 40
分布に関するロバスト性
• 主定理では行列の要素は正規分布に従うと仮定し
ていた:
𝒒 𝑾 ∝ 𝓝 𝑾 𝑨𝑩 ,
𝒑 𝑾 𝑿, 𝒀 ∝ 𝓝 𝑾 𝑿𝒀 .
• 他の確率分布に従うとき,主定理の不等式は成立
するだろうか?
2018/2/1 東工大修論発表 41
分布に関するロバスト性
• 実際は,行列の要素がPoisson分布や指数分布に従う
場合でも,同じゼータ函数を用いて汎化誤差の議論が
可能なことが証明できる:
𝒒 𝑾 ∝ 𝐏𝐨𝐢 𝑾 𝑨𝑩 ,
𝒑 𝑾 𝑿, 𝒀 ∝ 𝐏𝐨𝐢 𝑾 𝑿𝒀 ,
𝒒 𝑾 ∝ 𝐄𝐱𝐩𝐨 𝑾 𝑨𝑩 ,
𝒑 𝑾 𝑿, 𝒀 ∝ 𝐄𝐱𝐩𝐨 𝑾 𝑿𝒀 ,
𝜻 𝒛 = ඵ 𝑿𝒀 − 𝑨𝑩 𝟐 𝒛
𝒅𝑿𝒅𝒀 .
2018/2/1 東工大修論発表 42
Even if
We can use
分布に関するロバスト性
• 先の結果は,I-情報量(拡張KL情報量) や 板倉斎藤-情
報量が行列の二乗誤差と同じRLCTを持つことから導か
れる.
2018/2/1 東工大修論発表 43
確率分布 正規分布 Poisson分布 指数分布
行列間非類似度 二乗誤差 I-情報量 板倉斎藤-情報量
𝜻 𝒛 = ඵ 𝑿𝒀 − 𝑨𝑩 𝟐 𝒛
𝒅𝑿𝒅𝒀
We can use
同じRLCTを持つ
分布に関するロバスト性
• 先の結果は,I-情報量(拡張KL情報量) や 板倉斎藤-情
報量が行列の二乗誤差と同じRLCTを持つことから導か
れる.
2018/2/1 東工大修論発表 44
確率分布 正規分布 Poisson分布 指数分布
行列間非類似度 二乗誤差 I-情報量 板倉斎藤-情報量
𝜻 𝒛 = ඵ 𝑿𝒀 − 𝑨𝑩 𝟐 𝒛
𝒅𝑿𝒅𝒀
We can use
同じRLCTを持つ
主定理が成立
目次
• 背景
• 主定理
• 実験と考察
– 理論的な応用
– 数値実験と予想
• 結論
• (付録: 証明の概要)
2018/2/1 東工大修論発表 45
• RLCTの厳密値を見積もるために数値実験を行った.
– 加えて,非負値制約のない行列分解(縮小ランク回帰,RRR)
のRLCTの厳密値との比較を行った.
• 事後分布を解析的に計算することは困難.
→Markov連鎖モンテカルロ法(MCMC)
– Metropolis Hastings法によるMCMCを用いた.
2018/2/1 東工大修論発表 46
数値実験
• 以下のケースで人工データを生成して実験した:
– 1. NMFのRLCTの厳密値が解明済み.
– 2. 厳密値が不明で,かつ rank = rank+.
– 3. 厳密値が不明で,かつ rank ≠ rank+.
• rank+ : NMFの最小内部次元の理論値
– これ↑は非負値ランク(non-negative rank)と呼ばれる.
– 一般に, rank+≧ rank .
– min{rows, columns} ≦ 3 or rank ≦2 ⇒ rank =rank+である.
– 実際,rank<rank+であるような非負値行列が存在する.
2018/2/1 東工大修論発表 47
非負値制約による「ランク」の違い
• サンプルサイズはn=200 (パラメータ次元≦50)
• データセットをD=100個用意
→ 各データセットから得た汎化誤差の算術平均を利用
𝔼 𝑮 𝒏 =
𝝀
𝒏
+ 𝒐
𝟏
𝒏
→ 𝝀 ≈ 𝒏𝔼 𝑮 𝒏 ≈
𝒏
𝑫
෍
𝒋=𝟏
𝑫
𝑮 𝒏
𝒋
• MCMC によるサンプルサイズはK=1,000
– Burn-in=20,000, thin=20, i.e. 合計の繰り返しは40,000.
• 𝑮 𝒏の計算のために, T=20,000個のテストデータを生成し
KL情報量を計算.
• 合計: 100*(40,000+1,000*20,000) ≈ 𝑶 𝑫𝑲𝑻
2018/2/1 東工大修論発表 48
実験の条件設定
2018/2/1 東工大修論発表 49
実験結果
𝝀 𝑵 𝝀 𝝀 𝑩 𝝀 𝑹
数値計算の
結果
NMFのRLCTの
厳密値
NMFのRLCTの
上界
RRRのRLCTの
厳密値
r: true rank
2018/2/1 東工大修論発表 50
実験結果
数値計算結果は理論値に等しい:
𝝀 𝑵 = 𝝀.
数値計算は正しく動いている
r: true rank
𝝀 𝑵 𝝀 𝝀 𝑩 𝝀 𝑹
数値計算の
結果
NMFのRLCTの
厳密値
NMFのRLCTの
上界
RRRのRLCTの
厳密値
2018/2/1 東工大修論発表 51
実験結果r: true rank
rank = rank+のとき,実験結果は
RRRのRLCTに等しい: 𝝀 𝑵 = 𝝀 𝑹.
rank = rank+のとき,NMFのRLCTは
RRRのそれに等しい: 𝝀 = 𝝀 𝑹.
𝝀 𝑵 𝝀 𝝀 𝑩 𝝀 𝑹
数値計算の
結果
NMFのRLCTの
厳密値
NMFのRLCTの
上界
RRRのRLCTの
厳密値
2018/2/1 東工大修論発表 52
実験結果r: true rank
rank ≠ rank+のとき,実験結果は
RRRのRLCTより大きい: 𝝀 𝑵 > 𝝀 𝑹.
rank ≠ rank+のとき,
NMFのRLCTはRRRのRLCT
より大きい: 𝝀 𝑵 > 𝝀 𝑹.
𝝀 𝑵 𝝀 𝝀 𝑩 𝝀 𝑹
数値計算の
結果
NMFのRLCTの
厳密値
NMFのRLCTの
上界
RRRのRLCTの
厳密値
2018/2/1 東工大修論発表 53
NMFのRLCTの厳密値(予想)
4. 結論
2018/2/1 東工大修論発表 54
目次
• 背景
• 主定理
• 実験と考察
• 結論
2018/2/1 東工大修論発表 55
• (主な貢献)非負値行列分解の実対数閾値の上界を理
論的に導出した.
– この上界は非負値行列分解のBayes汎化誤差の理論上界と
なり,数値計算結果の検証や適切な内部次元の設計に役立
てることができる.
• (補足的貢献)非負値行列分解の実対数閾値の数値的
な挙動を検証し,ランクと非負値ランクの違いに着目し
てその厳密値の範囲を予想した:
– ・ rank = rank+ ⇒ RLCT of NMF = RLCT of RRR.
– ・ rank ≠ rank+ ⇒ RLCT of NMF > RLCT of RRR.
2018/2/1 東工大修論発表 56
結論
• 雑誌論文
– Naoki Hayashi, Sumio Watanabe. "Upper Bound of Bayesian
Generalization Error in Non-Negative Matrix Factorization“,
Neurocomputing, Volume 266C, 29 November 2017, pp.21-
28. (2017/4/27 accepted).
• 国際会議
– Naoki Hayashi, Sumio Watanabe."Tighter Upper Bound of Real
Log Canonical Threshold of Non-negative Matrix Factorization
and its Application to Bayesian Inference“, 2017 IEEE Symposium
Series on Computational Intelligence (IEEE SSCI 2017), Honolulu,
Hawaii, USA. Nov. 27 - Dec 1, 2017. (2017/11/28).
2018/2/1 東工大修論発表 57
査読有り研究業績
• 国内会議
– 林直輝, 渡邊澄夫. "非負値行列分解の実対数閾値とBayes学習への応用", 第19回情報論的学
習理論ワークショップ (IBIS2016), 信学技報, Vol.116, No.300, pp.215-220. (2016/11/17発表).
– 林直輝, 渡邊澄夫. "非負値行列分解における実対数閾値の実験的考察", ニューロコンピューテ
ィング研究会(NC), 信学技報, Vol.116, No.521, pp.85-90. (2017/3/13発表).
– 林直輝, 中村文士. "特異Bayes情報量規準による混合正規分布のモデル選択における変分
Bayes法の実験的考察", 情報論的学習理論と機械学習(IBISML), 信学技報, Vol.117, No.211,
pp.19-26. (2017/9/15発表).
– 林直輝, 渡邊澄夫. "確率行列分解の実対数閾値とBayes学習への応用", 第20回情報論的学習
理論ワークショップ (IBIS2017), 信学技報, Vol.117, No.293, pp.23-30. (2017/11/9発表).
• arXiv preprint
– Naoki Hayashi, Sumio Watanabe. "Asymptotic Bayesian Generalization Error
in a General Stochastic Matrix Factorization for Markov Chain and Bayesian
Network", pp.1-36. (released on 2017/9/13, submitted to JMLR on 2017/12/4).
2018/2/1 東工大修論発表 58
査読無し研究業績
• (主な貢献)非負値行列分解の実対数閾値の上界を理
論的に導出した.
– この上界は非負値行列分解のBayes汎化誤差の理論上界と
なり,数値計算結果の検証や適切な非負値ランクの設計に役
立てることができる.
• (補足的貢献)非負値行列分解の実対数閾値の数値的
な挙動を検証し,ランクと非負値ランクの違いに着目し
てその厳密値の範囲を予想した:
– ・ rank = rank+ ⇒ RLCT of NMF = RLCT of RRR.
– ・ rank ≠ rank+ ⇒ RLCT of NMF > RLCT of RRR.
2018/2/1 東工大修論発表 59
結論

More Related Content

What's hot

最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリングmlm_kansai
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向Motokawa Tetsuya
 
画像キャプションの自動生成
画像キャプションの自動生成画像キャプションの自動生成
画像キャプションの自動生成Yoshitaka Ushiku
 
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)Deep Learning JP
 
[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential EquationsDeep Learning JP
 
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process ModelsDeep Learning JP
 
【論文読み会】Moser Flow: Divergence-based Generative Modeling on Manifolds
【論文読み会】Moser Flow: Divergence-based Generative Modeling on Manifolds【論文読み会】Moser Flow: Divergence-based Generative Modeling on Manifolds
【論文読み会】Moser Flow: Divergence-based Generative Modeling on ManifoldsARISE analytics
 
[DL輪読会]近年のオフライン強化学習のまとめ —Offline Reinforcement Learning: Tutorial, Review, an...
[DL輪読会]近年のオフライン強化学習のまとめ —Offline Reinforcement Learning: Tutorial, Review, an...[DL輪読会]近年のオフライン強化学習のまとめ —Offline Reinforcement Learning: Tutorial, Review, an...
[DL輪読会]近年のオフライン強化学習のまとめ —Offline Reinforcement Learning: Tutorial, Review, an...Deep Learning JP
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習cvpaper. challenge
 
POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用Yasunori Ozaki
 
DeepLearning 輪読会 第1章 はじめに
DeepLearning 輪読会 第1章 はじめにDeepLearning 輪読会 第1章 はじめに
DeepLearning 輪読会 第1章 はじめにDeep Learning JP
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデルMasahiro Suzuki
 
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII
 
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章Hakky St
 
ドメイン適応の原理と応用
ドメイン適応の原理と応用ドメイン適応の原理と応用
ドメイン適応の原理と応用Yoshitaka Ushiku
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAGIRobots
 
[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展Deep Learning JP
 
MIRU2016 チュートリアル
MIRU2016 チュートリアルMIRU2016 チュートリアル
MIRU2016 チュートリアルShunsuke Ono
 

What's hot (20)

最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向
 
画像キャプションの自動生成
画像キャプションの自動生成画像キャプションの自動生成
画像キャプションの自動生成
 
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
 
[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations
 
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
 
【論文読み会】Moser Flow: Divergence-based Generative Modeling on Manifolds
【論文読み会】Moser Flow: Divergence-based Generative Modeling on Manifolds【論文読み会】Moser Flow: Divergence-based Generative Modeling on Manifolds
【論文読み会】Moser Flow: Divergence-based Generative Modeling on Manifolds
 
[DL輪読会]近年のオフライン強化学習のまとめ —Offline Reinforcement Learning: Tutorial, Review, an...
[DL輪読会]近年のオフライン強化学習のまとめ —Offline Reinforcement Learning: Tutorial, Review, an...[DL輪読会]近年のオフライン強化学習のまとめ —Offline Reinforcement Learning: Tutorial, Review, an...
[DL輪読会]近年のオフライン強化学習のまとめ —Offline Reinforcement Learning: Tutorial, Review, an...
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
 
POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用
 
DeepLearning 輪読会 第1章 はじめに
DeepLearning 輪読会 第1章 はじめにDeepLearning 輪読会 第1章 はじめに
DeepLearning 輪読会 第1章 はじめに
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
 
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
 
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
 
ドメイン適応の原理と応用
ドメイン適応の原理と応用ドメイン適応の原理と応用
ドメイン適応の原理と応用
 
ELBO型VAEのダメなところ
ELBO型VAEのダメなところELBO型VAEのダメなところ
ELBO型VAEのダメなところ
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
 
[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展
 
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
一般化線形モデル (GLM) & 一般化加法モデル(GAM) 一般化線形モデル (GLM) & 一般化加法モデル(GAM)
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
 
MIRU2016 チュートリアル
MIRU2016 チュートリアルMIRU2016 チュートリアル
MIRU2016 チュートリアル
 

Similar to 修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」

【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】Naoki Hayashi
 
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient DescentRyutaro Yamauchi
 
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for PredictionDeep Learning JP
 
第8回スキル養成講座講義資料.pdf
第8回スキル養成講座講義資料.pdf第8回スキル養成講座講義資料.pdf
第8回スキル養成講座講義資料.pdfkeiodig
 
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】Naoki Hayashi
 
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)MLSE
 
A systematic study of the class imbalance problem in convolutional neural net...
A systematic study of the class imbalance problem in convolutional neural net...A systematic study of the class imbalance problem in convolutional neural net...
A systematic study of the class imbalance problem in convolutional neural net...Yuya Soneoka
 
Deep learningbook chap7
Deep learningbook chap7Deep learningbook chap7
Deep learningbook chap7Shinsaku Kono
 
[The Elements of Statistical Learning]Chapter18: High Dimensional Problems
[The Elements of Statistical Learning]Chapter18: High Dimensional Problems[The Elements of Statistical Learning]Chapter18: High Dimensional Problems
[The Elements of Statistical Learning]Chapter18: High Dimensional ProblemsYu Otsuka
 
Bayesian Neural Networks : Survey
Bayesian Neural Networks : SurveyBayesian Neural Networks : Survey
Bayesian Neural Networks : Surveytmtm otm
 
アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法Satoshi Hara
 
正則化による尤度比推定法を応用した多値分類器の改良
正則化による尤度比推定法を応用した多値分類器の改良正則化による尤度比推定法を応用した多値分類器の改良
正則化による尤度比推定法を応用した多値分類器の改良MasatoKikuchi4
 
みどりぼん読書会 第4章
みどりぼん読書会 第4章みどりぼん読書会 第4章
みどりぼん読書会 第4章Masanori Takano
 
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochiDeep learning勉強会20121214ochi
Deep learning勉強会20121214ochiOhsawa Goodfellow
 

Similar to 修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」 (20)

【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
 
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
 
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
 
第8回スキル養成講座講義資料.pdf
第8回スキル養成講座講義資料.pdf第8回スキル養成講座講義資料.pdf
第8回スキル養成講座講義資料.pdf
 
Jokyokai
JokyokaiJokyokai
Jokyokai
 
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
 
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
 
Anomaly detection survey
Anomaly detection surveyAnomaly detection survey
Anomaly detection survey
 
A systematic study of the class imbalance problem in convolutional neural net...
A systematic study of the class imbalance problem in convolutional neural net...A systematic study of the class imbalance problem in convolutional neural net...
A systematic study of the class imbalance problem in convolutional neural net...
 
201803NC
201803NC201803NC
201803NC
 
Deep learningbook chap7
Deep learningbook chap7Deep learningbook chap7
Deep learningbook chap7
 
[The Elements of Statistical Learning]Chapter18: High Dimensional Problems
[The Elements of Statistical Learning]Chapter18: High Dimensional Problems[The Elements of Statistical Learning]Chapter18: High Dimensional Problems
[The Elements of Statistical Learning]Chapter18: High Dimensional Problems
 
Bayesian Neural Networks : Survey
Bayesian Neural Networks : SurveyBayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
 
アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法
 
正則化による尤度比推定法を応用した多値分類器の改良
正則化による尤度比推定法を応用した多値分類器の改良正則化による尤度比推定法を応用した多値分類器の改良
正則化による尤度比推定法を応用した多値分類器の改良
 
みどりぼん読書会 第4章
みどりぼん読書会 第4章みどりぼん読書会 第4章
みどりぼん読書会 第4章
 
Deep learning入門
Deep learning入門Deep learning入門
Deep learning入門
 
What if ch11
What if ch11What if ch11
What if ch11
 
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochiDeep learning勉強会20121214ochi
Deep learning勉強会20121214ochi
 
機械学習
機械学習機械学習
機械学習
 

More from Naoki Hayashi

【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論
【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論
【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論Naoki Hayashi
 
Bayesian Generalization Error and Real Log Canonical Threshold in Non-negativ...
Bayesian Generalization Error and Real Log Canonical Threshold in Non-negativ...Bayesian Generalization Error and Real Log Canonical Threshold in Non-negativ...
Bayesian Generalization Error and Real Log Canonical Threshold in Non-negativ...Naoki Hayashi
 
ベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-oldベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-oldNaoki Hayashi
 
諸君,じゃんけんに負けたからといって落ち込むことはない.長津田にも飯はある.
諸君,じゃんけんに負けたからといって落ち込むことはない.長津田にも飯はある.諸君,じゃんけんに負けたからといって落ち込むことはない.長津田にも飯はある.
諸君,じゃんけんに負けたからといって落ち込むことはない.長津田にも飯はある.Naoki Hayashi
 
IEEESSCI2017-FOCI4-1039
IEEESSCI2017-FOCI4-1039IEEESSCI2017-FOCI4-1039
IEEESSCI2017-FOCI4-1039Naoki Hayashi
 
すずかけはいいぞ
すずかけはいいぞすずかけはいいぞ
すずかけはいいぞNaoki Hayashi
 
RPG世界の形状及び距離の幾何学的考察(#rogyconf61)
RPG世界の形状及び距離の幾何学的考察(#rogyconf61)RPG世界の形状及び距離の幾何学的考察(#rogyconf61)
RPG世界の形状及び距離の幾何学的考察(#rogyconf61)Naoki Hayashi
 
RPG世界の形状及び距離の幾何学的考察(rogyconf61)
RPG世界の形状及び距離の幾何学的考察(rogyconf61)RPG世界の形状及び距離の幾何学的考察(rogyconf61)
RPG世界の形状及び距離の幾何学的考察(rogyconf61)Naoki Hayashi
 
Rogyゼミ7thスライドpublic
Rogyゼミ7thスライドpublicRogyゼミ7thスライドpublic
Rogyゼミ7thスライドpublicNaoki Hayashi
 
Rogyゼミスライド6th
Rogyゼミスライド6thRogyゼミスライド6th
Rogyゼミスライド6thNaoki Hayashi
 
Rogy目覚まし(仮)+おまけ
Rogy目覚まし(仮)+おまけRogy目覚まし(仮)+おまけ
Rogy目覚まし(仮)+おまけNaoki Hayashi
 
ぼくのつくったこうだいさいてんじぶつ
ぼくのつくったこうだいさいてんじぶつぼくのつくったこうだいさいてんじぶつ
ぼくのつくったこうだいさいてんじぶつNaoki Hayashi
 
情報統計力学のすすめ
情報統計力学のすすめ情報統計力学のすすめ
情報統計力学のすすめNaoki Hayashi
 

More from Naoki Hayashi (17)

【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論
【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論
【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論
 
Bayesian Generalization Error and Real Log Canonical Threshold in Non-negativ...
Bayesian Generalization Error and Real Log Canonical Threshold in Non-negativ...Bayesian Generalization Error and Real Log Canonical Threshold in Non-negativ...
Bayesian Generalization Error and Real Log Canonical Threshold in Non-negativ...
 
ベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-oldベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-old
 
諸君,じゃんけんに負けたからといって落ち込むことはない.長津田にも飯はある.
諸君,じゃんけんに負けたからといって落ち込むことはない.長津田にも飯はある.諸君,じゃんけんに負けたからといって落ち込むことはない.長津田にも飯はある.
諸君,じゃんけんに負けたからといって落ち込むことはない.長津田にも飯はある.
 
201703NC
201703NC201703NC
201703NC
 
IEEESSCI2017-FOCI4-1039
IEEESSCI2017-FOCI4-1039IEEESSCI2017-FOCI4-1039
IEEESSCI2017-FOCI4-1039
 
201709ibisml
201709ibisml201709ibisml
201709ibisml
 
すずかけはいいぞ
すずかけはいいぞすずかけはいいぞ
すずかけはいいぞ
 
RPG世界の形状及び距離の幾何学的考察(#rogyconf61)
RPG世界の形状及び距離の幾何学的考察(#rogyconf61)RPG世界の形状及び距離の幾何学的考察(#rogyconf61)
RPG世界の形状及び距離の幾何学的考察(#rogyconf61)
 
RPG世界の形状及び距離の幾何学的考察(rogyconf61)
RPG世界の形状及び距離の幾何学的考察(rogyconf61)RPG世界の形状及び距離の幾何学的考察(rogyconf61)
RPG世界の形状及び距離の幾何学的考察(rogyconf61)
 
Rogyゼミ7thスライドpublic
Rogyゼミ7thスライドpublicRogyゼミ7thスライドpublic
Rogyゼミ7thスライドpublic
 
Rogyゼミスライド6th
Rogyゼミスライド6thRogyゼミスライド6th
Rogyゼミスライド6th
 
Rogy目覚まし(仮)+おまけ
Rogy目覚まし(仮)+おまけRogy目覚まし(仮)+おまけ
Rogy目覚まし(仮)+おまけ
 
ぼくのつくったこうだいさいてんじぶつ
ぼくのつくったこうだいさいてんじぶつぼくのつくったこうだいさいてんじぶつ
ぼくのつくったこうだいさいてんじぶつ
 
情報統計力学のすすめ
情報統計力学のすすめ情報統計力学のすすめ
情報統計力学のすすめ
 
Rogyゼミ2014 10
Rogyゼミ2014 10Rogyゼミ2014 10
Rogyゼミ2014 10
 
Rogyzemi
RogyzemiRogyzemi
Rogyzemi
 

修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」