Submit Search
Upload
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
•
1 like
•
563 views
Naoki Hayashi
Follow
2018年3月修了の修士論文発表会の資料. Presentation for Defense of Master Thesis in 2018.
Read less
Read more
Science
Slideshow view
Report
Share
Slideshow view
Report
Share
1 of 59
Download now
Download to read offline
Recommended
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
Takao Yamanaka
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
tmtm otm
【DL輪読会】Factory: Fast Contact for Robotic Assembly
【DL輪読会】Factory: Fast Contact for Robotic Assembly
Deep Learning JP
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
Masahiro Suzuki
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
初めてのグラフカット
初めてのグラフカット
Tsubasa Hirakawa
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
Naoki Hayashi
PRML輪読#7
PRML輪読#7
matsuolab
Recommended
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
Takao Yamanaka
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
tmtm otm
【DL輪読会】Factory: Fast Contact for Robotic Assembly
【DL輪読会】Factory: Fast Contact for Robotic Assembly
Deep Learning JP
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
Masahiro Suzuki
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
初めてのグラフカット
初めてのグラフカット
Tsubasa Hirakawa
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
Naoki Hayashi
PRML輪読#7
PRML輪読#7
matsuolab
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
mlm_kansai
Optimizer入門&最新動向
Optimizer入門&最新動向
Motokawa Tetsuya
画像キャプションの自動生成
画像キャプションの自動生成
Yoshitaka Ushiku
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
Deep Learning JP
[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations
Deep Learning JP
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
Deep Learning JP
【論文読み会】Moser Flow: Divergence-based Generative Modeling on Manifolds
【論文読み会】Moser Flow: Divergence-based Generative Modeling on Manifolds
ARISE analytics
[DL輪読会]近年のオフライン強化学習のまとめ —Offline Reinforcement Learning: Tutorial, Review, an...
[DL輪読会]近年のオフライン強化学習のまとめ —Offline Reinforcement Learning: Tutorial, Review, an...
Deep Learning JP
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
cvpaper. challenge
POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用
Yasunori Ozaki
DeepLearning 輪読会 第1章 はじめに
DeepLearning 輪読会 第1章 はじめに
Deep Learning JP
深層生成モデルと世界モデル
深層生成モデルと世界モデル
Masahiro Suzuki
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
Hakky St
ドメイン適応の原理と応用
ドメイン適応の原理と応用
Yoshitaka Ushiku
ELBO型VAEのダメなところ
ELBO型VAEのダメなところ
KCS Keio Computer Society
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
AGIRobots
[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展
Deep Learning JP
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
Deep Learning Lab(ディープラーニング・ラボ)
MIRU2016 チュートリアル
MIRU2016 チュートリアル
Shunsuke Ono
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
Naoki Hayashi
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
Ryutaro Yamauchi
More Related Content
What's hot
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
mlm_kansai
Optimizer入門&最新動向
Optimizer入門&最新動向
Motokawa Tetsuya
画像キャプションの自動生成
画像キャプションの自動生成
Yoshitaka Ushiku
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
Deep Learning JP
[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations
Deep Learning JP
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
Deep Learning JP
【論文読み会】Moser Flow: Divergence-based Generative Modeling on Manifolds
【論文読み会】Moser Flow: Divergence-based Generative Modeling on Manifolds
ARISE analytics
[DL輪読会]近年のオフライン強化学習のまとめ —Offline Reinforcement Learning: Tutorial, Review, an...
[DL輪読会]近年のオフライン強化学習のまとめ —Offline Reinforcement Learning: Tutorial, Review, an...
Deep Learning JP
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
cvpaper. challenge
POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用
Yasunori Ozaki
DeepLearning 輪読会 第1章 はじめに
DeepLearning 輪読会 第1章 はじめに
Deep Learning JP
深層生成モデルと世界モデル
深層生成モデルと世界モデル
Masahiro Suzuki
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
Hakky St
ドメイン適応の原理と応用
ドメイン適応の原理と応用
Yoshitaka Ushiku
ELBO型VAEのダメなところ
ELBO型VAEのダメなところ
KCS Keio Computer Society
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
AGIRobots
[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展
Deep Learning JP
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
Deep Learning Lab(ディープラーニング・ラボ)
MIRU2016 チュートリアル
MIRU2016 チュートリアル
Shunsuke Ono
What's hot
(20)
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
Optimizer入門&最新動向
Optimizer入門&最新動向
画像キャプションの自動生成
画像キャプションの自動生成
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
【論文読み会】Moser Flow: Divergence-based Generative Modeling on Manifolds
【論文読み会】Moser Flow: Divergence-based Generative Modeling on Manifolds
[DL輪読会]近年のオフライン強化学習のまとめ —Offline Reinforcement Learning: Tutorial, Review, an...
[DL輪読会]近年のオフライン強化学習のまとめ —Offline Reinforcement Learning: Tutorial, Review, an...
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用
DeepLearning 輪読会 第1章 はじめに
DeepLearning 輪読会 第1章 はじめに
深層生成モデルと世界モデル
深層生成モデルと世界モデル
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
ドメイン適応の原理と応用
ドメイン適応の原理と応用
ELBO型VAEのダメなところ
ELBO型VAEのダメなところ
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
MIRU2016 チュートリアル
MIRU2016 チュートリアル
Similar to 修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
Naoki Hayashi
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
Ryutaro Yamauchi
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
Deep Learning JP
第8回スキル養成講座講義資料.pdf
第8回スキル養成講座講義資料.pdf
keiodig
Jokyokai
Jokyokai
Taiji Suzuki
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
Naoki Hayashi
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
MLSE
Anomaly detection survey
Anomaly detection survey
ぱんいち すみもと
A systematic study of the class imbalance problem in convolutional neural net...
A systematic study of the class imbalance problem in convolutional neural net...
Yuya Soneoka
201803NC
201803NC
Naoki Hayashi
Deep learningbook chap7
Deep learningbook chap7
Shinsaku Kono
[The Elements of Statistical Learning]Chapter18: High Dimensional Problems
[The Elements of Statistical Learning]Chapter18: High Dimensional Problems
Yu Otsuka
Bayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
tmtm otm
アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法
Satoshi Hara
正則化による尤度比推定法を応用した多値分類器の改良
正則化による尤度比推定法を応用した多値分類器の改良
MasatoKikuchi4
みどりぼん読書会 第4章
みどりぼん読書会 第4章
Masanori Takano
Deep learning入門
Deep learning入門
magoroku Yamamoto
What if ch11
What if ch11
NorihiroSuzuki2
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochi
Ohsawa Goodfellow
機械学習
機械学習
Hikaru Takemura
Similar to 修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
(20)
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
第8回スキル養成講座講義資料.pdf
第8回スキル養成講座講義資料.pdf
Jokyokai
Jokyokai
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
Anomaly detection survey
Anomaly detection survey
A systematic study of the class imbalance problem in convolutional neural net...
A systematic study of the class imbalance problem in convolutional neural net...
201803NC
201803NC
Deep learningbook chap7
Deep learningbook chap7
[The Elements of Statistical Learning]Chapter18: High Dimensional Problems
[The Elements of Statistical Learning]Chapter18: High Dimensional Problems
Bayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法
正則化による尤度比推定法を応用した多値分類器の改良
正則化による尤度比推定法を応用した多値分類器の改良
みどりぼん読書会 第4章
みどりぼん読書会 第4章
Deep learning入門
Deep learning入門
What if ch11
What if ch11
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochi
機械学習
機械学習
More from Naoki Hayashi
【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論
【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論
Naoki Hayashi
Bayesian Generalization Error and Real Log Canonical Threshold in Non-negativ...
Bayesian Generalization Error and Real Log Canonical Threshold in Non-negativ...
Naoki Hayashi
ベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-old
Naoki Hayashi
諸君,じゃんけんに負けたからといって落ち込むことはない.長津田にも飯はある.
諸君,じゃんけんに負けたからといって落ち込むことはない.長津田にも飯はある.
Naoki Hayashi
201703NC
201703NC
Naoki Hayashi
IEEESSCI2017-FOCI4-1039
IEEESSCI2017-FOCI4-1039
Naoki Hayashi
201709ibisml
201709ibisml
Naoki Hayashi
すずかけはいいぞ
すずかけはいいぞ
Naoki Hayashi
RPG世界の形状及び距離の幾何学的考察(#rogyconf61)
RPG世界の形状及び距離の幾何学的考察(#rogyconf61)
Naoki Hayashi
RPG世界の形状及び距離の幾何学的考察(rogyconf61)
RPG世界の形状及び距離の幾何学的考察(rogyconf61)
Naoki Hayashi
Rogyゼミ7thスライドpublic
Rogyゼミ7thスライドpublic
Naoki Hayashi
Rogyゼミスライド6th
Rogyゼミスライド6th
Naoki Hayashi
Rogy目覚まし(仮)+おまけ
Rogy目覚まし(仮)+おまけ
Naoki Hayashi
ぼくのつくったこうだいさいてんじぶつ
ぼくのつくったこうだいさいてんじぶつ
Naoki Hayashi
情報統計力学のすすめ
情報統計力学のすすめ
Naoki Hayashi
Rogyゼミ2014 10
Rogyゼミ2014 10
Naoki Hayashi
Rogyzemi
Rogyzemi
Naoki Hayashi
More from Naoki Hayashi
(17)
【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論
【博士論文発表会】パラメータ制約付き特異モデルの統計的学習理論
Bayesian Generalization Error and Real Log Canonical Threshold in Non-negativ...
Bayesian Generalization Error and Real Log Canonical Threshold in Non-negativ...
ベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-old
諸君,じゃんけんに負けたからといって落ち込むことはない.長津田にも飯はある.
諸君,じゃんけんに負けたからといって落ち込むことはない.長津田にも飯はある.
201703NC
201703NC
IEEESSCI2017-FOCI4-1039
IEEESSCI2017-FOCI4-1039
201709ibisml
201709ibisml
すずかけはいいぞ
すずかけはいいぞ
RPG世界の形状及び距離の幾何学的考察(#rogyconf61)
RPG世界の形状及び距離の幾何学的考察(#rogyconf61)
RPG世界の形状及び距離の幾何学的考察(rogyconf61)
RPG世界の形状及び距離の幾何学的考察(rogyconf61)
Rogyゼミ7thスライドpublic
Rogyゼミ7thスライドpublic
Rogyゼミスライド6th
Rogyゼミスライド6th
Rogy目覚まし(仮)+おまけ
Rogy目覚まし(仮)+おまけ
ぼくのつくったこうだいさいてんじぶつ
ぼくのつくったこうだいさいてんじぶつ
情報統計力学のすすめ
情報統計力学のすすめ
Rogyゼミ2014 10
Rogyゼミ2014 10
Rogyzemi
Rogyzemi
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
1.
非負値行列分解における 漸近的Bayes汎化誤差 林 直輝 (16M30250) 指導教官:渡邊澄夫
教授 12018/2/1 東工大修論発表
2.
目次 • 背景 • 主定理 •
実験と考察 • 結論 2018/2/1 東工大修論発表 2
3.
1. 背景 2018/2/1 東工大修論発表
3
4.
目次 • 背景 – 非負値行列分解 –
実対数閾値 – 研究目的 • 主定理 • 実験と考察 • 結論 2018/2/1 東工大修論発表 4
5.
NMFは広く応用されている • 非負値行列分解 (Non-negative
Matrix Factorization, NMF) は,複合データを解析するために様々な分野 で使われている機械学習手法である • 応用例 – 購買バスケットデータ → 購買解析 – 画像,音声,…… → 信号処理 – テキストデータ → テキストマイニング・解析 – マイクロアレイデータ → バイオインフォマティクス ↑ 知識・構造の発見 NMF: data → knowledge 2018/2/1 東工大修論発表 5
6.
NMFは特異モデル • NMF は階層構造を持つ統計モデル •
尤度・事後分布は正規分布で 近似することができない • 従来の統計的漸近理論は成立しない 2018/2/1 東工大修論発表 6 AIC BIC 伝統的な統計学: 「正規分布でいつでも近似できる」
7.
伝統的な統計学: 「正規分布でいつでも近似できる」 NMFは特異モデル • NMF は階層構造を持つ統計モデル •
尤度・事後分布は正規分布で 近似することができない • 従来の統計的漸近理論は成立しない 2018/2/1 東工大修論発表 7 AIC BIC
8.
伝統的な統計学: 「正規分布でいつでも近似できる」 NMFは特異モデル • NMF は階層構造を持つ統計モデル •
尤度・事後分布は正規分布で 近似することができない • 従来の統計的漸近理論は成立しない 2018/2/1 東工大修論発表 8 AIC BIC
9.
伝統的な統計学: 「正規分布でいつでも近似できる」• NMF は階層構造を持つ統計モデル •
尤度・事後分布は正規分布で 近似することができない • 従来の統計的漸近理論は成立しない 階層構造による パラメータの識別不能性 : 𝑿𝒀 = 𝑿𝑷𝑷−𝟏 𝒀; 𝐟𝐨𝐫 ∃𝑷 ≠ 𝑰; 𝑿, 𝒀, 𝑿𝑷, 𝑷−𝟏 𝒀 ≥ 𝟎 𝟏 𝟑 𝟏 𝟑 𝟏 𝟒 𝟏 𝟏 𝟒 𝟓 𝟏 𝟒 = 𝟏 𝟑 𝟏 𝟑 𝟏 𝟒 𝟐 −𝟑 𝟏 𝟐 𝟐 −𝟑 𝟏 𝟐 −𝟏 𝟏 𝟏 𝟒 𝟓 𝟏 𝟒 = 𝟏 𝟕 𝟓 𝟑 𝟓 𝟑 𝟔 𝟓 𝟏𝟕 𝟓 𝟐𝟎 𝟗 𝟏 𝟒 = 𝟏𝟔 𝟒 𝟏𝟔 𝟏𝟔 𝟒 𝟏𝟔 𝟐𝟏 𝟓 𝟐𝟎 2018/2/1 東工大修論発表 9 AIC BIC NMFは特異モデル
10.
伝統的な統計学: 「正規分布でいつでも近似できる」• NMF は階層構造を持つ統計モデル •
尤度・事後分布は正規分布で 近似することができない • 従来の統計的漸近理論は成立しない 階層構造による パラメータの識別不能性 : 𝑿𝒀 = 𝑿𝑷𝑷−𝟏 𝒀; 𝐟𝐨𝐫 ∃𝑷 ≠ 𝑰; 𝑿, 𝒀, 𝑿𝑷, 𝑷−𝟏 𝒀 ≥ 𝟎 𝟏 𝟑 𝟏 𝟑 𝟏 𝟒 𝟏 𝟏 𝟒 𝟓 𝟏 𝟒 = 𝟏 𝟑 𝟏 𝟑 𝟏 𝟒 𝟐 −𝟑 𝟏 𝟐 𝟐 −𝟑 𝟏 𝟐 −𝟏 𝟏 𝟏 𝟒 𝟓 𝟏 𝟒 = 𝟏 𝟕 𝟓 𝟑 𝟓 𝟑 𝟔 𝟓 𝟏𝟕 𝟓 𝟐𝟎 𝟗 𝟏 𝟒 = 𝟏𝟔 𝟒 𝟏𝟔 𝟏𝟔 𝟒 𝟏𝟔 𝟐𝟏 𝟓 𝟐𝟎 2018/2/1 東工大修論発表 10 AIC BIC 1つの非負行列に 対して2つ以上の 分解が存在する NMFは特異モデル
11.
伝統的な統計学: 「正規分布でいつでも近似できる」• NMF は階層構造を持つ統計モデル •
尤度・事後分布は正規分布で 近似することができない • 従来の統計的漸近理論は成立しない 2018/2/1 東工大修論発表 11 • 強い初期値依存性 • 多くの局所解や鞍点を持つ – 大域的に最適な解は,ほぼ得られない. In addition + AIC BIC NMFは特異モデル
12.
• NMF は``data
→ knowledge’’として応用されている 2018/2/1 東工大修論発表 12 NMFの学習理論は未だない
13.
• NMF は``data
→ knowledge’’として応用されている • 数学的な構造は未解明 – 学習理論は構築されていない – 予測精度は明らかにされていない 数値計算の正しさは保証されない 理論的な制御変数・ハイパーパラメータの 調整方法は存在しない 2018/2/1 東工大修論発表 13 NMFの学習理論は未だない
14.
• NMF は``data
→ knowledge’’として応用されている • 数学的な構造は未解明 – 学習理論は構築されていない – 予測精度は明らかにされていない 2018/2/1 東工大修論発表 14 NMFの学習理論の構築は 理論と応用両面から重要 NMFの学習理論は未だない
15.
目次 • 背景 – 非負値行列分解 –
実対数閾値 – 研究目的 • 主定理 • 実験と考察 • 結論 2018/2/1 東工大修論発表 15
16.
• 一般に,[Watanabe, 2001] –
n をサンプルサイズ – Bayes汎化誤差を 𝑮 𝒏 とするとその平均値の漸近挙動は: 𝔼 𝑮 𝒏 = 𝝀 𝒏 + 𝒐 𝟏 𝒏 . • 主要項の係数𝝀 はモデル依存 • 𝝀 は実対数閾値(real log canonical threshold, RLCT) と呼ばれる 2018/2/1 東工大修論発表 16 RLCTと学習の関係は?
17.
Bayesは最尤より誤差が小さい • 階層的なモデルでは, 係数
𝝀 はBayes推定の場合 の方が最尤・事後確率最大化推定よりも小さい [Watanabe,2001 and 2009] • Bayes推定は汎化誤差を減らすために効果的 • 本研究ではBayes推定の枠組みでNMFを考える – NMFのBayes推定は [Cemgil, 2009] で提案されているが, 離散的な場合のみ.本研究では連続的な場合も扱う. 2018/2/1 東工大修論発表 17
18.
NMFのRLCTは未解明 • NMF は``data
→ knowledge’’として応用されている • 数学的な構造は未解明 – 学習理論は構築されていない – 予測精度は明らかにされていない ↑ 先述の課題は NMFのRLCTは未解明ということ 2018/2/1 東工大修論発表 18
19.
RLCTの定義と応用 • RLCTは``学習係数’’として特徴づけられる • 数学的な定義は以下の1変数複素函数を解析接続 したものの最大極の符号反転である: 𝜻
𝒛 = න𝑲 𝜽 𝒛 𝝋 𝜽 𝒅𝜽, ここで 𝑲 は真の分布から学習機械へのKL情報量で,𝝋 は事前分布である. • RLCTの理論値を用いるモデル選択手法が提案され ている[Drton, et al. 2017]. 2018/2/1 東工大修論発表 19
20.
RLCTの定義と応用 • RLCTは``学習係数’’として特徴づけられる • 数学的な定義は以下の1変数複素函数を解析接続 したものの最大極の符号反転である: 𝜻
𝒛 = න𝑲 𝜽 𝒛 𝝋 𝜽 𝒅𝜽, ここで 𝑲 は真の分布から学習機械へのKL情報量で,𝝋 は事前分布である. • RLCTの理論値を用いるモデル選択手法が提案され ている[Drton, et al. 2017]. 2018/2/1 東工大修論発表 20 sBIC (singular BIC)
21.
目次 • 背景 – 非負値行列分解 –
実対数閾値 – 研究目的 • 主定理 • 実験と考察 • 結論 2018/2/1 東工大修論発表 21
22.
研究目的 非負値行列分解(NMF)の数値計算結果の検証や理 論的な学習アルゴリズムの考案のために,その学習 理論の構築を目指して • 予測精度(汎化誤差)の理論値に着目 →実対数閾値(RLCT)に着目・これを解明 ※一般に予測と発見は異なるが,知識発見の確からしさ (自由エネルギーの漸近挙動)についてもRLCTは支配的 2018/2/1 東工大修論発表
22
23.
2. 主定理 2018/2/1 東工大修論発表
23
24.
目次 • 背景 • 主定理 –
NMFのBayes推定の枠組み – 主結果と証明 • 実験と考察 • 結論 2018/2/1 東工大修論発表 24
25.
定式化と設定 • データ行列: 𝑾
𝒏 = 𝑾 𝟏, … , 𝑾 𝒏 ; 𝑴 × 𝑵(× 𝒏) – 一般のため,複数(n>1)の行列の分解を考える. 2018/2/1 東工大修論発表 25 [Kohjima et al. 2016/6, modified] 𝑾𝑴 𝑵
26.
定式化と設定 • データ行列: 𝑾
𝒏 = 𝑾 𝟏, … , 𝑾 𝒏 ; 𝑴 × 𝑵(× 𝒏) – 一般のため,複数(n>1)の行列の分解を考える. • 真の分解: 𝑨; 𝑴 × 𝑯 𝟎, 𝑩; 𝑯 𝟎 × 𝑵 • 学習機械の分解: 𝑿; 𝑴 × 𝑯, 𝒀; 𝑯 × 𝑵 2018/2/1 東工大修論発表 26 [Kohjima et al. 2016/6, modified] 𝑾𝑴 𝑵 𝑯 𝟎 𝑵 𝑯 𝟎 𝑴 𝑨 𝑩
27.
定式化と設定 • データ行列: 𝑾
𝒏 = 𝑾 𝟏, … , 𝑾 𝒏 ; 𝑴 × 𝑵(× 𝒏) – 一般のため,複数(n>1)の行列の分解を考える. • 真の分解: 𝑨; 𝑴 × 𝑯 𝟎, 𝑩; 𝑯 𝟎 × 𝑵 • 学習機械の分解: 𝑿; 𝑴 × 𝑯, 𝒀; 𝑯 × 𝑵 • Bayes法の枠組みだとどうなるか? 2018/2/1 東工大修論発表 27 [Kohjima et al. 2016/6, modified] 𝑾𝑴 𝑵 𝑯 𝟎 𝑵 𝑯 𝟎 𝑴 𝑨 𝑩
28.
• 確率密度函数の記号定義 – 𝑞
𝑊 : 真の分布, – 𝑝 𝑊 𝑋, 𝑌 : 学習機械, – 𝑝∗ 𝑊 : Bayes予測分布, これらの定義域はEuclid空間. – 𝜑 𝑋, 𝑌 : 事前分布, – 𝑝 𝑋, 𝑌 𝑊 𝑛 : データが与えられたときの事後分布, これらの定義域はEuclid空間のコンパクト部分集合. 2018/2/1 東工大修論発表 28 定式化と設定 data parameter
29.
• 確率密度函数を 𝒒 𝑾
∝ 𝐞𝐱𝐩 − 𝟏 𝟐 𝑾 − 𝑨𝑩 𝟐 , 𝒑 𝑾 𝑿, 𝒀 ∝ 𝐞𝐱𝐩 − 𝟏 𝟐 𝑾 − 𝑿𝒀 𝟐 , とし,事前分布 𝝋 は真の分解 𝑨, 𝑩 の近傍で正かつ有 界であるとする. • 正規分布だけでなく指数分布やPoisson分布でも主定 理は成り立つ(考察で詳述). 2018/2/1 東工大修論発表 29 定式化と設定
30.
Bayes推定の枠組み • 事後分布は次で定義される: 𝒑 𝑿,
𝒀 𝑾 𝒏 = 𝟏 𝒁 𝒏 ෑ 𝒊=𝟏 𝒏 𝒑 𝑾𝒊 𝑿, 𝒀 𝝋 𝑿, 𝒀 . ここで 𝒁 𝒏 は正規化定数である. • Bayes予測分布は次で定義される: 𝒑∗ 𝑾 = න𝒑 𝑾 𝑿, 𝒀 𝒑 𝑿, 𝒀 𝑾 𝒏 )𝒅𝑿𝒅𝒀 . 2018/2/1 東工大修論発表 30
31.
Bayes推定の枠組み • Bayes汎化誤差は真の分布から予測分布への KL情報量によって定義される: 𝑮 𝒏
= න 𝒒 𝑾 𝐥𝐨𝐠 𝒒 𝑾 𝒑∗ 𝑾 𝒅𝑾. • 予測分布がデータ依存であるから,汎化誤差は確率 変数であり揺らいでいる. • データの取り方についての平均についての漸近挙動: 𝔼 𝑮 𝒏 = 𝝀 𝒏 + 𝒐 𝟏 𝒏 . 2018/2/1 東工大修論発表 31
32.
目次 • 背景 • 主定理 –
NMFのBayes推定の枠組み – 主結果と証明 • 実験と考察 • 結論 2018/2/1 東工大修論発表 32
33.
NMFのRLCTの定義 • NMFのRLCTを,以下の一変数複素函数を解析接続し たものの最大極の符号反転で定義する: 𝜻 𝒛
= ඵ 𝑿𝒀 − 𝑨𝑩 𝟐 𝒛 𝒅𝑿𝒅𝒀 . 2018/2/1 東工大修論発表 33
34.
• NMFのRLCTを,以下の一変数複素函数を解析接続し たものの最大極の符号反転で定義する: 𝜻 𝒛
= ඵ 𝑿𝒀 − 𝑨𝑩 𝟐 𝒛 𝒅𝑿𝒅𝒀 . • 𝜻 𝒛 は複素数平面全体に有理型函数として一意に解 析接続され,その極はすべて負の有理数となることが 証明できる. • 𝜻 𝒛 の最大極を −𝝀 とする. このとき𝝀をNMFのRLCTという. 2018/2/1 東工大修論発表 34 NMFのRLCTの定義
35.
• NMFのRLCTを,以下の一変数複素函数を解析接続し たものの最大極の符号反転で定義する: 𝜻 𝒛
= ඵ 𝑿𝒀 − 𝑨𝑩 𝟐 𝒛 𝒅𝑿𝒅𝒀 . • 𝜻 𝒛 は複素数平面全体に有理型函数として一意に解 析接続され,その極はすべて負の有理数となることが 証明できる. • 𝜻 𝒛 の最大極を −𝝀 とする. このとき𝝀をNMFのRLCTという. 2018/2/1 東工大修論発表 35 NMFのRLCTの定義 𝐎 𝐗 𝐗 𝐗 𝐗 𝐗 𝒛 = −𝝀 ℂ
36.
• NMFのRLCT𝝀 は以下の不等式を満足する: 𝝀
≤ 𝟏 𝟐 𝑯 − 𝑯 𝟎 𝐦𝐢𝐧 𝑴, 𝑵 + 𝑯 𝟎 𝑴 + 𝑵 − 𝟐 + 𝜹 𝑯 𝟎 , ここで 𝜹 𝑯 𝟎 = ቊ 𝟏 (𝑯 𝟎 ≅ 𝟏, 𝐦𝐨𝐝 𝟐) 𝟎 (𝒐𝒕𝒉𝒆𝒓𝒘𝒊𝒔𝒆) . • 𝑯 = 𝑯 𝟎 = 𝟏 𝐨𝐫 𝟐 or 𝑯 𝟎 = 𝟎のとき,等号が成立する. 主定理 2018/2/1 東工大修論発表 36 Naoki Hayashi, Sumio Watanabe. "Upper Bound of Bayesian Generalization Error in Non-negative Matrix Factorization",Neurocomputing, Volume 266C, 29 November 2017, pp.21-28. (2017/4/27 accepted). Naoki Hayashi, Sumio Watanabe."Tighter Upper Bound of Real Log Canonical Threshold of Non-negative Matrix Factorization and its Application to Bayesian Inference." 2017 IEEE Symposium Series on Computational Intelligence (IEEE SSCI 2017), Honolulu, Hawaii, USA. Nov. 27 - Dec 1, 2017. (2017/11/28).
37.
• 𝑯 𝟎
= 𝟎 のときの厳密値を不等式評価で解明した. • 二乗誤差の零点が作る代数多様体の次元と 多項式イデアルの生成元に着目し, 𝑯 = 𝑯 𝟎 = 𝟏及び2のときの厳密値を解明した. – 最も非自明な箇所.非負値制約により代数多様体の次元の考 察が容易ではない. • 𝑯 = 𝑯 𝟎 の場合の上界を,上述の厳密値を用いながら 不等式評価で導出した. • 一般の場合の上界を, 𝑯 = 𝑯 𝟎 の場合の上界と𝑯 𝟎 = 𝟎 のときの厳密値を用いて導出した. □2018/2/1 東工大修論発表 37 Sketch of Proof
38.
3. 実験と考察 2018/2/1 東工大修論発表
38
39.
目次 • 背景 • 主定理 •
実験と考察 – 理論的な応用 – 数値実験と予想 • 結論 • (付録: 証明の概要) 2018/2/1 東工大修論発表 39
40.
汎化誤差をバウンドできる • 以下の漸近挙動を用いて,Bayes汎化誤差の上界を主 定理から直ちに導出できる: 𝔼 𝑮
𝒏 = 𝝀 𝒏 + 𝒐 𝟏 𝒏 . • 実際,次が成立する: 𝔼 𝑮 𝒏 ≤ 𝟏 𝟐𝒏 𝑯 − 𝑯 𝟎 𝐦𝐢𝐧 𝑴, 𝑵 + 𝑯 𝟎 𝑴 + 𝑵 − 𝟐 + 𝜹 𝑯 𝟎 + 𝒐 𝟏 𝒏 . – これは汎化誤差の理論値の範囲を示している. – すなわち数値計算の理論保証を与えている. • どのような分布の時に汎化誤差はバウンドされるか? 2018/2/1 東工大修論発表 40
41.
分布に関するロバスト性 • 主定理では行列の要素は正規分布に従うと仮定し ていた: 𝒒 𝑾
∝ 𝓝 𝑾 𝑨𝑩 , 𝒑 𝑾 𝑿, 𝒀 ∝ 𝓝 𝑾 𝑿𝒀 . • 他の確率分布に従うとき,主定理の不等式は成立 するだろうか? 2018/2/1 東工大修論発表 41
42.
分布に関するロバスト性 • 実際は,行列の要素がPoisson分布や指数分布に従う 場合でも,同じゼータ函数を用いて汎化誤差の議論が 可能なことが証明できる: 𝒒 𝑾
∝ 𝐏𝐨𝐢 𝑾 𝑨𝑩 , 𝒑 𝑾 𝑿, 𝒀 ∝ 𝐏𝐨𝐢 𝑾 𝑿𝒀 , 𝒒 𝑾 ∝ 𝐄𝐱𝐩𝐨 𝑾 𝑨𝑩 , 𝒑 𝑾 𝑿, 𝒀 ∝ 𝐄𝐱𝐩𝐨 𝑾 𝑿𝒀 , 𝜻 𝒛 = ඵ 𝑿𝒀 − 𝑨𝑩 𝟐 𝒛 𝒅𝑿𝒅𝒀 . 2018/2/1 東工大修論発表 42 Even if We can use
43.
分布に関するロバスト性 • 先の結果は,I-情報量(拡張KL情報量) や
板倉斎藤-情 報量が行列の二乗誤差と同じRLCTを持つことから導か れる. 2018/2/1 東工大修論発表 43 確率分布 正規分布 Poisson分布 指数分布 行列間非類似度 二乗誤差 I-情報量 板倉斎藤-情報量 𝜻 𝒛 = ඵ 𝑿𝒀 − 𝑨𝑩 𝟐 𝒛 𝒅𝑿𝒅𝒀 We can use 同じRLCTを持つ
44.
分布に関するロバスト性 • 先の結果は,I-情報量(拡張KL情報量) や
板倉斎藤-情 報量が行列の二乗誤差と同じRLCTを持つことから導か れる. 2018/2/1 東工大修論発表 44 確率分布 正規分布 Poisson分布 指数分布 行列間非類似度 二乗誤差 I-情報量 板倉斎藤-情報量 𝜻 𝒛 = ඵ 𝑿𝒀 − 𝑨𝑩 𝟐 𝒛 𝒅𝑿𝒅𝒀 We can use 同じRLCTを持つ 主定理が成立
45.
目次 • 背景 • 主定理 •
実験と考察 – 理論的な応用 – 数値実験と予想 • 結論 • (付録: 証明の概要) 2018/2/1 東工大修論発表 45
46.
• RLCTの厳密値を見積もるために数値実験を行った. – 加えて,非負値制約のない行列分解(縮小ランク回帰,RRR) のRLCTの厳密値との比較を行った. •
事後分布を解析的に計算することは困難. →Markov連鎖モンテカルロ法(MCMC) – Metropolis Hastings法によるMCMCを用いた. 2018/2/1 東工大修論発表 46 数値実験
47.
• 以下のケースで人工データを生成して実験した: – 1.
NMFのRLCTの厳密値が解明済み. – 2. 厳密値が不明で,かつ rank = rank+. – 3. 厳密値が不明で,かつ rank ≠ rank+. • rank+ : NMFの最小内部次元の理論値 – これ↑は非負値ランク(non-negative rank)と呼ばれる. – 一般に, rank+≧ rank . – min{rows, columns} ≦ 3 or rank ≦2 ⇒ rank =rank+である. – 実際,rank<rank+であるような非負値行列が存在する. 2018/2/1 東工大修論発表 47 非負値制約による「ランク」の違い
48.
• サンプルサイズはn=200 (パラメータ次元≦50) •
データセットをD=100個用意 → 各データセットから得た汎化誤差の算術平均を利用 𝔼 𝑮 𝒏 = 𝝀 𝒏 + 𝒐 𝟏 𝒏 → 𝝀 ≈ 𝒏𝔼 𝑮 𝒏 ≈ 𝒏 𝑫 𝒋=𝟏 𝑫 𝑮 𝒏 𝒋 • MCMC によるサンプルサイズはK=1,000 – Burn-in=20,000, thin=20, i.e. 合計の繰り返しは40,000. • 𝑮 𝒏の計算のために, T=20,000個のテストデータを生成し KL情報量を計算. • 合計: 100*(40,000+1,000*20,000) ≈ 𝑶 𝑫𝑲𝑻 2018/2/1 東工大修論発表 48 実験の条件設定
49.
2018/2/1 東工大修論発表 49 実験結果 𝝀
𝑵 𝝀 𝝀 𝑩 𝝀 𝑹 数値計算の 結果 NMFのRLCTの 厳密値 NMFのRLCTの 上界 RRRのRLCTの 厳密値 r: true rank
50.
2018/2/1 東工大修論発表 50 実験結果 数値計算結果は理論値に等しい: 𝝀
𝑵 = 𝝀. 数値計算は正しく動いている r: true rank 𝝀 𝑵 𝝀 𝝀 𝑩 𝝀 𝑹 数値計算の 結果 NMFのRLCTの 厳密値 NMFのRLCTの 上界 RRRのRLCTの 厳密値
51.
2018/2/1 東工大修論発表 51 実験結果r:
true rank rank = rank+のとき,実験結果は RRRのRLCTに等しい: 𝝀 𝑵 = 𝝀 𝑹. rank = rank+のとき,NMFのRLCTは RRRのそれに等しい: 𝝀 = 𝝀 𝑹. 𝝀 𝑵 𝝀 𝝀 𝑩 𝝀 𝑹 数値計算の 結果 NMFのRLCTの 厳密値 NMFのRLCTの 上界 RRRのRLCTの 厳密値
52.
2018/2/1 東工大修論発表 52 実験結果r:
true rank rank ≠ rank+のとき,実験結果は RRRのRLCTより大きい: 𝝀 𝑵 > 𝝀 𝑹. rank ≠ rank+のとき, NMFのRLCTはRRRのRLCT より大きい: 𝝀 𝑵 > 𝝀 𝑹. 𝝀 𝑵 𝝀 𝝀 𝑩 𝝀 𝑹 数値計算の 結果 NMFのRLCTの 厳密値 NMFのRLCTの 上界 RRRのRLCTの 厳密値
53.
2018/2/1 東工大修論発表 53 NMFのRLCTの厳密値(予想)
54.
4. 結論 2018/2/1 東工大修論発表
54
55.
目次 • 背景 • 主定理 •
実験と考察 • 結論 2018/2/1 東工大修論発表 55
56.
• (主な貢献)非負値行列分解の実対数閾値の上界を理 論的に導出した. – この上界は非負値行列分解のBayes汎化誤差の理論上界と なり,数値計算結果の検証や適切な内部次元の設計に役立 てることができる. •
(補足的貢献)非負値行列分解の実対数閾値の数値的 な挙動を検証し,ランクと非負値ランクの違いに着目し てその厳密値の範囲を予想した: – ・ rank = rank+ ⇒ RLCT of NMF = RLCT of RRR. – ・ rank ≠ rank+ ⇒ RLCT of NMF > RLCT of RRR. 2018/2/1 東工大修論発表 56 結論
57.
• 雑誌論文 – Naoki
Hayashi, Sumio Watanabe. "Upper Bound of Bayesian Generalization Error in Non-Negative Matrix Factorization“, Neurocomputing, Volume 266C, 29 November 2017, pp.21- 28. (2017/4/27 accepted). • 国際会議 – Naoki Hayashi, Sumio Watanabe."Tighter Upper Bound of Real Log Canonical Threshold of Non-negative Matrix Factorization and its Application to Bayesian Inference“, 2017 IEEE Symposium Series on Computational Intelligence (IEEE SSCI 2017), Honolulu, Hawaii, USA. Nov. 27 - Dec 1, 2017. (2017/11/28). 2018/2/1 東工大修論発表 57 査読有り研究業績
58.
• 国内会議 – 林直輝,
渡邊澄夫. "非負値行列分解の実対数閾値とBayes学習への応用", 第19回情報論的学 習理論ワークショップ (IBIS2016), 信学技報, Vol.116, No.300, pp.215-220. (2016/11/17発表). – 林直輝, 渡邊澄夫. "非負値行列分解における実対数閾値の実験的考察", ニューロコンピューテ ィング研究会(NC), 信学技報, Vol.116, No.521, pp.85-90. (2017/3/13発表). – 林直輝, 中村文士. "特異Bayes情報量規準による混合正規分布のモデル選択における変分 Bayes法の実験的考察", 情報論的学習理論と機械学習(IBISML), 信学技報, Vol.117, No.211, pp.19-26. (2017/9/15発表). – 林直輝, 渡邊澄夫. "確率行列分解の実対数閾値とBayes学習への応用", 第20回情報論的学習 理論ワークショップ (IBIS2017), 信学技報, Vol.117, No.293, pp.23-30. (2017/11/9発表). • arXiv preprint – Naoki Hayashi, Sumio Watanabe. "Asymptotic Bayesian Generalization Error in a General Stochastic Matrix Factorization for Markov Chain and Bayesian Network", pp.1-36. (released on 2017/9/13, submitted to JMLR on 2017/12/4). 2018/2/1 東工大修論発表 58 査読無し研究業績
59.
• (主な貢献)非負値行列分解の実対数閾値の上界を理 論的に導出した. – この上界は非負値行列分解のBayes汎化誤差の理論上界と なり,数値計算結果の検証や適切な非負値ランクの設計に役 立てることができる. •
(補足的貢献)非負値行列分解の実対数閾値の数値的 な挙動を検証し,ランクと非負値ランクの違いに着目し てその厳密値の範囲を予想した: – ・ rank = rank+ ⇒ RLCT of NMF = RLCT of RRR. – ・ rank ≠ rank+ ⇒ RLCT of NMF > RLCT of RRR. 2018/2/1 東工大修論発表 59 結論
Download now