SlideShare a Scribd company logo
1 of 69
Variational Inference:
Foundations and Modern Methods
担当:落合幸治@理化学研究所
第3回nips読み会・関西 2017/3/18(土)
David Blei @Columbia University
Shakir Mohamed @DeepMind
Rajesh Ranganath @Princeton University
NIPS 2016 Tutorial · December 5, 2016
注意
• もしこのスライドを見てわからない点があったら(翻訳ミスの可能
性があるため)以下元資料を確認
• まとめ
https://nips.cc/Conferences/2016/Schedule?showEvent=6199
• Video
https://channel9.msdn.com/Events/Neural-Information-
Processing-Systems-Conference/Neural-Information-Processing-
Systems-Conference-NIPS-2016/Variational-Inference-
Foundations-and-Modern-Methods
• Slide(PDF)
https://media.nips.cc/Conferences/2016/Slides/6199-Slides.pdf
Variational Inference?
一般の推論(最尤推定)
確率的推論?
• 確率的推論を効率的かつ安定に行うための方法の一つ
確率的推論
例:重回帰、ニューラルネット 例:LDA、VAE
確率的推論?
Variational Inference?
一般の推論(最尤推定)
• 確率的推論を効率的かつ安定に行うための方法の一つ
確率的推論
例:重回帰、ニューラルネット 例:LDA、VAE
確率的推論
• 推論先の点がつねに一点にさ
だまるとは限らない
• 例:画像の上半分から
下半分を推測→
• 分布の期待値がつねにもっと
も良い結果とは限らない
• 自然画像の期待値(平均値)は
のっぺりした灰色の画像
質問
1. 確率的勾配法(stochastic gradient descent, SGD)とは
何か知っている or 使ったことがある
2. 『パターン認識と機械学習』の9章:混合モデルとEM、
10章:変分推論を読んだことがある
3. Variational Autoencoderという言葉を聞いたことがあ
る
目次
1. 変分推論とは
2. 平均場近似と確率的変分推論
3. 変分下界に対する確率的勾配法
4. 平均場近似を仮定しない変分推論
※オリジナルのチュートリアルに準拠
目次
1. 変分推論とは
2. 平均場近似と確率的変分推論
3. 変分下界に対する確率的勾配法
4. 平均場近似を仮定しない変分推論
※オリジナルのチュートリアルに準拠
• SGDを知っていればここまでは簡単
目次
1. 変分推論とは
2. 平均場近似と確率的変分推論
3. 変分下界に対する確率的勾配法
4. 平均場近似を仮定しない変分推論
※オリジナルのチュートリアルに準拠
• 一番の難所
• PRMLの9章、10章の内容を発展
• VAEの理論的背景がわかる
目次
1. 変分推論とは
2. 平均場近似と確率的変分推論
3. 変分下界に対する確率的勾配法
4. 平均場近似を仮定しない変分推論
※オリジナルのチュートリアルに準拠
• 現代の(2016年以降の)研究
• 事前知識があると少し感動する
1. 変分推論とは
確率的推論を最適化問題として解けるようにする
確率的推論
• 確率モデルとは観測変数𝑥と隠れ変数𝑧の同時分布
𝑝(𝑥, 𝑧)
• 確率モデルがあれば未知変数も事後分布として求められる
𝑝 𝑧 𝑥 =
𝑝(𝑥, 𝑧)
𝑝 𝑥, 𝑧 𝑑𝑧
• 例えばxを画像zをラベルとすると分類問題がとける
• ほとんどの問題において分母の積分が解けないので近似が必要
変分推定 知りたい真の
条件付き分布
近似分布𝑞で表
現可能な範囲
𝑍上に貼られた
確率分布の空間
歴史
• 変分推定は統計力学のアイディアを確率推定に適用することで
始まりました。おそらく80年代にPetersonとAndersonが平均
場法をニューラルネットで使ったことが始まりです。
• このアイディアはJordan研究室で1990年代に取り上げられ、
Tommi Jaakkola, Lawrence Saul, Zoubin Gharamani によって
多くの確率モデルに一般化されました。
• それと並行してHintonとVan Campがニューラルネットによる
平均場法を開発(1993)。NealとHintonはこのアイディアをEM
法につなげそれがmixture of expertsやHMMなどへ変分法をさ
らに進展させました。
現在
• 現在では変分法における多くの活発な取り組みがあります。大
規模化、簡易化、高速化、正確化、複雑なモデルへの適用と応
用
• 現在の変分推定は多くの領域にまたがっています:確率的プロ
グラミング、強化学習、ニューラルネット、凸最適化、ベイズ
統計、そして広範囲にわたる応用分野。
• このスライドの目的は基礎から始まり、いくつかの最近のアイ
ディアを紹介し、新研究における最前線を知ってもらうことで
す。
2.平均場近似と確率的変分推論
• 平均場近似:最適化をしやすくするためモデルの表現力を落とす
• 確率的変分法:大規模データに対応するため確率的最適化を行う
確率推論の手順
例:Topic Modeling
大量の文章集合の中から文章のトピックスなどの構造を見つけ出したい!
確率推論の手順
例:Latent Dirichlet Allocation(LDA)
• トピックは単語の集合
• ドキュメントは複数のト
ピックを特定の比率で混ぜ
合わせたもの(単語の順序
は考えない)
• 単語は特定のトピックから
持ってくる
• 実際に観測できるのはド
キュメントだけ
• 他は事後分布推定
• 注:ドキュメントも潜在変
数も大量にある
𝑝(𝑡𝑜𝑝𝑖𝑐𝑠, 𝑝𝑟𝑜𝑝𝑜𝑟𝑡𝑖𝑜𝑛𝑠, 𝑎𝑠𝑠𝑖𝑔𝑛𝑚𝑒𝑛𝑡𝑠|𝑑𝑜𝑐𝑢𝑚𝑒𝑛𝑡𝑠)
LDAのグラフィカルモデル
• 仮定を同時分布の因
数分解として表現
• 仮定とデータを組み
合わせて事後分布を
求める
因数分解
確率推論の手順
事後分布の推定
この積分は(一般に)計算不能 近似
変分推定 知りたい真の
条件付き分布
近似分布𝑞で表
現可能な範囲
𝑍上に貼られた
確率分布の空間
Evidence Lower Bound(ELBO)
• log 𝑝 𝑥 の下界
• ELBO最大化はKLダイバージェンスの最小化にな
(なぜそうなるかは3章で説明)
• 最初の項はMAP推定に相当
• 第二項(エントロピー)は𝑞を可能な限り拡散させる
エントロピー
問題の一般化
平均場近似
• 平均場近似は各変数が独立であることを仮定
• “平均場近似”と”各確率変数が共役分布であること”
を仮定すると他の変数を固定した状態で着目してい
る変数を更新するという手順の繰り返しでELBOを最
大化できる
古典的変分推定
確率的変分推定
• 大規模データに
対応
• 確率的勾配法と
同じ発想
• ステップサイズ
系列ρ 𝑡は
Robbins-Monro
conditionsに従う
ものとする(大
まかには徐々に
小さくなってい
くと思っておけ
ば良い)
LDAに対する確率的変分推論
• ドキュメントをサンプル
• 現在のトピック設定に従ってローカルのパラメータを推定する
• ローカルパラメータからトピック設定を仮更新する
• 現在のトピック設定と仮更新したトピック設定で新たなトピッ
ク設定を作る
自動抽出さ
れたトピッ
クと単語
3. 変分下界に対する確率的勾配法
変分下界:確率的機械学習におけるロス関数
なぜELBO最大化=KL最小化?
log 𝑝 𝑥 = ℒ 𝑣 + KL(𝑞(𝑧; 𝑣)||𝑝(𝑧|𝑥))
log 𝑝 𝑥
ℒ 𝑣
KL(𝑞(𝑧; 𝑣)||𝑝(𝑧|𝑥))
𝑣 𝑣∗
PRML9章、10章より補完
変分推定 知りたい真の
条件付き分布
近似分布𝑞で表
現可能な範囲
𝑍上に貼られた
確率分布の空間
変分推定のレシピ
1. モデルを考える 𝑝(𝑧, 𝑥)
2. 潜在変数の近似分布を選ぶ 𝑝(𝑧; 𝑣)
3. ELBOを定式化
ℒ 𝑣 = E 𝑞(𝑧;𝑣)[log 𝑝 𝑥, 𝑧 − log𝑞 𝑧: 𝑣 ]
4. 期待値(積分)を計算
ℒ 𝑣 = 𝑥𝑣2
+ log 𝑣: Example
5. 導関数を求める
𝛻𝑣ℒ 𝑣 = 2𝑥𝑣 +
1
𝑣
6. 最適化する
𝑣 𝑡+1 = 𝑣 𝑡 + 𝜌𝑡 𝛻𝑣ℒ 𝑣
現実は甘くない
• ベイズロジスティック回帰を変分推定しようとした結果(xが入力y
が出力zが回帰係数)
• 期待値が解析的に求められない + 変分係数に関係する値(z)が期待
値の中に残っている = 導関数が求められない
確率的勾配法が使えるよう式を変形
ここが解けない
先に微分 確率的勾配法
式変形
ELBO
Define
ELBOを安定に求めるための方法
Score Function Gradients
Pathwise Gradient
Amortized Inference
汎用的
安定、高速
Score Function Estimator
単純化
再掲
勾配
Likelihood ratio(尤度)またはREINFORCE gradients(強化学習勾配?)
ともよばれる
単純化について補足
nips読み会での議論を踏まえ追加
𝔼 𝑞 𝛻𝑣g 𝐳, 𝐯 = 𝔼 𝑞 𝛻𝐯log𝑞 𝐳; 𝐯
g 𝐳, 𝐯 = log𝑞 𝐱, 𝐳 − log 𝑞(𝐳; 𝐯)
= 𝑞(𝐳; 𝐯)𝛻𝐯log𝑞 𝐳; 𝐯 𝑑𝑧
= 𝑞(𝐳; 𝐯)
𝛻𝐯 𝑞 𝐳; 𝐯
𝑞(𝐳; 𝐯)
𝑑𝑧
= 𝛻𝐯 𝑞 𝐳; 𝐯 𝑑𝑧
= 𝛻𝐯 𝑞 𝐳; 𝐯 𝑑𝑧
= 0
=1
微分と積分の順序交換より
モンテカルロ近似による勾配計算
モンテカルロ近似
Black Box Variational Inference
適用のための条件
• 𝑞(𝑧)からサンプリング可能
• 𝛻𝑣 log 𝑞(𝑧; 𝑣)が計算可能
• log 𝑝(𝑥, 𝑧)とlog 𝑞(𝑧)が計算可能
モデル固有の作業がない:汎用的な適用が可能
Black Box Variational Inference
Score Function Estimatorは不安定
確率の低い場所のサンプリングはスコアと分散が大きくなる
コントロール変数を使用することで軽減
Pathwise Estimator
Pathwise Estimator
単純化
分散の比較
ローカル変数の決定は高コスト
各データ点ごとで最適化演算が必要
Amortizing Inference
Amortizing Inference
例:変分オートエンコーダ(VAE)
四角は深層ニューラルネットワーク
例:変分オートエンコーダ(VAE)
全般的なアドバイス
• もし𝑝(𝑥, 𝑧)が𝑧について微分可能だったら
• リパラメタライゼーションが可能な𝑞を使いなさい
• もし𝑝(𝑥, 𝑧)が𝑧について微分不可能だったら
• コントロール変数ありのScore Functionを使いなさい
• 実験的証拠に基づいてさらに分散を減少させなさい
(意訳:試行錯誤で頑張って分散を下げなさい)
• 全般的に
• 座標ごとにラーニングレートを調節(RMSProp, AdaGrad)
• アニーリング + 温度
• サンプリングを並列化できないか一度考えてみる
Software
4.平均場近似を仮定しない変分推論
平均場近似は極端すぎるので適度に複雑でソコソコ効率的に計算できるも
でるモデルを考える
構造化事後分布近似(Structured Posterior Approximations)
目標:高い近似能力と計算効率の両立
構造化事後分布近似(Structured Posterior Approximations)
目標:高い近似能力と計算効率の両立
Gaussian
Approximate
Posteriors
Autoregressive
distribution
Change-of-
variables
Change-of-
variables
Linear time computation of the determinant and its gradient.
Change-of-
variables
Auxiliary-
variable
Methods
Auxiliary-
variable
Methods
まとめ
Variational Inference:
Foundations and Modern Methods
• VIは複雑なモデルの変量を
近似できる
• 確率的最適化をによって
• 大量のデータにスケー
ルアップできる
• 複雑なモデルに対応で
きる
• 精密かつ柔軟な近似が
可能となる

More Related Content

What's hot

PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説弘毅 露崎
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative ModelsDeep Learning JP
 
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)Ohsawa Goodfellow
 
Practical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architecturesPractical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architecturesKoji Matsuda
 
mxnetで頑張る深層学習
mxnetで頑張る深層学習mxnetで頑張る深層学習
mxnetで頑張る深層学習Takashi Kitano
 
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用 2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用 Kenta Oono
 
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochiDeep learning勉強会20121214ochi
Deep learning勉強会20121214ochiOhsawa Goodfellow
 
Autoencoderの実装と愉快な仲間との比較
Autoencoderの実装と愉快な仲間との比較Autoencoderの実装と愉快な仲間との比較
Autoencoderの実装と愉快な仲間との比較YumaMatsuoka
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係についてDeep Learning JP
 
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKSDeep Learning JP
 
[DL輪読会]Convolutional Sequence to Sequence Learning
[DL輪読会]Convolutional Sequence to Sequence Learning[DL輪読会]Convolutional Sequence to Sequence Learning
[DL輪読会]Convolutional Sequence to Sequence LearningDeep Learning JP
 
Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)Kenta Oono
 
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Seiya Tokui
 
[DL輪読会]Parallel WaveNet: Fast High-Fidelity Speech Synthesis
[DL輪読会]Parallel WaveNet: Fast High-Fidelity Speech Synthesis[DL輪読会]Parallel WaveNet: Fast High-Fidelity Speech Synthesis
[DL輪読会]Parallel WaveNet: Fast High-Fidelity Speech SynthesisDeep Learning JP
 
深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開Seiya Tokui
 
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-EncoderDeep Learning JP
 
MapReduceによる大規模データを利用した機械学習
MapReduceによる大規模データを利用した機械学習MapReduceによる大規模データを利用した機械学習
MapReduceによる大規模データを利用した機械学習Preferred Networks
 
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Seiya Tokui
 

What's hot (19)

PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
 
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
 
Practical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architecturesPractical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architectures
 
mxnetで頑張る深層学習
mxnetで頑張る深層学習mxnetで頑張る深層学習
mxnetで頑張る深層学習
 
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用 2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
 
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochiDeep learning勉強会20121214ochi
Deep learning勉強会20121214ochi
 
Autoencoderの実装と愉快な仲間との比較
Autoencoderの実装と愉快な仲間との比較Autoencoderの実装と愉快な仲間との比較
Autoencoderの実装と愉快な仲間との比較
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について
 
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
 
[DL輪読会]Convolutional Sequence to Sequence Learning
[DL輪読会]Convolutional Sequence to Sequence Learning[DL輪読会]Convolutional Sequence to Sequence Learning
[DL輪読会]Convolutional Sequence to Sequence Learning
 
Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)
 
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用
 
[DL輪読会]Parallel WaveNet: Fast High-Fidelity Speech Synthesis
[DL輪読会]Parallel WaveNet: Fast High-Fidelity Speech Synthesis[DL輪読会]Parallel WaveNet: Fast High-Fidelity Speech Synthesis
[DL輪読会]Parallel WaveNet: Fast High-Fidelity Speech Synthesis
 
More modern gpu
More modern gpuMore modern gpu
More modern gpu
 
深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開
 
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
 
MapReduceによる大規模データを利用した機械学習
MapReduceによる大規模データを利用した機械学習MapReduceによる大規模データを利用した機械学習
MapReduceによる大規模データを利用した機械学習
 
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
 

Similar to 第3回nips読み会・関西『variational inference foundations and modern methods』

[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for PredictionDeep Learning JP
 
[DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
[DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields [DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
[DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields Deep Learning JP
 
LET2011: Rによる教育データ分析入門
LET2011: Rによる教育データ分析入門LET2011: Rによる教育データ分析入門
LET2011: Rによる教育データ分析入門Yuichiro Kobayashi
 
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章nocchi_airport
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)Masahiro Suzuki
 
Jinan Xu - 2015 - Integrating Case Frame into Japanese to Chinese Hierarchica...
Jinan Xu - 2015 - Integrating Case Frame into Japanese to Chinese Hierarchica...Jinan Xu - 2015 - Integrating Case Frame into Japanese to Chinese Hierarchica...
Jinan Xu - 2015 - Integrating Case Frame into Japanese to Chinese Hierarchica...Association for Computational Linguistics
 
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)Toru Fujino
 
WI2研究会(公開用) “データ分析でよく使う前処理の整理と対処”
WI2研究会(公開用) “データ分析でよく使う前処理の整理と対処” WI2研究会(公開用) “データ分析でよく使う前処理の整理と対処”
WI2研究会(公開用) “データ分析でよく使う前処理の整理と対処” Hajime Sasaki
 
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores,  Clusters and Cloudsの解説LCCC2010:Learning on Cores,  Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説Preferred Networks
 
分散型強化学習手法の最近の動向と分散計算フレームワークRayによる実装の試み
分散型強化学習手法の最近の動向と分散計算フレームワークRayによる実装の試み分散型強化学習手法の最近の動向と分散計算フレームワークRayによる実装の試み
分散型強化学習手法の最近の動向と分散計算フレームワークRayによる実装の試みSusumuOTA
 
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについてMasahiro Suzuki
 
海鳥の経路予測のための逆強化学習
海鳥の経路予測のための逆強化学習海鳥の経路予測のための逆強化学習
海鳥の経路予測のための逆強化学習Tsubasa Hirakawa
 
ベイズ統計によるデータ解析
ベイズ統計によるデータ解析ベイズ統計によるデータ解析
ベイズ統計によるデータ解析Kunihiro Hisatsune
 
Rm20140702 11key
Rm20140702 11keyRm20140702 11key
Rm20140702 11keyyouwatari
 
ブースティング入門
ブースティング入門ブースティング入門
ブースティング入門Retrieva inc.
 
Direct Sparse Odometryの解説
Direct Sparse Odometryの解説Direct Sparse Odometryの解説
Direct Sparse Odometryの解説Masaya Kaneko
 
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項tomitomi3 tomitomi3
 
Deep learningbook chap7
Deep learningbook chap7Deep learningbook chap7
Deep learningbook chap7Shinsaku Kono
 
データ解析入門
データ解析入門データ解析入門
データ解析入門Takeo Noda
 

Similar to 第3回nips読み会・関西『variational inference foundations and modern methods』 (20)

[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
 
[DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
[DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields [DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
[DL輪読会] Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
 
LET2011: Rによる教育データ分析入門
LET2011: Rによる教育データ分析入門LET2011: Rによる教育データ分析入門
LET2011: Rによる教育データ分析入門
 
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
 
Jinan Xu - 2015 - Integrating Case Frame into Japanese to Chinese Hierarchica...
Jinan Xu - 2015 - Integrating Case Frame into Japanese to Chinese Hierarchica...Jinan Xu - 2015 - Integrating Case Frame into Japanese to Chinese Hierarchica...
Jinan Xu - 2015 - Integrating Case Frame into Japanese to Chinese Hierarchica...
 
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
 
WI2研究会(公開用) “データ分析でよく使う前処理の整理と対処”
WI2研究会(公開用) “データ分析でよく使う前処理の整理と対処” WI2研究会(公開用) “データ分析でよく使う前処理の整理と対処”
WI2研究会(公開用) “データ分析でよく使う前処理の整理と対処”
 
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores,  Clusters and Cloudsの解説LCCC2010:Learning on Cores,  Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
 
分散型強化学習手法の最近の動向と分散計算フレームワークRayによる実装の試み
分散型強化学習手法の最近の動向と分散計算フレームワークRayによる実装の試み分散型強化学習手法の最近の動向と分散計算フレームワークRayによる実装の試み
分散型強化学習手法の最近の動向と分散計算フレームワークRayによる実装の試み
 
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
 
海鳥の経路予測のための逆強化学習
海鳥の経路予測のための逆強化学習海鳥の経路予測のための逆強化学習
海鳥の経路予測のための逆強化学習
 
ベイズ統計によるデータ解析
ベイズ統計によるデータ解析ベイズ統計によるデータ解析
ベイズ統計によるデータ解析
 
Rm20140702 11key
Rm20140702 11keyRm20140702 11key
Rm20140702 11key
 
ブースティング入門
ブースティング入門ブースティング入門
ブースティング入門
 
Direct Sparse Odometryの解説
Direct Sparse Odometryの解説Direct Sparse Odometryの解説
Direct Sparse Odometryの解説
 
PFI Christmas seminar 2009
PFI Christmas seminar 2009PFI Christmas seminar 2009
PFI Christmas seminar 2009
 
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
 
Deep learningbook chap7
Deep learningbook chap7Deep learningbook chap7
Deep learningbook chap7
 
データ解析入門
データ解析入門データ解析入門
データ解析入門
 

More from koji ochiai

General ai challenge round1 中間報告
General ai challenge round1 中間報告General ai challenge round1 中間報告
General ai challenge round1 中間報告koji ochiai
 
落合 Wba hackathon2_成果報告_最終版
落合 Wba hackathon2_成果報告_最終版落合 Wba hackathon2_成果報告_最終版
落合 Wba hackathon2_成果報告_最終版koji ochiai
 
第2回nips読み会・関西資料『unsupervised learning for physical interaction through video ...
第2回nips読み会・関西資料『unsupervised learning for physical interaction through video ...第2回nips読み会・関西資料『unsupervised learning for physical interaction through video ...
第2回nips読み会・関西資料『unsupervised learning for physical interaction through video ...koji ochiai
 
第7回sig wba 眼球運動
第7回sig wba 眼球運動第7回sig wba 眼球運動
第7回sig wba 眼球運動koji ochiai
 
Pred netにおけるl1lossとl2lossの比較
Pred netにおけるl1lossとl2lossの比較Pred netにおけるl1lossとl2lossの比較
Pred netにおけるl1lossとl2lossの比較koji ochiai
 
Pred net使ってみた
Pred net使ってみたPred net使ってみた
Pred net使ってみたkoji ochiai
 

More from koji ochiai (6)

General ai challenge round1 中間報告
General ai challenge round1 中間報告General ai challenge round1 中間報告
General ai challenge round1 中間報告
 
落合 Wba hackathon2_成果報告_最終版
落合 Wba hackathon2_成果報告_最終版落合 Wba hackathon2_成果報告_最終版
落合 Wba hackathon2_成果報告_最終版
 
第2回nips読み会・関西資料『unsupervised learning for physical interaction through video ...
第2回nips読み会・関西資料『unsupervised learning for physical interaction through video ...第2回nips読み会・関西資料『unsupervised learning for physical interaction through video ...
第2回nips読み会・関西資料『unsupervised learning for physical interaction through video ...
 
第7回sig wba 眼球運動
第7回sig wba 眼球運動第7回sig wba 眼球運動
第7回sig wba 眼球運動
 
Pred netにおけるl1lossとl2lossの比較
Pred netにおけるl1lossとl2lossの比較Pred netにおけるl1lossとl2lossの比較
Pred netにおけるl1lossとl2lossの比較
 
Pred net使ってみた
Pred net使ってみたPred net使ってみた
Pred net使ってみた
 

第3回nips読み会・関西『variational inference foundations and modern methods』