Submit Search
Upload
論文紹介 Deterministic Independent Component Analysis
•
Download as PPTX, PDF
•
5 likes
•
2,238 views
Kazuto Fukuchi
Follow
ICML2015読み会の論文紹介資料です
Read less
Read more
Technology
Report
Share
Report
Share
1 of 22
Download now
Recommended
ICML2015概要
ICML2015概要
jkomiyama
ICML2015読み会 資料
ICML2015読み会 資料
Toshihiro Kamishima
ICML2015読み会:Optimal and Adaptive Algorithms for Online Boosting
ICML2015読み会:Optimal and Adaptive Algorithms for Online Boosting
irrrrr
Optimal Regret Analysis of Thompson Sampling in Stochastic Multi-armed Bandit...
Optimal Regret Analysis of Thompson Sampling in Stochastic Multi-armed Bandit...
jkomiyama
Trust Region Policy Optimization
Trust Region Policy Optimization
mooopan
論文紹介 Compressing Neural Networks with the Hashing Trick
論文紹介 Compressing Neural Networks with the Hashing Trick
Seiya Tokui
Icml2015 論文紹介 sparse_subspace_clustering_with_missing_entries
Icml2015 論文紹介 sparse_subspace_clustering_with_missing_entries
Takami Sato
Conditional Image Generation with PixelCNN Decoders
Conditional Image Generation with PixelCNN Decoders
suga93
Recommended
ICML2015概要
ICML2015概要
jkomiyama
ICML2015読み会 資料
ICML2015読み会 資料
Toshihiro Kamishima
ICML2015読み会:Optimal and Adaptive Algorithms for Online Boosting
ICML2015読み会:Optimal and Adaptive Algorithms for Online Boosting
irrrrr
Optimal Regret Analysis of Thompson Sampling in Stochastic Multi-armed Bandit...
Optimal Regret Analysis of Thompson Sampling in Stochastic Multi-armed Bandit...
jkomiyama
Trust Region Policy Optimization
Trust Region Policy Optimization
mooopan
論文紹介 Compressing Neural Networks with the Hashing Trick
論文紹介 Compressing Neural Networks with the Hashing Trick
Seiya Tokui
Icml2015 論文紹介 sparse_subspace_clustering_with_missing_entries
Icml2015 論文紹介 sparse_subspace_clustering_with_missing_entries
Takami Sato
Conditional Image Generation with PixelCNN Decoders
Conditional Image Generation with PixelCNN Decoders
suga93
Interaction Networks for Learning about Objects, Relations and Physics
Interaction Networks for Learning about Objects, Relations and Physics
Ken Kuroki
InfoGAN: Interpretable Representation Learning by Information Maximizing Gen...
InfoGAN: Interpretable Representation Learning by Information Maximizing Gen...
Shuhei Yoshida
Introduction of “Fairness in Learning: Classic and Contextual Bandits”
Introduction of “Fairness in Learning: Classic and Contextual Bandits”
Kazuto Fukuchi
Improving Variational Inference with Inverse Autoregressive Flow
Improving Variational Inference with Inverse Autoregressive Flow
Tatsuya Shirakawa
Learning to learn by gradient descent by gradient descent
Learning to learn by gradient descent by gradient descent
Hiroyuki Fukuda
Introduction of "TrailBlazer" algorithm
Introduction of "TrailBlazer" algorithm
Katsuki Ohto
Fast and Probvably Seedings for k-Means
Fast and Probvably Seedings for k-Means
Kimikazu Kato
Value iteration networks
Value iteration networks
Fujimoto Keisuke
Differential privacy without sensitivity [NIPS2016読み会資料]
Differential privacy without sensitivity [NIPS2016読み会資料]
Kentaro Minami
Safe and Efficient Off-Policy Reinforcement Learning
Safe and Efficient Off-Policy Reinforcement Learning
mooopan
Dual Learning for Machine Translation (NIPS 2016)
Dual Learning for Machine Translation (NIPS 2016)
Toru Fujino
Matching networks for one shot learning
Matching networks for one shot learning
Kazuki Fujikawa
NIPS 2016 Overview and Deep Learning Topics
NIPS 2016 Overview and Deep Learning Topics
Koichi Hamada
Rokko チュートリアル
Rokko チュートリアル
Computational Materials Science Initiative
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno
tokyor29th
tokyor29th
Mikiya Tanizawa
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
Deep Learning JP
Akira Imakura
Akira Imakura
Suurist
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
tomitomi3 tomitomi3
Linked Open Dataで実現する作文活動リポジトリと分析
Linked Open Dataで実現する作文活動リポジトリと分析
yamahige
20160716 ICML paper reading, Learning to Generate with Memory
20160716 ICML paper reading, Learning to Generate with Memory
Shinagawa Seitaro
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NTT DATA Technology & Innovation
More Related Content
Viewers also liked
Interaction Networks for Learning about Objects, Relations and Physics
Interaction Networks for Learning about Objects, Relations and Physics
Ken Kuroki
InfoGAN: Interpretable Representation Learning by Information Maximizing Gen...
InfoGAN: Interpretable Representation Learning by Information Maximizing Gen...
Shuhei Yoshida
Introduction of “Fairness in Learning: Classic and Contextual Bandits”
Introduction of “Fairness in Learning: Classic and Contextual Bandits”
Kazuto Fukuchi
Improving Variational Inference with Inverse Autoregressive Flow
Improving Variational Inference with Inverse Autoregressive Flow
Tatsuya Shirakawa
Learning to learn by gradient descent by gradient descent
Learning to learn by gradient descent by gradient descent
Hiroyuki Fukuda
Introduction of "TrailBlazer" algorithm
Introduction of "TrailBlazer" algorithm
Katsuki Ohto
Fast and Probvably Seedings for k-Means
Fast and Probvably Seedings for k-Means
Kimikazu Kato
Value iteration networks
Value iteration networks
Fujimoto Keisuke
Differential privacy without sensitivity [NIPS2016読み会資料]
Differential privacy without sensitivity [NIPS2016読み会資料]
Kentaro Minami
Safe and Efficient Off-Policy Reinforcement Learning
Safe and Efficient Off-Policy Reinforcement Learning
mooopan
Dual Learning for Machine Translation (NIPS 2016)
Dual Learning for Machine Translation (NIPS 2016)
Toru Fujino
Matching networks for one shot learning
Matching networks for one shot learning
Kazuki Fujikawa
NIPS 2016 Overview and Deep Learning Topics
NIPS 2016 Overview and Deep Learning Topics
Koichi Hamada
Viewers also liked
(13)
Interaction Networks for Learning about Objects, Relations and Physics
Interaction Networks for Learning about Objects, Relations and Physics
InfoGAN: Interpretable Representation Learning by Information Maximizing Gen...
InfoGAN: Interpretable Representation Learning by Information Maximizing Gen...
Introduction of “Fairness in Learning: Classic and Contextual Bandits”
Introduction of “Fairness in Learning: Classic and Contextual Bandits”
Improving Variational Inference with Inverse Autoregressive Flow
Improving Variational Inference with Inverse Autoregressive Flow
Learning to learn by gradient descent by gradient descent
Learning to learn by gradient descent by gradient descent
Introduction of "TrailBlazer" algorithm
Introduction of "TrailBlazer" algorithm
Fast and Probvably Seedings for k-Means
Fast and Probvably Seedings for k-Means
Value iteration networks
Value iteration networks
Differential privacy without sensitivity [NIPS2016読み会資料]
Differential privacy without sensitivity [NIPS2016読み会資料]
Safe and Efficient Off-Policy Reinforcement Learning
Safe and Efficient Off-Policy Reinforcement Learning
Dual Learning for Machine Translation (NIPS 2016)
Dual Learning for Machine Translation (NIPS 2016)
Matching networks for one shot learning
Matching networks for one shot learning
NIPS 2016 Overview and Deep Learning Topics
NIPS 2016 Overview and Deep Learning Topics
Similar to 論文紹介 Deterministic Independent Component Analysis
Rokko チュートリアル
Rokko チュートリアル
Computational Materials Science Initiative
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno
tokyor29th
tokyor29th
Mikiya Tanizawa
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
Deep Learning JP
Akira Imakura
Akira Imakura
Suurist
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
tomitomi3 tomitomi3
Linked Open Dataで実現する作文活動リポジトリと分析
Linked Open Dataで実現する作文活動リポジトリと分析
yamahige
20160716 ICML paper reading, Learning to Generate with Memory
20160716 ICML paper reading, Learning to Generate with Memory
Shinagawa Seitaro
Similar to 論文紹介 Deterministic Independent Component Analysis
(8)
Rokko チュートリアル
Rokko チュートリアル
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
tokyor29th
tokyor29th
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
Akira Imakura
Akira Imakura
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
Linked Open Dataで実現する作文活動リポジトリと分析
Linked Open Dataで実現する作文活動リポジトリと分析
20160716 ICML paper reading, Learning to Generate with Memory
20160716 ICML paper reading, Learning to Generate with Memory
Recently uploaded
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NTT DATA Technology & Innovation
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
UEHARA, Tetsutaro
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
FumieNakayama
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
FumieNakayama
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
akihisamiyanaga1
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
博三 太田
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
Yuki Kikuchi
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
Hiroshi Tomioka
Recently uploaded
(8)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
論文紹介 Deterministic Independent Component Analysis
1.
“Deterministic Independent Component Analysis” Ruitong
Huang, András György, Csaba Szepesvári ICML 2015読み会 紹介者: 福地 一斗
2.
自己紹介 • 福地 一斗 •
筑波大学D1 • 佐久間研究室: 機械学習におけるプライバシー • 研究分野: • 機械学習:特に学習理論 (公平配慮学習における理論)
3.
紹介する論文 • Deterministic Independent
Component Analysis Ruitong Huang, András György, Csaba Szepesvári • 証明付き資料はここから • http://www.ualberta.ca/~szepesva/publications.html • Learning Theoryトラックでの発表 • 独立成分分析(ICA)をさらに一般化した問題を考案 • その問題の理論解析 • 解析をもとにしたアルゴリズムの導出
4.
独立成分分析 (ICA) モデル 𝑋 =
𝐴𝑆 + 𝜖 𝑋 ∈ ℝ 𝑑: 観測変数 𝑆 ∈ ℝ 𝑑 : 𝑑個の独立成分 𝐴 ∈ ℝ 𝑑×𝑑: 混合行列 𝜖 ∈ ℝ 𝑑 ~ 𝒩(0, Σ): ガウシアンノイズ 𝑇個の𝑋のiidサンプルから𝑆および𝐴を求める問題
5.
Deterministic ICA モデル 𝑡
∈ 𝑇 = 1,2, … , 𝑇 𝑥 𝑡 = 𝐴𝑠 𝑡 + 𝜖 𝑡 𝑥: ℕ → ℝ 𝑑: 観測変数 𝑠: ℕ → [−𝐶, 𝐶] 𝑑 : 𝑑個の独立成分 𝐴 ∈ ℝ 𝑑×𝑑: 混合行列 𝜖: ℕ → ℝ 𝑑 : ノイズ 𝑇個の系列𝑥(𝑡) から𝑠(𝑡)および𝐴を求める問題 ただし,Assumption 2.1 + Assumption 2.3
6.
なぜDICAか 線形混合信号 Mix. 1,
Mix. 2から元の信号を復元 時系列データを独立成分へ分解 元の信号は時系列データ • iidサンプルではない ICA仮定が満たされない
7.
なぜDICAか 時系列データを独立成分へ分解 提案手法(DICA)は既存手法(FastICA, HKICA)に比べ 元の信号をうまく復元できる
8.
どの範囲まで扱えるのか? Assumption 2.1 • 𝑠
𝑡 , 𝜖 𝑡 は漸近的に経験期待値0 • 𝜖 𝑡 の構造が簡単 (ガウスノイズでなくてもよい) • 2,3次元モーメントが抑えられている • 尖度が漸近的に0 Assumption 2.3 • 𝑠 𝑡 , 𝜖 𝑡 は漸近的に4次モーメントまで独立 𝑠(1) 𝑠(2) 𝑠(3) 𝑠(4) 𝑠(5) マルコフ性を持つような𝑠 𝑡 も扱うことが可能
9.
HKICAアルゴリズム [Hus+ 2013] 行列𝑀の固有ベクトルがスケールした𝐴と一致 𝑚
𝑝 𝜈 𝜂 = 𝔼 𝑋~𝜈 𝜂 𝑇 𝑋 𝑝 , 𝑓𝜈 𝜂 = (𝑚4 𝜈 𝜂 − 3𝑚2 𝜈 𝜂 2)/12 𝑀 = 𝛻2 𝑓𝜈 𝜙 𝛻2 𝑓𝜈 𝜓 −1 ただし, 𝜙 𝑇 𝐴𝑖 𝜓 𝑇 𝐴𝑖が互いに異なる 𝐴の𝑖番目の列ベクトル 𝜙, 𝜓を生成 𝛻2 𝑓𝜈を経験評価
10.
HKICAのDICA設定での解析 ならば
11.
HKICAのDICA設定での解析 ならば サンプルが十分にある 𝑠 𝑡 が十分独立と見なせる ICA設定なら𝑂
1 𝑇
12.
HKICAのDICA設定での解析 ならば サンプルが十分にある 𝑠 𝑡 が十分独立と見なせる アルゴリズムに依存するパラメータ 𝛾
𝐴 = min 𝑖,𝑗:𝑖≠𝑗 𝜙 𝑇 𝐴𝑖 𝜓 𝑇 𝐴𝑖 2 − 𝜙 𝑇 𝐴𝑗 𝜓 𝑇 𝐴𝑗 2 その他は問題にのみ依存
13.
DICAアルゴリズム HKICA 収束速度は𝛾
𝐴に大きく依存 𝛾 𝐴 = min 𝑖,𝑗:𝑖≠𝑗 𝜙 𝑇 𝐴𝑖 𝜓 𝑇 𝐴𝑖 2 − 𝜙 𝑇 𝐴𝑗 𝜓 𝑇 𝐴𝑗 2 𝐴は問題設定によるため𝛾 𝐴をコントロールできない 𝐴をコントロールしやすい行列𝑅に置き換えられないか? 𝛾 𝑅 = min 𝑖,𝑗:𝑖≠𝑗 𝜙 𝑇 𝑅𝑖 𝜓 𝑇 𝑅𝑖 2 − 𝜙 𝑇 𝑅𝑗 𝜓 𝑇 𝑅𝑗 2
14.
DICA すると, Rが対角行列かつ 𝛾 𝑅
≥ 𝛿 2𝑑2 𝑤. 𝑝. 1 − 𝛿 計算量は𝑂 𝑑3 𝑇 𝛻2 𝑓𝜈 𝜓 をコレスキー分解 𝐵をもとに𝑀を計算
15.
DICAの解析結果 ならば
16.
DICAの解析結果 ならば サンプルが十分にある 𝑠 𝑡 が十分独立と見なせる ICA設定ならば 𝐷4
𝜇, 𝜈 𝑇 ≤ 𝑂 1 𝑇 , 𝑔 𝑇 ≤ 𝑂 1 𝑇
17.
𝑂 1 𝑇
よりはやくなる? 線形混合信号 Mix. 1, Mix. 2から元の信号を復元 時系列データを独立成分へ分解 𝐷4 𝜇, 𝜈 𝑇 ≤ 𝑂 1 𝑇 𝑔 𝑇 は元の信号やノイズに依存
18.
その他の改良方法 • 再帰バージョン • 𝑀を求める際に再帰的なアルゴリズムを用いる •
𝑀の推定誤差を減らすことができる • Modified DICA • DICAに𝑀の推定誤差を減らす工夫を取り入れたもの
19.
実験 • 6次元の信号の人工データ • 𝐴を複数用意:
𝐴1, … , 𝐴4 • 𝐴1にくらべ𝐴4は1/𝛾 𝐴が大きい • また, 対角行列𝐴 = 𝑅も用意 • 元の信号 • ランダムに +1, −1 を設定した信号𝑞(𝑡) • 周期の異なるサイン波sin 𝑝𝑖 𝑡 𝑝 = ( 2, 5, 7, 11, 13, 19) • 信号𝑠𝑖 𝑡 = 𝑞 𝑡 𝑖 ⋅ sin 𝑝𝑖 𝑡 • サンプル数𝑇 = 20000
20.
実験結果 𝐴1𝑅 ノイズの大きさ 大きい小さい 大きい エ ラ ー 𝛾 𝐴が小さい場合FastICAの性能が良い𝛾
𝐴が小さい場合FastICAの性能が良い
21.
実験結果 𝐴3𝐴2 𝐴4 ノイズや𝛾 𝐴が大きくなると再帰版の修正DICA が一番よくなる ノイズや𝛾
𝐴が大きくなると再帰版の修正DICA が一番よくなる
22.
まとめ • Deterministic ICA •
iidでないような時系列データにも対応したICA • ガウシアンノイズ出なくてもよい • DICAアルゴリズム • コレスキー分解を使ってHKICAを改良 • 再帰版や修正版によって高い性能
Download now