SlideShare a Scribd company logo
1 of 22
“Deterministic Independent
Component Analysis”
Ruitong Huang, András György, Csaba Szepesvári
ICML 2015読み会
紹介者: 福地 一斗
自己紹介
• 福地 一斗
• 筑波大学D1
• 佐久間研究室: 機械学習におけるプライバシー
• 研究分野:
• 機械学習:特に学習理論 (公平配慮学習における理論)
紹介する論文
• Deterministic Independent Component Analysis
Ruitong Huang, András György, Csaba Szepesvári
• 証明付き資料はここから
• http://www.ualberta.ca/~szepesva/publications.html
• Learning Theoryトラックでの発表
• 独立成分分析(ICA)をさらに一般化した問題を考案
• その問題の理論解析
• 解析をもとにしたアルゴリズムの導出
独立成分分析 (ICA)
モデル
𝑋 = 𝐴𝑆 + 𝜖
𝑋 ∈ ℝ 𝑑: 観測変数
𝑆 ∈ ℝ 𝑑
: 𝑑個の独立成分
𝐴 ∈ ℝ 𝑑×𝑑: 混合行列
𝜖 ∈ ℝ 𝑑
~ 𝒩(0, Σ): ガウシアンノイズ
𝑇個の𝑋のiidサンプルから𝑆および𝐴を求める問題
Deterministic ICA
モデル 𝑡 ∈ 𝑇 = 1,2, … , 𝑇
𝑥 𝑡 = 𝐴𝑠 𝑡 + 𝜖 𝑡
𝑥: ℕ → ℝ 𝑑: 観測変数
𝑠: ℕ → [−𝐶, 𝐶] 𝑑
: 𝑑個の独立成分
𝐴 ∈ ℝ 𝑑×𝑑: 混合行列
𝜖: ℕ → ℝ 𝑑
: ノイズ
𝑇個の系列𝑥(𝑡) から𝑠(𝑡)および𝐴を求める問題
ただし,Assumption 2.1 + Assumption 2.3
なぜDICAか
線形混合信号 Mix. 1, Mix. 2から元の信号を復元
時系列データを独立成分へ分解
元の信号は時系列データ
• iidサンプルではない  ICA仮定が満たされない
なぜDICAか
時系列データを独立成分へ分解
提案手法(DICA)は既存手法(FastICA, HKICA)に比べ
元の信号をうまく復元できる
どの範囲まで扱えるのか?
Assumption 2.1
• 𝑠 𝑡 , 𝜖 𝑡 は漸近的に経験期待値0
• 𝜖 𝑡 の構造が簡単 (ガウスノイズでなくてもよい)
• 2,3次元モーメントが抑えられている
• 尖度が漸近的に0
Assumption 2.3
• 𝑠 𝑡 , 𝜖 𝑡 は漸近的に4次モーメントまで独立
𝑠(1) 𝑠(2) 𝑠(3) 𝑠(4) 𝑠(5)
マルコフ性を持つような𝑠 𝑡 も扱うことが可能
HKICAアルゴリズム [Hus+ 2013]
行列𝑀の固有ベクトルがスケールした𝐴と一致
𝑚 𝑝
𝜈
𝜂 = 𝔼 𝑋~𝜈 𝜂 𝑇 𝑋 𝑝 , 𝑓𝜈 𝜂 = (𝑚4
𝜈
𝜂 − 3𝑚2
𝜈
𝜂 2)/12
𝑀 = 𝛻2 𝑓𝜈 𝜙 𝛻2 𝑓𝜈 𝜓
−1
ただし, 𝜙 𝑇
𝐴𝑖 𝜓 𝑇
𝐴𝑖が互いに異なる
𝐴の𝑖番目の列ベクトル
𝜙, 𝜓を生成
𝛻2
𝑓𝜈を経験評価
HKICAのDICA設定での解析
ならば
HKICAのDICA設定での解析
ならば
サンプルが十分にある
𝑠 𝑡 が十分独立と見なせる
ICA設定なら𝑂 1 𝑇
HKICAのDICA設定での解析
ならば
サンプルが十分にある
𝑠 𝑡 が十分独立と見なせる
アルゴリズムに依存するパラメータ
𝛾 𝐴 = min
𝑖,𝑗:𝑖≠𝑗
𝜙 𝑇 𝐴𝑖
𝜓 𝑇 𝐴𝑖
2
−
𝜙 𝑇
𝐴𝑗
𝜓 𝑇 𝐴𝑗
2
その他は問題にのみ依存
DICAアルゴリズム
HKICA  収束速度は𝛾 𝐴に大きく依存
𝛾 𝐴 = min
𝑖,𝑗:𝑖≠𝑗
𝜙 𝑇 𝐴𝑖
𝜓 𝑇 𝐴𝑖
2
−
𝜙 𝑇
𝐴𝑗
𝜓 𝑇 𝐴𝑗
2
𝐴は問題設定によるため𝛾 𝐴をコントロールできない
𝐴をコントロールしやすい行列𝑅に置き換えられないか?
𝛾 𝑅 = min
𝑖,𝑗:𝑖≠𝑗
𝜙 𝑇 𝑅𝑖
𝜓 𝑇 𝑅𝑖
2
−
𝜙 𝑇
𝑅𝑗
𝜓 𝑇 𝑅𝑗
2
DICA
すると, Rが対角行列かつ
𝛾 𝑅 ≥
𝛿
2𝑑2
𝑤. 𝑝. 1 − 𝛿
計算量は𝑂 𝑑3 𝑇
𝛻2
𝑓𝜈 𝜓 をコレスキー分解
𝐵をもとに𝑀を計算
DICAの解析結果
ならば
DICAの解析結果
ならば
サンプルが十分にある
𝑠 𝑡 が十分独立と見なせる
ICA設定ならば
𝐷4 𝜇, 𝜈 𝑇 ≤ 𝑂 1 𝑇 , 𝑔 𝑇 ≤ 𝑂 1 𝑇
𝑂 1 𝑇 よりはやくなる?
線形混合信号 Mix. 1, Mix. 2から元の信号を復元
時系列データを独立成分へ分解
𝐷4 𝜇, 𝜈 𝑇 ≤ 𝑂 1 𝑇
𝑔 𝑇 は元の信号やノイズに依存
その他の改良方法
• 再帰バージョン
• 𝑀を求める際に再帰的なアルゴリズムを用いる
• 𝑀の推定誤差を減らすことができる
• Modified DICA
• DICAに𝑀の推定誤差を減らす工夫を取り入れたもの
実験
• 6次元の信号の人工データ
• 𝐴を複数用意: 𝐴1, … , 𝐴4
• 𝐴1にくらべ𝐴4は1/𝛾 𝐴が大きい
• また, 対角行列𝐴 = 𝑅も用意
• 元の信号
• ランダムに +1, −1 を設定した信号𝑞(𝑡)
• 周期の異なるサイン波sin 𝑝𝑖 𝑡
𝑝 = ( 2, 5, 7, 11, 13, 19)
• 信号𝑠𝑖 𝑡 = 𝑞 𝑡 𝑖 ⋅ sin 𝑝𝑖 𝑡
• サンプル数𝑇 = 20000
実験結果
𝐴1𝑅
ノイズの大きさ 大きい小さい
大きい
エ
ラ
ー
𝛾 𝐴が小さい場合FastICAの性能が良い𝛾 𝐴が小さい場合FastICAの性能が良い
実験結果
𝐴3𝐴2 𝐴4
ノイズや𝛾 𝐴が大きくなると再帰版の修正DICA
が一番よくなる
ノイズや𝛾 𝐴が大きくなると再帰版の修正DICA
が一番よくなる
まとめ
• Deterministic ICA
• iidでないような時系列データにも対応したICA
• ガウシアンノイズ出なくてもよい
• DICAアルゴリズム
• コレスキー分解を使ってHKICAを改良
• 再帰版や修正版によって高い性能

More Related Content

Viewers also liked

Interaction Networks for Learning about Objects, Relations and Physics
Interaction Networks for Learning about Objects, Relations and PhysicsInteraction Networks for Learning about Objects, Relations and Physics
Interaction Networks for Learning about Objects, Relations and PhysicsKen Kuroki
 
InfoGAN: Interpretable Representation Learning by Information Maximizing Gen...
InfoGAN: Interpretable Representation Learning by Information Maximizing Gen...InfoGAN: Interpretable Representation Learning by Information Maximizing Gen...
InfoGAN: Interpretable Representation Learning by Information Maximizing Gen...Shuhei Yoshida
 
Introduction of “Fairness in Learning: Classic and Contextual Bandits”
Introduction of “Fairness in Learning: Classic and Contextual Bandits”Introduction of “Fairness in Learning: Classic and Contextual Bandits”
Introduction of “Fairness in Learning: Classic and Contextual Bandits”Kazuto Fukuchi
 
Improving Variational Inference with Inverse Autoregressive Flow
Improving Variational Inference with Inverse Autoregressive FlowImproving Variational Inference with Inverse Autoregressive Flow
Improving Variational Inference with Inverse Autoregressive FlowTatsuya Shirakawa
 
Learning to learn by gradient descent by gradient descent
Learning to learn by gradient descent by gradient descentLearning to learn by gradient descent by gradient descent
Learning to learn by gradient descent by gradient descentHiroyuki Fukuda
 
Introduction of "TrailBlazer" algorithm
Introduction of "TrailBlazer" algorithmIntroduction of "TrailBlazer" algorithm
Introduction of "TrailBlazer" algorithmKatsuki Ohto
 
Fast and Probvably Seedings for k-Means
Fast and Probvably Seedings for k-MeansFast and Probvably Seedings for k-Means
Fast and Probvably Seedings for k-MeansKimikazu Kato
 
Differential privacy without sensitivity [NIPS2016読み会資料]
Differential privacy without sensitivity [NIPS2016読み会資料]Differential privacy without sensitivity [NIPS2016読み会資料]
Differential privacy without sensitivity [NIPS2016読み会資料]Kentaro Minami
 
Safe and Efficient Off-Policy Reinforcement Learning
Safe and Efficient Off-Policy Reinforcement LearningSafe and Efficient Off-Policy Reinforcement Learning
Safe and Efficient Off-Policy Reinforcement Learningmooopan
 
Dual Learning for Machine Translation (NIPS 2016)
Dual Learning for Machine Translation (NIPS 2016)Dual Learning for Machine Translation (NIPS 2016)
Dual Learning for Machine Translation (NIPS 2016)Toru Fujino
 
Matching networks for one shot learning
Matching networks for one shot learningMatching networks for one shot learning
Matching networks for one shot learningKazuki Fujikawa
 
NIPS 2016 Overview and Deep Learning Topics
NIPS 2016 Overview and Deep Learning Topics  NIPS 2016 Overview and Deep Learning Topics
NIPS 2016 Overview and Deep Learning Topics Koichi Hamada
 

Viewers also liked (13)

Interaction Networks for Learning about Objects, Relations and Physics
Interaction Networks for Learning about Objects, Relations and PhysicsInteraction Networks for Learning about Objects, Relations and Physics
Interaction Networks for Learning about Objects, Relations and Physics
 
InfoGAN: Interpretable Representation Learning by Information Maximizing Gen...
InfoGAN: Interpretable Representation Learning by Information Maximizing Gen...InfoGAN: Interpretable Representation Learning by Information Maximizing Gen...
InfoGAN: Interpretable Representation Learning by Information Maximizing Gen...
 
Introduction of “Fairness in Learning: Classic and Contextual Bandits”
Introduction of “Fairness in Learning: Classic and Contextual Bandits”Introduction of “Fairness in Learning: Classic and Contextual Bandits”
Introduction of “Fairness in Learning: Classic and Contextual Bandits”
 
Improving Variational Inference with Inverse Autoregressive Flow
Improving Variational Inference with Inverse Autoregressive FlowImproving Variational Inference with Inverse Autoregressive Flow
Improving Variational Inference with Inverse Autoregressive Flow
 
Learning to learn by gradient descent by gradient descent
Learning to learn by gradient descent by gradient descentLearning to learn by gradient descent by gradient descent
Learning to learn by gradient descent by gradient descent
 
Introduction of "TrailBlazer" algorithm
Introduction of "TrailBlazer" algorithmIntroduction of "TrailBlazer" algorithm
Introduction of "TrailBlazer" algorithm
 
Fast and Probvably Seedings for k-Means
Fast and Probvably Seedings for k-MeansFast and Probvably Seedings for k-Means
Fast and Probvably Seedings for k-Means
 
Value iteration networks
Value iteration networksValue iteration networks
Value iteration networks
 
Differential privacy without sensitivity [NIPS2016読み会資料]
Differential privacy without sensitivity [NIPS2016読み会資料]Differential privacy without sensitivity [NIPS2016読み会資料]
Differential privacy without sensitivity [NIPS2016読み会資料]
 
Safe and Efficient Off-Policy Reinforcement Learning
Safe and Efficient Off-Policy Reinforcement LearningSafe and Efficient Off-Policy Reinforcement Learning
Safe and Efficient Off-Policy Reinforcement Learning
 
Dual Learning for Machine Translation (NIPS 2016)
Dual Learning for Machine Translation (NIPS 2016)Dual Learning for Machine Translation (NIPS 2016)
Dual Learning for Machine Translation (NIPS 2016)
 
Matching networks for one shot learning
Matching networks for one shot learningMatching networks for one shot learning
Matching networks for one shot learning
 
NIPS 2016 Overview and Deep Learning Topics
NIPS 2016 Overview and Deep Learning Topics  NIPS 2016 Overview and Deep Learning Topics
NIPS 2016 Overview and Deep Learning Topics
 

Similar to 論文紹介 Deterministic Independent Component Analysis

猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoderSho Tatsuno
 
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for PredictionDeep Learning JP
 
Akira Imakura
Akira ImakuraAkira Imakura
Akira ImakuraSuurist
 
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項tomitomi3 tomitomi3
 
Linked Open Dataで実現する作文活動リポジトリと分析
Linked Open Dataで実現する作文活動リポジトリと分析Linked Open Dataで実現する作文活動リポジトリと分析
Linked Open Dataで実現する作文活動リポジトリと分析yamahige
 
20160716 ICML paper reading, Learning to Generate with Memory
20160716 ICML paper reading, Learning to Generate with Memory20160716 ICML paper reading, Learning to Generate with Memory
20160716 ICML paper reading, Learning to Generate with MemoryShinagawa Seitaro
 

Similar to 論文紹介 Deterministic Independent Component Analysis (8)

Rokko チュートリアル
Rokko チュートリアルRokko チュートリアル
Rokko チュートリアル
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
 
tokyor29th
tokyor29thtokyor29th
tokyor29th
 
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
 
Akira Imakura
Akira ImakuraAkira Imakura
Akira Imakura
 
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
 
Linked Open Dataで実現する作文活動リポジトリと分析
Linked Open Dataで実現する作文活動リポジトリと分析Linked Open Dataで実現する作文活動リポジトリと分析
Linked Open Dataで実現する作文活動リポジトリと分析
 
20160716 ICML paper reading, Learning to Generate with Memory
20160716 ICML paper reading, Learning to Generate with Memory20160716 ICML paper reading, Learning to Generate with Memory
20160716 ICML paper reading, Learning to Generate with Memory
 

Recently uploaded

NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NTT DATA Technology & Innovation
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?akihisamiyanaga1
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineerYuki Kikuchi
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 

Recently uploaded (8)

NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 

論文紹介 Deterministic Independent Component Analysis