More Related Content
Similar to JSAI2017:敵対的訓練を利用したドメイン不変な表現の学習
Similar to JSAI2017:敵対的訓練を利用したドメイン不変な表現の学習 (8)
More from Yusuke Iwasawa (8)
JSAI2017:敵対的訓練を利用したドメイン不変な表現の学習
- 3. 研究背景:ドメイン汎化 [Blanchard, 2011]
• ドメインシフト有 + 未知ドメインのラベルデータを得にくい場合に重要
– 加速度センサによる行動認識,医療(フローサイトメトリー [Blanchard, 2011])
3
P1(X
)
ユーザ1
データ
未知
ユーザ
P’(X
)
ドメイン汎化:未知ドメインに有用な知識を関連ドメイン群から獲得する
P2(X
)
ユーザ2
データ
P3(X
)
ユーザ3
データ
…
任意の数の関連ドメインの観測データ
(例:学習時にいるユーザ)
未知のドメインのデータ
(例:未知のユーザ)
≒ ≒ ≒
- 5. 提案:敵対的訓練のドメイン不変な表現の学習への応用
5
G Network
z ~ N(0, 1)
Fake Real
D Network
Real / Fake
識別ネット:
入力がR/Fの
どちらかを識別
生成ネット:
識別ネットが
区別出来ないよう
にzを写像
X ~ P1(X)
D1
特徴
D2
特徴
D Network
Domain1/Domain2/
Domain3/…
識別ネット:
入力がどのドメイン
のサンプルか識別
Domain1
X ~ P2(X)
...
...
識別ネットが
ドメインを識別
出来ないようにXを
特徴空間に写像
Domain2
画像生成に利用
[Goodfellow, 2014]
提案手法:ドメイン汎化に応用
P1(z) P2(z)PG(X) PR(X)
- 8. 関連研究:ドメイン汎化
• カーネルベースのアプローチ
– [Blanchard et al., 2011]:ドメイン汎化の問題を初めて定義
– (Unsupervised) Domain Invariant Component Analysis [Muandet et al., 2013]:カーネ
ルPCAをドメインの類似度を考慮するように拡張
• ニューラルネットベースのアプローチ
– Constractive Autoencoder [Rifai, 2013]:AEやDAEより良い
※ドメイン汎化目的で開発された方法ではない
– Multitask AutoEncoder [Ghifary, 2015]:複数ドメインのXを予測するAE
• 課題:多くの場合教師なし => 認識には2ステップの学習
• 本研究は、任意の構造の教師ありNNと併用可能
– ラベルYの予測精度と不変性を同時最適化できる
– 対象タスクで予測精度の良いモデルを再活用できる
8
- 10. 特徴抽出器
ド メ イ ン分類器ラ ベル分類器
W earab les
X
特徴量R
y1, y2, … d1, d2, …
提案手法の学習方法
10
Step1 Step2
固定
固定固定
交互
最適化
現在の特徴量Rを
使ってドメイン
分類器を訓練
特徴抽出器
ド メ イ ン分類器ラ ベル分類器
W earab les
X
特徴量R
y1, y2, … d1, d2, …
現在のドメイン
分類器を騙す+ Yを
分類するように訓練
- 18. 結果:Gestures Task (赤がw/敵対的訓練)
18
0.903
0.579
0.543 0.55
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
ドメイン不変性
(ドメイン予測精度)
CNN
Adv-LR
Adv-MLP
Adv-MLPA
0.794
0.786
0.781
0.804
0.765
0.77
0.775
0.78
0.785
0.79
0.795
0.8
0.805
0.81
ドメイン汎化性能
CNN
Adv-LR
Adv-MLP
Adv-MLPA
• ドメイン不変性は大幅改善 • ドメイン汎化性能はAdv-MLPAのみ改
善(F値で約0.01ポイント)
• λのスケジューリングしないと微減
- 21. 結果:評価用ユーザ分類器を変更した場合の比較
21
LR MLP (50) MLP (800)
None
(CNN)
0.870 0.963 0.983
LR 0.516 0.955 0.981
MLP (800) 0.501 0.774 0.950
学習用
分類器 評価用に作成した分類器γ
1. γによらず強い分類器がベター 2. γが強いと分類可能
提案手法はよりドメイン不変になるが,完全に不変ではない
- 23. 考察:表現の不変性の応用先
• プライバシー保護 [Iwasawa, 2017]
– “Privacy Issues Regarding Applications of DNNs to Activity
Recognition using Wearable and Its Countermeasure”, IJCAI2017
– 特徴量が任意の情報を学習して良いとするとプライバシー
情報を予測可能な情報を持つ可能性がある
(例:歩き方に紐づく病気の有無など)
• 異なるエージェント間でのスキルの転移 in RL
[Gupta, 2017]
– エージェント不変な空間を学習して転移
– これ自体は敵対的訓練は使っていない
23
- 26. 関連研究:敵対的訓練の応用研究
• Generative Adversarial Nets [Goodfellow, 2014]
– 敵対的訓練を画像生成に利用
• Domain-Adversarial Neural Nets [Ajakan, 2014]
– ドメイン適応に利用
• Adversarial Learned Fair Representations [Edwards, 2016]
– 公正性配慮データマイニングに利用
本研究は敵対的訓練の新たな応用方法として位置づけ
26
- 28. 関連研究:ドメイン汎化
• カーネルベースのアプローチ
– [Blanchard et al., 2011]:ドメイン汎化の問題を初めて定義
– (Unsupervised) Domain Invariant Component Analysis [Muandet et al., 2013]:
カーネルPCAをドメインの類似度を考慮するように拡張
• ニューラルネットベースのアプローチ
– Constractive Autoencoder [Rifai, 2013]:AEやDAEより良い
※ドメイン汎化目的で開発された方法ではない
– Multitask AutoEncoder [Ghifary, 2015]:複数ドメインのXを予測するAE
本研究は教師ありニューラルネットが学習する
表現がドメイン不変になるようする手法を提案
28