[DL輪読会]Style Transfer from Non-Parallel Text by Cross-Alignment1. 1
Style Transfer from Non-Parallel Text
by Cross-Alignment
東京大学松尾研, 曽根岡 侑也
DEEP LEARNING JP
[DL Papers]
http://deeplearning.jp
3. 教師あり学習
2つの対応する系列データ(parallel data)を用いて学習
3
タスク 入力例(x) 出力例(y) 最近の研究
翻訳 英語のテキスト 日本語のテキスト
• Neural Machine Translation in Linear
Time[2016]
• Attention is all you need[2017]
音声認識 音声データ テキスト
• Deep Speech2[ICML2016, Baidu]
• WaveNet [2016, DeepMind]
• Very Deep Convolutional Networks for
End-to-End Speech Recognition
[ICAPPS 2017]
要約 リード文 or 文章 タイトル
• Deep Recurrent Generative Decoder for
Abstractive Text Summarization
[EMNLP 2017]
• From Neural Sentence Summarization
to Headline Generation: A Coarse-to-
Fine Approach[IJCAI 2017]
パラフレーズ テキスト 同意味のテキスト
• A Deep Generative Framework for
Paraphrase Generation[2017]
4. 教師なし学習
大量のテキストを用いて潜在表現 z → テキストxを学習
• VAEベース
• GANベース
- 離散表現のため、Discriminatorからの逆伝搬が難しい
- SeqGAN:Policy Gradientを利用
- TextGAN:argmaxをsoftmaxの極限で近似
• 変わり種
- Generating Sentences by Editing Prototypes[2017.9]
4
5. Generating Sentences by Editing Prototypes
• Redditで少し話題になった(arXiv on 26 Sep 2017)
• 訓練データからテキストを抽出し編集ベクトルを条件に変換
• 文法、文章の多様性、文章の長さを担保
5
7. Toward Controlled Generation of Text
• 書誌情報
- ICML2017(arxiv on 2 Mar 2017) , 引用:19
- 著者:Zhiting Hu等(今年7本 top conference)
• 概要
- ランダムなテキスト生成ではなく属性を制御したい
- モデル:VAE + Discriminator
- softmax近似, independency constraints, wake-sleep
- 時制と感情に関して制御した文生成に成功
7
8. Toward Controlled Generation of Text
• VAEに復数のDiscriminatorを追加
• 潜在ベクトルzに加え、制御したい属性をc(感情・時制等)として用意
• c毎にDiscriminatorを学習(各ラベルが付いたデータがあればいい)
8
9. Toward Controlled Generation of Text
• VAEを大量のデータでPretrainし、その後D・G・Eを学習(割愛)
• Gが作ったxをEを用いてzを再構築できるかをLossに追加した
Independent Constraintsの効果でcがzと独立になった
9
11. Sequence to Better Sequence
• 書誌情報
- ICML2017, 著者:Jonas Mueller等(MIT)
• 概要
- (系列, 成果)のデータを用いて、RNN-VAEと
zから成果を予測する全結合を学習させる
- 学習済みモデルを用いて、文章を直す
- 文法・コンテンツを保ちながら、
書き言葉やpositive, negativeの書き換えに成功
11
12. Sequence to Better Sequence
• x, yのペアからEncoder(X→Z, GRU),
Decoder(Z→X, GRU),Predictor(Z→Y,全結合)を学習
• x→zにしたあと、Predictorの予測を高くするように勾配法で
zを修正し、zをxに変換する
12
14. メタ情報
• 著者
- Tianxiao Shen, Tao Lei, Regina Barzilay, Tommi Jaakkola
- MITのPhD
• NIPS 2017 spotlight(arXiv on 26 May 2017)
14
15. 概要
• non-parallelなデータ + GANを用いて、
テキストを別ドメインに近づけるstyle transferを学習させる
• CrossAligned AEモデルを提案
• 感情変換・暗号解読・単語並び替え問題で実験を行ない、
non-parallelの学習では良い成果を残す
15
19. テキスト:Style Transfer
• 最適化手法について
- VAE→ Content変数zはxの複雑性を再現する必要があり
ガウス分布では不十分
- AE→ ReconstructionErrorを使うと、
p(x¦y, z)のエントロピーが減少してしまう
• 本研究では先行研究と異なり、AE + GANを採用
19
30. まとめ
結構やっていることは似ている
30
論文 モデル アプローチ
Toward Controlled
Generation of Text
VAE + Discriminators
(属性毎にDを用意)
• VAEのzに属性cを追加してDecode
• Decodeした結果から、z, cを予測す
るDiscriminatorを用意して学習
• 学習済みVAEでcを変更して変換
Sequence to Better
Sequence:
Continuous Revision
of Combinatorial
Structures
VAE + Discrimator
• (text, y)データでモデルを学習
• VAEのzをDで推測結果のlossを使
って変更し、テキストに戻す
Style Transfer from
Non-Parallel Text by
Cross-Alignment
AE +Discriminator*2
• AEで変換したテキストと近づけ
たいテキストを見分けるDを両方
向に用意し学習(GAN)
• 学習済みモデルで変換