SlideShare a Scribd company logo
1 of 37
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
July 25, 2018
Kentaro Tachibana
AI System Dept.
DeNA Co., Ltd.
ICML2018読み会
Overview & GANs
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
自己紹介
 名前:橘 健太郎
● 2008〜17年 東芝 研究開発センター
● 音声合成の研究開発に従事
● 2014〜17年9月 情報通信研究機構(NICT)出向
● 音声翻訳アプリVoiceTraの音声合成を担当
● 2017年10月 DeNA入社
● アニメキャラ生成に携わる (https://dena.com/intl/anime-generation/)
 Slide share
● 声質変換の概要と最新手法の紹介
● Icassp2018 発表参加報告 FFTNet, Tactron2紹介
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
アジェンダ
 ICMLについて
⁃ 概要
⁃ 計数
⁃ GANs関連論文の傾向 -task別に分類-
 GANs関連から論文紹介 3編
 まとめ・所感
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
ICML2018概要 (1/4)
 ICMLとは
⁃ International conference on Machine Learning
⁃ 機械学習系のトップカンファレンスの一つ、今回で35回目
 本会議、Workshop(Theoretical Foundations and Applications of Deep Generative
Models) に参加しました
 会場 :Stockholmsmassan Stockholm, SWEDEN
⁃ Stockholmsmässan, Stockholm SWEDEN
主なスポンサー
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
ICML2018概要 (2/4)
 企業出展
かなり盛況な印象。
著者と直接話せる貴重な場であった。
NVIDIAのデモが完成度が高く、印象に残った。
• スーパースローモーション
• 画像のオブジェクト編集
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
ICML2018概要 (3/4)
 計数
⁃ 投稿数: 2473、発表件数: 621 (採択率: 25.1%)
⁃ Tutorial数: 9、workshop数: 67
 投稿数の推移
• 投稿数が、昨年から1.45倍に増加
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
ICML2018概要 (4/4)
 Session別の投稿数
• ピンボケしてしまってますが、上位は
1. Neural Network Architectures
2. Reinforcement Learning
3. Deep Learning (Theory)
4. Deep Learning (Adversarial)
5. Optimization (Convex)
1., 2. が抜けており、単体のsessionとしては
強化学習が強い印象
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
39%
25%
18%
14%
4%
学習アルゴリズム改善
Network architectureの提案
生成結果の評価指標の提案
応用
学習の分析
GANs関連論文の傾向 – task別に分類 -
• GANs関連論文数: 28本
• Generative models,
Network architectures,
Network architectures (Adversarial),
workshopから抽出
• 独断での判断のため、漏れがあるかも
しれません
• 対象論文は付録に掲載
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
紹介論文
1. 学習アルゴリム改善
• Which Training Methods for GANs do actually Converge?
2. Network architectureの提案
• RadialGAN: Leveraging multiple datasets to improve target-specific predictive models using Generative
Adversarial Networks
3. 生成評価指標の提案
• Assessing Generative Models via Precision and Recall
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
紹介論文
1. 学習アルゴリム改善
• Which Training Methods for GANs do actually Converge?
2. Network architectureの提案
• RadialGAN: Leveraging multiple datasets to improve target-specific predictive models using Generative
Adversarial Networks
3. 生成評価指標の提案
• Assessing Generative Models via Precision and Recall
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
Which Training Methods for GANs do actually Converge?
 背景
⁃ GANは、強力な生成モデルだが、学習が困難
⁃ 学習の挙動が完全に理解されたわけではない
⁃ 数多くの学習安定化手法が提案されている (WGAN [1]、WGAN-GP [2]など)
⁃ どの手法が実際に収束しているのかを調査する
 貢献
1. 簡易な実験により、unregularized GAN学習はいつも収束はするわけでないことを確認
2. 最新の学習安定化手法についての収束性の調査
1. WGAN、WGAN-GPはいつも収束するわけではない
2. Instance noise [3]、zero-centered gradient penalties [4] はいつも収束する
3. シンプルなgradient penaltiesの提案
4. 実験的評価により、3.の収束安定性を確認
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
Dirac-GAN
 Dirac-GANの導入
⁃ 種々のGAN学習安定アルゴリズムを収束安定性を確認するため、簡易の目的関数を準備
 目的関数
⁃ GAN
⁃ Dirac-GAN
• 真の分布、generatorをδ関数、discriminatorを線形関数で表現
上記を代入すると
𝑝 𝐷 𝑥 ∶ true data distribution
𝑝 𝑧 ∶ generator distribution
𝐷 𝜓 𝑥 ∶ disctriminator
𝐺 𝜃 𝑥 ∶ generator
𝜃 ∶ parameters of the generator
ψ ∶ parameters of the discriminator
, 𝐺 𝜃 = ,
𝛿 𝜃 𝑥 = 𝜃 𝑥 = 𝜃 , 𝛿 𝜃 𝑥 = 0 𝑥 ≠ 𝜃
Vanilla-GAN:
WGAN: 𝑓 𝑡 = 𝑡
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
Dirac-GAN
 既存の学習安定化手法における収束特性の可視化
⁃ Gradient vector fieldの導入
⁃ Jacobianの固有値の実数部が全て負であった場合、平衡状態となり、安定する→ 収束する [5]
Jacobian
平衡状態:時間的
に変化しない状態
WGAN:
固有値 : ±𝑖 となり、安定とはならない
Zero-centered gradient penalty:
固有値 : −
𝛾
2
±
𝛾2
4
− 𝑓′ 0 2 𝑖, 𝛾 > 0 で、固有値は全て負となるため、収束する
をdiscriminatorに追加
𝜓
𝜃
𝜓
𝜃
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
Dirac-GAN
 その他手法の収束特性
⁃ Non-saturating GAN、instance noise
で収束が確認できる
⁃ しかし、non-saturating GANは
非常に低速
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
Regularized gradient vector field
 Discriminatorの正則化項として、以下を目的関数に追加することを提案
 Regularized gradient vector field
⁃ 正則化項により、安定に収束する
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
実験的評価の結果
• Imagenet
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
実験的評価の結果
• CelebA-HQ
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
Tips
 GeneratorとDiscriminatorは、同時にパラメータ更新せず、片側ずつ更新する
 momentumは使うな
 学習安定化のためには、正則化を使う
 Discriminatorに対するzero-centered gradient penaltiesは良い結果を導く
→ 著者のgithub page: https://github.com/LMescheder/GAN_stability
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
紹介論文
1. 学習アルゴリム改善
• Which Training Methods for GANs do actually Converge?
2. Network architectureの提案
• RadialGAN: Leveraging multiple datasets to improve target-specific predictive models using Generative
Adversarial Networks
3. 生成評価指標の提案
• Assessing Generative Models via Precision and Recall
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
RadialGAN: Leveraging multiple datasets to improve target-specific
predictive models using Generative Adversarial Networks
 問題設定
⁃ 患者情報から特定の病気の発生率、死亡率を予測したい
⁃ 病院ごとに設備も異なるため、患者情報に偏りが出る
 課題
⁃ Feature mismatch
• 学習データセットと目標データセットで特徴量が異なる
⁃ Distribution mismatch
• 学習データセットと目標データセットで、同じ特徴量でも確率分布が異なる
患者D
年齢
体重
呼吸速度
レントゲン
MRI
患者C
年齢
体重
呼吸速度
レントゲン
MRI
患者B
年齢
体重
呼吸速度
レントゲン
MRI
患者A
年齢
体重
呼吸速度
レントゲン
MRI
患者C
年齢
体重
患者B
年齢
体重
患者A
年齢
体重
患者C
年齢
体重
患者B
年齢
体重
血圧
患者A
年齢
体重
血圧
死亡率
癌発症率
?
死亡率
癌発症率
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
 アイデア
⁃ CycleGANベースに複数GANを利用
⁃ 患者データを潜在空間にmappingし、共通空間で扱う
 要素
⁃ Encoder 𝐹𝑖: 𝑋(𝑖)
× 𝑌 → 𝑍,
⁃ Decoder
⁃ Discriminator
 Loss
1. Adversarial loss
2. Cycle-consistency loss
3. Optimization
RadialGAN アルゴリズム
Di :病院
X(i) :患者データ
Y(i) :予測したいデータ
Z :潜在空間
𝑍𝑖 = 𝐹𝑖 𝑋(𝑖), 𝑌 ∈ 𝑍
𝐺𝑖: 𝑍 → 𝑋(𝑖) × 𝑌, 𝑋(𝑖)
, 𝑌 = 𝐺𝑖 𝑍𝑖 ∈ 𝑋(𝑖)
× 𝑌
𝐷 𝑋(𝑖)
, 𝑌 = 𝑃 𝑋(𝑖)
, 𝑌 ∈ 𝐷𝑖𝐷𝑖: 𝑋(𝑖)
× 𝑌 → [0, 1],
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
実験的評価
 実験条件
⁃ 実験データ 14病院で528人から13279人の患者データ
• 学習データ 500人の患者データ、テストデータ その他残りのデータ
⁃ 合計216種の特徴量(各病院で異なる)で、出力:1年後の死亡率を予測
 実験結果
⁃ GANの生成結果をロジスッティク回帰して、評価
AUC: Area Under ROC Curve
APR: Average Precision Recall
Baseline
Gain
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
全病院での実験結果
RadialGANはほとんどのlabelでAUC、APRが増加している
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
紹介論文
1. 学習アルゴリム改善
• Which Training Methods for GANs do actually Converge?
2. Network architectureの提案
• RadialGAN: Leveraging multiple datasets to improve target-specific predictive models using Generative
Adversarial Networks
3. 生成評価指標の提案
• Assessing Generative Models via Precision and Recall
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
Assessing Generative Models via Precision and Recall
 背景
⁃ 生成モデルの結果を定量的に評価することは難しい
⁃ 尤度のような密度推定では、尤度が下がったからといって、品質・多様性が改善してるわけ
ではない [6]
⁃ 最新の評価手法 Inception score (IS) [7]と Frechet inception distance (FID) [8] では、異なる軸での
評価が出来ない
 貢献
⁃ 確率分布に対するprecision (品質)とrecall (多様性)の定義を提案
⁃ GANのmode dropping、model inventingを定量的に測定
⁃ 既存の生成モデルを提案法の軸で比較
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
同値のFIDの画像比較
 どちらが良いのか?
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
同値のFIDの画像比較
品質 ◯、多様性 × 品質 ×、多様性 ◯
品質と多様性を分離できない
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
Precision and Recall for Distribution (PRD)
 Precision (品質)
⁃ 学習モデルの分布Qがどの程度、真の分布 P を生成出来ているか?
 Recall (多様性)
⁃ 真の分布 P がどの程度、学習モデルの分布 Q を生成出来ているか?
P : 真の分布
Q : 学習モデルの分布
High precision
Low precision
Low recall High recall
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
Precision and Recall for Distribution (PRD)
 分布 P と Q は以下の様に表せる
 PRD(Q, P)はα, βを用いて以下で定義される
⁃ 単純化し、角座標で表記すると
𝜈 𝑃 𝜈 𝑄
𝜇
P : 真の分布
Q : 学習モデルの分布
Recall(β)に関する
loss
Precision(α)に関する
loss
𝑷 = 𝛽𝜇 + (1 − 𝛽)𝜈 𝑃
𝑸 = 𝛼𝜇 + (1 − 𝛼)𝜈 𝑄
𝑃𝑅𝐷 𝑄, 𝑃 = { 𝜃𝛼 𝜆 , 𝜃𝛽 𝜆 | 𝜆 ∈ 0, ∞ , 𝜃 ∈ 0, 1 }
𝛼 𝜆 =
𝜔∈Ω
𝑚𝑖𝑛 𝜆𝑃 𝜔 , 𝑄 𝜔 ,
証明はappendix A.2参照
α :precision、β :recall
𝛽 𝜆 =
𝜔∈Ω
𝑚𝑖𝑛 𝑃 𝜔 ,
𝑄 𝜔
𝜆
𝑃𝑅𝐷 𝑄, 𝑃 = { 𝛼 𝜆 , 𝛽 𝜆 | 𝜆 ∈ Λ}, Λ = tan
𝑖
𝑚 + 1
∙
𝜋
2
| 𝑖 = 1, 2, ⋯ 𝑚 , 𝑚 ∈ 𝑵
Ωは有限状態空間
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
実験的評価 with MNIST and CelebA
品質 ◯、多様性 × 品質 ×、多様性 ◯
Precision 左 > 右、recall 左 < 右となり、品質と多様性を評価できている
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
Mode dropping and inventingの実験的評価
CIFAIR-10を用いて、真の分布Pのクラス数を5に固定した
学習分布 Qのクラス数を変えて、mode dropping and inventingでの挙動を比較
ISは単調増加
FIDはmode dropping、mode inventingに敏感
PRDはクラス数1-4だとpが高、rが低、クラス数6-10はその逆
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
生成モデルの実験的評価 with Fashion-MNIST
• 800の生成モデル(7GANsとVAE x 100parameters) の Fβ スコアを評価
β により、precision (p)とrecall (r)を重み付け
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
まとめ・所感
 まとめ
⁃ ICML2018について、概要と計数について紹介
⁃ GANs関連論文の傾向と、3編を紹介
 所感
⁃ GANsの分野では、学習アルゴリズムの改善、応用などバランスよく研究されている。
⁃ 技術進展のスピードはとても速い、追いて行かれない様、アンテナを張っていく
⁃ USの大手IT企業が大学と共著で発表していた論文が非常に多かった
⁃ 展示会でも積極的にリクルート活動をしている印象
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
参考文献
[1] Arjovsky, M. and Bottou, L. Towards principled meth- ods for training generative adversarial networks. CoRR, abs/1701.04862, 2017.
[2] Gulrajani, I., Ahmed, F., Arjovsky, M., Dumoulin, V., and Courville, A. C. Improved training ofwasserstein gans. In Advances in Neural
Information Processing Systems 30: Annual Conference on Neural Information Processing Systems 2017, 4-9 December 2017, Long Beach,
CA, USA, pp. 5769–5779, 2017.
[3] Sønderby, C. K., Caballero, J., Theis, L., Shi, W., and Huszár, F. Amortised MAP inference for image super- resolution. CoRR,
abs/1610.04490, 2016.
[4] Roth, K., Lucchi, A., Nowozin, S., and Hofmann, T. Stabi- lizing training of generative adversarial networks through regularization. In
Advances in Neural Information Pro- cessing Systems 30: Annual Conference on Neural In- formation Processing Systems 2017, 4-9
December 2017, Long Beach, CA, USA, pp. 2015–2025, 2017.
[5] Mescheder, L. M., Nowozin, S., and Geiger, A. The numer- ics of gans. In Advances in Neural Information Process- ing Systems 30: Annual
Conference on Neural Informa- tion Processing Systems 2017, 4-9 December 2017, Long Beach, CA, USA, pp. 1823–1833, 2017.
[6] Salimans, T., Goodfellow, I., Zaremba, W., Cheung, V., Rad- ford, A., and Chen, X. Improved Techniques for Training GANs. In Advances in
Neural Information Processing Systems (NIPS), 2016.
[7] Heusel, M., Ramsauer, H., Unterthiner, T., Nessler, B., Klambauer, G., and Hochreiter, S. Gans trained by a two time-scale update rule
converge to a nash equilib- rium. In Advances in Neural Information Processing Systems (NIPS), 2017.
[8] Theis, L., Oord, A. v. d., and Bethge, M. A note on the eval- uation of generative models. In International Conference on Learning
Representations (ICLR), 2016.
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
付録 (1/3)
タスク名 論文
学習アルゴリズム改善
mode collapse回避、学習安定性向上、更新式
改善など
Which Training Methods for GANs do actually Converge?
Chi-square Generative Adversarial Network
Tempered Adversarial Networks
Improved Training of Generative Adversarial Networks Using Representative
Features
A Two-Step Computation of the Exact GAN Wasserstein Distance
First Order Generative Adversarial Networks
Mixed batches and symmetric discriminators for GAN training
Stochastic Variance Reduced Gradient Optimization of Generative Adversarial
Networks
Bayesian Modelling and Monte Carlo Inference for GAN
Approximability of Discriminators Implies Diversity in GANs
On catastrophic forgetting and mode collapse in Generative Adversarial
Networks
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
付録 (2/3)
タスク名 論文
Network architectureの提案
RadialGAN: Leveraging multiple datasets to improve target-specific
predictive models using Generative Adversarial Networks
GAIN: Missing Data Imputation using Generative Adversarial Nets
MAGAN: Aligning Biological Manifolds
JointGAN: Multi-Domain Joint Distribution Learning with Generative
Adversarial Nets
Augmented CycleGAN: Learning Many-to-Many Mappings from Unpaired
Data
BAGAN: Data Augmentation with Balancing GAN
Generating Multi-Categorical Samples with Generative Adversarial Networks
Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.
付録 (3/3)
タスク名 論文
生成結果の評価指標の提案
GANの生成結果を客観評価する手法を提案
A Classification-Based Study of Covariate Shift in GAN Distributions
Geometry Score: A Method For Comparing Generative Adversarial Networks
On Accurate Evaluation of GANs for Language Generation
Assessing Generative Models via Precision and Recall
Towards GAN Benchmarks Which Require Generalization
応用
既存architectureを新たな分野へ適用
NetGAN: Generating Graphs via Random Walks
BinGAN: Learning Compact Binary Descriptors with a Regularized GAN
MolGAN: An implicit generative model for small molecular graphs
Generative Buyer-Seller Adversarial Networks
学習の分析
学習安定性に向けた分析
Nonstationary GANs: Analysis as Nonautonomous Dynamical Systems

More Related Content

What's hot

Deep Learningによる超解像の進歩
Deep Learningによる超解像の進歩Deep Learningによる超解像の進歩
Deep Learningによる超解像の進歩Hiroto Honda
 
自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)cvpaper. challenge
 
[DL輪読会]Progressive Growing of GANs for Improved Quality, Stability, and Varia...
[DL輪読会]Progressive Growing of GANs for Improved Quality, Stability, and Varia...[DL輪読会]Progressive Growing of GANs for Improved Quality, Stability, and Varia...
[DL輪読会]Progressive Growing of GANs for Improved Quality, Stability, and Varia...Deep Learning JP
 
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language SupervisionDeep Learning JP
 
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...Deep Learning JP
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係についてDeep Learning JP
 
敵対的生成ネットワーク(GAN)
敵対的生成ネットワーク(GAN)敵対的生成ネットワーク(GAN)
敵対的生成ネットワーク(GAN)cvpaper. challenge
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門tmtm otm
 
[DL輪読会]Graph R-CNN for Scene Graph Generation
[DL輪読会]Graph R-CNN for Scene Graph Generation[DL輪読会]Graph R-CNN for Scene Graph Generation
[DL輪読会]Graph R-CNN for Scene Graph GenerationDeep Learning JP
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習Deep Learning JP
 
[DLHacks]StyleGANとBigGANのStyle mixing, morphing
[DLHacks]StyleGANとBigGANのStyle mixing, morphing[DLHacks]StyleGANとBigGANのStyle mixing, morphing
[DLHacks]StyleGANとBigGANのStyle mixing, morphingDeep Learning JP
 
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化Yusuke Uchida
 
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted WindowsDeep Learning JP
 
【DL輪読会】NeRF-VAE: A Geometry Aware 3D Scene Generative Model
【DL輪読会】NeRF-VAE: A Geometry Aware 3D Scene Generative Model【DL輪読会】NeRF-VAE: A Geometry Aware 3D Scene Generative Model
【DL輪読会】NeRF-VAE: A Geometry Aware 3D Scene Generative ModelDeep Learning JP
 
[Ridge-i 論文よみかい] Wasserstein auto encoder
[Ridge-i 論文よみかい] Wasserstein auto encoder[Ridge-i 論文よみかい] Wasserstein auto encoder
[Ridge-i 論文よみかい] Wasserstein auto encoderMasanari Kimura
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoderSho Tatsuno
 
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?Masanao Ochi
 

What's hot (20)

Deep Learningによる超解像の進歩
Deep Learningによる超解像の進歩Deep Learningによる超解像の進歩
Deep Learningによる超解像の進歩
 
自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)
 
[DL輪読会]Progressive Growing of GANs for Improved Quality, Stability, and Varia...
[DL輪読会]Progressive Growing of GANs for Improved Quality, Stability, and Varia...[DL輪読会]Progressive Growing of GANs for Improved Quality, Stability, and Varia...
[DL輪読会]Progressive Growing of GANs for Improved Quality, Stability, and Varia...
 
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
 
ELBO型VAEのダメなところ
ELBO型VAEのダメなところELBO型VAEのダメなところ
ELBO型VAEのダメなところ
 
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について
 
敵対的生成ネットワーク(GAN)
敵対的生成ネットワーク(GAN)敵対的生成ネットワーク(GAN)
敵対的生成ネットワーク(GAN)
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
 
[DL輪読会]Graph R-CNN for Scene Graph Generation
[DL輪読会]Graph R-CNN for Scene Graph Generation[DL輪読会]Graph R-CNN for Scene Graph Generation
[DL輪読会]Graph R-CNN for Scene Graph Generation
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
 
[DLHacks]StyleGANとBigGANのStyle mixing, morphing
[DLHacks]StyleGANとBigGANのStyle mixing, morphing[DLHacks]StyleGANとBigGANのStyle mixing, morphing
[DLHacks]StyleGANとBigGANのStyle mixing, morphing
 
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
 
実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE
 
ResNetの仕組み
ResNetの仕組みResNetの仕組み
ResNetの仕組み
 
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
 
【DL輪読会】NeRF-VAE: A Geometry Aware 3D Scene Generative Model
【DL輪読会】NeRF-VAE: A Geometry Aware 3D Scene Generative Model【DL輪読会】NeRF-VAE: A Geometry Aware 3D Scene Generative Model
【DL輪読会】NeRF-VAE: A Geometry Aware 3D Scene Generative Model
 
[Ridge-i 論文よみかい] Wasserstein auto encoder
[Ridge-i 論文よみかい] Wasserstein auto encoder[Ridge-i 論文よみかい] Wasserstein auto encoder
[Ridge-i 論文よみかい] Wasserstein auto encoder
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
 
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
 

Similar to Icml2018読み会_overview&GANs

Generative Adversarial Networks (GAN) @ NIPS2017
Generative Adversarial Networks (GAN) @ NIPS2017Generative Adversarial Networks (GAN) @ NIPS2017
Generative Adversarial Networks (GAN) @ NIPS2017Koichi Hamada
 
タクシー×AIを支えるKubernetesとAIデータパイプラインの信頼性の取り組みについて
タクシー×AIを支えるKubernetesとAIデータパイプラインの信頼性の取り組みについてタクシー×AIを支えるKubernetesとAIデータパイプラインの信頼性の取り組みについて
タクシー×AIを支えるKubernetesとAIデータパイプラインの信頼性の取り組みについてTakashi Suzuki
 
Batch Reinforcement Learning
Batch Reinforcement LearningBatch Reinforcement Learning
Batch Reinforcement LearningTakuma Oda
 
[GTC 2018] GTCテクニカルセッション_0913 Ridge-i発表資料
[GTC 2018] GTCテクニカルセッション_0913 Ridge-i発表資料[GTC 2018] GTCテクニカルセッション_0913 Ridge-i発表資料
[GTC 2018] GTCテクニカルセッション_0913 Ridge-i発表資料Ridge-i
 
ChatGPTの仕組みの解説と実務でのLLMの適用の紹介_latest.pdf
ChatGPTの仕組みの解説と実務でのLLMの適用の紹介_latest.pdfChatGPTの仕組みの解説と実務でのLLMの適用の紹介_latest.pdf
ChatGPTの仕組みの解説と実務でのLLMの適用の紹介_latest.pdfGinpei Kobayashi
 
Ques12_自動テスト ✕ 機械学習 〜自動テスト結果分析は楽になるか?〜
Ques12_自動テスト ✕ 機械学習 〜自動テスト結果分析は楽になるか?〜Ques12_自動テスト ✕ 機械学習 〜自動テスト結果分析は楽になるか?〜
Ques12_自動テスト ✕ 機械学習 〜自動テスト結果分析は楽になるか?〜Mao Yamaguchi
 
ネット広告講義資料 at 東京大学 2017/07/11
ネット広告講義資料 at 東京大学 2017/07/11ネット広告講義資料 at 東京大学 2017/07/11
ネット広告講義資料 at 東京大学 2017/07/11Takehiko Yoshida
 
アジャイルソフトウェア開発における テスティングの課題およびその解決アプローチ
アジャイルソフトウェア開発におけるテスティングの課題およびその解決アプローチアジャイルソフトウェア開発におけるテスティングの課題およびその解決アプローチ
アジャイルソフトウェア開発における テスティングの課題およびその解決アプローチTetsuya Kouno
 
Laplacian Pyramid of Generative Adversarial Networks (LAPGAN) - NIPS2015読み会 #...
Laplacian Pyramid of Generative Adversarial Networks (LAPGAN) - NIPS2015読み会 #...Laplacian Pyramid of Generative Adversarial Networks (LAPGAN) - NIPS2015読み会 #...
Laplacian Pyramid of Generative Adversarial Networks (LAPGAN) - NIPS2015読み会 #...Koichi Hamada
 
CVPR2018 pix2pixHD論文紹介 (CV勉強会@関東)
CVPR2018 pix2pixHD論文紹介 (CV勉強会@関東)CVPR2018 pix2pixHD論文紹介 (CV勉強会@関東)
CVPR2018 pix2pixHD論文紹介 (CV勉強会@関東)Tenki Lee
 
データサイエンスの現場で役立つスキルを磨きやすい職場環境
データサイエンスの現場で役立つスキルを磨きやすい職場環境データサイエンスの現場で役立つスキルを磨きやすい職場環境
データサイエンスの現場で役立つスキルを磨きやすい職場環境Masatoshi Abe
 
pymcとpystanでベイズ推定してみた話
pymcとpystanでベイズ推定してみた話pymcとpystanでベイズ推定してみた話
pymcとpystanでベイズ推定してみた話Classi.corp
 
タクシーxAIを支えるKubernetesとAIデータパイプラインの信頼性の取り組みについて [SRE NEXT 2020]
タクシーxAIを支えるKubernetesとAIデータパイプラインの信頼性の取り組みについて [SRE NEXT 2020]タクシーxAIを支えるKubernetesとAIデータパイプラインの信頼性の取り組みについて [SRE NEXT 2020]
タクシーxAIを支えるKubernetesとAIデータパイプラインの信頼性の取り組みについて [SRE NEXT 2020]DeNA
 
CVPR 2018 速報とその後 (CVPR 2018 完全読破チャレンジ報告会)
CVPR 2018 速報とその後 (CVPR 2018 完全読破チャレンジ報告会) CVPR 2018 速報とその後 (CVPR 2018 完全読破チャレンジ報告会)
CVPR 2018 速報とその後 (CVPR 2018 完全読破チャレンジ報告会) cvpaper. challenge
 
Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換
Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換
Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換Koichi Hamada
 
リクルートテクノロジーズが語る 企業における、「AI/ディープラーニング」活用のリアル
リクルートテクノロジーズが語る 企業における、「AI/ディープラーニング」活用のリアルリクルートテクノロジーズが語る 企業における、「AI/ディープラーニング」活用のリアル
リクルートテクノロジーズが語る 企業における、「AI/ディープラーニング」活用のリアルRecruit Technologies
 
A3RT - the details and actual use cases of "Analytics & Artificial intelligen...
A3RT - the details and actual use cases of "Analytics & Artificial intelligen...A3RT - the details and actual use cases of "Analytics & Artificial intelligen...
A3RT - the details and actual use cases of "Analytics & Artificial intelligen...DataWorks Summit/Hadoop Summit
 
A3RT -The details and actual use cases of“Analytics & Artificial intelligence...
A3RT -The details and actual use cases of“Analytics & Artificial intelligence...A3RT -The details and actual use cases of“Analytics & Artificial intelligence...
A3RT -The details and actual use cases of“Analytics & Artificial intelligence...Recruit Technologies
 

Similar to Icml2018読み会_overview&GANs (20)

Generative Adversarial Networks (GAN) @ NIPS2017
Generative Adversarial Networks (GAN) @ NIPS2017Generative Adversarial Networks (GAN) @ NIPS2017
Generative Adversarial Networks (GAN) @ NIPS2017
 
タクシー×AIを支えるKubernetesとAIデータパイプラインの信頼性の取り組みについて
タクシー×AIを支えるKubernetesとAIデータパイプラインの信頼性の取り組みについてタクシー×AIを支えるKubernetesとAIデータパイプラインの信頼性の取り組みについて
タクシー×AIを支えるKubernetesとAIデータパイプラインの信頼性の取り組みについて
 
Batch Reinforcement Learning
Batch Reinforcement LearningBatch Reinforcement Learning
Batch Reinforcement Learning
 
[GTC 2018] GTCテクニカルセッション_0913 Ridge-i発表資料
[GTC 2018] GTCテクニカルセッション_0913 Ridge-i発表資料[GTC 2018] GTCテクニカルセッション_0913 Ridge-i発表資料
[GTC 2018] GTCテクニカルセッション_0913 Ridge-i発表資料
 
ChatGPTの仕組みの解説と実務でのLLMの適用の紹介_latest.pdf
ChatGPTの仕組みの解説と実務でのLLMの適用の紹介_latest.pdfChatGPTの仕組みの解説と実務でのLLMの適用の紹介_latest.pdf
ChatGPTの仕組みの解説と実務でのLLMの適用の紹介_latest.pdf
 
Ques12_自動テスト ✕ 機械学習 〜自動テスト結果分析は楽になるか?〜
Ques12_自動テスト ✕ 機械学習 〜自動テスト結果分析は楽になるか?〜Ques12_自動テスト ✕ 機械学習 〜自動テスト結果分析は楽になるか?〜
Ques12_自動テスト ✕ 機械学習 〜自動テスト結果分析は楽になるか?〜
 
ネット広告講義資料 at 東京大学 2017/07/11
ネット広告講義資料 at 東京大学 2017/07/11ネット広告講義資料 at 東京大学 2017/07/11
ネット広告講義資料 at 東京大学 2017/07/11
 
アジャイルソフトウェア開発における テスティングの課題およびその解決アプローチ
アジャイルソフトウェア開発におけるテスティングの課題およびその解決アプローチアジャイルソフトウェア開発におけるテスティングの課題およびその解決アプローチ
アジャイルソフトウェア開発における テスティングの課題およびその解決アプローチ
 
Laplacian Pyramid of Generative Adversarial Networks (LAPGAN) - NIPS2015読み会 #...
Laplacian Pyramid of Generative Adversarial Networks (LAPGAN) - NIPS2015読み会 #...Laplacian Pyramid of Generative Adversarial Networks (LAPGAN) - NIPS2015読み会 #...
Laplacian Pyramid of Generative Adversarial Networks (LAPGAN) - NIPS2015読み会 #...
 
How good is my GAN?
How good is my GAN?How good is my GAN?
How good is my GAN?
 
CVPR2018 pix2pixHD論文紹介 (CV勉強会@関東)
CVPR2018 pix2pixHD論文紹介 (CV勉強会@関東)CVPR2018 pix2pixHD論文紹介 (CV勉強会@関東)
CVPR2018 pix2pixHD論文紹介 (CV勉強会@関東)
 
データサイエンスの現場で役立つスキルを磨きやすい職場環境
データサイエンスの現場で役立つスキルを磨きやすい職場環境データサイエンスの現場で役立つスキルを磨きやすい職場環境
データサイエンスの現場で役立つスキルを磨きやすい職場環境
 
pymcとpystanでベイズ推定してみた話
pymcとpystanでベイズ推定してみた話pymcとpystanでベイズ推定してみた話
pymcとpystanでベイズ推定してみた話
 
タクシーxAIを支えるKubernetesとAIデータパイプラインの信頼性の取り組みについて [SRE NEXT 2020]
タクシーxAIを支えるKubernetesとAIデータパイプラインの信頼性の取り組みについて [SRE NEXT 2020]タクシーxAIを支えるKubernetesとAIデータパイプラインの信頼性の取り組みについて [SRE NEXT 2020]
タクシーxAIを支えるKubernetesとAIデータパイプラインの信頼性の取り組みについて [SRE NEXT 2020]
 
CVPR 2018 速報とその後 (CVPR 2018 完全読破チャレンジ報告会)
CVPR 2018 速報とその後 (CVPR 2018 完全読破チャレンジ報告会) CVPR 2018 速報とその後 (CVPR 2018 完全読破チャレンジ報告会)
CVPR 2018 速報とその後 (CVPR 2018 完全読破チャレンジ報告会)
 
Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換
Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換
Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換
 
リクルートテクノロジーズが語る 企業における、「AI/ディープラーニング」活用のリアル
リクルートテクノロジーズが語る 企業における、「AI/ディープラーニング」活用のリアルリクルートテクノロジーズが語る 企業における、「AI/ディープラーニング」活用のリアル
リクルートテクノロジーズが語る 企業における、「AI/ディープラーニング」活用のリアル
 
Interpretable ml
Interpretable mlInterpretable ml
Interpretable ml
 
A3RT - the details and actual use cases of "Analytics & Artificial intelligen...
A3RT - the details and actual use cases of "Analytics & Artificial intelligen...A3RT - the details and actual use cases of "Analytics & Artificial intelligen...
A3RT - the details and actual use cases of "Analytics & Artificial intelligen...
 
A3RT -The details and actual use cases of“Analytics & Artificial intelligence...
A3RT -The details and actual use cases of“Analytics & Artificial intelligence...A3RT -The details and actual use cases of“Analytics & Artificial intelligence...
A3RT -The details and actual use cases of“Analytics & Artificial intelligence...
 

More from Kentaro Tachibana

ICASSP2020音声&音響読み会Mellotron
ICASSP2020音声&音響読み会MellotronICASSP2020音声&音響読み会Mellotron
ICASSP2020音声&音響読み会MellotronKentaro Tachibana
 
Interspeech2019読み会 音声生成
Interspeech2019読み会 音声生成Interspeech2019読み会 音声生成
Interspeech2019読み会 音声生成Kentaro Tachibana
 
ICASSP2019 音声&音響読み会 テーマ発表音声生成
ICASSP2019 音声&音響読み会 テーマ発表音声生成ICASSP2019 音声&音響読み会 テーマ発表音声生成
ICASSP2019 音声&音響読み会 テーマ発表音声生成Kentaro Tachibana
 
Icassp2018 発表参加報告 FFTNet, Tactron2紹介
Icassp2018 発表参加報告 FFTNet, Tactron2紹介Icassp2018 発表参加報告 FFTNet, Tactron2紹介
Icassp2018 発表参加報告 FFTNet, Tactron2紹介Kentaro Tachibana
 
声質変換の概要と最新手法の紹介
声質変換の概要と最新手法の紹介声質変換の概要と最新手法の紹介
声質変換の概要と最新手法の紹介Kentaro Tachibana
 

More from Kentaro Tachibana (6)

ICASSP2020音声&音響読み会Mellotron
ICASSP2020音声&音響読み会MellotronICASSP2020音声&音響読み会Mellotron
ICASSP2020音声&音響読み会Mellotron
 
Interspeech2019読み会 音声生成
Interspeech2019読み会 音声生成Interspeech2019読み会 音声生成
Interspeech2019読み会 音声生成
 
190910 SHIBUYA synapse
190910 SHIBUYA synapse190910 SHIBUYA synapse
190910 SHIBUYA synapse
 
ICASSP2019 音声&音響読み会 テーマ発表音声生成
ICASSP2019 音声&音響読み会 テーマ発表音声生成ICASSP2019 音声&音響読み会 テーマ発表音声生成
ICASSP2019 音声&音響読み会 テーマ発表音声生成
 
Icassp2018 発表参加報告 FFTNet, Tactron2紹介
Icassp2018 発表参加報告 FFTNet, Tactron2紹介Icassp2018 発表参加報告 FFTNet, Tactron2紹介
Icassp2018 発表参加報告 FFTNet, Tactron2紹介
 
声質変換の概要と最新手法の紹介
声質変換の概要と最新手法の紹介声質変換の概要と最新手法の紹介
声質変換の概要と最新手法の紹介
 

Icml2018読み会_overview&GANs

  • 1. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. July 25, 2018 Kentaro Tachibana AI System Dept. DeNA Co., Ltd. ICML2018読み会 Overview & GANs
  • 2. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. 自己紹介  名前:橘 健太郎 ● 2008〜17年 東芝 研究開発センター ● 音声合成の研究開発に従事 ● 2014〜17年9月 情報通信研究機構(NICT)出向 ● 音声翻訳アプリVoiceTraの音声合成を担当 ● 2017年10月 DeNA入社 ● アニメキャラ生成に携わる (https://dena.com/intl/anime-generation/)  Slide share ● 声質変換の概要と最新手法の紹介 ● Icassp2018 発表参加報告 FFTNet, Tactron2紹介
  • 3. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. アジェンダ  ICMLについて ⁃ 概要 ⁃ 計数 ⁃ GANs関連論文の傾向 -task別に分類-  GANs関連から論文紹介 3編  まとめ・所感
  • 4. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. ICML2018概要 (1/4)  ICMLとは ⁃ International conference on Machine Learning ⁃ 機械学習系のトップカンファレンスの一つ、今回で35回目  本会議、Workshop(Theoretical Foundations and Applications of Deep Generative Models) に参加しました  会場 :Stockholmsmassan Stockholm, SWEDEN ⁃ Stockholmsmässan, Stockholm SWEDEN 主なスポンサー
  • 5. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. ICML2018概要 (2/4)  企業出展 かなり盛況な印象。 著者と直接話せる貴重な場であった。 NVIDIAのデモが完成度が高く、印象に残った。 • スーパースローモーション • 画像のオブジェクト編集
  • 6. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. ICML2018概要 (3/4)  計数 ⁃ 投稿数: 2473、発表件数: 621 (採択率: 25.1%) ⁃ Tutorial数: 9、workshop数: 67  投稿数の推移 • 投稿数が、昨年から1.45倍に増加
  • 7. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. ICML2018概要 (4/4)  Session別の投稿数 • ピンボケしてしまってますが、上位は 1. Neural Network Architectures 2. Reinforcement Learning 3. Deep Learning (Theory) 4. Deep Learning (Adversarial) 5. Optimization (Convex) 1., 2. が抜けており、単体のsessionとしては 強化学習が強い印象
  • 8. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. 39% 25% 18% 14% 4% 学習アルゴリズム改善 Network architectureの提案 生成結果の評価指標の提案 応用 学習の分析 GANs関連論文の傾向 – task別に分類 - • GANs関連論文数: 28本 • Generative models, Network architectures, Network architectures (Adversarial), workshopから抽出 • 独断での判断のため、漏れがあるかも しれません • 対象論文は付録に掲載
  • 9. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. 紹介論文 1. 学習アルゴリム改善 • Which Training Methods for GANs do actually Converge? 2. Network architectureの提案 • RadialGAN: Leveraging multiple datasets to improve target-specific predictive models using Generative Adversarial Networks 3. 生成評価指標の提案 • Assessing Generative Models via Precision and Recall
  • 10. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. 紹介論文 1. 学習アルゴリム改善 • Which Training Methods for GANs do actually Converge? 2. Network architectureの提案 • RadialGAN: Leveraging multiple datasets to improve target-specific predictive models using Generative Adversarial Networks 3. 生成評価指標の提案 • Assessing Generative Models via Precision and Recall
  • 11. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. Which Training Methods for GANs do actually Converge?  背景 ⁃ GANは、強力な生成モデルだが、学習が困難 ⁃ 学習の挙動が完全に理解されたわけではない ⁃ 数多くの学習安定化手法が提案されている (WGAN [1]、WGAN-GP [2]など) ⁃ どの手法が実際に収束しているのかを調査する  貢献 1. 簡易な実験により、unregularized GAN学習はいつも収束はするわけでないことを確認 2. 最新の学習安定化手法についての収束性の調査 1. WGAN、WGAN-GPはいつも収束するわけではない 2. Instance noise [3]、zero-centered gradient penalties [4] はいつも収束する 3. シンプルなgradient penaltiesの提案 4. 実験的評価により、3.の収束安定性を確認
  • 12. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. Dirac-GAN  Dirac-GANの導入 ⁃ 種々のGAN学習安定アルゴリズムを収束安定性を確認するため、簡易の目的関数を準備  目的関数 ⁃ GAN ⁃ Dirac-GAN • 真の分布、generatorをδ関数、discriminatorを線形関数で表現 上記を代入すると 𝑝 𝐷 𝑥 ∶ true data distribution 𝑝 𝑧 ∶ generator distribution 𝐷 𝜓 𝑥 ∶ disctriminator 𝐺 𝜃 𝑥 ∶ generator 𝜃 ∶ parameters of the generator ψ ∶ parameters of the discriminator , 𝐺 𝜃 = , 𝛿 𝜃 𝑥 = 𝜃 𝑥 = 𝜃 , 𝛿 𝜃 𝑥 = 0 𝑥 ≠ 𝜃 Vanilla-GAN: WGAN: 𝑓 𝑡 = 𝑡
  • 13. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. Dirac-GAN  既存の学習安定化手法における収束特性の可視化 ⁃ Gradient vector fieldの導入 ⁃ Jacobianの固有値の実数部が全て負であった場合、平衡状態となり、安定する→ 収束する [5] Jacobian 平衡状態:時間的 に変化しない状態 WGAN: 固有値 : ±𝑖 となり、安定とはならない Zero-centered gradient penalty: 固有値 : − 𝛾 2 ± 𝛾2 4 − 𝑓′ 0 2 𝑖, 𝛾 > 0 で、固有値は全て負となるため、収束する をdiscriminatorに追加 𝜓 𝜃 𝜓 𝜃
  • 14. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. Dirac-GAN  その他手法の収束特性 ⁃ Non-saturating GAN、instance noise で収束が確認できる ⁃ しかし、non-saturating GANは 非常に低速
  • 15. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. Regularized gradient vector field  Discriminatorの正則化項として、以下を目的関数に追加することを提案  Regularized gradient vector field ⁃ 正則化項により、安定に収束する
  • 16. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. 実験的評価の結果 • Imagenet
  • 17. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. 実験的評価の結果 • CelebA-HQ
  • 18. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. Tips  GeneratorとDiscriminatorは、同時にパラメータ更新せず、片側ずつ更新する  momentumは使うな  学習安定化のためには、正則化を使う  Discriminatorに対するzero-centered gradient penaltiesは良い結果を導く → 著者のgithub page: https://github.com/LMescheder/GAN_stability
  • 19. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. 紹介論文 1. 学習アルゴリム改善 • Which Training Methods for GANs do actually Converge? 2. Network architectureの提案 • RadialGAN: Leveraging multiple datasets to improve target-specific predictive models using Generative Adversarial Networks 3. 生成評価指標の提案 • Assessing Generative Models via Precision and Recall
  • 20. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. RadialGAN: Leveraging multiple datasets to improve target-specific predictive models using Generative Adversarial Networks  問題設定 ⁃ 患者情報から特定の病気の発生率、死亡率を予測したい ⁃ 病院ごとに設備も異なるため、患者情報に偏りが出る  課題 ⁃ Feature mismatch • 学習データセットと目標データセットで特徴量が異なる ⁃ Distribution mismatch • 学習データセットと目標データセットで、同じ特徴量でも確率分布が異なる 患者D 年齢 体重 呼吸速度 レントゲン MRI 患者C 年齢 体重 呼吸速度 レントゲン MRI 患者B 年齢 体重 呼吸速度 レントゲン MRI 患者A 年齢 体重 呼吸速度 レントゲン MRI 患者C 年齢 体重 患者B 年齢 体重 患者A 年齢 体重 患者C 年齢 体重 患者B 年齢 体重 血圧 患者A 年齢 体重 血圧 死亡率 癌発症率 ? 死亡率 癌発症率
  • 21. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved.  アイデア ⁃ CycleGANベースに複数GANを利用 ⁃ 患者データを潜在空間にmappingし、共通空間で扱う  要素 ⁃ Encoder 𝐹𝑖: 𝑋(𝑖) × 𝑌 → 𝑍, ⁃ Decoder ⁃ Discriminator  Loss 1. Adversarial loss 2. Cycle-consistency loss 3. Optimization RadialGAN アルゴリズム Di :病院 X(i) :患者データ Y(i) :予測したいデータ Z :潜在空間 𝑍𝑖 = 𝐹𝑖 𝑋(𝑖), 𝑌 ∈ 𝑍 𝐺𝑖: 𝑍 → 𝑋(𝑖) × 𝑌, 𝑋(𝑖) , 𝑌 = 𝐺𝑖 𝑍𝑖 ∈ 𝑋(𝑖) × 𝑌 𝐷 𝑋(𝑖) , 𝑌 = 𝑃 𝑋(𝑖) , 𝑌 ∈ 𝐷𝑖𝐷𝑖: 𝑋(𝑖) × 𝑌 → [0, 1],
  • 22. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. 実験的評価  実験条件 ⁃ 実験データ 14病院で528人から13279人の患者データ • 学習データ 500人の患者データ、テストデータ その他残りのデータ ⁃ 合計216種の特徴量(各病院で異なる)で、出力:1年後の死亡率を予測  実験結果 ⁃ GANの生成結果をロジスッティク回帰して、評価 AUC: Area Under ROC Curve APR: Average Precision Recall Baseline Gain
  • 23. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. 全病院での実験結果 RadialGANはほとんどのlabelでAUC、APRが増加している
  • 24. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. 紹介論文 1. 学習アルゴリム改善 • Which Training Methods for GANs do actually Converge? 2. Network architectureの提案 • RadialGAN: Leveraging multiple datasets to improve target-specific predictive models using Generative Adversarial Networks 3. 生成評価指標の提案 • Assessing Generative Models via Precision and Recall
  • 25. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. Assessing Generative Models via Precision and Recall  背景 ⁃ 生成モデルの結果を定量的に評価することは難しい ⁃ 尤度のような密度推定では、尤度が下がったからといって、品質・多様性が改善してるわけ ではない [6] ⁃ 最新の評価手法 Inception score (IS) [7]と Frechet inception distance (FID) [8] では、異なる軸での 評価が出来ない  貢献 ⁃ 確率分布に対するprecision (品質)とrecall (多様性)の定義を提案 ⁃ GANのmode dropping、model inventingを定量的に測定 ⁃ 既存の生成モデルを提案法の軸で比較
  • 26. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. 同値のFIDの画像比較  どちらが良いのか?
  • 27. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. 同値のFIDの画像比較 品質 ◯、多様性 × 品質 ×、多様性 ◯ 品質と多様性を分離できない
  • 28. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. Precision and Recall for Distribution (PRD)  Precision (品質) ⁃ 学習モデルの分布Qがどの程度、真の分布 P を生成出来ているか?  Recall (多様性) ⁃ 真の分布 P がどの程度、学習モデルの分布 Q を生成出来ているか? P : 真の分布 Q : 学習モデルの分布 High precision Low precision Low recall High recall
  • 29. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. Precision and Recall for Distribution (PRD)  分布 P と Q は以下の様に表せる  PRD(Q, P)はα, βを用いて以下で定義される ⁃ 単純化し、角座標で表記すると 𝜈 𝑃 𝜈 𝑄 𝜇 P : 真の分布 Q : 学習モデルの分布 Recall(β)に関する loss Precision(α)に関する loss 𝑷 = 𝛽𝜇 + (1 − 𝛽)𝜈 𝑃 𝑸 = 𝛼𝜇 + (1 − 𝛼)𝜈 𝑄 𝑃𝑅𝐷 𝑄, 𝑃 = { 𝜃𝛼 𝜆 , 𝜃𝛽 𝜆 | 𝜆 ∈ 0, ∞ , 𝜃 ∈ 0, 1 } 𝛼 𝜆 = 𝜔∈Ω 𝑚𝑖𝑛 𝜆𝑃 𝜔 , 𝑄 𝜔 , 証明はappendix A.2参照 α :precision、β :recall 𝛽 𝜆 = 𝜔∈Ω 𝑚𝑖𝑛 𝑃 𝜔 , 𝑄 𝜔 𝜆 𝑃𝑅𝐷 𝑄, 𝑃 = { 𝛼 𝜆 , 𝛽 𝜆 | 𝜆 ∈ Λ}, Λ = tan 𝑖 𝑚 + 1 ∙ 𝜋 2 | 𝑖 = 1, 2, ⋯ 𝑚 , 𝑚 ∈ 𝑵 Ωは有限状態空間
  • 30. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. 実験的評価 with MNIST and CelebA 品質 ◯、多様性 × 品質 ×、多様性 ◯ Precision 左 > 右、recall 左 < 右となり、品質と多様性を評価できている
  • 31. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. Mode dropping and inventingの実験的評価 CIFAIR-10を用いて、真の分布Pのクラス数を5に固定した 学習分布 Qのクラス数を変えて、mode dropping and inventingでの挙動を比較 ISは単調増加 FIDはmode dropping、mode inventingに敏感 PRDはクラス数1-4だとpが高、rが低、クラス数6-10はその逆
  • 32. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. 生成モデルの実験的評価 with Fashion-MNIST • 800の生成モデル(7GANsとVAE x 100parameters) の Fβ スコアを評価 β により、precision (p)とrecall (r)を重み付け
  • 33. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. まとめ・所感  まとめ ⁃ ICML2018について、概要と計数について紹介 ⁃ GANs関連論文の傾向と、3編を紹介  所感 ⁃ GANsの分野では、学習アルゴリズムの改善、応用などバランスよく研究されている。 ⁃ 技術進展のスピードはとても速い、追いて行かれない様、アンテナを張っていく ⁃ USの大手IT企業が大学と共著で発表していた論文が非常に多かった ⁃ 展示会でも積極的にリクルート活動をしている印象
  • 34. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. 参考文献 [1] Arjovsky, M. and Bottou, L. Towards principled meth- ods for training generative adversarial networks. CoRR, abs/1701.04862, 2017. [2] Gulrajani, I., Ahmed, F., Arjovsky, M., Dumoulin, V., and Courville, A. C. Improved training ofwasserstein gans. In Advances in Neural Information Processing Systems 30: Annual Conference on Neural Information Processing Systems 2017, 4-9 December 2017, Long Beach, CA, USA, pp. 5769–5779, 2017. [3] Sønderby, C. K., Caballero, J., Theis, L., Shi, W., and Huszár, F. Amortised MAP inference for image super- resolution. CoRR, abs/1610.04490, 2016. [4] Roth, K., Lucchi, A., Nowozin, S., and Hofmann, T. Stabi- lizing training of generative adversarial networks through regularization. In Advances in Neural Information Pro- cessing Systems 30: Annual Conference on Neural In- formation Processing Systems 2017, 4-9 December 2017, Long Beach, CA, USA, pp. 2015–2025, 2017. [5] Mescheder, L. M., Nowozin, S., and Geiger, A. The numer- ics of gans. In Advances in Neural Information Process- ing Systems 30: Annual Conference on Neural Informa- tion Processing Systems 2017, 4-9 December 2017, Long Beach, CA, USA, pp. 1823–1833, 2017. [6] Salimans, T., Goodfellow, I., Zaremba, W., Cheung, V., Rad- ford, A., and Chen, X. Improved Techniques for Training GANs. In Advances in Neural Information Processing Systems (NIPS), 2016. [7] Heusel, M., Ramsauer, H., Unterthiner, T., Nessler, B., Klambauer, G., and Hochreiter, S. Gans trained by a two time-scale update rule converge to a nash equilib- rium. In Advances in Neural Information Processing Systems (NIPS), 2017. [8] Theis, L., Oord, A. v. d., and Bethge, M. A note on the eval- uation of generative models. In International Conference on Learning Representations (ICLR), 2016.
  • 35. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. 付録 (1/3) タスク名 論文 学習アルゴリズム改善 mode collapse回避、学習安定性向上、更新式 改善など Which Training Methods for GANs do actually Converge? Chi-square Generative Adversarial Network Tempered Adversarial Networks Improved Training of Generative Adversarial Networks Using Representative Features A Two-Step Computation of the Exact GAN Wasserstein Distance First Order Generative Adversarial Networks Mixed batches and symmetric discriminators for GAN training Stochastic Variance Reduced Gradient Optimization of Generative Adversarial Networks Bayesian Modelling and Monte Carlo Inference for GAN Approximability of Discriminators Implies Diversity in GANs On catastrophic forgetting and mode collapse in Generative Adversarial Networks
  • 36. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. 付録 (2/3) タスク名 論文 Network architectureの提案 RadialGAN: Leveraging multiple datasets to improve target-specific predictive models using Generative Adversarial Networks GAIN: Missing Data Imputation using Generative Adversarial Nets MAGAN: Aligning Biological Manifolds JointGAN: Multi-Domain Joint Distribution Learning with Generative Adversarial Nets Augmented CycleGAN: Learning Many-to-Many Mappings from Unpaired Data BAGAN: Data Augmentation with Balancing GAN Generating Multi-Categorical Samples with Generative Adversarial Networks
  • 37. Copyright (C) 2018 DeNA Co.,Ltd. All Rights Reserved. 付録 (3/3) タスク名 論文 生成結果の評価指標の提案 GANの生成結果を客観評価する手法を提案 A Classification-Based Study of Covariate Shift in GAN Distributions Geometry Score: A Method For Comparing Generative Adversarial Networks On Accurate Evaluation of GANs for Language Generation Assessing Generative Models via Precision and Recall Towards GAN Benchmarks Which Require Generalization 応用 既存architectureを新たな分野へ適用 NetGAN: Generating Graphs via Random Walks BinGAN: Learning Compact Binary Descriptors with a Regularized GAN MolGAN: An implicit generative model for small molecular graphs Generative Buyer-Seller Adversarial Networks 学習の分析 学習安定性に向けた分析 Nonstationary GANs: Analysis as Nonautonomous Dynamical Systems

Editor's Notes

  1. Logistic regressionの結果 と真値でAPR AUC ROC curveの面積、完全に重なった時は0.5 APR -> 一番良い時は