SlideShare a Scribd company logo
1 of 24
Download to read offline
U-GAT-IT:
Unsupervised Generative Attentional Networks
with Adaptive Layer-Instance Normalization
for Image-to-Image Translation
【画像処理 & 機械学習】論文LT会! #8@LPIXEL
meow (id: meow_noisy)
2019/11/21(木)
論文概要
 画像変換タスクにおいて、輪郭が大きく変わるターゲット
への変換を教師なしで獲得する手法の提案
 手法の特徴
1. CAMライクな補助分類器の導入によりattention mapを作成
2. AdaLINによりcontentとstyleをちょうど良く混ぜて正規化
 著者
 Junho Kim †, Minjae Kim †, Hyeonwoo Kang †, Kwanghee Lee‡
 † NCSOFT, ‡ Boeing Korea Engineering and Technology Center
 学会情報: なし
 URL: https://arxiv.org/abs/1907.10830
背景
 画像変換タスクにおいては、局所的なテクスチャの変換は
目覚ましい成功を収めた
 写真⇔ゴッホの絵画
 馬⇔シマウマ
 しかし、形がそもそも変わっているものへ変換することは難しい
 猫⇔犬
 顔写真⇔アニメ
提案手法: U-GAT-IT
 GANをベースにしつつ
下記の機能をGenerator
に組み込むことで、
画像変換能力の獲得を
実現
 ①補助分類器を利用して
attention mapを作成
 ②AdaLINレイヤーで
contentとstyleを
バランス良く混ぜる
①補助
分類器
②AdaLIN
※図はsource→targetの例
(逆のネットワークも用意する)
Unsupervised
Generative Attentional Networks
with Adaptive Layer-Instance Normalization
for Image-to-Image Translation
(´-`).。oO(You got it.とかけたかったのだろうか)
CAMライクな補助分類器
 CAM(Class Activation Map)
 CNNの判断根拠の可視化手法のひとつ
 特徴マップとsoftmaxへの重みを線形結合しActivation Mapを作成
auxiliary classifier
図は元論文より: https://www.cv-foundation.org/openaccess/content_cvpr_2016/papers/Zhou_Learning_Deep_Features_CVPR_2016_paper.pdf
CAMライクな補助分類器(p.3)
auxiliary classifier
 補助分類器𝜼 𝒔
 入力された画像がsourceから来た確率を出力
する二値分類器
 特徴マップのGlobal Avg Pooling, Global Max
Poolingを結合したもの入力
 Encoderから出力された特徴マップの重みで
CAMを作成
※図はsource→targetの例
(逆のネットワークも用意する)
𝑥
補助分類器の効果(p.5 Fig 2)
 あり/なしで顕著な効果がある (元画像) あり なし
CAMライクな補助分類器(p.3)
auxiliary classifier
 CAMをattention mapとする
 例えば、𝒂 𝟏 = 𝒘 𝟏 𝑬 𝒔
𝟏
 attentionを全結合層に流し、後段のAdaLINで使う
アフィンパラメータγ、βを推定
※図はsource→targetの例
(逆のネットワークも用意する)
Decoderへの入力
 attention mapと、パラメータγ,βを
後段のDecoderへ入力
※図はsource→targetの例
(逆のネットワークも用意する)
AdaLIN:
Adaptive Layer-Instance Normalization
 DecoderのRes BlockにおいてAdaLINレイヤーを挟む
 処理内容: attention mapに対して、Instance Normalization(IN)
とLayer Normalization(LN)の混合和を計算
 IN: チャネル単位で正規化
 LN: レイヤー(すべての特徴マップ)単位で正規化
(p.3)
AdaLINの効果(p.6; Fig.4)
 スタイル変換タスクで提案されたNormalize手法を比較
 INはターゲットドメイン(anime)の情報が少なく、LNはソースドメイン
(selfie)の情報が少ない。したがって、折衷すると上手くいく
 AdaINはcontent(selfie?)のパターンが少ないらしい(p.3,col.2,l.16)
(元画像) AdaLIN IN LN AdaIN GN
p.7 Tab.1 定量評価(小さいほど良い)でも最良
実験(p.5)
 比較手法
 U-GAT-ITを含む5つの画像変換手法
 データセット
 selfie⇔animeを含む5つのデータセット
 評価尺度
 定性評価: ユーザーテスト(n=135)
 変換前後の画像と、変換先のドメインのみを教え、
ベストだと思う画像を選んでもらう
 定量評価: KID(Kernel Inception Distance)
 FIDより信頼できるらしい(p.7; 5.3.4項)
定性評価の結果(p.8 Tab.2)
 4つのデータセットで提案手法が最良
元画像 提案 CycleGAN UNIT MUNIT DRIT
photo2portrait
dataset
定量評価の結果(p.8 Tab.3)
 KIDで測る。小さいほど良い。
 3つのデータセットで提案手法が最良
 他2つで劣るが、トップとの差は微々たるものと主張
まとめ
 attentionの導入と正規化の工夫で、形状や輪郭の大きく異
なるドメイン間での画像変換を教師無しで実現した
個人的な疑問
 正規化で画像の質がなぜコントロールできるのかわかってい
ない
 正規化する単位の違いでそんなにcontentとstyleの情報が変化する?
(元画像) AdaLIN IN LN AdaIN GN
参考文献
1. ニューラルネットワークでStyle Transferを行う論文の紹
介
 https://qiita.com/kidach1/items/0e7af5981e39955f33d6
2. Class activation mappingを用いたCNNの可視化
 https://qiita.com/KDOG08/items/74ef0a342f100bf0c5d5
ご清聴ありがとうございました
ふろく:
U-GAT-ITでselfie2animeをする
すぐに試したい方向け
 有志の人がリリースしたWebApp版が存在
 https://selfie2anime.com/
 バックエンドにU-GAT-ITを使用している
公式リポジトリのclone
 公式のTF版repoをclone
 https://github.com/taki0112/UGATIT
 readme.mdに記載されているselfie2anime datasetをダウンロード
 readme.mdに記載されているpretrained modelをダウンロード
 ※公式のPyTorch版repoもあるが、pretrained modelが提
供されていない
 https://github.com/znxlwm/UGATIT-pytorch
 pytorch版のissueにTFのモデルを公開している人もいてややこしい
データ
 データセット
 datasetディレクトリに配置
 trainA,trainB,testA,testBというディレクトリ名は固定
 testAにselfieを入れればいい
 画像ファイル名の拡張子や名前は気にしなくていい
 ※ selfie2anime datasetはanime側(trainB, testB)が
jpgだが実態はpng
 pretrained model
 repoのルートに落としてきたzipファイルを展開
 checkpointディレクトリができるはず
 あとは何もいじらなくていい
推論
 python main.py --dataset <dataset_name> --phase test
 repoルート下にresultsディレクトリができ、その中に変換
後のhtmlファイルと画像ができている
[備考] モデル学習
 $ python main.py [opt] -–dataset <dataset_name>
 多分、GPUメモリが足りないはず
 通常モデルの想定GPUスペックはV100 32GB
 light版モデルへ変更
 --lightオプションを追加
 モデルの想定GPUスペックは1080Ti 11GB
 それよりお手持ちのGPUメモリが少ない場合は、1層あた
りのチャネルを削減する
 ---ch <int>オプションを追加
 <int>には64以下を設定

More Related Content

What's hot

GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)Masahiro Suzuki
 
SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 点群深層学習の研究動向SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 点群深層学習の研究動向SSII
 
【DL輪読会】An Image is Worth One Word: Personalizing Text-to-Image Generation usi...
【DL輪読会】An Image is Worth One Word: Personalizing Text-to-Image Generation usi...【DL輪読会】An Image is Worth One Word: Personalizing Text-to-Image Generation usi...
【DL輪読会】An Image is Worth One Word: Personalizing Text-to-Image Generation usi...Deep Learning JP
 
[DL輪読会]MetaFormer is Actually What You Need for Vision
[DL輪読会]MetaFormer is Actually What You Need for Vision[DL輪読会]MetaFormer is Actually What You Need for Vision
[DL輪読会]MetaFormer is Actually What You Need for VisionDeep Learning JP
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Yusuke Uchida
 
CV分野におけるサーベイ方法
CV分野におけるサーベイ方法CV分野におけるサーベイ方法
CV分野におけるサーベイ方法Hirokatsu Kataoka
 
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks? 【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks? Deep Learning JP
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Yoshitaka Ushiku
 
[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra...
[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra...[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra...
[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra...Deep Learning JP
 
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised LearningまとめDeep Learning JP
 
【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language ModelsDeep Learning JP
 
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​SSII
 
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted WindowsDeep Learning JP
 
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習SSII
 
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII
 
機械学習の理論と実践
機械学習の理論と実践機械学習の理論と実践
機械学習の理論と実践Preferred Networks
 
【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...
【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...
【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...Deep Learning JP
 
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)Deep Learning JP
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習cvpaper. challenge
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII
 

What's hot (20)

GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)
 
SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 点群深層学習の研究動向SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 点群深層学習の研究動向
 
【DL輪読会】An Image is Worth One Word: Personalizing Text-to-Image Generation usi...
【DL輪読会】An Image is Worth One Word: Personalizing Text-to-Image Generation usi...【DL輪読会】An Image is Worth One Word: Personalizing Text-to-Image Generation usi...
【DL輪読会】An Image is Worth One Word: Personalizing Text-to-Image Generation usi...
 
[DL輪読会]MetaFormer is Actually What You Need for Vision
[DL輪読会]MetaFormer is Actually What You Need for Vision[DL輪読会]MetaFormer is Actually What You Need for Vision
[DL輪読会]MetaFormer is Actually What You Need for Vision
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
 
CV分野におけるサーベイ方法
CV分野におけるサーベイ方法CV分野におけるサーベイ方法
CV分野におけるサーベイ方法
 
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks? 【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
 
[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra...
[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra...[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra...
[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra...
 
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
 
【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models
 
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
 
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
 
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
 
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
 
機械学習の理論と実践
機械学習の理論と実践機械学習の理論と実践
機械学習の理論と実践
 
【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...
【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...
【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...
 
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
 

Similar to 【論文紹介】U-GAT-IT

東北大学 先端技術の基礎と実践_深層学習による画像認識とデータの話_菊池悠太
東北大学 先端技術の基礎と実践_深層学習による画像認識とデータの話_菊池悠太東北大学 先端技術の基礎と実践_深層学習による画像認識とデータの話_菊池悠太
東北大学 先端技術の基礎と実践_深層学習による画像認識とデータの話_菊池悠太Preferred Networks
 
文献紹介:Spatially-Adaptive Pixelwise Networks for Fast Image Translation
文献紹介:Spatially-Adaptive Pixelwise Networks for Fast Image Translation文献紹介:Spatially-Adaptive Pixelwise Networks for Fast Image Translation
文献紹介:Spatially-Adaptive Pixelwise Networks for Fast Image TranslationToru Tamaki
 
論文紹介 LexToMap: lexical-based topological mapping
論文紹介 LexToMap: lexical-based topological mapping論文紹介 LexToMap: lexical-based topological mapping
論文紹介 LexToMap: lexical-based topological mappingAkira Taniguchi
 
【CVPR 2019】SPADE: Semantic Image Synthesis with Spatially-Adaptive Normalization
【CVPR 2019】SPADE: Semantic Image Synthesis with Spatially-Adaptive Normalization【CVPR 2019】SPADE: Semantic Image Synthesis with Spatially-Adaptive Normalization
【CVPR 2019】SPADE: Semantic Image Synthesis with Spatially-Adaptive Normalizationcvpaper. challenge
 
[IBIS2017 講演] ディープラーニングによる画像変換
[IBIS2017 講演] ディープラーニングによる画像変換[IBIS2017 講演] ディープラーニングによる画像変換
[IBIS2017 講演] ディープラーニングによる画像変換Satoshi Iizuka
 
「解説資料」MetaFormer is Actually What You Need for Vision
「解説資料」MetaFormer is Actually What You Need for Vision「解説資料」MetaFormer is Actually What You Need for Vision
「解説資料」MetaFormer is Actually What You Need for VisionTakumi Ohkuma
 
CNNの構造最適化手法について
CNNの構造最適化手法についてCNNの構造最適化手法について
CNNの構造最適化手法についてMasanoriSuganuma
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...Deep Learning JP
 
第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)
第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)
第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)kanejaki
 

Similar to 【論文紹介】U-GAT-IT (9)

東北大学 先端技術の基礎と実践_深層学習による画像認識とデータの話_菊池悠太
東北大学 先端技術の基礎と実践_深層学習による画像認識とデータの話_菊池悠太東北大学 先端技術の基礎と実践_深層学習による画像認識とデータの話_菊池悠太
東北大学 先端技術の基礎と実践_深層学習による画像認識とデータの話_菊池悠太
 
文献紹介:Spatially-Adaptive Pixelwise Networks for Fast Image Translation
文献紹介:Spatially-Adaptive Pixelwise Networks for Fast Image Translation文献紹介:Spatially-Adaptive Pixelwise Networks for Fast Image Translation
文献紹介:Spatially-Adaptive Pixelwise Networks for Fast Image Translation
 
論文紹介 LexToMap: lexical-based topological mapping
論文紹介 LexToMap: lexical-based topological mapping論文紹介 LexToMap: lexical-based topological mapping
論文紹介 LexToMap: lexical-based topological mapping
 
【CVPR 2019】SPADE: Semantic Image Synthesis with Spatially-Adaptive Normalization
【CVPR 2019】SPADE: Semantic Image Synthesis with Spatially-Adaptive Normalization【CVPR 2019】SPADE: Semantic Image Synthesis with Spatially-Adaptive Normalization
【CVPR 2019】SPADE: Semantic Image Synthesis with Spatially-Adaptive Normalization
 
[IBIS2017 講演] ディープラーニングによる画像変換
[IBIS2017 講演] ディープラーニングによる画像変換[IBIS2017 講演] ディープラーニングによる画像変換
[IBIS2017 講演] ディープラーニングによる画像変換
 
「解説資料」MetaFormer is Actually What You Need for Vision
「解説資料」MetaFormer is Actually What You Need for Vision「解説資料」MetaFormer is Actually What You Need for Vision
「解説資料」MetaFormer is Actually What You Need for Vision
 
CNNの構造最適化手法について
CNNの構造最適化手法についてCNNの構造最適化手法について
CNNの構造最適化手法について
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
 
第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)
第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)
第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)
 

【論文紹介】U-GAT-IT