SlideShare a Scribd company logo
1 of 36
알기쉬운
Variational AutoEncoder
Sho Tatsuno
Univ. of Tokyo
번역 및 수정 : 김홍배
주요 내용
• Variational Auto-Encoder의 해설
– 생성모델 자체에 대한 설명
– Variational Auto-Encoder(VAE)에 대한 설명
• 설명하는 것/하지 않는 것
– 설명하는 것
» 생성모델의 간단한 개요와 사례
» Variational AutoEncoder의 구조와 수학적・직관적 해석
– 설명하지 않는 것
» LDA와 같은 다른 생성모델의 상세한 설명
» Deep Learning의 기초(Back Propagation・SGD등)
» 기존 최적화 기법에 대한 자세한 내용(MCMC・EM알고리즘 등)
소개 논문들
• Auto-Encoding Variational Bayes
– Author: D. P. Kingma, 2013
– URL: https://arxiv.org/pdf/1312.6114.pdf
– Variational Auto-Encoder를 최초로 제안한 논문
• Tutorial on Variational Autoencoders
– Author: Carl Doersch, 2016
– URL: https://arxiv.org/abs/1606.05908
– 뉴럴넷에 의한 생성모델 Variational Autoencoder(VAE)의 소개
» Variational Bayes에 대한 사전지식이 필요없음
» 조건부 VAE인 Conditional Variational Autoencoder(CVAE)
에 대한 소개
판별모델(discriminative model)과
생성모델(generative model)
• 일반적인 기계학습은 판별모델
– 각각을 나누기 위해 선을 긋는다 !
• 생성모델은 판별하는 것이 아니라 범위를 고려
판별모델 생성모델
하고 싶은 것은 ?
• 이미지와 같은 고차원 데이터 X의 저차원 표현 z을 구할 수 있다면
• Z을 조정하여 training set에서 주어지지 않은 새로운 이미지 생성이 가능
• 카메라 각도, 조명 위치, 표정등의 조정이 가능
Other examples
• random faces
• MNIST
• Speech
These are not part of
the training set !
https://www.youtube.com/watch?v=XNZIN7Jh3Sg
Manifold hypothesis
고차원 데이터를 저차원 데이터로 표현해낼 수 있을까 ?
The data distribution lie close to a low-dimensional manifold
 Manifold hypothesis
Example: consider image data
 Very high dimensional (1,000,000D)
 A randomly generated image will almost certainly not
look like any real world scene
 The space of images that occur in nature is almost
completely empty
 Hypothesis: real world images lie on a smooth, low-
dimensional manifold
 Manifold distance is a good measure of similarity
Manifold hypothesis
• 다음과 같은 손글씨 데이터는 784차원의 고차원이지만,
다음과 같이 저차원 표현이 가능
Manifold hypothesis
“1”을 분류하고 싶다면
그림과 같은 분류 경계선을
쉽게 그을 수 있다
왜 딥러닝은 성공적이나 ?
Lin의 가설[Lin+ 16]
• 왜 딥러닝이 다양한 문제에 잘 적용(특히 인식문제) 될까
• ⇒ 거의 모든 문제는 다음과 같은 특징이 있기 때문
1. 저차성
 일반적인 물리현상의 변수간 상호작용 차수는 2~4
2. 국소 상호작용성
 상호작용 수는 변수의 개수에 대하여 선형적으로 증가
3. 대칭성
 이미지의 대칭성등에 의해 변수의 자유도가 낮다
4. 마코프성
 생성과정은 직전의 상태에만 의존한다.
잠재변수란 ?
• 다음과 같은 인식과 생성문제를 보면
• X : 이미지, z : 잠재변수
생성 인식
(또는 추론)
잠재변수 Z의 예
: 물체의 형상, 카메라 좌표, 광원의 정보
( 남자, [10, 2,‒4], white)
X : 이미지
잠재변수란 ?
• 예를 들어 숫자의 잠재적인 의미를 생각하면
– Digit(3인가 5인가)과 필체를 나타내는 잠재변수(각도, aspect ratio,
등)으로부터 숫자를 만들어낼 수 있다.
잠재변수의 분포
잠재변수
의 분포
• 이미지의 잠재공간의 확보와 이미지의 변형 생성
얼굴의 생성 숫자의 생성
표정・view point ・
얼굴형태가 잠재변수?
digit・필체(기울기,
aspect ratio)가 잠재변수?
잠재변수란 ?
기존 생성모델의 문제점
1. 데이터 구조의 가정과 모델의 근사가 필요
– 여기서 어떠한 분포의 설정이 필요
– 설정한 분포에 모델이 대응하여야 함
2. 시간이 소요되는 방법이 필요
- MCMC등과같이 복수의 샘플링이 필요
자세한 것은 생략
뉴럴넷의 이용
• 단순한 뉴럴넷의 예
1. y = f2(w2x2+b2)=f2(w2(f1(w1x1+b1))+b2)=…
 Convolution형에서는 임의의 함수표현이 가능:모델의 제약을 완화
2. SGD를 사용하면 1샘플씩 최적화가 가능
생성모델 최적화의 전제
• 원래
– 그러나, 이대로 pθ를 구하는 것은 곤란함
» 입력(잠재변수z)에 대응하는 답이 불명확함
일반적으로 z은 저차원, X는 고차원임
요것을 구하고 싶다(Z을 바탕으로 X가 생성되는 확률분포)
출력잠재변수
입력에서 잠재변수 z으로의 분포를 가정
• Encoder
– 잠재변수의 정규 분포를 가정
입력층(이미지) Encoder
다변수 정규분포로부터 샘플링
μ
σ
z
잠재변수
2~50차원 정도로
다차원
N차원 가우스분포
의 평균・분산
분포 parameter의 타당성
• μ 와 σ의 결정에 타당성은 있나 ?
– 어느 쪽이 μ・ σ라도 좋다:μ와 σ가 최적화되도록 NN을
최적화하면 됨
어떤 것이라도 괜찮다(미리μ・ σ가
정의되어있지 않음)
나중에 μ・ σ에 대응하도록 학습시킴
Variational AutoEncoder
• Decoder
– 여기서는 z로부터 출력층까지에 NN을 만들면 됨.
잠재변수 Decoder
z
출력층(이미지)
Variational AutoEncoder
• Total Structure
입력층 Encoder
잠재변수
Decoder 출력층
• 잠재변수는 다차원의 정규분포로 가정
– 다루기 쉬움
– 잠재변수로 문자의 필적과 형태를 가정  정규분포인가 ?
潜在変数zに相当する画像Xを生成
잠재변수의 가정
출력 이미지잠재변수의 분포
잠재변수 z로 부터 이미지 X를 생성(θ는 parameter)
q(z):pの事前分布として簡単な形(今回は多項ガウス分布)を考える
・z ~ p(z):p의 prior distribution으로 간단한 형태(다차원 표준 정규분포)
• 입력  잠재변수 분포를 생성
• 잠재변수로부터 샘플링  입력에 가까운 출력 생성
VAE의 도식적 이해
잠재변수 분포를 생성
잠재변수로부터 샘플링
입력 출력
최적화의 필요성
• 어떻게 최적화하여야 하나?
– Maximum Likelihood Estimation:marginal likelihood
log(pθ(x))의 최대화 되도록
– marginal likelihood log(pθ(x))는 다음과 같이 나눌 수 있음
Θ를 정할 때 취할 수있는 x의 Marginal probability가 가장 높도록
일반적인 variational lower limit에 있어서 수식전개
variational lower limit : θ, φ의 함수
(p=q시、등호성립)
 variational lower limit을 최대화하면 marginal likelihood도 커짐
여기서 KL Divergence는
Variational lower limit
• variational lower limit을 정리해보면
– 아래와 같은 형태로 되며, 최적화 항이 도출됨
정규화 항:KL Divergence
(Regularization Parameter)
복원오차
(Reconstruction Error)
이 두개의 합을 최대화하면 좋음
정규화 항:KL Divergence
• KL Divergence의 계산
~N(μ, σ) ~N(0, I)
복원오차:Reconstruction Error
• Reconstruction Error는 아래와 같이 근사화
• 이미지 픽셀값을 0~1로 Normalize한 경우, Bernoulli분포로 가정하면
logp(x|z)는 아래와 같이 나타낼 수 있음
(y는 잠재변수 z를 Fully Connected Layer를 통과한 Final layer의 변수)
• 최적화 함수
– KL Divergence: p(z)와 q(z|x)의 정보적 거리・정규화항:
– Reconstruction error: 입출력 오차:
VAE의 도식적 이해
잠재변수 분포의 생성
잠재변수의 샘플링
입력 출력
잠재변수의 prior distribution
VAE 전체 block diagram
학습 단계 활용 단계
X
정규화항
복원오차
Decoder(P)
Encoder(Q) Z ~ N(μ, σ)
샘플링
최적화
X
Decoder(P)
Z ~ N(μ, σ)
Z를 입력으로서 준다
학습 단계의 보다 상세한 구조
X
Encoder(Q)
Decoder(P)
μ σ
Sample z ~ N(μ, σ)
zRegularization Parameter
Reconstruction Error
이형태로는 back propagation 사용이 불가능 !
 샘플링하는 시점에 미분계산이 불가능
오차
Reparametrization Trick
×
*
X
Encoder(Q)
Decoder(P)
μ σ
Sample ε ~ N(0, I)
z = μ + ε σ
Reconstruction Error
Sample z ~ N(μ, σ)  z = μ + ε σ (sample ε ~ N(0, I))
로 바꿔쓰는 것이 가능
-> Back Propagation이 이용가능
Regularization Parameter
Z의 변환에 대하여
• 일차원 경우의 간단한 증명
Sample z ~ N(μ, σ)  z = μ + ε σ (sample ε ~ N(0, 1))
ε 는 표준 정규분포이므로 확률밀도함수는
로 변환가능하므로 대입하면
차수가 2차 이상인 경우도 동일
정규분포 z~(N(μ, σ))로부터 샘플링과 동일
VAE의 최적화 정리
DNN
DNN
+
・적용시
・훈련시
훈련시의 것을 이용
Result
表情の生成 文字の生成
• 잠재공간에 대응하는 이미지 생성
표정의 생성 숫자의 생성
VAE의 결론
• Deep Learning을 생성모델에 적용
– 손글씨나 얼굴표정에 존재하는 잠재변수의 분포를 찾아내고
데이터 셋에 존재하지 않는 자연적인 이미지 생성이 가능
추가자료:AutoEncoder
Encode Decode
OutputInput
・AutoEncoder에 의한 이미지의 압축・재구성
・중간층에서 이미지의 추상표현이 획득
추상표현→문자의 분포?
Valuational AutoEncoder는 ?
Encode Decode
OutputInput
・구조는 AutoEncoder의 중간층에 노이즈를 넣는 것뿐
・loss함수에 정규화 항을 추가
・구조,이름은 상당히 유사하나 유래는 다름
+ε
참고문헌
• Introduction to variational autoencoders
– URL: https://home.zhaw.ch/~dueo/bbs/files/vae.pdf
• Deep Advances in Generative Modeling
– URL: https://www.youtube.com/watch?v=KeJINHjyzOU
• Digit Fantasies by a Deep Generative Model
– URL: http://www.dpkingma.com/sgvb_mnist_demo/demo.html
• LAPGAN 해설
– URL: http://www.slideshare.net/hamadakoichi/laplacian-pyramid-of-
generative-adversarial-networks-lapgan-nips2015-reading-nipsyomi

More Related Content

What's hot

딥러닝 - 역사와 이론적 기초
딥러닝 - 역사와 이론적 기초딥러닝 - 역사와 이론적 기초
딥러닝 - 역사와 이론적 기초Hyungsoo Ryoo
 
[DL輪読会]GANとエネルギーベースモデル
[DL輪読会]GANとエネルギーベースモデル[DL輪読会]GANとエネルギーベースモデル
[DL輪読会]GANとエネルギーベースモデルDeep Learning JP
 
[DL輪読会]Conditional Neural Processes
[DL輪読会]Conditional Neural Processes[DL輪読会]Conditional Neural Processes
[DL輪読会]Conditional Neural ProcessesDeep Learning JP
 
boosting 기법 이해 (bagging vs boosting)
boosting 기법 이해 (bagging vs boosting)boosting 기법 이해 (bagging vs boosting)
boosting 기법 이해 (bagging vs boosting)SANG WON PARK
 
Wasserstein GAN 수학 이해하기 I
Wasserstein GAN 수학 이해하기 IWasserstein GAN 수학 이해하기 I
Wasserstein GAN 수학 이해하기 ISungbin Lim
 
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−Deep Learning JP
 
【DL輪読会】Where do Models go Wrong? Parameter-Space Saliency Maps for Explainabi...
【DL輪読会】Where do Models go Wrong? Parameter-Space Saliency Maps for Explainabi...【DL輪読会】Where do Models go Wrong? Parameter-Space Saliency Maps for Explainabi...
【DL輪読会】Where do Models go Wrong? Parameter-Space Saliency Maps for Explainabi...Deep Learning JP
 
[DL輪読会]Attentive neural processes
[DL輪読会]Attentive neural processes[DL輪読会]Attentive neural processes
[DL輪読会]Attentive neural processesDeep Learning JP
 
Forward-Forward Algorithm
Forward-Forward AlgorithmForward-Forward Algorithm
Forward-Forward AlgorithmDong Heon Cho
 
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-EncoderDeep Learning JP
 
[기초개념] Graph Convolutional Network (GCN)
[기초개념] Graph Convolutional Network (GCN)[기초개념] Graph Convolutional Network (GCN)
[기초개념] Graph Convolutional Network (GCN)Donghyeon Kim
 
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process ModelsDeep Learning JP
 
Graph Attention Network
Graph Attention NetworkGraph Attention Network
Graph Attention NetworkTakahiro Kubo
 
AutoEncoderで特徴抽出
AutoEncoderで特徴抽出AutoEncoderで特徴抽出
AutoEncoderで特徴抽出Kai Sasaki
 
[DL輪読会]ODT: Online Decision Transformer
[DL輪読会]ODT: Online Decision Transformer[DL輪読会]ODT: Online Decision Transformer
[DL輪読会]ODT: Online Decision TransformerDeep Learning JP
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門tmtm otm
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative ModelsDeep Learning JP
 

What's hot (20)

그림 그리는 AI
그림 그리는 AI그림 그리는 AI
그림 그리는 AI
 
딥러닝 - 역사와 이론적 기초
딥러닝 - 역사와 이론적 기초딥러닝 - 역사와 이론적 기초
딥러닝 - 역사와 이론적 기초
 
[DL輪読会]GANとエネルギーベースモデル
[DL輪読会]GANとエネルギーベースモデル[DL輪読会]GANとエネルギーベースモデル
[DL輪読会]GANとエネルギーベースモデル
 
[DL輪読会]Conditional Neural Processes
[DL輪読会]Conditional Neural Processes[DL輪読会]Conditional Neural Processes
[DL輪読会]Conditional Neural Processes
 
boosting 기법 이해 (bagging vs boosting)
boosting 기법 이해 (bagging vs boosting)boosting 기법 이해 (bagging vs boosting)
boosting 기법 이해 (bagging vs boosting)
 
Wasserstein GAN 수학 이해하기 I
Wasserstein GAN 수학 이해하기 IWasserstein GAN 수학 이해하기 I
Wasserstein GAN 수학 이해하기 I
 
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
 
【DL輪読会】Where do Models go Wrong? Parameter-Space Saliency Maps for Explainabi...
【DL輪読会】Where do Models go Wrong? Parameter-Space Saliency Maps for Explainabi...【DL輪読会】Where do Models go Wrong? Parameter-Space Saliency Maps for Explainabi...
【DL輪読会】Where do Models go Wrong? Parameter-Space Saliency Maps for Explainabi...
 
[DL輪読会]Attentive neural processes
[DL輪読会]Attentive neural processes[DL輪読会]Attentive neural processes
[DL輪読会]Attentive neural processes
 
Forward-Forward Algorithm
Forward-Forward AlgorithmForward-Forward Algorithm
Forward-Forward Algorithm
 
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
 
VQ-VAE
VQ-VAEVQ-VAE
VQ-VAE
 
[기초개념] Graph Convolutional Network (GCN)
[기초개념] Graph Convolutional Network (GCN)[기초개념] Graph Convolutional Network (GCN)
[기초개념] Graph Convolutional Network (GCN)
 
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
[DL輪読会]Scalable Training of Inference Networks for Gaussian-Process Models
 
Graph Attention Network
Graph Attention NetworkGraph Attention Network
Graph Attention Network
 
AutoEncoderで特徴抽出
AutoEncoderで特徴抽出AutoEncoderで特徴抽出
AutoEncoderで特徴抽出
 
[DL輪読会]ODT: Online Decision Transformer
[DL輪読会]ODT: Online Decision Transformer[DL輪読会]ODT: Online Decision Transformer
[DL輪読会]ODT: Online Decision Transformer
 
EMアルゴリズム
EMアルゴリズムEMアルゴリズム
EMアルゴリズム
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
 

Viewers also liked

Focal loss의 응용(Detection & Classification)
Focal loss의 응용(Detection & Classification)Focal loss의 응용(Detection & Classification)
Focal loss의 응용(Detection & Classification)홍배 김
 
Binarized CNN on FPGA
Binarized CNN on FPGABinarized CNN on FPGA
Binarized CNN on FPGA홍배 김
 
Knowing when to look : Adaptive Attention via A Visual Sentinel for Image Cap...
Knowing when to look : Adaptive Attention via A Visual Sentinel for Image Cap...Knowing when to look : Adaptive Attention via A Visual Sentinel for Image Cap...
Knowing when to look : Adaptive Attention via A Visual Sentinel for Image Cap...홍배 김
 
Visualizing data using t-SNE
Visualizing data using t-SNEVisualizing data using t-SNE
Visualizing data using t-SNE홍배 김
 
InfoGAN: Interpretable Representation Learning by Information Maximizing Gene...
InfoGAN: Interpretable Representation Learning by Information Maximizing Gene...InfoGAN: Interpretable Representation Learning by Information Maximizing Gene...
InfoGAN: Interpretable Representation Learning by Information Maximizing Gene...홍배 김
 
Explanation on Tensorflow example -Deep mnist for expert
Explanation on Tensorflow example -Deep mnist for expertExplanation on Tensorflow example -Deep mnist for expert
Explanation on Tensorflow example -Deep mnist for expert홍배 김
 
Normalization 방법
Normalization 방법 Normalization 방법
Normalization 방법 홍배 김
 
A neural image caption generator
A neural image caption generatorA neural image caption generator
A neural image caption generator홍배 김
 
MNIST for ML beginners
MNIST for ML beginnersMNIST for ML beginners
MNIST for ML beginners홍배 김
 
Learning by association
Learning by associationLearning by association
Learning by association홍배 김
 
Meta-Learning with Memory Augmented Neural Networks
Meta-Learning with Memory Augmented Neural NetworksMeta-Learning with Memory Augmented Neural Networks
Meta-Learning with Memory Augmented Neural Networks홍배 김
 
Convolution 종류 설명
Convolution 종류 설명Convolution 종류 설명
Convolution 종류 설명홍배 김
 
Learning to remember rare events
Learning to remember rare eventsLearning to remember rare events
Learning to remember rare events홍배 김
 
Single Shot MultiBox Detector와 Recurrent Instance Segmentation
Single Shot MultiBox Detector와 Recurrent Instance SegmentationSingle Shot MultiBox Detector와 Recurrent Instance Segmentation
Single Shot MultiBox Detector와 Recurrent Instance Segmentation홍배 김
 
머신러닝의 자연어 처리기술(I)
머신러닝의 자연어 처리기술(I)머신러닝의 자연어 처리기술(I)
머신러닝의 자연어 처리기술(I)홍배 김
 
딥러닝을 이용한 자연어처리의 연구동향
딥러닝을 이용한 자연어처리의 연구동향딥러닝을 이용한 자연어처리의 연구동향
딥러닝을 이용한 자연어처리의 연구동향홍배 김
 
Q Learning과 CNN을 이용한 Object Localization
Q Learning과 CNN을 이용한 Object LocalizationQ Learning과 CNN을 이용한 Object Localization
Q Learning과 CNN을 이용한 Object Localization홍배 김
 

Viewers also liked (17)

Focal loss의 응용(Detection & Classification)
Focal loss의 응용(Detection & Classification)Focal loss의 응용(Detection & Classification)
Focal loss의 응용(Detection & Classification)
 
Binarized CNN on FPGA
Binarized CNN on FPGABinarized CNN on FPGA
Binarized CNN on FPGA
 
Knowing when to look : Adaptive Attention via A Visual Sentinel for Image Cap...
Knowing when to look : Adaptive Attention via A Visual Sentinel for Image Cap...Knowing when to look : Adaptive Attention via A Visual Sentinel for Image Cap...
Knowing when to look : Adaptive Attention via A Visual Sentinel for Image Cap...
 
Visualizing data using t-SNE
Visualizing data using t-SNEVisualizing data using t-SNE
Visualizing data using t-SNE
 
InfoGAN: Interpretable Representation Learning by Information Maximizing Gene...
InfoGAN: Interpretable Representation Learning by Information Maximizing Gene...InfoGAN: Interpretable Representation Learning by Information Maximizing Gene...
InfoGAN: Interpretable Representation Learning by Information Maximizing Gene...
 
Explanation on Tensorflow example -Deep mnist for expert
Explanation on Tensorflow example -Deep mnist for expertExplanation on Tensorflow example -Deep mnist for expert
Explanation on Tensorflow example -Deep mnist for expert
 
Normalization 방법
Normalization 방법 Normalization 방법
Normalization 방법
 
A neural image caption generator
A neural image caption generatorA neural image caption generator
A neural image caption generator
 
MNIST for ML beginners
MNIST for ML beginnersMNIST for ML beginners
MNIST for ML beginners
 
Learning by association
Learning by associationLearning by association
Learning by association
 
Meta-Learning with Memory Augmented Neural Networks
Meta-Learning with Memory Augmented Neural NetworksMeta-Learning with Memory Augmented Neural Networks
Meta-Learning with Memory Augmented Neural Networks
 
Convolution 종류 설명
Convolution 종류 설명Convolution 종류 설명
Convolution 종류 설명
 
Learning to remember rare events
Learning to remember rare eventsLearning to remember rare events
Learning to remember rare events
 
Single Shot MultiBox Detector와 Recurrent Instance Segmentation
Single Shot MultiBox Detector와 Recurrent Instance SegmentationSingle Shot MultiBox Detector와 Recurrent Instance Segmentation
Single Shot MultiBox Detector와 Recurrent Instance Segmentation
 
머신러닝의 자연어 처리기술(I)
머신러닝의 자연어 처리기술(I)머신러닝의 자연어 처리기술(I)
머신러닝의 자연어 처리기술(I)
 
딥러닝을 이용한 자연어처리의 연구동향
딥러닝을 이용한 자연어처리의 연구동향딥러닝을 이용한 자연어처리의 연구동향
딥러닝을 이용한 자연어처리의 연구동향
 
Q Learning과 CNN을 이용한 Object Localization
Q Learning과 CNN을 이용한 Object LocalizationQ Learning과 CNN을 이용한 Object Localization
Q Learning과 CNN을 이용한 Object Localization
 

Similar to 알기쉬운 Variational autoencoder

Crash Course on Graphical models
Crash Course on Graphical modelsCrash Course on Graphical models
Crash Course on Graphical modelsJong Wook Kim
 
딥러닝의 기본
딥러닝의 기본딥러닝의 기본
딥러닝의 기본deepseaswjh
 
Recurrent Neural Net의 이론과 설명
Recurrent Neural Net의 이론과 설명Recurrent Neural Net의 이론과 설명
Recurrent Neural Net의 이론과 설명홍배 김
 
[Tf2017] day3 jwkang_pub
[Tf2017] day3 jwkang_pub[Tf2017] day3 jwkang_pub
[Tf2017] day3 jwkang_pubJaewook. Kang
 
Variational Auto Encoder, Generative Adversarial Model
Variational Auto Encoder, Generative Adversarial ModelVariational Auto Encoder, Generative Adversarial Model
Variational Auto Encoder, Generative Adversarial ModelSEMINARGROOT
 
RUCK 2017 빅데이터 분석에서 모형의 역할
RUCK 2017 빅데이터 분석에서 모형의 역할RUCK 2017 빅데이터 분석에서 모형의 역할
RUCK 2017 빅데이터 분석에서 모형의 역할r-kor
 
딥뉴럴넷 클러스터링 실패기
딥뉴럴넷 클러스터링 실패기딥뉴럴넷 클러스터링 실패기
딥뉴럴넷 클러스터링 실패기Myeongju Kim
 
머피's 머신러닝: Latent Linear Model
머피's 머신러닝: Latent Linear Model머피's 머신러닝: Latent Linear Model
머피's 머신러닝: Latent Linear ModelJungkyu Lee
 
머피's 머신러닝: Latent Linear Model
머피's 머신러닝: Latent Linear Model머피's 머신러닝: Latent Linear Model
머피's 머신러닝: Latent Linear ModelJungkyu Lee
 
Chapter 19 Variational Inference
Chapter 19 Variational InferenceChapter 19 Variational Inference
Chapter 19 Variational InferenceKyeongUkJang
 
(Paper Review)Kernel predicting-convolutional-networks-for-denoising-monte-ca...
(Paper Review)Kernel predicting-convolutional-networks-for-denoising-monte-ca...(Paper Review)Kernel predicting-convolutional-networks-for-denoising-monte-ca...
(Paper Review)Kernel predicting-convolutional-networks-for-denoising-monte-ca...MYEONGGYU LEE
 
From maching learning to deep learning
From maching learning to deep learningFrom maching learning to deep learning
From maching learning to deep learningYongdae Kim
 
DeepWalk: Online Learning of Social Representations
DeepWalk: Online Learning of Social RepresentationsDeepWalk: Online Learning of Social Representations
DeepWalk: Online Learning of Social RepresentationsSOYEON KIM
 
2.supervised learning
2.supervised learning2.supervised learning
2.supervised learningHaesun Park
 
Anomaly Detection based on Diffusion
Anomaly Detection based on DiffusionAnomaly Detection based on Diffusion
Anomaly Detection based on Diffusionssuserbaebf8
 
Lecture 4: Neural Networks I
Lecture 4: Neural Networks ILecture 4: Neural Networks I
Lecture 4: Neural Networks ISang Jun Lee
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신Haesun Park
 
[14.10.21] Far Cry and DX9 번역(shaderstudy)
[14.10.21] Far Cry and DX9 번역(shaderstudy)[14.10.21] Far Cry and DX9 번역(shaderstudy)
[14.10.21] Far Cry and DX9 번역(shaderstudy)해강
 
인공 신경망 구현에 관한 간단한 설명
인공 신경망 구현에 관한 간단한 설명인공 신경망 구현에 관한 간단한 설명
인공 신경망 구현에 관한 간단한 설명Woonghee Lee
 

Similar to 알기쉬운 Variational autoencoder (20)

Crash Course on Graphical models
Crash Course on Graphical modelsCrash Course on Graphical models
Crash Course on Graphical models
 
딥러닝의 기본
딥러닝의 기본딥러닝의 기본
딥러닝의 기본
 
Recurrent Neural Net의 이론과 설명
Recurrent Neural Net의 이론과 설명Recurrent Neural Net의 이론과 설명
Recurrent Neural Net의 이론과 설명
 
[Tf2017] day3 jwkang_pub
[Tf2017] day3 jwkang_pub[Tf2017] day3 jwkang_pub
[Tf2017] day3 jwkang_pub
 
Variational Auto Encoder, Generative Adversarial Model
Variational Auto Encoder, Generative Adversarial ModelVariational Auto Encoder, Generative Adversarial Model
Variational Auto Encoder, Generative Adversarial Model
 
RUCK 2017 빅데이터 분석에서 모형의 역할
RUCK 2017 빅데이터 분석에서 모형의 역할RUCK 2017 빅데이터 분석에서 모형의 역할
RUCK 2017 빅데이터 분석에서 모형의 역할
 
딥뉴럴넷 클러스터링 실패기
딥뉴럴넷 클러스터링 실패기딥뉴럴넷 클러스터링 실패기
딥뉴럴넷 클러스터링 실패기
 
머피's 머신러닝: Latent Linear Model
머피's 머신러닝: Latent Linear Model머피's 머신러닝: Latent Linear Model
머피's 머신러닝: Latent Linear Model
 
머피's 머신러닝: Latent Linear Model
머피's 머신러닝: Latent Linear Model머피's 머신러닝: Latent Linear Model
머피's 머신러닝: Latent Linear Model
 
Chapter 19 Variational Inference
Chapter 19 Variational InferenceChapter 19 Variational Inference
Chapter 19 Variational Inference
 
(Paper Review)Kernel predicting-convolutional-networks-for-denoising-monte-ca...
(Paper Review)Kernel predicting-convolutional-networks-for-denoising-monte-ca...(Paper Review)Kernel predicting-convolutional-networks-for-denoising-monte-ca...
(Paper Review)Kernel predicting-convolutional-networks-for-denoising-monte-ca...
 
From maching learning to deep learning
From maching learning to deep learningFrom maching learning to deep learning
From maching learning to deep learning
 
DeepWalk: Online Learning of Social Representations
DeepWalk: Online Learning of Social RepresentationsDeepWalk: Online Learning of Social Representations
DeepWalk: Online Learning of Social Representations
 
2.supervised learning
2.supervised learning2.supervised learning
2.supervised learning
 
Naive ML Overview
Naive ML OverviewNaive ML Overview
Naive ML Overview
 
Anomaly Detection based on Diffusion
Anomaly Detection based on DiffusionAnomaly Detection based on Diffusion
Anomaly Detection based on Diffusion
 
Lecture 4: Neural Networks I
Lecture 4: Neural Networks ILecture 4: Neural Networks I
Lecture 4: Neural Networks I
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신
 
[14.10.21] Far Cry and DX9 번역(shaderstudy)
[14.10.21] Far Cry and DX9 번역(shaderstudy)[14.10.21] Far Cry and DX9 번역(shaderstudy)
[14.10.21] Far Cry and DX9 번역(shaderstudy)
 
인공 신경망 구현에 관한 간단한 설명
인공 신경망 구현에 관한 간단한 설명인공 신경망 구현에 관한 간단한 설명
인공 신경망 구현에 관한 간단한 설명
 

More from 홍배 김

Automatic Gain Tuning based on Gaussian Process Global Optimization (= Bayesi...
Automatic Gain Tuning based on Gaussian Process Global Optimization (= Bayesi...Automatic Gain Tuning based on Gaussian Process Global Optimization (= Bayesi...
Automatic Gain Tuning based on Gaussian Process Global Optimization (= Bayesi...홍배 김
 
Gaussian processing
Gaussian processingGaussian processing
Gaussian processing홍배 김
 
Lecture Summary : Camera Projection
Lecture Summary : Camera Projection Lecture Summary : Camera Projection
Lecture Summary : Camera Projection 홍배 김
 
Learning agile and dynamic motor skills for legged robots
Learning agile and dynamic motor skills for legged robotsLearning agile and dynamic motor skills for legged robots
Learning agile and dynamic motor skills for legged robots홍배 김
 
Robotics of Quadruped Robot
Robotics of Quadruped RobotRobotics of Quadruped Robot
Robotics of Quadruped Robot홍배 김
 
Basics of Robotics
Basics of RoboticsBasics of Robotics
Basics of Robotics홍배 김
 
Convolutional neural networks 이론과 응용
Convolutional neural networks 이론과 응용Convolutional neural networks 이론과 응용
Convolutional neural networks 이론과 응용홍배 김
 
Anomaly detection using deep one class classifier
Anomaly detection using deep one class classifierAnomaly detection using deep one class classifier
Anomaly detection using deep one class classifier홍배 김
 
Optimal real-time landing using DNN
Optimal real-time landing using DNNOptimal real-time landing using DNN
Optimal real-time landing using DNN홍배 김
 
The world of loss function
The world of loss functionThe world of loss function
The world of loss function홍배 김
 
Machine learning applications in aerospace domain
Machine learning applications in aerospace domainMachine learning applications in aerospace domain
Machine learning applications in aerospace domain홍배 김
 
Anomaly Detection and Localization Using GAN and One-Class Classifier
Anomaly Detection and Localization  Using GAN and One-Class ClassifierAnomaly Detection and Localization  Using GAN and One-Class Classifier
Anomaly Detection and Localization Using GAN and One-Class Classifier홍배 김
 
ARCHITECTURAL CONDITIONING FOR DISENTANGLEMENT OF OBJECT IDENTITY AND POSTURE...
ARCHITECTURAL CONDITIONING FOR DISENTANGLEMENT OF OBJECT IDENTITY AND POSTURE...ARCHITECTURAL CONDITIONING FOR DISENTANGLEMENT OF OBJECT IDENTITY AND POSTURE...
ARCHITECTURAL CONDITIONING FOR DISENTANGLEMENT OF OBJECT IDENTITY AND POSTURE...홍배 김
 
Brief intro : Invariance and Equivariance
Brief intro : Invariance and EquivarianceBrief intro : Invariance and Equivariance
Brief intro : Invariance and Equivariance홍배 김
 
Anomaly Detection with GANs
Anomaly Detection with GANsAnomaly Detection with GANs
Anomaly Detection with GANs홍배 김
 

More from 홍배 김 (15)

Automatic Gain Tuning based on Gaussian Process Global Optimization (= Bayesi...
Automatic Gain Tuning based on Gaussian Process Global Optimization (= Bayesi...Automatic Gain Tuning based on Gaussian Process Global Optimization (= Bayesi...
Automatic Gain Tuning based on Gaussian Process Global Optimization (= Bayesi...
 
Gaussian processing
Gaussian processingGaussian processing
Gaussian processing
 
Lecture Summary : Camera Projection
Lecture Summary : Camera Projection Lecture Summary : Camera Projection
Lecture Summary : Camera Projection
 
Learning agile and dynamic motor skills for legged robots
Learning agile and dynamic motor skills for legged robotsLearning agile and dynamic motor skills for legged robots
Learning agile and dynamic motor skills for legged robots
 
Robotics of Quadruped Robot
Robotics of Quadruped RobotRobotics of Quadruped Robot
Robotics of Quadruped Robot
 
Basics of Robotics
Basics of RoboticsBasics of Robotics
Basics of Robotics
 
Convolutional neural networks 이론과 응용
Convolutional neural networks 이론과 응용Convolutional neural networks 이론과 응용
Convolutional neural networks 이론과 응용
 
Anomaly detection using deep one class classifier
Anomaly detection using deep one class classifierAnomaly detection using deep one class classifier
Anomaly detection using deep one class classifier
 
Optimal real-time landing using DNN
Optimal real-time landing using DNNOptimal real-time landing using DNN
Optimal real-time landing using DNN
 
The world of loss function
The world of loss functionThe world of loss function
The world of loss function
 
Machine learning applications in aerospace domain
Machine learning applications in aerospace domainMachine learning applications in aerospace domain
Machine learning applications in aerospace domain
 
Anomaly Detection and Localization Using GAN and One-Class Classifier
Anomaly Detection and Localization  Using GAN and One-Class ClassifierAnomaly Detection and Localization  Using GAN and One-Class Classifier
Anomaly Detection and Localization Using GAN and One-Class Classifier
 
ARCHITECTURAL CONDITIONING FOR DISENTANGLEMENT OF OBJECT IDENTITY AND POSTURE...
ARCHITECTURAL CONDITIONING FOR DISENTANGLEMENT OF OBJECT IDENTITY AND POSTURE...ARCHITECTURAL CONDITIONING FOR DISENTANGLEMENT OF OBJECT IDENTITY AND POSTURE...
ARCHITECTURAL CONDITIONING FOR DISENTANGLEMENT OF OBJECT IDENTITY AND POSTURE...
 
Brief intro : Invariance and Equivariance
Brief intro : Invariance and EquivarianceBrief intro : Invariance and Equivariance
Brief intro : Invariance and Equivariance
 
Anomaly Detection with GANs
Anomaly Detection with GANsAnomaly Detection with GANs
Anomaly Detection with GANs
 

알기쉬운 Variational autoencoder

  • 1. 알기쉬운 Variational AutoEncoder Sho Tatsuno Univ. of Tokyo 번역 및 수정 : 김홍배
  • 2. 주요 내용 • Variational Auto-Encoder의 해설 – 생성모델 자체에 대한 설명 – Variational Auto-Encoder(VAE)에 대한 설명 • 설명하는 것/하지 않는 것 – 설명하는 것 » 생성모델의 간단한 개요와 사례 » Variational AutoEncoder의 구조와 수학적・직관적 해석 – 설명하지 않는 것 » LDA와 같은 다른 생성모델의 상세한 설명 » Deep Learning의 기초(Back Propagation・SGD등) » 기존 최적화 기법에 대한 자세한 내용(MCMC・EM알고리즘 등)
  • 3. 소개 논문들 • Auto-Encoding Variational Bayes – Author: D. P. Kingma, 2013 – URL: https://arxiv.org/pdf/1312.6114.pdf – Variational Auto-Encoder를 최초로 제안한 논문 • Tutorial on Variational Autoencoders – Author: Carl Doersch, 2016 – URL: https://arxiv.org/abs/1606.05908 – 뉴럴넷에 의한 생성모델 Variational Autoencoder(VAE)의 소개 » Variational Bayes에 대한 사전지식이 필요없음 » 조건부 VAE인 Conditional Variational Autoencoder(CVAE) 에 대한 소개
  • 4. 판별모델(discriminative model)과 생성모델(generative model) • 일반적인 기계학습은 판별모델 – 각각을 나누기 위해 선을 긋는다 ! • 생성모델은 판별하는 것이 아니라 범위를 고려 판별모델 생성모델
  • 5. 하고 싶은 것은 ? • 이미지와 같은 고차원 데이터 X의 저차원 표현 z을 구할 수 있다면 • Z을 조정하여 training set에서 주어지지 않은 새로운 이미지 생성이 가능 • 카메라 각도, 조명 위치, 표정등의 조정이 가능 Other examples • random faces • MNIST • Speech These are not part of the training set ! https://www.youtube.com/watch?v=XNZIN7Jh3Sg
  • 6. Manifold hypothesis 고차원 데이터를 저차원 데이터로 표현해낼 수 있을까 ? The data distribution lie close to a low-dimensional manifold  Manifold hypothesis Example: consider image data  Very high dimensional (1,000,000D)  A randomly generated image will almost certainly not look like any real world scene  The space of images that occur in nature is almost completely empty  Hypothesis: real world images lie on a smooth, low- dimensional manifold  Manifold distance is a good measure of similarity
  • 8. • 다음과 같은 손글씨 데이터는 784차원의 고차원이지만, 다음과 같이 저차원 표현이 가능 Manifold hypothesis “1”을 분류하고 싶다면 그림과 같은 분류 경계선을 쉽게 그을 수 있다
  • 9. 왜 딥러닝은 성공적이나 ? Lin의 가설[Lin+ 16] • 왜 딥러닝이 다양한 문제에 잘 적용(특히 인식문제) 될까 • ⇒ 거의 모든 문제는 다음과 같은 특징이 있기 때문 1. 저차성  일반적인 물리현상의 변수간 상호작용 차수는 2~4 2. 국소 상호작용성  상호작용 수는 변수의 개수에 대하여 선형적으로 증가 3. 대칭성  이미지의 대칭성등에 의해 변수의 자유도가 낮다 4. 마코프성  생성과정은 직전의 상태에만 의존한다.
  • 10. 잠재변수란 ? • 다음과 같은 인식과 생성문제를 보면 • X : 이미지, z : 잠재변수 생성 인식 (또는 추론) 잠재변수 Z의 예 : 물체의 형상, 카메라 좌표, 광원의 정보 ( 남자, [10, 2,‒4], white) X : 이미지
  • 11. 잠재변수란 ? • 예를 들어 숫자의 잠재적인 의미를 생각하면 – Digit(3인가 5인가)과 필체를 나타내는 잠재변수(각도, aspect ratio, 등)으로부터 숫자를 만들어낼 수 있다. 잠재변수의 분포 잠재변수 의 분포
  • 12. • 이미지의 잠재공간의 확보와 이미지의 변형 생성 얼굴의 생성 숫자의 생성 표정・view point ・ 얼굴형태가 잠재변수? digit・필체(기울기, aspect ratio)가 잠재변수? 잠재변수란 ?
  • 13. 기존 생성모델의 문제점 1. 데이터 구조의 가정과 모델의 근사가 필요 – 여기서 어떠한 분포의 설정이 필요 – 설정한 분포에 모델이 대응하여야 함 2. 시간이 소요되는 방법이 필요 - MCMC등과같이 복수의 샘플링이 필요 자세한 것은 생략
  • 14. 뉴럴넷의 이용 • 단순한 뉴럴넷의 예 1. y = f2(w2x2+b2)=f2(w2(f1(w1x1+b1))+b2)=…  Convolution형에서는 임의의 함수표현이 가능:모델의 제약을 완화 2. SGD를 사용하면 1샘플씩 최적화가 가능
  • 15. 생성모델 최적화의 전제 • 원래 – 그러나, 이대로 pθ를 구하는 것은 곤란함 » 입력(잠재변수z)에 대응하는 답이 불명확함 일반적으로 z은 저차원, X는 고차원임 요것을 구하고 싶다(Z을 바탕으로 X가 생성되는 확률분포) 출력잠재변수
  • 16. 입력에서 잠재변수 z으로의 분포를 가정 • Encoder – 잠재변수의 정규 분포를 가정 입력층(이미지) Encoder 다변수 정규분포로부터 샘플링 μ σ z 잠재변수 2~50차원 정도로 다차원 N차원 가우스분포 의 평균・분산
  • 17. 분포 parameter의 타당성 • μ 와 σ의 결정에 타당성은 있나 ? – 어느 쪽이 μ・ σ라도 좋다:μ와 σ가 최적화되도록 NN을 최적화하면 됨 어떤 것이라도 괜찮다(미리μ・ σ가 정의되어있지 않음) 나중에 μ・ σ에 대응하도록 학습시킴
  • 18. Variational AutoEncoder • Decoder – 여기서는 z로부터 출력층까지에 NN을 만들면 됨. 잠재변수 Decoder z 출력층(이미지)
  • 19. Variational AutoEncoder • Total Structure 입력층 Encoder 잠재변수 Decoder 출력층
  • 20. • 잠재변수는 다차원의 정규분포로 가정 – 다루기 쉬움 – 잠재변수로 문자의 필적과 형태를 가정  정규분포인가 ? 潜在変数zに相当する画像Xを生成 잠재변수의 가정 출력 이미지잠재변수의 분포 잠재변수 z로 부터 이미지 X를 생성(θ는 parameter) q(z):pの事前分布として簡単な形(今回は多項ガウス分布)を考える ・z ~ p(z):p의 prior distribution으로 간단한 형태(다차원 표준 정규분포)
  • 21. • 입력  잠재변수 분포를 생성 • 잠재변수로부터 샘플링  입력에 가까운 출력 생성 VAE의 도식적 이해 잠재변수 분포를 생성 잠재변수로부터 샘플링 입력 출력
  • 22. 최적화의 필요성 • 어떻게 최적화하여야 하나? – Maximum Likelihood Estimation:marginal likelihood log(pθ(x))의 최대화 되도록 – marginal likelihood log(pθ(x))는 다음과 같이 나눌 수 있음 Θ를 정할 때 취할 수있는 x의 Marginal probability가 가장 높도록 일반적인 variational lower limit에 있어서 수식전개 variational lower limit : θ, φ의 함수 (p=q시、등호성립)  variational lower limit을 최대화하면 marginal likelihood도 커짐 여기서 KL Divergence는
  • 23. Variational lower limit • variational lower limit을 정리해보면 – 아래와 같은 형태로 되며, 최적화 항이 도출됨 정규화 항:KL Divergence (Regularization Parameter) 복원오차 (Reconstruction Error) 이 두개의 합을 최대화하면 좋음
  • 24. 정규화 항:KL Divergence • KL Divergence의 계산 ~N(μ, σ) ~N(0, I)
  • 25. 복원오차:Reconstruction Error • Reconstruction Error는 아래와 같이 근사화 • 이미지 픽셀값을 0~1로 Normalize한 경우, Bernoulli분포로 가정하면 logp(x|z)는 아래와 같이 나타낼 수 있음 (y는 잠재변수 z를 Fully Connected Layer를 통과한 Final layer의 변수)
  • 26. • 최적화 함수 – KL Divergence: p(z)와 q(z|x)의 정보적 거리・정규화항: – Reconstruction error: 입출력 오차: VAE의 도식적 이해 잠재변수 분포의 생성 잠재변수의 샘플링 입력 출력 잠재변수의 prior distribution
  • 27. VAE 전체 block diagram 학습 단계 활용 단계 X 정규화항 복원오차 Decoder(P) Encoder(Q) Z ~ N(μ, σ) 샘플링 최적화 X Decoder(P) Z ~ N(μ, σ) Z를 입력으로서 준다
  • 28. 학습 단계의 보다 상세한 구조 X Encoder(Q) Decoder(P) μ σ Sample z ~ N(μ, σ) zRegularization Parameter Reconstruction Error 이형태로는 back propagation 사용이 불가능 !  샘플링하는 시점에 미분계산이 불가능 오차
  • 29. Reparametrization Trick × * X Encoder(Q) Decoder(P) μ σ Sample ε ~ N(0, I) z = μ + ε σ Reconstruction Error Sample z ~ N(μ, σ)  z = μ + ε σ (sample ε ~ N(0, I)) 로 바꿔쓰는 것이 가능 -> Back Propagation이 이용가능 Regularization Parameter
  • 30. Z의 변환에 대하여 • 일차원 경우의 간단한 증명 Sample z ~ N(μ, σ)  z = μ + ε σ (sample ε ~ N(0, 1)) ε 는 표준 정규분포이므로 확률밀도함수는 로 변환가능하므로 대입하면 차수가 2차 이상인 경우도 동일 정규분포 z~(N(μ, σ))로부터 샘플링과 동일
  • 32. Result 表情の生成 文字の生成 • 잠재공간에 대응하는 이미지 생성 표정의 생성 숫자의 생성
  • 33. VAE의 결론 • Deep Learning을 생성모델에 적용 – 손글씨나 얼굴표정에 존재하는 잠재변수의 분포를 찾아내고 데이터 셋에 존재하지 않는 자연적인 이미지 생성이 가능
  • 34. 추가자료:AutoEncoder Encode Decode OutputInput ・AutoEncoder에 의한 이미지의 압축・재구성 ・중간층에서 이미지의 추상표현이 획득 추상표현→문자의 분포?
  • 35. Valuational AutoEncoder는 ? Encode Decode OutputInput ・구조는 AutoEncoder의 중간층에 노이즈를 넣는 것뿐 ・loss함수에 정규화 항을 추가 ・구조,이름은 상당히 유사하나 유래는 다름 +ε
  • 36. 참고문헌 • Introduction to variational autoencoders – URL: https://home.zhaw.ch/~dueo/bbs/files/vae.pdf • Deep Advances in Generative Modeling – URL: https://www.youtube.com/watch?v=KeJINHjyzOU • Digit Fantasies by a Deep Generative Model – URL: http://www.dpkingma.com/sgvb_mnist_demo/demo.html • LAPGAN 해설 – URL: http://www.slideshare.net/hamadakoichi/laplacian-pyramid-of- generative-adversarial-networks-lapgan-nips2015-reading-nipsyomi