SlideShare a Scribd company logo
1 of 193
Download to read offline
정말 딥러닝은 사람처럼
세상을 인식하고 있을까?
윤재식
jaesik817
저는
졸업
에서 ML developer로 근무중
https://github.com/jaesik817
+ 10
ILSVRC 2012 이후 딥러닝은…
…
그런데 말입니다
ㅇㅇ 팬더
ㅇㅇ 팬더
ㅇㅇ 팬더
???
???
실제 gibbon data 중 하나
???
아 원래 confidence가 낮아서 그런 걸 거임
좀 헷갈리게(?) 생겼음 ㅇㅇㅇ
실제 gibbon data 중 하나
그러면
??
실제 ostrich data 중 하나
게다가
??
One pixel attack for fooling deep neural
networks (https://arxiv.org/pdf/1710.08864.pdf )
실제 ostrich data 중 하나
??
One pixel attack for fooling deep neural
networks (https://arxiv.org/pdf/1710.08864.pdf )
실제 ostrich data 중 하나
??
One pixel attack for fooling deep neural
networks (https://arxiv.org/pdf/1710.08864.pdf )
Making error success rate: 73.8%
실제 ostrich data 중 하나
??
One pixel attack for fooling deep neural
networks (https://arxiv.org/pdf/1710.08864.pdf )
Making error success rate: 73.8%
실제 ostrich data 중 하나
???????
전부 image classification 관련된 예제인데 RNN이나
Reinforcement learning에서도 저런 현상이 보이는가?
보인다
• Adversarial Attacks on Neural Network Policies (Huang et al.
2017)
보인다2
• Black-Box Attacks against RNN based Malware Detection
Algorithms (Hu and Tan, 2017)
현재 흔히 사용되는 딥러닝 구조들 (MLP, CNN, RNN, 다
양한 RL들)은 작은 noise에도 쉽게 오작동한다
현재 흔히 사용되는 딥러닝 구조들 (MLP, CNN, RNN, 다
양한 RL들)은 작은 noise에도 쉽게 오작동한다
오작동하게 만드는 noise가 Adversarial Attack
현재 흔히 사용되는 딥러닝 구조들 (MLP, CNN, RNN, 다
양한 RL들)은 작은 noise에도 쉽게 오작동한다
오작동하게 만드는 noise가 Adversarial Attack
이를 방어 하는 것이 Adversarial Defense
Adversarial Attack
수학적인 정의
• Given a classifier 𝑓 𝐱 : 𝐱 ∈ ℝ𝐼 → 𝑦 ∈ ℤ,
• Adversarial Attack is 𝜉 makes 𝑓 𝐱 ≠ 𝑓 𝐱 + 𝜉 𝑠. 𝑡. 𝜉 𝑝
≤ 𝜖
=> 제한된 noise 크기 한도 내에서 miss-classification을 만드는
noise
대표적인 Adversarial Attack들
• Fast Gradient Sign Method (FGSM)
• Basic Iteration Method (Basic Iter.)
• Least-Likely Class Method (step l.l)
• Iterative Least-likely Class Method (iter. l.l)
대표적인 Adversarial Attack들
• Fast Gradient Sign Method (FGSM)
• Basic Iteration Method (Basic Iter.)
• Least-Likely Class Method (step l.l)
• Iterative Least-likely Class Method (iter. l.l)
흔히 benchmark로 사용되는 방법
FGSM (Goodfellow et al. 2014)
• 아이디어: 학습하는 방향의 반대 방향으로 노이즈 크기 한도까
지 노이즈를 만들면 직관적으로 가장 잘 오작동 시킬 수 있지
않을까
FGSM (Goodfellow et al. 2014)
• 아이디어: 학습하는 방향의 반대 방향으로 노이즈 크기 한도까
지 노이즈를 만들면 직관적으로 가장 잘 오작동 시킬 수 있지
않을까
Loss function and gradient descent
FGSM (Goodfellow et al. 2014)
• 아이디어: 학습하는 방향의 반대 방향으로 노이즈 크기 한도까
지 노이즈를 만들면 직관적으로 가장 잘 오작동 시킬 수 있지
않을까
Loss function and gradient descent
FGSM (Goodfellow et al. 2014)
• 아이디어: 학습하는 방향의 반대 방향으로 노이즈 크기 한도까
지 노이즈를 만들면 직관적으로 가장 잘 오작동 시킬 수 있지
않을까
Optimization의 반대 방향으로 이동
Loss function and gradient descent
FGSM (Goodfellow et al. 2014)
• 아이디어: 학습하는 방향의 반대 방향으로 노이즈 크기 한도까
지 노이즈를 만들면 직관적으로 가장 잘 오작동 시킬 수 있지
않을까
Optimization의 반대 방향으로 이동
Loss function and gradient descent
FGSM (Goodfellow et al. 2014)
• 간단한 방법이지만, 효과적인 성능을 보여 benchmark로 주로
사용됨
FGSM (Goodfellow et al. 2014)
• 간단한 방법이지만, 효과적인 성능을 보여 benchmark로 주로
사용됨
• 추후에 서술될 adversarial training에 사용되면 label leaking
problem을 발생시킴
FGSM (Goodfellow et al. 2014)
• 간단한 방법이지만, 효과적인 성능을 보여 benchmark로 주로
사용됨
• 추후에 서술될 adversarial training에 사용되면 label leaking
problem을 발생시킴
(label leaking problem: noise 생성 시 true label 정보를 이용하
기 때문에 분류 시 이용된 true label 정보가 힌트로 사용되어
noise 정도가 커질수록 acc.가 증가함)
FGSM (Goodfellow et al. 2014)
• 간단한 방법이지만, 효과적인 성능을 보여 benchmark로 주로
사용됨
• 추후에 서술될 adversarial training에 사용되면 label leaking
problem을 발생시킴
(label leaking problem: noise 생성 시 true label 정보를 이용하
기 때문에 분류 시 이용된 true label 정보가 힌트로 사용되어
noise 정도가 커질수록 acc.가 증가함)
(Kurakin et al. 2017)
대표적인 Adversarial Attack들
• Fast Gradient Sign Method (FGSM)
• Basic Iteration Method (Basic Iter.)
• Least-Likely Class Method (step l.l)
• Iterative Least-likely Class Method (iter. l.l)
FGSM을 반복적으로 수행
대표적인 Adversarial Attack들
• Fast Gradient Sign Method (FGSM)
• Basic Iteration Method (Basic Iter.)
• Least-Likely Class Method (step l.l)
• Iterative Least-likely Class Method (iter. l.l)
step l.l을 반복적으로 수행
Step l.l (Kurakin et al. 2017)
• MNIST나 CIFAR 10처럼 class의 개수가 적은 dataset에 대해
adversarial attack이 miss-classification을 유발하는 것을 보여주
는 것은 유의미하다
Step l.l (Kurakin et al. 2017)
• MNIST나 CIFAR 10처럼 class의 개수가 적은 dataset에 대해
adversarial attack이 miss-classification을 유발하는 것을 보여주
는 것은 유의미하다
• 하지만,
Step l.l (Kurakin et al. 2017)
• MNIST나 CIFAR 10처럼 class의 개수가 적은 dataset에 대해
adversarial attack이 miss-classification을 유발하는 것을 보여주
는 것은 유의미하다
• 하지만, imagenet처럼 유사한 class가 많은 dataset에 대해 유사
한 class로 miss-classification되는 것은 큰 문제가 아닌 것으로
보일 수 있다. (i.e. 코카스파니엘 -> 푸들)
Step l.l (Kurakin et al. 2017)
• MNIST나 CIFAR 10처럼 class의 개수가 적은 dataset에 대해
adversarial attack이 miss-classification을 유발하는 것을 보여주
는 것은 유의미하다
• 하지만, imagenet처럼 유사한 class가 많은 dataset에 대해 유사
한 class로 miss-classification되는 것은 큰 문제가 아닌 것으로
보일 수 있다. (i.e. 코카스파니엘 -> 푸들)
Step l.l (Kurakin et al. 2017)
• 그래서,
Step l.l (Kurakin et al. 2017)
• 그래서, true label을 못 맞추게 하는게 아니라 가장 아닐 것 같
은 class로 맞추게 하는 방법이 오작동을 만든다면 재미있지 않
을까
Step l.l (Kurakin et al. 2017)
• 그래서, true label을 못 맞추게 하는게 아니라 가장 아닐 것 같
은 class로 맞추게 하는 방법이 오작동을 만든다면 재미있지 않
을까
Step l.l (Kurakin et al. 2017)
• 그래서, true label을 못 맞추게 하는게 아니라 가장 아닐 것 같
은 class로 맞추게 하는 방법이 오작동을 만든다면 재미있지 않
을까
• 근데,
Step l.l (Kurakin et al. 2017)
• 그래서, true label을 못 맞추게 하는게 아니라 가장 아닐 것 같
은 class로 맞추게 하는 방법이 오작동을 만든다면 재미있지 않
을까
• 근데, 재미 뿐만 아니라 잘됨
Step l.l (Kurakin et al. 2017)
• 그래서, true label을 못 맞추게 하는게 아니라 가장 아닐 것 같
은 class로 맞추게 하는 방법이 오작동을 만든다면 재미있지 않
을까
• 근데, 재미 뿐만 아니라 잘됨
• 게다가 label leaking problem도 없음
대표적인 Adversarial Attack들 (Summary)
Name equation description
FGSM
학습 반대 방향으로 노이즈 한도까
지 노이즈 생성
Basic iter. FGSM을 n번 반복
Step l.l
가장 유사하지 않은 class로 분류되
게끔 노이즈 생성
Iter. l.l Step l.l n번 반복
최근 Adversarial Attack 연구들
• Universal adversarial perturbations (Moosavi-Dezfooli et al.
2017)
• Adversarial Transformation Networks (ATN, Baluja et al. 2017)
• NIPS 2017 nontargeted/targeted attack competition
Universal adversarial perturbations
• Image 각자에 대해 noise를 만들어 줬을 때 잘 되는데,
Universal adversarial perturbations
• Image 각자에 대해 noise를 만들어 줬을 때 잘 되는데, 혹시
image 종류에 상관없이 (image-agnostic) 오작동시키는 noise
가 있지 않을까?
Universal adversarial perturbations
• Image 각자에 대해 noise를 만들어 줬을 때 잘 되는데, 혹시
image 종류에 상관없이 (image-agnostic) 오작동시키는 noise
가 있지 않을까?
• 있음
Universal adversarial perturbations
• Image 각자에 대해 noise를 만들어 줬을 때 잘 되는데, 혹시
image 종류에 상관없이 (image-agnostic) 오작동시키는 noise
가 있지 않을까?
• 있음
Universal adversarial perturbations
• Image 각자에 대해 noise를 만들어 줬을 때 잘 되는데, 혹시
image 종류에 상관없이 (image-agnostic) 오작동시키는 noise
가 있지 않을까?
• 있음
Universal adversarial perturbations
• ㄱ…그럼 model 종류에 상관없이도(model-agnostic) 잘 될까?
Universal adversarial perturbations
• ㄱ…그럼 model 종류에 상관없이도(model-agnostic) 잘 될까?
• 어느정도 됨
Universal adversarial perturbations
• ㄱ…그럼 model 종류에 상관없이도(model-agnostic) 잘 될까?
• 어느정도 됨
Adversarial Transformation Networks
• deconv-conv model을 이용해 image를 encoding-decoding하
여 noise를 제공하는 학습기반 adversarial attacker 제안
Adversarial Transformation Networks
• deconv-conv model을 이용해 image를 encoding-decoding하
여 noise를 제공하는 학습기반 adversarial attacker 제안
Adversarial Transformation Networks
• deconv-conv model을 이용해 image를 encoding-decoding하
여 noise를 제공하는 학습기반 adversarial attacker 제안
• Reranking function(r(y,t))를 제안하여, true label이 아닌 다른
label로 classify되도록 학습
Adversarial Transformation Networks
• deconv-conv model을 이용해 image를 encoding-decoding하
여 noise를 제공하는 학습기반 adversarial attacker 제안
• Reranking function(r(y,t))를 제안하여, true label이 아닌 다른
label로 classify되도록 학습
• Multi-classifier에 대해서도 학습이 되도록 design
Adversarial Transformation Networks
• deconv-conv model을 이용해 image를 encoding-decoding하
여 noise를 제공하는 학습기반 adversarial attacker 제안
• Reranking function(r(y,t))를 제안하여, true label이 아닌 다른
label로 classify되도록 학습
• Multi-classifier에 대해서도 학습이 되도록 design
근데…
NIPS 2017 nontargeted/targeted attack
competition
• NIPS 2017 workshop에서 adversarial attack/defense
competition이 열려 다양한 방법들이 제시되었다.
Nontargeted Targeted
Ours (Jaesik Yoon
& Hoyong Jang)
NIPS 2017 nontargeted/targeted attack
competition
• NIPS 2017 workshop에서 adversarial attack/defense
competition이 열려 다양한 방법들이 제시되었다.
Nontargeted Targeted
Ours (Jaesik Yoon
& Hoyong Jang)
상위권에 있는 대부분의 방법들은
multi-classifier에 대해 동작하도록
design됨 (러닝 기반이 아니더라도)
NIPS 2017 nontargeted/targeted attack
competition
• Discovering Adversarial Examples with Momentum (Dong et
al. 2017, 1st nontargeted/targeted)
NIPS 2017 nontargeted/targeted attack
competition
• Discovering Adversarial Examples with Momentum (Dong et
al. 2017, 1st nontargeted/targeted)
• Basic iter.를 구할 때 momentum term 추가
NIPS 2017 nontargeted/targeted attack
competition
• Discovering Adversarial Examples with Momentum (Dong et
al. 2017, 1st nontargeted/targeted)
• Basic iter.를 구할 때 momentum term 추가
NIPS 2017 nontargeted/targeted attack
competition
• Discovering Adversarial Examples with Momentum (Dong et
al. 2017, 1st nontargeted/targeted)
• Basic iter.를 구할 때 momentum term 추가
NIPS 2017 nontargeted/targeted attack
competition
• Discovering Adversarial Examples with Momentum (Dong et
al. 2017, 1st nontargeted/targeted)
• Basic iter.를 구할 때 momentum term 추가
• 여러 개의 모델에 대한 ensemble momentum iterative FGSM (basic
iter.) 구함
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/sangxia/nips-2017-adversarial (sangxia,
2017, 2nd nontargeted/targeted)
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/sangxia/nips-2017-adversarial (sangxia,
2017, 2nd nontargeted/targeted)
• Random perturbation을 더 한 상태에서
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/sangxia/nips-2017-adversarial (sangxia,
2017, 2nd nontargeted/targeted)
• Random perturbation을 더 한 상태에서
• 여러 개의 모델에 대한 ensemble iterative FGSM을 구함
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• Deconv-conv base의 학습 기반 adversarial attacker 학습
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• Deconv-conv base의 학습 기반 adversarial attacker 학습
• Loss function은 FGSM과 유사한 reverse CE 사용 (-CE)
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• Deconv-conv base의 학습 기반 adversarial attacker 학습
• Loss function은 FGSM과 유사한 reverse CE 사용 (-CE)
• 여러 개의 모델에 대한 ensemble noise 구함
여기서 잠깐, 그러면 우리는 왜 망했을까?
여기서 잠깐, 그러면 우리는 왜 망했을까?
여기서 잠깐, 그러면 우리는 왜 망했을까?
여기서 잠깐, 그러면 우리는 왜 망했을까?
ㄱ…그래도 18등이면 망한 건 아니지 않냐
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 공격을 해보자
• Related work survey: model의 loss로부터 나오는 gradient를 이용한
방법들 밖에 없네? -> 학습을 하면 무조건 저거보단 잘 되겠구나!
+
노벨티도 있겠구나!!
Survey 실패 이미 ATM이 arxiv에 올라와 있었다
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 공격을 해보자
• Related work survey: model의 loss로부터 나오는 gradient를 이용한
방법들 밖에 없네? -> 학습을 하면 무조건 저거보단 잘 되겠구나!
+
노벨티도 있겠구나!!
Survey 실패 이미 ATM이 arxiv에 올라와 있었다
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 공격을 해보자
• Related work survey: model의 loss로부터 나오는 gradient를 이용한
방법들 밖에 없네? -> 학습을 하면 무조건 저거보단 잘 되겠구나!
+
노벨티도 있겠구나!!
Survey 실패 이미 ATM이 arxiv에 올라와 있었다
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 공격을 해보자
• Related work survey: model의 loss로부터 나오는 gradient를 이용한
방법들 밖에 없네? -> 학습을 하면 저거보단 잘 되겠구나!
+
노벨티도 있겠구나!!
Survey 실패 이미 ATM이 arxiv에 올라와 있었다
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 공격을 해보자
• Related work survey: model의 loss로부터 나오는 gradient를 이용한
방법들 밖에 없네? -> 학습을 하면 저거보단 잘 되겠구나!
+
노벨티도 있겠구나!!
Survey 실패 이미 ATM이 arxiv에 올라와 있었다
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 공격을 해보자
• Related work survey: model의 loss로부터 나오는 gradient를 이용한
방법들 밖에 없네? -> 학습을 하면 저거보단 잘 되겠구나!
+
노벨티도 있겠구나!!
Survey 실패: 이미 ATN이 arxiv에 올라와 있었다
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 자, 그럼 attacker를 학습해보자
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 자, 그럼 attacker를 학습해보자
• 이미지를 받아서 노이즈를 만드는 걸로 만들면 되겠지?
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 자, 그럼 attacker를 학습해보자
• 이미지를 받아서 노이즈를 만드는 걸로 만들면 되겠지?
• 어, 그거 이거랑 약간 비슷하다
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 자, 그럼 attacker를 학습해보자
• 이미지를 받아서 노이즈를 만드는 걸로 만들면 되겠지?
• 어, 그거 이거랑 약간 비슷하다
(Hyeonwoo Noh et al. 2015)
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 자, 그럼 attacker를 학습해보자
• 이미지를 받아서 노이즈를 만드는 걸로 만들면 되겠지?
• 어, 그거 이거랑 약간 비슷하다
(Hyeonwoo Noh et al. 2015)
Output은 FGSM처럼 - 𝜖, 𝜖 이 되
도록
𝑦 = 𝜖 ∗ 𝑛𝑜𝑟𝑚𝑎𝑙𝑖𝑧𝑒(tanh 𝑜 )
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 자, 그럼 attacker를 학습해보자
• 이미지를 받아서 노이즈를 만드는 걸로 만들면 되겠지?
• 어, 그거 이거랑 약간 비슷하다
(Hyeonwoo Noh et al. 2015)
Output은 FGSM처럼 - 𝜖, 𝜖 이 되
도록
𝑦 = 𝜖 ∗ 𝑛𝑜𝑟𝑚𝑎𝑙𝑖𝑧𝑒(tanh 𝑜 )
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• Loss function은?
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• Loss function은?
• 최대한 틀리게 -> -CE(Cross Entropy)?
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• Loss function은?
• 최대한 틀리게 -> -CE(Cross Entropy)? 1/CE?
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• Loss function은?
• 최대한 틀리게 -> -CE(Cross Entropy)? 1/CE?
1/CE는 수학적 의미가 이상(?)함
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• Loss function은?
• 최대한 틀리게 -> -CE(Cross Entropy) 1/CE?
1/CE는 수학적 의미가 이상(?)함
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 결과는?
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 결과는?
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 결과는?
대충 돌려봤는데 나쁘지 않음 ㅇㅇ
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 결과는?
대충 돌려봤는데 나쁘지 않음 ㅇㅇ -> 이게 mark1
근데
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 결과는?
대충 돌려봤는데 나쁘지 않음 ㅇㅇ -> 이게 mark1
Learning based method가 작은 노이즈에 대해 FGSM보다 성능이 안 나옴
그래서
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
실험
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
실험
실험
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
실험
실험
실험
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
실험
실험
실험
실험
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
실험
실험
실험
실험
실험
실험
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 노이즈를 - 𝜖, 𝜖 로 하는 것보다 [- 𝜖, 𝜖]로 하는 게 더 다양한 노이즈 패
턴을 만들 수 있지 않을까
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 노이즈를 - 𝜖, 𝜖 로 하는 것보다 [- 𝜖, 𝜖]로 하는 게 더 다양한 노이즈 패
턴을 만들 수 있지 않을까
(Hyeonwoo Noh et al. 2015)
𝑦 = 𝜖 ∗ tanh 𝑜
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 노이즈를 - 𝜖, 𝜖 로 하는 것보다 [- 𝜖, 𝜖]로 하는 게 더 다양한 노이즈 패
턴을 만들 수 있지 않을까 -> 이것이 mark2
(Hyeonwoo Noh et al. 2015)
𝑦 = 𝜖 ∗ tanh 𝑜
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 노이즈를 - 𝜖, 𝜖 로 하는 것보다 [- 𝜖, 𝜖]로 하는 게 더 다양한 노이즈 패
턴을 만들 수 있지 않을까 -> 이것이 mark2
(Hyeonwoo Noh et al. 2015)
𝑦 = 𝜖 ∗ tanh 𝑜
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 다시
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
실험
실험
실험
실험
실험
실험
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 이번엔 ensemble target에 대해서도
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 이번엔 ensemble target에 대해서도
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 그런데,
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 그런데, 단순히 CE의 값을 높여주는 게
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 그런데, 단순히 CE의 값을 높여주는 게 miss classification을 직접적으
로 늘려줄 수 있을까?
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 그런데, 단순히 CE의 값을 높여주는 게 miss classification을 직접적으
로 늘려줄 수 있을까? (positive relationship이 있을 것이라는 것에는
동의하지만 원래 정답을 헷갈리게 하는 것과 틀리게 하는 것은 차이가
있다)
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 그런데, 단순히 CE의 값을 높여주는 게 miss classification을 직접적으
로 늘려줄 수 있을까? (positive relationship이 있을 것이라는 것에는
동의하지만 원래 정답을 헷갈리게 하는 것과 틀리게 하는 것은 차이가
있다)
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 그런데, 단순히 CE의 값을 높여주는 게 miss classification을 직접적으
로 늘려줄 수 있을까? (positive relationship이 있을 것이라는 것에는
동의하지만 원래 정답을 헷갈리게 하는 것과 틀리게 하는 것은 차이가
있다)
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 그런데, 단순히 CE의 값을 높여주는 게 miss classification을 직접적으
로 늘려줄 수 있을까? (positive relationship이 있을 것이라는 것에는
동의하지만 원래 정답을 헷갈리게 하는 것과 틀리게 하는 것은 차이가
있다)
• 그래서,
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 그런데, 단순히 CE의 값을 높여주는 게 miss classification을 직접적으
로 늘려줄 수 있을까? (positive relationship이 있을 것이라는 것에는
동의하지만 원래 정답을 헷갈리게 하는 것과 틀리게 하는 것은 차이가
있다)
• 그래서, step l.l의 concept을 섞어보았다
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
+ batch normalization 도
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
+ batch normalization 도
-> 이것이 mark3
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
+ batch normalization 도
-> 이것이 mark3
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 결과는,
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 결과는,
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 결과는,
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 결과는, 잘됨. Maximum score가 13000임
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 결과는,
낮은 noise 값에서도 압도적인 성능을 보임
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 결과는,
낮은 noise 값에서도 압도적인 성능을 보임
D-3 for final submission
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 결과는,
낮은 noise 값에서도 압도적인 성능을 보임
D-3 for final submission
??
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
D-3 for final submission
정리가 되었을 때 3일 남음
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
D-3 for final submission
정리가 되었을 때 3일 남음
가지고 있는 건 딸랑 1080 하나
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 결국,
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 결국,
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 결국,
Mark2와 작은 noise에 대해선
FGSM(baseline algorithm)으
로 제출
NIPS 2017 nontargeted/targeted attack
competition
• https://github.com/jaesik817/nips17_adv_attack (Jaesik and
Hoyong, 2017, 18th nontargeted)
• 결국,
Mark2와 작은 noise에 대해선
FGSM(baseline algorithm)으
로 제출
그러면 우리는 왜 망했을까?
그러면 우리는 왜 망했을까?
ㄹ….리소스가 부족해서 (원래 안되면 남탓 ㅇㅇ)
그러면 우리는 왜 망했을까?
ㄹ….리소스가 부족해서 (원래 안되면 남탓 ㅇㅇ)
절반은 버리고 18등했으면 망한건 아님 정신승리 ㅇㅇ
다시 원래 내용으로 돌아와서…
이렇게 다양한 adversarial attack들이 연구되었다
…
그럼 이런 adversarial attack에 대응하는
방법들은 뭐가 있을까
Adversarial Defense
Adversarial Defense들
• Adversarial Training
• Adversarial attack detection
• NIPS 2017 adversarial defense competition
Adversarial Training (Goodfellow et al. 2015)
• Adversarial attack들이 제대로 분류가 안된다면, 이 data들 또한
training data에 넣어 학습한다.
Adversarial Training (Goodfellow et al. 2015)
• Adversarial attack들이 제대로 분류가 안된다면, 이 data들 또한
training data에 넣어 학습한다.
Adversarial Training (Goodfellow et al. 2015)
• Adversarial attack들이 제대로 분류가 안된다면, 이 data들 또한
training data에 넣어 학습한다.
Adversarial attack에 대한 loss
function term
Adversarial Training (Goodfellow et al. 2015)
• Adversarial attack들이 제대로 분류가 안된다면, 이 data들 또한
training data에 넣어 학습한다.
• 원래 loss function과 ratio를 조정함으로써 regularizer로 동작하
도록 함
Adversarial Training (Goodfellow et al. 2015)
• Adversarial attack들이 제대로 분류가 안된다면, 이 data들 또한
training data에 넣어 학습한다.
• 원래 loss function과 ratio를 조정함으로써 regularizer로 동작하
도록 함
효과 있음
(Kurakin et al. 2017)
Adversarial Example Detection
• Adversarial attack이 FGSM등 특별한 방법으로 만든 noise라면,
분명 pattern이 있을 것이고 detection이 될 것이다!
Adversarial Example Detection
• ON DETECTING ADVERSARIAL PERTURBATIONS (Metzen et al.
2017)
Adversarial Example Detection
• ON DETECTING ADVERSARIAL PERTURBATIONS (Metzen et al.
2017)
각 layer마다 Adversarial detector를 학
습시켜, adversarial attack을 detect함.
Adversarial Example Detection
• ON DETECTING ADVERSARIAL PERTURBATIONS (Metzen et al.
2017)
각 layer마다 Adversarial detector를 학
습시켜, adversarial attack을 detect함.
단, 이 경우 detect된 attack의 label은
estimation할 수 없음
Adversarial Example Detection
• Tactics of Adversarial Attack on Deep Reinforcement Learning
Agents (Lin et al. 2017)
Adversarial Example Detection
• Tactics of Adversarial Attack on Deep Reinforcement Learning
Agents (Lin et al. 2017)
다음 state를 예측하는 model (video
prediction model)을 학습,
다음 번 state가 adversarial attack이라
고 판단되면 input으로 들어온 state가
아닌 예측된 state를 사용
Adversarial Example Detection
• Tactics of Adversarial Attack on Deep Reinforcement Learning
Agents (Lin et al. 2017)
다음 state를 예측하는 model (video
prediction model)을 학습,
다음 번 state가 adversarial attack이라
고 판단되면 input으로 들어온 state가
아닌 예측된 state를 사용
Metzen’s paper와는 달리 rl이기 때문
에 attack으로 detect하여 drop하여도
성능은 떨어지지만 working함
NIPS adversarial defense competition
• NIPS 2017 workshop에서 adversarial attack/defense
competition이 열려 다양한 방법들이 제시되었다.
NIPS adversarial defense competition
• https://github.com/lfz/Guided-Denoise (TsAIL team, 1st on
competition)
NIPS adversarial defense competition
• https://github.com/lfz/Guided-Denoise (TsAIL team, 1st on
competition)
• Denoiser를 학습시켜 perturbation을 줄이도록 함
NIPS adversarial defense competition
• https://github.com/lfz/Guided-Denoise (TsAIL team, 1st on
competition)
• Denoiser를 학습시켜 perturbation을 줄이도록 함
• 여러 모델을 이용하여 denoiser 학습
NIPS adversarial defense competition
• MITIGATING ADVERSARIAL EFFECTS THROUGH
RANDOMIZATION (Zhang and Yuille et al. 2017 , 2nd on
competition)
그런데 말입니다2
Capsule Nets의 등장
• 기존의 CNN보다 natural variance에 robust하다고 주장하는
Capsule Network가 제안되었다
그래서 제가 한번 공격해봤습니다
Adversarial attack to CapsNet
• CapsNet 구현체는 InnerPeace-Wu의 구현체를 사용
• https://github.com/InnerPeace-Wu/CapsNet-tensorflow.
Adversarial attack to CapsNet
• CapsNet 구현체는 InnerPeace-Wu의 구현체를 사용
• https://github.com/InnerPeace-Wu/CapsNet-tensorflow.
• CapsNet의 loss function으로부터의 gradient를 이용하여
white-box attack을 실험
Adversarial attack to CapsNet
• CapsNet 구현체는 InnerPeace-Wu의 구현체를 사용
• https://github.com/InnerPeace-Wu/CapsNet-tensorflow.
• CapsNet의 loss function으로부터의 gradient를 이용하여
white-box attack을 실험
• FGSM, Basic iter., step l.l, iter. l.l 을 이용하여 noise 0~50까지
test하였음
Adversarial attack to CapsNet
• FGSM
Adversarial attack to CapsNet
• Basic iter.
Adversarial attack to CapsNet
• step l.l
Adversarial attack to CapsNet
• iter. l.l
Adversarial attack to CapsNet
• 이 실험은 Dynamic Routing Between Capsules 논문의 구조
를 이용하여 한 실험이며,
• 현재 ICLR 2018 review 중인 MATRIX CAPSULES WITH EM
ROUTING에서 기존의 CNN보다 EM routing을 이용하여 학습
한 Capsule Networks가 adversarial attack에 대해 더 robust
하다는 실험 결과를 report했기 때문에
• Capsule Networks에 대한 adversarial attack의 영향력은 좀
더 연구가 필요함
다시 처음으로 돌아가서…
정말 딥러닝은 사람처럼 세상을 인식하고 있을
까?
대답은, 아니다
정리해보면,
1. 현재의 딥러닝 구조 및 학습법은 adversarial attack으로부터 자유롭지
못하다
2. (짧은 시간이었지만) 다양한 연구 결과들이 나왔고, 이들은 adversarial
attack을 함께 학습함으로써, 혹은 detecting이나 denoising함으로써 이를
보완하는 결과를 보였다.
3. natural variance에 robust하지 못한 현재의 구조를 개선하며 Capsule
Network이 제안되었지만, 아직 검증은 되지 못했다
4. adversarial attack problem이 해결된다 하더라도 또 다른 부분이 발견될
수 있다.(아직 할게 많다)
대답은, 아니다
정리해보면,
1. 현재의 딥러닝 구조 및 학습법은 adversarial attack으로부터 자유롭지
못하다
2. (짧은 시간이었지만) 다양한 연구 결과들이 나왔고, 이들은 adversarial
attack을 함께 학습함으로써, 혹은 detecting이나 denoising함으로써 이를
보완하는 결과를 보였다.
3. natural variance에 robust하지 못한 현재의 구조를 개선하며 Capsule
Network이 제안되었지만, 아직 검증은 되지 못했다
4. adversarial attack problem이 해결된다 하더라도 또 다른 부분이 발견될
수 있다.(아직 할게 많다)
대답은, 아니다
정리해보면,
1. 현재의 딥러닝 구조 및 학습법은 adversarial attack으로부터 자유롭지
못하다
2. (짧은 시간이었지만) 다양한 연구 결과들이 나왔고, 이들은 adversarial
attack을 함께 학습함으로써, 혹은 detecting이나 denoising함으로써 이를
보완하는 결과를 보였다.
3. natural variance에 robust하지 못한 현재의 구조를 개선하며 Capsule
Network이 제안되었지만, 아직 검증은 되지 못했다
4. adversarial attack problem이 해결된다 하더라도 또 다른 부분이 발견될
수 있다.(아직 할게 많다)
대답은, 아니다
정리해보면,
1. 현재의 딥러닝 구조 및 학습법은 adversarial attack으로부터 자유롭지
못하다
2. (짧은 시간이었지만) 다양한 연구 결과들이 나왔고, 이들은 adversarial
attack을 함께 학습함으로써, 혹은 detecting이나 denoising함으로써 이를
보완하는 결과를 보였다.
3. natural variance에 robust하지 못한 현재의 구조를 개선하며 Capsule
Network이 제안되었지만, 아직 검증은 되지 못했다
4. adversarial attack problem이 해결된다 하더라도 또 다른 부분이 발견될
수 있다.(아직 할게 많다)
대답은, 아니다
정리해보면,
1. 현재의 딥러닝 구조 및 학습법은 adversarial attack으로부터 자유롭지
못하다
2. (짧은 시간이었지만) 다양한 연구 결과들이 나왔고, 이들은 adversarial
attack을 함께 학습함으로써, 혹은 detecting이나 denoising함으로써 이를
보완하는 결과를 보였다.
3. natural variance에 robust하지 못한 현재의 구조를 개선하며 Capsule
Network이 제안되었지만, 아직 검증은 되지 못했다
4. adversarial attack problem이 해결된다 하더라도 또 다른 부분이 발견될
수 있다.(아직 할게 많다)
대답은, 아니다
정리해보면,
1. 현재의 딥러닝 구조 및 학습법은 adversarial attack으로부터 자유롭지
못하다
2. (짧은 시간이었지만) 다양한 연구 결과들이 나왔고, 이들은 adversarial
attack을 함께 학습함으로써, 혹은 detecting이나 denoising함으로써 이를
보완하는 결과를 보였다.
3. natural variance에 robust하지 못한 현재의 구조를 개선하며 Capsule
Network이 제안되었지만, 아직 검증은 되지 못했다
4. adversarial attack problem이 해결된다 하더라도 또 다른 부분이 발견될
수 있다.(아직 할게 많다)
대답은, 아니다
정리해보면,
1. 현재의 딥러닝 구조 및 학습법은 adversarial attack으로부터 자유롭지
못하다
2. (짧은 시간이었지만) 다양한 연구 결과들이 나왔고, 이들은 adversarial
attack을 함께 학습함으로써, 혹은 detecting이나 denoising함으로써 이를
보완하는 결과를 보였다.
3. natural variance에 robust하지 못한 현재의 구조를 개선하며 Capsule
Network이 제안되었지만, 아직 검증은 되지 못했다
4. adversarial attack problem이 해결된다 하더라도 또 다른 부분이 발견될
수 있다.(아직 할게 많다)
감사합니다

More Related Content

What's hot

1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기NAVER Engineering
 
Laminados cerâmicos - Artigo clínico
Laminados cerâmicos - Artigo clínicoLaminados cerâmicos - Artigo clínico
Laminados cerâmicos - Artigo clínicoEduardo Souza-Junior
 
Graph Database Meetup in Korea #4. 그래프 이론을 적용한 그래프 데이터베이스 활용 사례
Graph Database Meetup in Korea #4. 그래프 이론을 적용한 그래프 데이터베이스 활용 사례 Graph Database Meetup in Korea #4. 그래프 이론을 적용한 그래프 데이터베이스 활용 사례
Graph Database Meetup in Korea #4. 그래프 이론을 적용한 그래프 데이터베이스 활용 사례 bitnineglobal
 
MEDICAÇÃO INTRACANAL E SUCESSO ENDODÔNTICO
MEDICAÇÃO INTRACANAL E SUCESSO ENDODÔNTICOMEDICAÇÃO INTRACANAL E SUCESSO ENDODÔNTICO
MEDICAÇÃO INTRACANAL E SUCESSO ENDODÔNTICOInes Jacyntho Inojosa
 
Knowledge Graphs Overview
Knowledge Graphs OverviewKnowledge Graphs Overview
Knowledge Graphs OverviewNeo4j
 
Imagen: Photorealistic Text-to-Image Diffusion Models with Deep Language Unde...
Imagen: Photorealistic Text-to-Image Diffusion Models with Deep Language Unde...Imagen: Photorealistic Text-to-Image Diffusion Models with Deep Language Unde...
Imagen: Photorealistic Text-to-Image Diffusion Models with Deep Language Unde...Vitaly Bondar
 
INSTRUMENTAÇÃO EM PERIODONTIA
INSTRUMENTAÇÃO EM PERIODONTIAINSTRUMENTAÇÃO EM PERIODONTIA
INSTRUMENTAÇÃO EM PERIODONTIAGabrielaSoares07
 
한글 언어 자원과 R: KoNLP 개선과 활용
한글 언어 자원과 R: KoNLP 개선과 활용한글 언어 자원과 R: KoNLP 개선과 활용
한글 언어 자원과 R: KoNLP 개선과 활용r-kor
 
Recurrent Convolutional Neural Networks for Text Classification
Recurrent Convolutional Neural Networks for Text ClassificationRecurrent Convolutional Neural Networks for Text Classification
Recurrent Convolutional Neural Networks for Text ClassificationShuangshuang Zhou
 
Introduction to Diffusion Models
Introduction to Diffusion ModelsIntroduction to Diffusion Models
Introduction to Diffusion ModelsSangwoo Mo
 
PLANEJAMENTO CIRÚRGICO PACIENTE I
PLANEJAMENTO CIRÚRGICO PACIENTE IPLANEJAMENTO CIRÚRGICO PACIENTE I
PLANEJAMENTO CIRÚRGICO PACIENTE ITreeimoveis
 
1-3: 임상시험의 새로운 경향과 JMP Clinical 소개 (JMP Sam Gardner)
1-3: 임상시험의 새로운 경향과 JMP Clinical 소개 (JMP Sam Gardner)1-3: 임상시험의 새로운 경향과 JMP Clinical 소개 (JMP Sam Gardner)
1-3: 임상시험의 새로운 경향과 JMP Clinical 소개 (JMP Sam Gardner)JMP Korea
 
Resumo de Periodontia - Retalhos Periodontais - Indicações e Contra-Indicaçõe...
Resumo de Periodontia - Retalhos Periodontais - Indicações e Contra-Indicaçõe...Resumo de Periodontia - Retalhos Periodontais - Indicações e Contra-Indicaçõe...
Resumo de Periodontia - Retalhos Periodontais - Indicações e Contra-Indicaçõe...André Milioli Martins
 
Lista Nutricash
Lista NutricashLista Nutricash
Lista Nutricashaepsssa
 
딥러닝 논문 리뷰 Learning phrase representations using rnn encoder decoder for stati...
딥러닝 논문 리뷰 Learning phrase representations using rnn encoder decoder for stati...딥러닝 논문 리뷰 Learning phrase representations using rnn encoder decoder for stati...
딥러닝 논문 리뷰 Learning phrase representations using rnn encoder decoder for stati...keunbong kwak
 

What's hot (20)

Diastema
DiastemaDiastema
Diastema
 
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
1시간만에 GAN(Generative Adversarial Network) 완전 정복하기
 
Laminados cerâmicos - Artigo clínico
Laminados cerâmicos - Artigo clínicoLaminados cerâmicos - Artigo clínico
Laminados cerâmicos - Artigo clínico
 
Graph Database Meetup in Korea #4. 그래프 이론을 적용한 그래프 데이터베이스 활용 사례
Graph Database Meetup in Korea #4. 그래프 이론을 적용한 그래프 데이터베이스 활용 사례 Graph Database Meetup in Korea #4. 그래프 이론을 적용한 그래프 데이터베이스 활용 사례
Graph Database Meetup in Korea #4. 그래프 이론을 적용한 그래프 데이터베이스 활용 사례
 
MEDICAÇÃO INTRACANAL E SUCESSO ENDODÔNTICO
MEDICAÇÃO INTRACANAL E SUCESSO ENDODÔNTICOMEDICAÇÃO INTRACANAL E SUCESSO ENDODÔNTICO
MEDICAÇÃO INTRACANAL E SUCESSO ENDODÔNTICO
 
Knowledge Graphs Overview
Knowledge Graphs OverviewKnowledge Graphs Overview
Knowledge Graphs Overview
 
Imagen: Photorealistic Text-to-Image Diffusion Models with Deep Language Unde...
Imagen: Photorealistic Text-to-Image Diffusion Models with Deep Language Unde...Imagen: Photorealistic Text-to-Image Diffusion Models with Deep Language Unde...
Imagen: Photorealistic Text-to-Image Diffusion Models with Deep Language Unde...
 
INSTRUMENTAÇÃO EM PERIODONTIA
INSTRUMENTAÇÃO EM PERIODONTIAINSTRUMENTAÇÃO EM PERIODONTIA
INSTRUMENTAÇÃO EM PERIODONTIA
 
한글 언어 자원과 R: KoNLP 개선과 활용
한글 언어 자원과 R: KoNLP 개선과 활용한글 언어 자원과 R: KoNLP 개선과 활용
한글 언어 자원과 R: KoNLP 개선과 활용
 
Recurrent Convolutional Neural Networks for Text Classification
Recurrent Convolutional Neural Networks for Text ClassificationRecurrent Convolutional Neural Networks for Text Classification
Recurrent Convolutional Neural Networks for Text Classification
 
Introduction to Diffusion Models
Introduction to Diffusion ModelsIntroduction to Diffusion Models
Introduction to Diffusion Models
 
Trauma dental
Trauma dentalTrauma dental
Trauma dental
 
Retratamento endodôntico
Retratamento endodônticoRetratamento endodôntico
Retratamento endodôntico
 
PLANEJAMENTO CIRÚRGICO PACIENTE I
PLANEJAMENTO CIRÚRGICO PACIENTE IPLANEJAMENTO CIRÚRGICO PACIENTE I
PLANEJAMENTO CIRÚRGICO PACIENTE I
 
Clareamento dental
Clareamento dentalClareamento dental
Clareamento dental
 
1-3: 임상시험의 새로운 경향과 JMP Clinical 소개 (JMP Sam Gardner)
1-3: 임상시험의 새로운 경향과 JMP Clinical 소개 (JMP Sam Gardner)1-3: 임상시험의 새로운 경향과 JMP Clinical 소개 (JMP Sam Gardner)
1-3: 임상시험의 새로운 경향과 JMP Clinical 소개 (JMP Sam Gardner)
 
Resumo de Periodontia - Retalhos Periodontais - Indicações e Contra-Indicaçõe...
Resumo de Periodontia - Retalhos Periodontais - Indicações e Contra-Indicaçõe...Resumo de Periodontia - Retalhos Periodontais - Indicações e Contra-Indicaçõe...
Resumo de Periodontia - Retalhos Periodontais - Indicações e Contra-Indicaçõe...
 
Lista Nutricash
Lista NutricashLista Nutricash
Lista Nutricash
 
tcc overdenture
tcc overdenturetcc overdenture
tcc overdenture
 
딥러닝 논문 리뷰 Learning phrase representations using rnn encoder decoder for stati...
딥러닝 논문 리뷰 Learning phrase representations using rnn encoder decoder for stati...딥러닝 논문 리뷰 Learning phrase representations using rnn encoder decoder for stati...
딥러닝 논문 리뷰 Learning phrase representations using rnn encoder decoder for stati...
 

Similar to 정말 딥러닝은 사람처럼 세상을 인식하고 있을까?

Deep neural networks for You-Tube recommendations
Deep neural networks for You-Tube recommendationsDeep neural networks for You-Tube recommendations
Deep neural networks for You-Tube recommendationsseungwoo kim
 
Beats on Machine, 딥컴포저로 음악만들기 - 문성혁 (AUSG 3기) :: AWS Community Day 2020
Beats on Machine, 딥컴포저로 음악만들기 - 문성혁 (AUSG 3기) :: AWS Community Day 2020 Beats on Machine, 딥컴포저로 음악만들기 - 문성혁 (AUSG 3기) :: AWS Community Day 2020
Beats on Machine, 딥컴포저로 음악만들기 - 문성혁 (AUSG 3기) :: AWS Community Day 2020 AWSKRUG - AWS한국사용자모임
 
[컨퍼런스] 모두콘 2018 리뷰
[컨퍼런스] 모두콘 2018 리뷰[컨퍼런스] 모두콘 2018 리뷰
[컨퍼런스] 모두콘 2018 리뷰Donghyeon Kim
 
an experimental study of social tagging behavior and image content
an experimental study of social tagging behavior and image content an experimental study of social tagging behavior and image content
an experimental study of social tagging behavior and image content Nuri Na
 
an experimental study of social tagging behavior and image content
an experimental study of social tagging behavior and image contentan experimental study of social tagging behavior and image content
an experimental study of social tagging behavior and image contentNuri Na
 
토이 프로젝트를 하자.Pptx
토이 프로젝트를 하자.Pptx토이 프로젝트를 하자.Pptx
토이 프로젝트를 하자.PptxMyeongin Woo
 
훌륭한 개발자로 성장하기
훌륭한 개발자로 성장하기훌륭한 개발자로 성장하기
훌륭한 개발자로 성장하기Changyol BAEK
 
Ml for 정형데이터
Ml for 정형데이터Ml for 정형데이터
Ml for 정형데이터JEEHYUN PAIK
 
[TMS 2018] 자금확보 / Lablup 신정규 CEO, 님아 제발 그 강을 마오
[TMS 2018] 자금확보 / Lablup 신정규 CEO, 님아 제발 그 강을 마오[TMS 2018] 자금확보 / Lablup 신정규 CEO, 님아 제발 그 강을 마오
[TMS 2018] 자금확보 / Lablup 신정규 CEO, 님아 제발 그 강을 마오NAVER D2 STARTUP FACTORY
 

Similar to 정말 딥러닝은 사람처럼 세상을 인식하고 있을까? (9)

Deep neural networks for You-Tube recommendations
Deep neural networks for You-Tube recommendationsDeep neural networks for You-Tube recommendations
Deep neural networks for You-Tube recommendations
 
Beats on Machine, 딥컴포저로 음악만들기 - 문성혁 (AUSG 3기) :: AWS Community Day 2020
Beats on Machine, 딥컴포저로 음악만들기 - 문성혁 (AUSG 3기) :: AWS Community Day 2020 Beats on Machine, 딥컴포저로 음악만들기 - 문성혁 (AUSG 3기) :: AWS Community Day 2020
Beats on Machine, 딥컴포저로 음악만들기 - 문성혁 (AUSG 3기) :: AWS Community Day 2020
 
[컨퍼런스] 모두콘 2018 리뷰
[컨퍼런스] 모두콘 2018 리뷰[컨퍼런스] 모두콘 2018 리뷰
[컨퍼런스] 모두콘 2018 리뷰
 
an experimental study of social tagging behavior and image content
an experimental study of social tagging behavior and image content an experimental study of social tagging behavior and image content
an experimental study of social tagging behavior and image content
 
an experimental study of social tagging behavior and image content
an experimental study of social tagging behavior and image contentan experimental study of social tagging behavior and image content
an experimental study of social tagging behavior and image content
 
토이 프로젝트를 하자.Pptx
토이 프로젝트를 하자.Pptx토이 프로젝트를 하자.Pptx
토이 프로젝트를 하자.Pptx
 
훌륭한 개발자로 성장하기
훌륭한 개발자로 성장하기훌륭한 개발자로 성장하기
훌륭한 개발자로 성장하기
 
Ml for 정형데이터
Ml for 정형데이터Ml for 정형데이터
Ml for 정형데이터
 
[TMS 2018] 자금확보 / Lablup 신정규 CEO, 님아 제발 그 강을 마오
[TMS 2018] 자금확보 / Lablup 신정규 CEO, 님아 제발 그 강을 마오[TMS 2018] 자금확보 / Lablup 신정규 CEO, 님아 제발 그 강을 마오
[TMS 2018] 자금확보 / Lablup 신정규 CEO, 님아 제발 그 강을 마오
 

More from NAVER Engineering

디자인 시스템에 직방 ZUIX
디자인 시스템에 직방 ZUIX디자인 시스템에 직방 ZUIX
디자인 시스템에 직방 ZUIXNAVER Engineering
 
진화하는 디자인 시스템(걸음마 편)
진화하는 디자인 시스템(걸음마 편)진화하는 디자인 시스템(걸음마 편)
진화하는 디자인 시스템(걸음마 편)NAVER Engineering
 
서비스 운영을 위한 디자인시스템 프로젝트
서비스 운영을 위한 디자인시스템 프로젝트서비스 운영을 위한 디자인시스템 프로젝트
서비스 운영을 위한 디자인시스템 프로젝트NAVER Engineering
 
BPL(Banksalad Product Language) 무야호
BPL(Banksalad Product Language) 무야호BPL(Banksalad Product Language) 무야호
BPL(Banksalad Product Language) 무야호NAVER Engineering
 
이번 생에 디자인 시스템은 처음이라
이번 생에 디자인 시스템은 처음이라이번 생에 디자인 시스템은 처음이라
이번 생에 디자인 시스템은 처음이라NAVER Engineering
 
날고 있는 여러 비행기 넘나 들며 정비하기
날고 있는 여러 비행기 넘나 들며 정비하기날고 있는 여러 비행기 넘나 들며 정비하기
날고 있는 여러 비행기 넘나 들며 정비하기NAVER Engineering
 
쏘카프레임 구축 배경과 과정
 쏘카프레임 구축 배경과 과정 쏘카프레임 구축 배경과 과정
쏘카프레임 구축 배경과 과정NAVER Engineering
 
플랫폼 디자이너 없이 디자인 시스템을 구축하는 프로덕트 디자이너의 우당탕탕 고통 연대기
플랫폼 디자이너 없이 디자인 시스템을 구축하는 프로덕트 디자이너의 우당탕탕 고통 연대기플랫폼 디자이너 없이 디자인 시스템을 구축하는 프로덕트 디자이너의 우당탕탕 고통 연대기
플랫폼 디자이너 없이 디자인 시스템을 구축하는 프로덕트 디자이너의 우당탕탕 고통 연대기NAVER Engineering
 
200820 NAVER TECH CONCERT 15_Code Review is Horse(코드리뷰는 말이야)(feat.Latte)
200820 NAVER TECH CONCERT 15_Code Review is Horse(코드리뷰는 말이야)(feat.Latte)200820 NAVER TECH CONCERT 15_Code Review is Horse(코드리뷰는 말이야)(feat.Latte)
200820 NAVER TECH CONCERT 15_Code Review is Horse(코드리뷰는 말이야)(feat.Latte)NAVER Engineering
 
200819 NAVER TECH CONCERT 03_화려한 코루틴이 내 앱을 감싸네! 코루틴으로 작성해보는 깔끔한 비동기 코드
200819 NAVER TECH CONCERT 03_화려한 코루틴이 내 앱을 감싸네! 코루틴으로 작성해보는 깔끔한 비동기 코드200819 NAVER TECH CONCERT 03_화려한 코루틴이 내 앱을 감싸네! 코루틴으로 작성해보는 깔끔한 비동기 코드
200819 NAVER TECH CONCERT 03_화려한 코루틴이 내 앱을 감싸네! 코루틴으로 작성해보는 깔끔한 비동기 코드NAVER Engineering
 
200819 NAVER TECH CONCERT 10_맥북에서도 아이맥프로에서 빌드하는 것처럼 빌드 속도 빠르게 하기
200819 NAVER TECH CONCERT 10_맥북에서도 아이맥프로에서 빌드하는 것처럼 빌드 속도 빠르게 하기200819 NAVER TECH CONCERT 10_맥북에서도 아이맥프로에서 빌드하는 것처럼 빌드 속도 빠르게 하기
200819 NAVER TECH CONCERT 10_맥북에서도 아이맥프로에서 빌드하는 것처럼 빌드 속도 빠르게 하기NAVER Engineering
 
200819 NAVER TECH CONCERT 08_성능을 고민하는 슬기로운 개발자 생활
200819 NAVER TECH CONCERT 08_성능을 고민하는 슬기로운 개발자 생활200819 NAVER TECH CONCERT 08_성능을 고민하는 슬기로운 개발자 생활
200819 NAVER TECH CONCERT 08_성능을 고민하는 슬기로운 개발자 생활NAVER Engineering
 
200819 NAVER TECH CONCERT 05_모르면 손해보는 Android 디버깅/분석 꿀팁 대방출
200819 NAVER TECH CONCERT 05_모르면 손해보는 Android 디버깅/분석 꿀팁 대방출200819 NAVER TECH CONCERT 05_모르면 손해보는 Android 디버깅/분석 꿀팁 대방출
200819 NAVER TECH CONCERT 05_모르면 손해보는 Android 디버깅/분석 꿀팁 대방출NAVER Engineering
 
200819 NAVER TECH CONCERT 09_Case.xcodeproj - 좋은 동료로 거듭나기 위한 노하우
200819 NAVER TECH CONCERT 09_Case.xcodeproj - 좋은 동료로 거듭나기 위한 노하우200819 NAVER TECH CONCERT 09_Case.xcodeproj - 좋은 동료로 거듭나기 위한 노하우
200819 NAVER TECH CONCERT 09_Case.xcodeproj - 좋은 동료로 거듭나기 위한 노하우NAVER Engineering
 
200820 NAVER TECH CONCERT 14_야 너두 할 수 있어. 비전공자, COBOL 개발자를 거쳐 네이버에서 FE 개발하게 된...
200820 NAVER TECH CONCERT 14_야 너두 할 수 있어. 비전공자, COBOL 개발자를 거쳐 네이버에서 FE 개발하게 된...200820 NAVER TECH CONCERT 14_야 너두 할 수 있어. 비전공자, COBOL 개발자를 거쳐 네이버에서 FE 개발하게 된...
200820 NAVER TECH CONCERT 14_야 너두 할 수 있어. 비전공자, COBOL 개발자를 거쳐 네이버에서 FE 개발하게 된...NAVER Engineering
 
200820 NAVER TECH CONCERT 13_네이버에서 오픈 소스 개발을 통해 성장하는 방법
200820 NAVER TECH CONCERT 13_네이버에서 오픈 소스 개발을 통해 성장하는 방법200820 NAVER TECH CONCERT 13_네이버에서 오픈 소스 개발을 통해 성장하는 방법
200820 NAVER TECH CONCERT 13_네이버에서 오픈 소스 개발을 통해 성장하는 방법NAVER Engineering
 
200820 NAVER TECH CONCERT 12_상반기 네이버 인턴을 돌아보며
200820 NAVER TECH CONCERT 12_상반기 네이버 인턴을 돌아보며200820 NAVER TECH CONCERT 12_상반기 네이버 인턴을 돌아보며
200820 NAVER TECH CONCERT 12_상반기 네이버 인턴을 돌아보며NAVER Engineering
 
200820 NAVER TECH CONCERT 11_빠르게 성장하는 슈퍼루키로 거듭나기
200820 NAVER TECH CONCERT 11_빠르게 성장하는 슈퍼루키로 거듭나기200820 NAVER TECH CONCERT 11_빠르게 성장하는 슈퍼루키로 거듭나기
200820 NAVER TECH CONCERT 11_빠르게 성장하는 슈퍼루키로 거듭나기NAVER Engineering
 
200819 NAVER TECH CONCERT 07_신입 iOS 개발자 개발업무 적응기
200819 NAVER TECH CONCERT 07_신입 iOS 개발자 개발업무 적응기200819 NAVER TECH CONCERT 07_신입 iOS 개발자 개발업무 적응기
200819 NAVER TECH CONCERT 07_신입 iOS 개발자 개발업무 적응기NAVER Engineering
 

More from NAVER Engineering (20)

React vac pattern
React vac patternReact vac pattern
React vac pattern
 
디자인 시스템에 직방 ZUIX
디자인 시스템에 직방 ZUIX디자인 시스템에 직방 ZUIX
디자인 시스템에 직방 ZUIX
 
진화하는 디자인 시스템(걸음마 편)
진화하는 디자인 시스템(걸음마 편)진화하는 디자인 시스템(걸음마 편)
진화하는 디자인 시스템(걸음마 편)
 
서비스 운영을 위한 디자인시스템 프로젝트
서비스 운영을 위한 디자인시스템 프로젝트서비스 운영을 위한 디자인시스템 프로젝트
서비스 운영을 위한 디자인시스템 프로젝트
 
BPL(Banksalad Product Language) 무야호
BPL(Banksalad Product Language) 무야호BPL(Banksalad Product Language) 무야호
BPL(Banksalad Product Language) 무야호
 
이번 생에 디자인 시스템은 처음이라
이번 생에 디자인 시스템은 처음이라이번 생에 디자인 시스템은 처음이라
이번 생에 디자인 시스템은 처음이라
 
날고 있는 여러 비행기 넘나 들며 정비하기
날고 있는 여러 비행기 넘나 들며 정비하기날고 있는 여러 비행기 넘나 들며 정비하기
날고 있는 여러 비행기 넘나 들며 정비하기
 
쏘카프레임 구축 배경과 과정
 쏘카프레임 구축 배경과 과정 쏘카프레임 구축 배경과 과정
쏘카프레임 구축 배경과 과정
 
플랫폼 디자이너 없이 디자인 시스템을 구축하는 프로덕트 디자이너의 우당탕탕 고통 연대기
플랫폼 디자이너 없이 디자인 시스템을 구축하는 프로덕트 디자이너의 우당탕탕 고통 연대기플랫폼 디자이너 없이 디자인 시스템을 구축하는 프로덕트 디자이너의 우당탕탕 고통 연대기
플랫폼 디자이너 없이 디자인 시스템을 구축하는 프로덕트 디자이너의 우당탕탕 고통 연대기
 
200820 NAVER TECH CONCERT 15_Code Review is Horse(코드리뷰는 말이야)(feat.Latte)
200820 NAVER TECH CONCERT 15_Code Review is Horse(코드리뷰는 말이야)(feat.Latte)200820 NAVER TECH CONCERT 15_Code Review is Horse(코드리뷰는 말이야)(feat.Latte)
200820 NAVER TECH CONCERT 15_Code Review is Horse(코드리뷰는 말이야)(feat.Latte)
 
200819 NAVER TECH CONCERT 03_화려한 코루틴이 내 앱을 감싸네! 코루틴으로 작성해보는 깔끔한 비동기 코드
200819 NAVER TECH CONCERT 03_화려한 코루틴이 내 앱을 감싸네! 코루틴으로 작성해보는 깔끔한 비동기 코드200819 NAVER TECH CONCERT 03_화려한 코루틴이 내 앱을 감싸네! 코루틴으로 작성해보는 깔끔한 비동기 코드
200819 NAVER TECH CONCERT 03_화려한 코루틴이 내 앱을 감싸네! 코루틴으로 작성해보는 깔끔한 비동기 코드
 
200819 NAVER TECH CONCERT 10_맥북에서도 아이맥프로에서 빌드하는 것처럼 빌드 속도 빠르게 하기
200819 NAVER TECH CONCERT 10_맥북에서도 아이맥프로에서 빌드하는 것처럼 빌드 속도 빠르게 하기200819 NAVER TECH CONCERT 10_맥북에서도 아이맥프로에서 빌드하는 것처럼 빌드 속도 빠르게 하기
200819 NAVER TECH CONCERT 10_맥북에서도 아이맥프로에서 빌드하는 것처럼 빌드 속도 빠르게 하기
 
200819 NAVER TECH CONCERT 08_성능을 고민하는 슬기로운 개발자 생활
200819 NAVER TECH CONCERT 08_성능을 고민하는 슬기로운 개발자 생활200819 NAVER TECH CONCERT 08_성능을 고민하는 슬기로운 개발자 생활
200819 NAVER TECH CONCERT 08_성능을 고민하는 슬기로운 개발자 생활
 
200819 NAVER TECH CONCERT 05_모르면 손해보는 Android 디버깅/분석 꿀팁 대방출
200819 NAVER TECH CONCERT 05_모르면 손해보는 Android 디버깅/분석 꿀팁 대방출200819 NAVER TECH CONCERT 05_모르면 손해보는 Android 디버깅/분석 꿀팁 대방출
200819 NAVER TECH CONCERT 05_모르면 손해보는 Android 디버깅/분석 꿀팁 대방출
 
200819 NAVER TECH CONCERT 09_Case.xcodeproj - 좋은 동료로 거듭나기 위한 노하우
200819 NAVER TECH CONCERT 09_Case.xcodeproj - 좋은 동료로 거듭나기 위한 노하우200819 NAVER TECH CONCERT 09_Case.xcodeproj - 좋은 동료로 거듭나기 위한 노하우
200819 NAVER TECH CONCERT 09_Case.xcodeproj - 좋은 동료로 거듭나기 위한 노하우
 
200820 NAVER TECH CONCERT 14_야 너두 할 수 있어. 비전공자, COBOL 개발자를 거쳐 네이버에서 FE 개발하게 된...
200820 NAVER TECH CONCERT 14_야 너두 할 수 있어. 비전공자, COBOL 개발자를 거쳐 네이버에서 FE 개발하게 된...200820 NAVER TECH CONCERT 14_야 너두 할 수 있어. 비전공자, COBOL 개발자를 거쳐 네이버에서 FE 개발하게 된...
200820 NAVER TECH CONCERT 14_야 너두 할 수 있어. 비전공자, COBOL 개발자를 거쳐 네이버에서 FE 개발하게 된...
 
200820 NAVER TECH CONCERT 13_네이버에서 오픈 소스 개발을 통해 성장하는 방법
200820 NAVER TECH CONCERT 13_네이버에서 오픈 소스 개발을 통해 성장하는 방법200820 NAVER TECH CONCERT 13_네이버에서 오픈 소스 개발을 통해 성장하는 방법
200820 NAVER TECH CONCERT 13_네이버에서 오픈 소스 개발을 통해 성장하는 방법
 
200820 NAVER TECH CONCERT 12_상반기 네이버 인턴을 돌아보며
200820 NAVER TECH CONCERT 12_상반기 네이버 인턴을 돌아보며200820 NAVER TECH CONCERT 12_상반기 네이버 인턴을 돌아보며
200820 NAVER TECH CONCERT 12_상반기 네이버 인턴을 돌아보며
 
200820 NAVER TECH CONCERT 11_빠르게 성장하는 슈퍼루키로 거듭나기
200820 NAVER TECH CONCERT 11_빠르게 성장하는 슈퍼루키로 거듭나기200820 NAVER TECH CONCERT 11_빠르게 성장하는 슈퍼루키로 거듭나기
200820 NAVER TECH CONCERT 11_빠르게 성장하는 슈퍼루키로 거듭나기
 
200819 NAVER TECH CONCERT 07_신입 iOS 개발자 개발업무 적응기
200819 NAVER TECH CONCERT 07_신입 iOS 개발자 개발업무 적응기200819 NAVER TECH CONCERT 07_신입 iOS 개발자 개발업무 적응기
200819 NAVER TECH CONCERT 07_신입 iOS 개발자 개발업무 적응기
 

Recently uploaded

A future that integrates LLMs and LAMs (Symposium)
A future that integrates LLMs and LAMs (Symposium)A future that integrates LLMs and LAMs (Symposium)
A future that integrates LLMs and LAMs (Symposium)Tae Young Lee
 
[Terra] Terra Money: Stability and Adoption
[Terra] Terra Money: Stability and Adoption[Terra] Terra Money: Stability and Adoption
[Terra] Terra Money: Stability and AdoptionSeung-chan Baeg
 
Continual Active Learning for Efficient Adaptation of Machine LearningModels ...
Continual Active Learning for Efficient Adaptation of Machine LearningModels ...Continual Active Learning for Efficient Adaptation of Machine LearningModels ...
Continual Active Learning for Efficient Adaptation of Machine LearningModels ...Kim Daeun
 
Grid Layout (Kitworks Team Study 장현정 발표자료)
Grid Layout (Kitworks Team Study 장현정 발표자료)Grid Layout (Kitworks Team Study 장현정 발표자료)
Grid Layout (Kitworks Team Study 장현정 발표자료)Wonjun Hwang
 
도심 하늘에서 시속 200km로 비행할 수 있는 미래 항공 모빌리티 'S-A2'
도심 하늘에서 시속 200km로 비행할 수 있는 미래 항공 모빌리티 'S-A2'도심 하늘에서 시속 200km로 비행할 수 있는 미래 항공 모빌리티 'S-A2'
도심 하늘에서 시속 200km로 비행할 수 있는 미래 항공 모빌리티 'S-A2'Hyundai Motor Group
 
캐드앤그래픽스 2024년 5월호 목차
캐드앤그래픽스 2024년 5월호 목차캐드앤그래픽스 2024년 5월호 목차
캐드앤그래픽스 2024년 5월호 목차캐드앤그래픽스
 
MOODv2 : Masked Image Modeling for Out-of-Distribution Detection
MOODv2 : Masked Image Modeling for Out-of-Distribution DetectionMOODv2 : Masked Image Modeling for Out-of-Distribution Detection
MOODv2 : Masked Image Modeling for Out-of-Distribution DetectionKim Daeun
 

Recently uploaded (7)

A future that integrates LLMs and LAMs (Symposium)
A future that integrates LLMs and LAMs (Symposium)A future that integrates LLMs and LAMs (Symposium)
A future that integrates LLMs and LAMs (Symposium)
 
[Terra] Terra Money: Stability and Adoption
[Terra] Terra Money: Stability and Adoption[Terra] Terra Money: Stability and Adoption
[Terra] Terra Money: Stability and Adoption
 
Continual Active Learning for Efficient Adaptation of Machine LearningModels ...
Continual Active Learning for Efficient Adaptation of Machine LearningModels ...Continual Active Learning for Efficient Adaptation of Machine LearningModels ...
Continual Active Learning for Efficient Adaptation of Machine LearningModels ...
 
Grid Layout (Kitworks Team Study 장현정 발표자료)
Grid Layout (Kitworks Team Study 장현정 발표자료)Grid Layout (Kitworks Team Study 장현정 발표자료)
Grid Layout (Kitworks Team Study 장현정 발표자료)
 
도심 하늘에서 시속 200km로 비행할 수 있는 미래 항공 모빌리티 'S-A2'
도심 하늘에서 시속 200km로 비행할 수 있는 미래 항공 모빌리티 'S-A2'도심 하늘에서 시속 200km로 비행할 수 있는 미래 항공 모빌리티 'S-A2'
도심 하늘에서 시속 200km로 비행할 수 있는 미래 항공 모빌리티 'S-A2'
 
캐드앤그래픽스 2024년 5월호 목차
캐드앤그래픽스 2024년 5월호 목차캐드앤그래픽스 2024년 5월호 목차
캐드앤그래픽스 2024년 5월호 목차
 
MOODv2 : Masked Image Modeling for Out-of-Distribution Detection
MOODv2 : Masked Image Modeling for Out-of-Distribution DetectionMOODv2 : Masked Image Modeling for Out-of-Distribution Detection
MOODv2 : Masked Image Modeling for Out-of-Distribution Detection
 

정말 딥러닝은 사람처럼 세상을 인식하고 있을까?

  • 1. 정말 딥러닝은 사람처럼 세상을 인식하고 있을까? 윤재식 jaesik817
  • 2. 저는 졸업 에서 ML developer로 근무중 https://github.com/jaesik817 + 10
  • 3. ILSVRC 2012 이후 딥러닝은… …
  • 8.
  • 9. ???
  • 11. ??? 아 원래 confidence가 낮아서 그런 걸 거임 좀 헷갈리게(?) 생겼음 ㅇㅇㅇ 실제 gibbon data 중 하나
  • 13.
  • 14.
  • 15.
  • 18. ?? One pixel attack for fooling deep neural networks (https://arxiv.org/pdf/1710.08864.pdf ) 실제 ostrich data 중 하나
  • 19. ?? One pixel attack for fooling deep neural networks (https://arxiv.org/pdf/1710.08864.pdf ) 실제 ostrich data 중 하나
  • 20. ?? One pixel attack for fooling deep neural networks (https://arxiv.org/pdf/1710.08864.pdf ) Making error success rate: 73.8% 실제 ostrich data 중 하나
  • 21. ?? One pixel attack for fooling deep neural networks (https://arxiv.org/pdf/1710.08864.pdf ) Making error success rate: 73.8% 실제 ostrich data 중 하나 ???????
  • 22. 전부 image classification 관련된 예제인데 RNN이나 Reinforcement learning에서도 저런 현상이 보이는가?
  • 23. 보인다 • Adversarial Attacks on Neural Network Policies (Huang et al. 2017)
  • 24. 보인다2 • Black-Box Attacks against RNN based Malware Detection Algorithms (Hu and Tan, 2017)
  • 25. 현재 흔히 사용되는 딥러닝 구조들 (MLP, CNN, RNN, 다 양한 RL들)은 작은 noise에도 쉽게 오작동한다
  • 26. 현재 흔히 사용되는 딥러닝 구조들 (MLP, CNN, RNN, 다 양한 RL들)은 작은 noise에도 쉽게 오작동한다 오작동하게 만드는 noise가 Adversarial Attack
  • 27. 현재 흔히 사용되는 딥러닝 구조들 (MLP, CNN, RNN, 다 양한 RL들)은 작은 noise에도 쉽게 오작동한다 오작동하게 만드는 noise가 Adversarial Attack 이를 방어 하는 것이 Adversarial Defense
  • 29. 수학적인 정의 • Given a classifier 𝑓 𝐱 : 𝐱 ∈ ℝ𝐼 → 𝑦 ∈ ℤ, • Adversarial Attack is 𝜉 makes 𝑓 𝐱 ≠ 𝑓 𝐱 + 𝜉 𝑠. 𝑡. 𝜉 𝑝 ≤ 𝜖 => 제한된 noise 크기 한도 내에서 miss-classification을 만드는 noise
  • 30. 대표적인 Adversarial Attack들 • Fast Gradient Sign Method (FGSM) • Basic Iteration Method (Basic Iter.) • Least-Likely Class Method (step l.l) • Iterative Least-likely Class Method (iter. l.l)
  • 31. 대표적인 Adversarial Attack들 • Fast Gradient Sign Method (FGSM) • Basic Iteration Method (Basic Iter.) • Least-Likely Class Method (step l.l) • Iterative Least-likely Class Method (iter. l.l) 흔히 benchmark로 사용되는 방법
  • 32. FGSM (Goodfellow et al. 2014) • 아이디어: 학습하는 방향의 반대 방향으로 노이즈 크기 한도까 지 노이즈를 만들면 직관적으로 가장 잘 오작동 시킬 수 있지 않을까
  • 33. FGSM (Goodfellow et al. 2014) • 아이디어: 학습하는 방향의 반대 방향으로 노이즈 크기 한도까 지 노이즈를 만들면 직관적으로 가장 잘 오작동 시킬 수 있지 않을까 Loss function and gradient descent
  • 34. FGSM (Goodfellow et al. 2014) • 아이디어: 학습하는 방향의 반대 방향으로 노이즈 크기 한도까 지 노이즈를 만들면 직관적으로 가장 잘 오작동 시킬 수 있지 않을까 Loss function and gradient descent
  • 35. FGSM (Goodfellow et al. 2014) • 아이디어: 학습하는 방향의 반대 방향으로 노이즈 크기 한도까 지 노이즈를 만들면 직관적으로 가장 잘 오작동 시킬 수 있지 않을까 Optimization의 반대 방향으로 이동 Loss function and gradient descent
  • 36. FGSM (Goodfellow et al. 2014) • 아이디어: 학습하는 방향의 반대 방향으로 노이즈 크기 한도까 지 노이즈를 만들면 직관적으로 가장 잘 오작동 시킬 수 있지 않을까 Optimization의 반대 방향으로 이동 Loss function and gradient descent
  • 37. FGSM (Goodfellow et al. 2014) • 간단한 방법이지만, 효과적인 성능을 보여 benchmark로 주로 사용됨
  • 38. FGSM (Goodfellow et al. 2014) • 간단한 방법이지만, 효과적인 성능을 보여 benchmark로 주로 사용됨 • 추후에 서술될 adversarial training에 사용되면 label leaking problem을 발생시킴
  • 39. FGSM (Goodfellow et al. 2014) • 간단한 방법이지만, 효과적인 성능을 보여 benchmark로 주로 사용됨 • 추후에 서술될 adversarial training에 사용되면 label leaking problem을 발생시킴 (label leaking problem: noise 생성 시 true label 정보를 이용하 기 때문에 분류 시 이용된 true label 정보가 힌트로 사용되어 noise 정도가 커질수록 acc.가 증가함)
  • 40. FGSM (Goodfellow et al. 2014) • 간단한 방법이지만, 효과적인 성능을 보여 benchmark로 주로 사용됨 • 추후에 서술될 adversarial training에 사용되면 label leaking problem을 발생시킴 (label leaking problem: noise 생성 시 true label 정보를 이용하 기 때문에 분류 시 이용된 true label 정보가 힌트로 사용되어 noise 정도가 커질수록 acc.가 증가함) (Kurakin et al. 2017)
  • 41. 대표적인 Adversarial Attack들 • Fast Gradient Sign Method (FGSM) • Basic Iteration Method (Basic Iter.) • Least-Likely Class Method (step l.l) • Iterative Least-likely Class Method (iter. l.l) FGSM을 반복적으로 수행
  • 42. 대표적인 Adversarial Attack들 • Fast Gradient Sign Method (FGSM) • Basic Iteration Method (Basic Iter.) • Least-Likely Class Method (step l.l) • Iterative Least-likely Class Method (iter. l.l) step l.l을 반복적으로 수행
  • 43. Step l.l (Kurakin et al. 2017) • MNIST나 CIFAR 10처럼 class의 개수가 적은 dataset에 대해 adversarial attack이 miss-classification을 유발하는 것을 보여주 는 것은 유의미하다
  • 44. Step l.l (Kurakin et al. 2017) • MNIST나 CIFAR 10처럼 class의 개수가 적은 dataset에 대해 adversarial attack이 miss-classification을 유발하는 것을 보여주 는 것은 유의미하다 • 하지만,
  • 45. Step l.l (Kurakin et al. 2017) • MNIST나 CIFAR 10처럼 class의 개수가 적은 dataset에 대해 adversarial attack이 miss-classification을 유발하는 것을 보여주 는 것은 유의미하다 • 하지만, imagenet처럼 유사한 class가 많은 dataset에 대해 유사 한 class로 miss-classification되는 것은 큰 문제가 아닌 것으로 보일 수 있다. (i.e. 코카스파니엘 -> 푸들)
  • 46. Step l.l (Kurakin et al. 2017) • MNIST나 CIFAR 10처럼 class의 개수가 적은 dataset에 대해 adversarial attack이 miss-classification을 유발하는 것을 보여주 는 것은 유의미하다 • 하지만, imagenet처럼 유사한 class가 많은 dataset에 대해 유사 한 class로 miss-classification되는 것은 큰 문제가 아닌 것으로 보일 수 있다. (i.e. 코카스파니엘 -> 푸들)
  • 47. Step l.l (Kurakin et al. 2017) • 그래서,
  • 48. Step l.l (Kurakin et al. 2017) • 그래서, true label을 못 맞추게 하는게 아니라 가장 아닐 것 같 은 class로 맞추게 하는 방법이 오작동을 만든다면 재미있지 않 을까
  • 49. Step l.l (Kurakin et al. 2017) • 그래서, true label을 못 맞추게 하는게 아니라 가장 아닐 것 같 은 class로 맞추게 하는 방법이 오작동을 만든다면 재미있지 않 을까
  • 50. Step l.l (Kurakin et al. 2017) • 그래서, true label을 못 맞추게 하는게 아니라 가장 아닐 것 같 은 class로 맞추게 하는 방법이 오작동을 만든다면 재미있지 않 을까 • 근데,
  • 51. Step l.l (Kurakin et al. 2017) • 그래서, true label을 못 맞추게 하는게 아니라 가장 아닐 것 같 은 class로 맞추게 하는 방법이 오작동을 만든다면 재미있지 않 을까 • 근데, 재미 뿐만 아니라 잘됨
  • 52. Step l.l (Kurakin et al. 2017) • 그래서, true label을 못 맞추게 하는게 아니라 가장 아닐 것 같 은 class로 맞추게 하는 방법이 오작동을 만든다면 재미있지 않 을까 • 근데, 재미 뿐만 아니라 잘됨 • 게다가 label leaking problem도 없음
  • 53. 대표적인 Adversarial Attack들 (Summary) Name equation description FGSM 학습 반대 방향으로 노이즈 한도까 지 노이즈 생성 Basic iter. FGSM을 n번 반복 Step l.l 가장 유사하지 않은 class로 분류되 게끔 노이즈 생성 Iter. l.l Step l.l n번 반복
  • 54. 최근 Adversarial Attack 연구들 • Universal adversarial perturbations (Moosavi-Dezfooli et al. 2017) • Adversarial Transformation Networks (ATN, Baluja et al. 2017) • NIPS 2017 nontargeted/targeted attack competition
  • 55. Universal adversarial perturbations • Image 각자에 대해 noise를 만들어 줬을 때 잘 되는데,
  • 56. Universal adversarial perturbations • Image 각자에 대해 noise를 만들어 줬을 때 잘 되는데, 혹시 image 종류에 상관없이 (image-agnostic) 오작동시키는 noise 가 있지 않을까?
  • 57. Universal adversarial perturbations • Image 각자에 대해 noise를 만들어 줬을 때 잘 되는데, 혹시 image 종류에 상관없이 (image-agnostic) 오작동시키는 noise 가 있지 않을까? • 있음
  • 58. Universal adversarial perturbations • Image 각자에 대해 noise를 만들어 줬을 때 잘 되는데, 혹시 image 종류에 상관없이 (image-agnostic) 오작동시키는 noise 가 있지 않을까? • 있음
  • 59. Universal adversarial perturbations • Image 각자에 대해 noise를 만들어 줬을 때 잘 되는데, 혹시 image 종류에 상관없이 (image-agnostic) 오작동시키는 noise 가 있지 않을까? • 있음
  • 60. Universal adversarial perturbations • ㄱ…그럼 model 종류에 상관없이도(model-agnostic) 잘 될까?
  • 61. Universal adversarial perturbations • ㄱ…그럼 model 종류에 상관없이도(model-agnostic) 잘 될까? • 어느정도 됨
  • 62. Universal adversarial perturbations • ㄱ…그럼 model 종류에 상관없이도(model-agnostic) 잘 될까? • 어느정도 됨
  • 63. Adversarial Transformation Networks • deconv-conv model을 이용해 image를 encoding-decoding하 여 noise를 제공하는 학습기반 adversarial attacker 제안
  • 64. Adversarial Transformation Networks • deconv-conv model을 이용해 image를 encoding-decoding하 여 noise를 제공하는 학습기반 adversarial attacker 제안
  • 65. Adversarial Transformation Networks • deconv-conv model을 이용해 image를 encoding-decoding하 여 noise를 제공하는 학습기반 adversarial attacker 제안 • Reranking function(r(y,t))를 제안하여, true label이 아닌 다른 label로 classify되도록 학습
  • 66. Adversarial Transformation Networks • deconv-conv model을 이용해 image를 encoding-decoding하 여 noise를 제공하는 학습기반 adversarial attacker 제안 • Reranking function(r(y,t))를 제안하여, true label이 아닌 다른 label로 classify되도록 학습 • Multi-classifier에 대해서도 학습이 되도록 design
  • 67. Adversarial Transformation Networks • deconv-conv model을 이용해 image를 encoding-decoding하 여 noise를 제공하는 학습기반 adversarial attacker 제안 • Reranking function(r(y,t))를 제안하여, true label이 아닌 다른 label로 classify되도록 학습 • Multi-classifier에 대해서도 학습이 되도록 design 근데…
  • 68. NIPS 2017 nontargeted/targeted attack competition • NIPS 2017 workshop에서 adversarial attack/defense competition이 열려 다양한 방법들이 제시되었다. Nontargeted Targeted Ours (Jaesik Yoon & Hoyong Jang)
  • 69. NIPS 2017 nontargeted/targeted attack competition • NIPS 2017 workshop에서 adversarial attack/defense competition이 열려 다양한 방법들이 제시되었다. Nontargeted Targeted Ours (Jaesik Yoon & Hoyong Jang) 상위권에 있는 대부분의 방법들은 multi-classifier에 대해 동작하도록 design됨 (러닝 기반이 아니더라도)
  • 70. NIPS 2017 nontargeted/targeted attack competition • Discovering Adversarial Examples with Momentum (Dong et al. 2017, 1st nontargeted/targeted)
  • 71. NIPS 2017 nontargeted/targeted attack competition • Discovering Adversarial Examples with Momentum (Dong et al. 2017, 1st nontargeted/targeted) • Basic iter.를 구할 때 momentum term 추가
  • 72. NIPS 2017 nontargeted/targeted attack competition • Discovering Adversarial Examples with Momentum (Dong et al. 2017, 1st nontargeted/targeted) • Basic iter.를 구할 때 momentum term 추가
  • 73. NIPS 2017 nontargeted/targeted attack competition • Discovering Adversarial Examples with Momentum (Dong et al. 2017, 1st nontargeted/targeted) • Basic iter.를 구할 때 momentum term 추가
  • 74. NIPS 2017 nontargeted/targeted attack competition • Discovering Adversarial Examples with Momentum (Dong et al. 2017, 1st nontargeted/targeted) • Basic iter.를 구할 때 momentum term 추가 • 여러 개의 모델에 대한 ensemble momentum iterative FGSM (basic iter.) 구함
  • 75. NIPS 2017 nontargeted/targeted attack competition • https://github.com/sangxia/nips-2017-adversarial (sangxia, 2017, 2nd nontargeted/targeted)
  • 76. NIPS 2017 nontargeted/targeted attack competition • https://github.com/sangxia/nips-2017-adversarial (sangxia, 2017, 2nd nontargeted/targeted) • Random perturbation을 더 한 상태에서
  • 77. NIPS 2017 nontargeted/targeted attack competition • https://github.com/sangxia/nips-2017-adversarial (sangxia, 2017, 2nd nontargeted/targeted) • Random perturbation을 더 한 상태에서 • 여러 개의 모델에 대한 ensemble iterative FGSM을 구함
  • 78. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted)
  • 79. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • Deconv-conv base의 학습 기반 adversarial attacker 학습
  • 80. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • Deconv-conv base의 학습 기반 adversarial attacker 학습 • Loss function은 FGSM과 유사한 reverse CE 사용 (-CE)
  • 81. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • Deconv-conv base의 학습 기반 adversarial attacker 학습 • Loss function은 FGSM과 유사한 reverse CE 사용 (-CE) • 여러 개의 모델에 대한 ensemble noise 구함
  • 82. 여기서 잠깐, 그러면 우리는 왜 망했을까?
  • 83. 여기서 잠깐, 그러면 우리는 왜 망했을까?
  • 84. 여기서 잠깐, 그러면 우리는 왜 망했을까?
  • 85. 여기서 잠깐, 그러면 우리는 왜 망했을까? ㄱ…그래도 18등이면 망한 건 아니지 않냐
  • 86. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 공격을 해보자 • Related work survey: model의 loss로부터 나오는 gradient를 이용한 방법들 밖에 없네? -> 학습을 하면 무조건 저거보단 잘 되겠구나! + 노벨티도 있겠구나!! Survey 실패 이미 ATM이 arxiv에 올라와 있었다
  • 87. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 공격을 해보자 • Related work survey: model의 loss로부터 나오는 gradient를 이용한 방법들 밖에 없네? -> 학습을 하면 무조건 저거보단 잘 되겠구나! + 노벨티도 있겠구나!! Survey 실패 이미 ATM이 arxiv에 올라와 있었다
  • 88. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 공격을 해보자 • Related work survey: model의 loss로부터 나오는 gradient를 이용한 방법들 밖에 없네? -> 학습을 하면 무조건 저거보단 잘 되겠구나! + 노벨티도 있겠구나!! Survey 실패 이미 ATM이 arxiv에 올라와 있었다
  • 89. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 공격을 해보자 • Related work survey: model의 loss로부터 나오는 gradient를 이용한 방법들 밖에 없네? -> 학습을 하면 저거보단 잘 되겠구나! + 노벨티도 있겠구나!! Survey 실패 이미 ATM이 arxiv에 올라와 있었다
  • 90. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 공격을 해보자 • Related work survey: model의 loss로부터 나오는 gradient를 이용한 방법들 밖에 없네? -> 학습을 하면 저거보단 잘 되겠구나! + 노벨티도 있겠구나!! Survey 실패 이미 ATM이 arxiv에 올라와 있었다
  • 91. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 공격을 해보자 • Related work survey: model의 loss로부터 나오는 gradient를 이용한 방법들 밖에 없네? -> 학습을 하면 저거보단 잘 되겠구나! + 노벨티도 있겠구나!! Survey 실패: 이미 ATN이 arxiv에 올라와 있었다
  • 92. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 자, 그럼 attacker를 학습해보자
  • 93. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 자, 그럼 attacker를 학습해보자 • 이미지를 받아서 노이즈를 만드는 걸로 만들면 되겠지?
  • 94. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 자, 그럼 attacker를 학습해보자 • 이미지를 받아서 노이즈를 만드는 걸로 만들면 되겠지? • 어, 그거 이거랑 약간 비슷하다
  • 95. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 자, 그럼 attacker를 학습해보자 • 이미지를 받아서 노이즈를 만드는 걸로 만들면 되겠지? • 어, 그거 이거랑 약간 비슷하다 (Hyeonwoo Noh et al. 2015)
  • 96. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 자, 그럼 attacker를 학습해보자 • 이미지를 받아서 노이즈를 만드는 걸로 만들면 되겠지? • 어, 그거 이거랑 약간 비슷하다 (Hyeonwoo Noh et al. 2015) Output은 FGSM처럼 - 𝜖, 𝜖 이 되 도록 𝑦 = 𝜖 ∗ 𝑛𝑜𝑟𝑚𝑎𝑙𝑖𝑧𝑒(tanh 𝑜 )
  • 97. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 자, 그럼 attacker를 학습해보자 • 이미지를 받아서 노이즈를 만드는 걸로 만들면 되겠지? • 어, 그거 이거랑 약간 비슷하다 (Hyeonwoo Noh et al. 2015) Output은 FGSM처럼 - 𝜖, 𝜖 이 되 도록 𝑦 = 𝜖 ∗ 𝑛𝑜𝑟𝑚𝑎𝑙𝑖𝑧𝑒(tanh 𝑜 )
  • 98. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • Loss function은?
  • 99. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • Loss function은? • 최대한 틀리게 -> -CE(Cross Entropy)?
  • 100. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • Loss function은? • 최대한 틀리게 -> -CE(Cross Entropy)? 1/CE?
  • 101. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • Loss function은? • 최대한 틀리게 -> -CE(Cross Entropy)? 1/CE? 1/CE는 수학적 의미가 이상(?)함
  • 102. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • Loss function은? • 최대한 틀리게 -> -CE(Cross Entropy) 1/CE? 1/CE는 수학적 의미가 이상(?)함
  • 103. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 결과는?
  • 104. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 결과는?
  • 105. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 결과는? 대충 돌려봤는데 나쁘지 않음 ㅇㅇ
  • 106. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 결과는? 대충 돌려봤는데 나쁘지 않음 ㅇㅇ -> 이게 mark1
  • 107. 근데
  • 108. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 결과는? 대충 돌려봤는데 나쁘지 않음 ㅇㅇ -> 이게 mark1 Learning based method가 작은 노이즈에 대해 FGSM보다 성능이 안 나옴
  • 110. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) 실험
  • 111. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) 실험 실험
  • 112. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) 실험 실험 실험
  • 113. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) 실험 실험 실험 실험
  • 114. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) 실험 실험 실험 실험 실험 실험
  • 115. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 노이즈를 - 𝜖, 𝜖 로 하는 것보다 [- 𝜖, 𝜖]로 하는 게 더 다양한 노이즈 패 턴을 만들 수 있지 않을까
  • 116. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 노이즈를 - 𝜖, 𝜖 로 하는 것보다 [- 𝜖, 𝜖]로 하는 게 더 다양한 노이즈 패 턴을 만들 수 있지 않을까 (Hyeonwoo Noh et al. 2015) 𝑦 = 𝜖 ∗ tanh 𝑜
  • 117. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 노이즈를 - 𝜖, 𝜖 로 하는 것보다 [- 𝜖, 𝜖]로 하는 게 더 다양한 노이즈 패 턴을 만들 수 있지 않을까 -> 이것이 mark2 (Hyeonwoo Noh et al. 2015) 𝑦 = 𝜖 ∗ tanh 𝑜
  • 118. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 노이즈를 - 𝜖, 𝜖 로 하는 것보다 [- 𝜖, 𝜖]로 하는 게 더 다양한 노이즈 패 턴을 만들 수 있지 않을까 -> 이것이 mark2 (Hyeonwoo Noh et al. 2015) 𝑦 = 𝜖 ∗ tanh 𝑜
  • 119. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 다시
  • 120. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) 실험 실험 실험 실험 실험 실험
  • 121. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 이번엔 ensemble target에 대해서도
  • 122. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 이번엔 ensemble target에 대해서도
  • 123. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 그런데,
  • 124. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 그런데, 단순히 CE의 값을 높여주는 게
  • 125. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 그런데, 단순히 CE의 값을 높여주는 게 miss classification을 직접적으 로 늘려줄 수 있을까?
  • 126. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 그런데, 단순히 CE의 값을 높여주는 게 miss classification을 직접적으 로 늘려줄 수 있을까? (positive relationship이 있을 것이라는 것에는 동의하지만 원래 정답을 헷갈리게 하는 것과 틀리게 하는 것은 차이가 있다)
  • 127. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 그런데, 단순히 CE의 값을 높여주는 게 miss classification을 직접적으 로 늘려줄 수 있을까? (positive relationship이 있을 것이라는 것에는 동의하지만 원래 정답을 헷갈리게 하는 것과 틀리게 하는 것은 차이가 있다)
  • 128. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 그런데, 단순히 CE의 값을 높여주는 게 miss classification을 직접적으 로 늘려줄 수 있을까? (positive relationship이 있을 것이라는 것에는 동의하지만 원래 정답을 헷갈리게 하는 것과 틀리게 하는 것은 차이가 있다)
  • 129. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 그런데, 단순히 CE의 값을 높여주는 게 miss classification을 직접적으 로 늘려줄 수 있을까? (positive relationship이 있을 것이라는 것에는 동의하지만 원래 정답을 헷갈리게 하는 것과 틀리게 하는 것은 차이가 있다) • 그래서,
  • 130. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 그런데, 단순히 CE의 값을 높여주는 게 miss classification을 직접적으 로 늘려줄 수 있을까? (positive relationship이 있을 것이라는 것에는 동의하지만 원래 정답을 헷갈리게 하는 것과 틀리게 하는 것은 차이가 있다) • 그래서, step l.l의 concept을 섞어보았다
  • 131. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted)
  • 132. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) + batch normalization 도
  • 133. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) + batch normalization 도 -> 이것이 mark3
  • 134. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) + batch normalization 도 -> 이것이 mark3
  • 135. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 결과는,
  • 136. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 결과는,
  • 137. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 결과는,
  • 138. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 결과는, 잘됨. Maximum score가 13000임
  • 139. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 결과는, 낮은 noise 값에서도 압도적인 성능을 보임
  • 140. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 결과는, 낮은 noise 값에서도 압도적인 성능을 보임 D-3 for final submission
  • 141. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 결과는, 낮은 noise 값에서도 압도적인 성능을 보임 D-3 for final submission ??
  • 142. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) D-3 for final submission 정리가 되었을 때 3일 남음
  • 143. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) D-3 for final submission 정리가 되었을 때 3일 남음 가지고 있는 건 딸랑 1080 하나
  • 144. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 결국,
  • 145. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 결국,
  • 146. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 결국, Mark2와 작은 noise에 대해선 FGSM(baseline algorithm)으 로 제출
  • 147. NIPS 2017 nontargeted/targeted attack competition • https://github.com/jaesik817/nips17_adv_attack (Jaesik and Hoyong, 2017, 18th nontargeted) • 결국, Mark2와 작은 noise에 대해선 FGSM(baseline algorithm)으 로 제출
  • 148. 그러면 우리는 왜 망했을까?
  • 149. 그러면 우리는 왜 망했을까? ㄹ….리소스가 부족해서 (원래 안되면 남탓 ㅇㅇ)
  • 150. 그러면 우리는 왜 망했을까? ㄹ….리소스가 부족해서 (원래 안되면 남탓 ㅇㅇ) 절반은 버리고 18등했으면 망한건 아님 정신승리 ㅇㅇ
  • 151. 다시 원래 내용으로 돌아와서…
  • 152. 이렇게 다양한 adversarial attack들이 연구되었다 …
  • 153. 그럼 이런 adversarial attack에 대응하는 방법들은 뭐가 있을까
  • 155. Adversarial Defense들 • Adversarial Training • Adversarial attack detection • NIPS 2017 adversarial defense competition
  • 156. Adversarial Training (Goodfellow et al. 2015) • Adversarial attack들이 제대로 분류가 안된다면, 이 data들 또한 training data에 넣어 학습한다.
  • 157. Adversarial Training (Goodfellow et al. 2015) • Adversarial attack들이 제대로 분류가 안된다면, 이 data들 또한 training data에 넣어 학습한다.
  • 158. Adversarial Training (Goodfellow et al. 2015) • Adversarial attack들이 제대로 분류가 안된다면, 이 data들 또한 training data에 넣어 학습한다. Adversarial attack에 대한 loss function term
  • 159. Adversarial Training (Goodfellow et al. 2015) • Adversarial attack들이 제대로 분류가 안된다면, 이 data들 또한 training data에 넣어 학습한다. • 원래 loss function과 ratio를 조정함으로써 regularizer로 동작하 도록 함
  • 160. Adversarial Training (Goodfellow et al. 2015) • Adversarial attack들이 제대로 분류가 안된다면, 이 data들 또한 training data에 넣어 학습한다. • 원래 loss function과 ratio를 조정함으로써 regularizer로 동작하 도록 함 효과 있음 (Kurakin et al. 2017)
  • 161. Adversarial Example Detection • Adversarial attack이 FGSM등 특별한 방법으로 만든 noise라면, 분명 pattern이 있을 것이고 detection이 될 것이다!
  • 162. Adversarial Example Detection • ON DETECTING ADVERSARIAL PERTURBATIONS (Metzen et al. 2017)
  • 163. Adversarial Example Detection • ON DETECTING ADVERSARIAL PERTURBATIONS (Metzen et al. 2017) 각 layer마다 Adversarial detector를 학 습시켜, adversarial attack을 detect함.
  • 164. Adversarial Example Detection • ON DETECTING ADVERSARIAL PERTURBATIONS (Metzen et al. 2017) 각 layer마다 Adversarial detector를 학 습시켜, adversarial attack을 detect함. 단, 이 경우 detect된 attack의 label은 estimation할 수 없음
  • 165. Adversarial Example Detection • Tactics of Adversarial Attack on Deep Reinforcement Learning Agents (Lin et al. 2017)
  • 166. Adversarial Example Detection • Tactics of Adversarial Attack on Deep Reinforcement Learning Agents (Lin et al. 2017) 다음 state를 예측하는 model (video prediction model)을 학습, 다음 번 state가 adversarial attack이라 고 판단되면 input으로 들어온 state가 아닌 예측된 state를 사용
  • 167. Adversarial Example Detection • Tactics of Adversarial Attack on Deep Reinforcement Learning Agents (Lin et al. 2017) 다음 state를 예측하는 model (video prediction model)을 학습, 다음 번 state가 adversarial attack이라 고 판단되면 input으로 들어온 state가 아닌 예측된 state를 사용 Metzen’s paper와는 달리 rl이기 때문 에 attack으로 detect하여 drop하여도 성능은 떨어지지만 working함
  • 168. NIPS adversarial defense competition • NIPS 2017 workshop에서 adversarial attack/defense competition이 열려 다양한 방법들이 제시되었다.
  • 169. NIPS adversarial defense competition • https://github.com/lfz/Guided-Denoise (TsAIL team, 1st on competition)
  • 170. NIPS adversarial defense competition • https://github.com/lfz/Guided-Denoise (TsAIL team, 1st on competition) • Denoiser를 학습시켜 perturbation을 줄이도록 함
  • 171. NIPS adversarial defense competition • https://github.com/lfz/Guided-Denoise (TsAIL team, 1st on competition) • Denoiser를 학습시켜 perturbation을 줄이도록 함 • 여러 모델을 이용하여 denoiser 학습
  • 172. NIPS adversarial defense competition • MITIGATING ADVERSARIAL EFFECTS THROUGH RANDOMIZATION (Zhang and Yuille et al. 2017 , 2nd on competition)
  • 174. Capsule Nets의 등장 • 기존의 CNN보다 natural variance에 robust하다고 주장하는 Capsule Network가 제안되었다
  • 175. 그래서 제가 한번 공격해봤습니다
  • 176. Adversarial attack to CapsNet • CapsNet 구현체는 InnerPeace-Wu의 구현체를 사용 • https://github.com/InnerPeace-Wu/CapsNet-tensorflow.
  • 177. Adversarial attack to CapsNet • CapsNet 구현체는 InnerPeace-Wu의 구현체를 사용 • https://github.com/InnerPeace-Wu/CapsNet-tensorflow. • CapsNet의 loss function으로부터의 gradient를 이용하여 white-box attack을 실험
  • 178. Adversarial attack to CapsNet • CapsNet 구현체는 InnerPeace-Wu의 구현체를 사용 • https://github.com/InnerPeace-Wu/CapsNet-tensorflow. • CapsNet의 loss function으로부터의 gradient를 이용하여 white-box attack을 실험 • FGSM, Basic iter., step l.l, iter. l.l 을 이용하여 noise 0~50까지 test하였음
  • 179. Adversarial attack to CapsNet • FGSM
  • 180. Adversarial attack to CapsNet • Basic iter.
  • 181. Adversarial attack to CapsNet • step l.l
  • 182. Adversarial attack to CapsNet • iter. l.l
  • 183. Adversarial attack to CapsNet • 이 실험은 Dynamic Routing Between Capsules 논문의 구조 를 이용하여 한 실험이며, • 현재 ICLR 2018 review 중인 MATRIX CAPSULES WITH EM ROUTING에서 기존의 CNN보다 EM routing을 이용하여 학습 한 Capsule Networks가 adversarial attack에 대해 더 robust 하다는 실험 결과를 report했기 때문에 • Capsule Networks에 대한 adversarial attack의 영향력은 좀 더 연구가 필요함
  • 185. 정말 딥러닝은 사람처럼 세상을 인식하고 있을 까?
  • 186. 대답은, 아니다 정리해보면, 1. 현재의 딥러닝 구조 및 학습법은 adversarial attack으로부터 자유롭지 못하다 2. (짧은 시간이었지만) 다양한 연구 결과들이 나왔고, 이들은 adversarial attack을 함께 학습함으로써, 혹은 detecting이나 denoising함으로써 이를 보완하는 결과를 보였다. 3. natural variance에 robust하지 못한 현재의 구조를 개선하며 Capsule Network이 제안되었지만, 아직 검증은 되지 못했다 4. adversarial attack problem이 해결된다 하더라도 또 다른 부분이 발견될 수 있다.(아직 할게 많다)
  • 187. 대답은, 아니다 정리해보면, 1. 현재의 딥러닝 구조 및 학습법은 adversarial attack으로부터 자유롭지 못하다 2. (짧은 시간이었지만) 다양한 연구 결과들이 나왔고, 이들은 adversarial attack을 함께 학습함으로써, 혹은 detecting이나 denoising함으로써 이를 보완하는 결과를 보였다. 3. natural variance에 robust하지 못한 현재의 구조를 개선하며 Capsule Network이 제안되었지만, 아직 검증은 되지 못했다 4. adversarial attack problem이 해결된다 하더라도 또 다른 부분이 발견될 수 있다.(아직 할게 많다)
  • 188. 대답은, 아니다 정리해보면, 1. 현재의 딥러닝 구조 및 학습법은 adversarial attack으로부터 자유롭지 못하다 2. (짧은 시간이었지만) 다양한 연구 결과들이 나왔고, 이들은 adversarial attack을 함께 학습함으로써, 혹은 detecting이나 denoising함으로써 이를 보완하는 결과를 보였다. 3. natural variance에 robust하지 못한 현재의 구조를 개선하며 Capsule Network이 제안되었지만, 아직 검증은 되지 못했다 4. adversarial attack problem이 해결된다 하더라도 또 다른 부분이 발견될 수 있다.(아직 할게 많다)
  • 189. 대답은, 아니다 정리해보면, 1. 현재의 딥러닝 구조 및 학습법은 adversarial attack으로부터 자유롭지 못하다 2. (짧은 시간이었지만) 다양한 연구 결과들이 나왔고, 이들은 adversarial attack을 함께 학습함으로써, 혹은 detecting이나 denoising함으로써 이를 보완하는 결과를 보였다. 3. natural variance에 robust하지 못한 현재의 구조를 개선하며 Capsule Network이 제안되었지만, 아직 검증은 되지 못했다 4. adversarial attack problem이 해결된다 하더라도 또 다른 부분이 발견될 수 있다.(아직 할게 많다)
  • 190. 대답은, 아니다 정리해보면, 1. 현재의 딥러닝 구조 및 학습법은 adversarial attack으로부터 자유롭지 못하다 2. (짧은 시간이었지만) 다양한 연구 결과들이 나왔고, 이들은 adversarial attack을 함께 학습함으로써, 혹은 detecting이나 denoising함으로써 이를 보완하는 결과를 보였다. 3. natural variance에 robust하지 못한 현재의 구조를 개선하며 Capsule Network이 제안되었지만, 아직 검증은 되지 못했다 4. adversarial attack problem이 해결된다 하더라도 또 다른 부분이 발견될 수 있다.(아직 할게 많다)
  • 191. 대답은, 아니다 정리해보면, 1. 현재의 딥러닝 구조 및 학습법은 adversarial attack으로부터 자유롭지 못하다 2. (짧은 시간이었지만) 다양한 연구 결과들이 나왔고, 이들은 adversarial attack을 함께 학습함으로써, 혹은 detecting이나 denoising함으로써 이를 보완하는 결과를 보였다. 3. natural variance에 robust하지 못한 현재의 구조를 개선하며 Capsule Network이 제안되었지만, 아직 검증은 되지 못했다 4. adversarial attack problem이 해결된다 하더라도 또 다른 부분이 발견될 수 있다.(아직 할게 많다)
  • 192. 대답은, 아니다 정리해보면, 1. 현재의 딥러닝 구조 및 학습법은 adversarial attack으로부터 자유롭지 못하다 2. (짧은 시간이었지만) 다양한 연구 결과들이 나왔고, 이들은 adversarial attack을 함께 학습함으로써, 혹은 detecting이나 denoising함으로써 이를 보완하는 결과를 보였다. 3. natural variance에 robust하지 못한 현재의 구조를 개선하며 Capsule Network이 제안되었지만, 아직 검증은 되지 못했다 4. adversarial attack problem이 해결된다 하더라도 또 다른 부분이 발견될 수 있다.(아직 할게 많다)