SlideShare a Scribd company logo
1 of 36
Download to read offline
Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015)
Deep Neural Networks are Easily Fooled: High Confidence
Predictions for Unrecognizable Images (Anh Nguyen, Jason
Yosinski, Jeff Clune; CVPR 2015)
味曽野雅史 (weblab B4)
2015/10/15
2015/10/15 味曽野雅史 (weblab B4) 1
Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015)
紹介する論文
• Deep Neural Networks are Easily Fooled: High Confidence Predictions for
Unrecognizable Images
• Anh Nguyen, Jason Yosinski, Jeff Clune
• University of Wyoming, Cornell University
• Computer Vision and Pattern Recognition (CVPR ’15), IEEE, 2015.
• http://www.evolvingai.org/fooling
• 被引用: 39 件 (Google Scholar)
• 画像識別において,人間には理解できなくても DNN が 99.99%の確信度を
持つような画像を作成することができる; 進化的アルゴリズムにより,画像
を生成
2015/10/15 味曽野雅史 (weblab B4) 2
Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015)
画像例
Figure 1: ImageNet で訓練された DNN で確信度 99.6%以上となる画像 (本論文より)
2015/10/15 味曽野雅史 (weblab B4) 3
Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015)
背景
• DNN の中身はブラックボックス的に扱われることが多い
• DNN を可視化することにより,何かしらの知見を得たい
2015/10/15 味曽野雅史 (weblab B4) 4
Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015)
関連研究 : (C)NN の可視化
• 第一層のフィルタを可視化
• 高次元の表現を可視化
• 各層ごとにどういう計算がおこなわれるのかを可視化
• J.Yosinski et al. (2014)
• Mahendran & Vadaldi (2014)
• deconvolution による可視化
• Zeiler & Fergus (2013)
• maximize activation
• Erhan et al. (2009)
• K.Simonyan et al. (2013)
• C.Szegedy et al. (2013)
• I.J.Goodfellow et al. (2014)
• Deep Dream (2015)
• J.Yosinski et al. (2015)
2015/10/15 味曽野雅史 (weblab B4) 5
Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015)
第一層のフィルタを可視化
• 例えばガボールフィルタに近いものが学習される例が確認されている
• Conv -> Pool -> FC -> FC -> Softmax の NN (MNIST) の第一層のフィ
ルタ (http://eric-yuan.me/cnn/)
2015/10/15 味曽野雅史 (weblab B4) 6
Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015)
高次元の表現を可視化
• http://colah.github.io/posts/2015-01-Visualizing-Representations/
2015/10/15 味曽野雅史 (weblab B4) 7
Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015)
Deconvolution による可視化
• ある入力画像において,どの部分が活性化に寄与したかを可視化する
(Zeiler & Fergus)
2015/10/15 味曽野雅史 (weblab B4) 8
Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015)
Deconvolution による可視化
Figure 2: Zeiler & Fergus (2013) より
2015/10/15 味曽野雅史 (weblab B4) 9
Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015)
Maximize Activation
• 各層において,各ユニットの出力の和が最大になるような画像を生成する
• ランダムなノイズパターン x = x0 からスタート
• 活性化関数 ai (x) に対して x ← x + η ∂ai (x)
∂x
により最適化
• このとき,適当な正則化項を用いないと,人間が見てよく分からない画像
が生成される
2015/10/15 味曽野雅史 (weblab B4) 10
Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015)
本論文の例
• 正則化項なし (99.99%の確信度)
2015/10/15 味曽野雅史 (weblab B4) 11
Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015)
K.Simonayn et al. (2013)
• L2 正則化を利用
2015/10/15 味曽野雅史 (weblab B4) 12
Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015)
Deep Dream
• 隣接するピクセル同士が相関するような制約を入れている
2015/10/15 味曽野雅史 (weblab B4) 13
Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015)
J.Yosinski et al. (2015)
• 4 つの異なる正則化方法を提案
2015/10/15 味曽野雅史 (weblab B4) 14
Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015)
関連研究 : DNN と人間の視覚の違い
• 正しく分類されている画像を,少し変更するだけで誤認識するように変更
できる
• C.Szegedy et al. (2013)
• I.J.Goodfellow et al. (2014)
2015/10/15 味曽野雅史 (weblab B4) 15
Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015)
C.Szegedy et al. (2013)
• 正しく識別出来てる画像を少し歪ませることで,全く別のものとして識別
させる
2015/10/15 味曽野雅史 (weblab B4) 16
Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015)
Goodfellow et al. (2014)
Figure 3:
2015/10/15 味曽野雅史 (weblab B4) 17
Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015)
どう画像を変化させているか?
• 通常の学習の場合 → 誤差逆伝播,つまり誤識別した場合パラメータを調
整する
• この時,パラメータを調整せず,逆に画像に少し変更を加えたら..?
2015/10/15 味曽野雅史 (weblab B4) 18
Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015)
この論文の内容
-
EA で画像を生成したところ,よく分からないのができた,というのが実際の経
緯っぽい
2015/10/15 味曽野雅史 (weblab B4) 19
Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015)
この論文で使われるネットワークモデル
• AlexNet (A.Krizhevsky et al. 2012)
• LeNet (Y.LeCun et al. 1998)
• 既に訓練済みのものを利用 (caffe 版)
2015/10/15 味曽野雅史 (weblab B4) 20
Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015)
画像の生成手法
• 進化的アルゴリズム (Evolutionary Algorithm)
• MAP-Elites (multi-dimensional archive of phenotypic elites)
• A.Cully et al. 2015
• ベストな個体を記憶
• 各繰り返しステップにおいて,
• 適当に個体を選び,適当に突然変異
• もし現在のベストな個体よりも良ければ,それと交換
• 今回の場合,ベストな個体 = 確信度が高い
• direct encoding
• 遺伝子として画像をそのまま表現
• 例) MNIST なら 28x28 のピクセル
• 各ピクセルは一様乱数で初期化
• indirect encoding
• Compositional Pattern-Producing Network (CPPN)
• K.O.Stanley (2007)
• ピクセル位置 (x,y) を受け取り,色値を出力する NN のようなもの
2015/10/15 味曽野雅史 (weblab B4) 21
Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015)
LeNet (MNIST)
Figure 4: direct encoding: 確信度 99.99%
2015/10/15 味曽野雅史 (weblab B4) 22
Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015)
LeNet (MNIST)
Figure 5: indirect encoding: 確信度 99.99%
2015/10/15 味曽野雅史 (weblab B4) 23
Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015)
AlexNet (ImageNet)
• direct encoding における世代数と確信度の変化
• direct encoding はあまりうまくいかず
2015/10/15 味曽野雅史 (weblab B4) 24
Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015)
AlexNet (ImageNet)
• indirect encoding における世代数と確信度の変化
2015/10/15 味曽野雅史 (weblab B4) 25
Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015)
indirect encoding によって生成された画像
Figure 6: 平均確信度 99.12%
2015/10/15 味曽野雅史 (weblab B4) 26
Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015)
fooling image を入れた学習
• DNN1 で学習 (n クラス)
• DNN1 を使ってfooling image を作成
• DNN2 で fooling image を入れた (n+1) クラスの分類問題を学習
• これを繰り返す
2015/10/15 味曽野雅史 (weblab B4) 27
Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015)
fooling image を入れた学習: ImageNet での結果
• DNN2 で作成したfooling image の確信度は DNN1 のときと比べ,大きく下
がった (平均確信度 88.1%から 11.7%)
• ただし,MNIST の場合は確信度はそれほど下がらなかった
2015/10/15 味曽野雅史 (weblab B4) 28
Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015)
生成された画像に対する考察
• ユニークな特徴を強調するように進化すれば良い
• (人間には知覚できない) 少しの変化で識別するクラスが変えられることを
考えると,多様性が生まれているに驚きがある
2015/10/15 味曽野雅史 (weblab B4) 29
Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015)
系統的な画像の生成
• 同じ種類 (犬など) は,同じようなものが進化で得られる
2015/10/15 味曽野雅史 (weblab B4) 30
Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015)
繰り返し模様を除去した場合
• indirect encoding で得られる結果には,繰り返し模様が多い
• 繰り返しを除去した場合 (下図): 繰り返しが確信度に寄与することが確認
できる
2015/10/15 味曽野雅史 (weblab B4) 31
Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015)
仮説: 生成モデルと識別モデル
• 今回の DNN のような識別モデル p(y|X) の場合,入力 X に対して,クラ
ス y を決める境界面を学習する
• 入力空間が高次元の場合,あるクラスと認識する空間は訓練データの規模
よりも大きくなる
• (仮説) 進化的計算で生成された画像は,境界面よりも遠く離れていた
• 生成モデル p(y, X) であれば,p(y|X) の他に p(X) も必要.今回のような
問題はおきないかもしれない
2015/10/15 味曽野雅史 (weblab B4) 32
Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015)
まとめ
• 進化的計算によりあるクラスと 99%の確信度で識別される画像を生成する
と,人間には判断がつかないものが生成される
• 進化的計算の結果得られる画像として考えられるもの
• どのクラスに対応する画像も似たようなものが生成される
(C.Szegedy らの実験結果より)
• 人間に認識できる画像が生成される
• 実験してみると,上の二つのどちらでもなかった
• もちろん筆者が意図的に認識できないような画像を生成したわけでは
ない
• DNN の実世界への応用を考えると,セキュリティ的な問題がある
• 防犯カメラ,自動運転,音声認識,画像検索エンジン,…
• CPPN EA による画像生成は,DNN 可視化の新規手法ともいえる
2015/10/15 味曽野雅史 (weblab B4) 33
Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015)
Deep Visualization Toolbox
• http://yosinski.com/deepvis
• https://github.com/yosinski/deep-visualization-toolbox
2015/10/15 味曽野雅史 (weblab B4) 34
Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015)
Reference
• Yosinski, J., Clune, J., Bengio, Y., and Lipson, H. How transferable are
features in deep neural networks? In Ghahramani, Z., Welling, M., Cortes,
C., Lawrence, N.D., and Weinberger, K.Q. (eds.), Advances in Neural
Information Processing Systems 27, pp. 3320–3328. Curran Associates, Inc.,
Decembe 2014.
• Mahendran, A. and Vedaldi, A. Understanding Deep Image Representations
by Inverting Them. ArXiv e-prints, November 2014.
• Zeiler, Matthew D and Fergus, Rob. Visualizing and understanding
convolutional neural networks. arXiv preprint arXiv:1311.2901, 2013.
• Erhan, Dumitru, Bengio, Yoshua, Courville, Aaron, and Vincent, Pascal.
Visualizing higher-layer features of a deep network. Technical report,
Technical report, University of Montreal, 2009.
• K. Simonyan, A. Vedaldi, and A. Zisserman. Deep inside convolutional
networks: Visualising image classification models and saliency maps. arXiv
preprint arXiv:1312.6034, 2013
2015/10/15 味曽野雅史 (weblab B4) 35
Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015)
Reference
• K. O. Stanley and R. Miikkulainen. A taxonomy for artificial embryogeny.
Artificial Life, 9(2):93–130, 2003
• A. Cully, J. Clune, and J.-B. Mouret. Robots that can adapt like natural
animals. arXiv preprint arXiv:1407.3501, 2014.
• Szegedy, Christian, Zaremba, Wojciech, Sutskever, Ilya, Bruna, Joan, Erhan,
Dumitru, Goodfellow, Ian J., and Fergus, Rob. Intriguing properties of
neural networks. CoRR, abs/1312.6199, 2013.
• Goodfellow, Ian J, Shlens, Jonathon, and Szegedy, Christian. Explaining
and Harnessing Adversarial Examples. ArXiv e-prints, December 2014.
• Jason Yosinski, Jeff Clune, Anh Nguyen, Thomas Fuchs, and Hod Lipson.
Understanding Neural Networks Through Deep Visualization, ICML DL
Workshop 2015.
• Alexander Mordvintsev, Christopher Olah, Mike Tyka. Inceptionism: Going
Deeper into Neural Networks http://googlere-
search.blogspot.jp/2015/06/inceptionism-going-deeper-into-neural.html
2015/10/15 味曽野雅史 (weblab B4) 36

More Related Content

What's hot

20160601画像電子学会
20160601画像電子学会20160601画像電子学会
20160601画像電子学会nlab_utokyo
 
Deep learningの概要とドメインモデルの変遷
Deep learningの概要とドメインモデルの変遷Deep learningの概要とドメインモデルの変遷
Deep learningの概要とドメインモデルの変遷Taiga Nomi
 
大規模画像認識とその周辺
大規模画像認識とその周辺大規模画像認識とその周辺
大規模画像認識とその周辺n_hidekey
 
深層学習 第4章 大規模深層学習の実現技術
深層学習 第4章 大規模深層学習の実現技術深層学習 第4章 大規模深層学習の実現技術
深層学習 第4章 大規模深層学習の実現技術孝昌 田中
 
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までーDeep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までーnlab_utokyo
 
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2Daiki Shimada
 
全脳関西編(松尾)
全脳関西編(松尾)全脳関西編(松尾)
全脳関西編(松尾)Yutaka Matsuo
 
[論文紹介] Convolutional Neural Network(CNN)による超解像
[論文紹介] Convolutional Neural Network(CNN)による超解像[論文紹介] Convolutional Neural Network(CNN)による超解像
[論文紹介] Convolutional Neural Network(CNN)による超解像Rei Takami
 
DLフレームワークChainerの紹介と分散深層強化学習によるロボット制御
DLフレームワークChainerの紹介と分散深層強化学習によるロボット制御DLフレームワークChainerの紹介と分散深層強化学習によるロボット制御
DLフレームワークChainerの紹介と分散深層強化学習によるロボット制御Ryosuke Okuta
 
モデルアーキテクチャ観点からのDeep Neural Network高速化
モデルアーキテクチャ観点からのDeep Neural Network高速化モデルアーキテクチャ観点からのDeep Neural Network高速化
モデルアーキテクチャ観点からのDeep Neural Network高速化Yusuke Uchida
 
Introduction to Deep Compression
Introduction to Deep CompressionIntroduction to Deep Compression
Introduction to Deep CompressionWEBFARMER. ltd.
 
Cvim saisentan-6-4-tomoaki
Cvim saisentan-6-4-tomoakiCvim saisentan-6-4-tomoaki
Cvim saisentan-6-4-tomoakitomoaki0705
 
U-Net: Convolutional Networks for Biomedical Image Segmentationの紹介
U-Net: Convolutional Networks for Biomedical Image Segmentationの紹介U-Net: Convolutional Networks for Biomedical Image Segmentationの紹介
U-Net: Convolutional Networks for Biomedical Image Segmentationの紹介KCS Keio Computer Society
 
CNNチュートリアル
CNNチュートリアルCNNチュートリアル
CNNチュートリアルIkuro Sato
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAGIRobots
 
SSII2014 詳細画像識別 (FGVC) @OS2
SSII2014 詳細画像識別 (FGVC) @OS2SSII2014 詳細画像識別 (FGVC) @OS2
SSII2014 詳細画像識別 (FGVC) @OS2nlab_utokyo
 

What's hot (20)

20160601画像電子学会
20160601画像電子学会20160601画像電子学会
20160601画像電子学会
 
Deep learningの概要とドメインモデルの変遷
Deep learningの概要とドメインモデルの変遷Deep learningの概要とドメインモデルの変遷
Deep learningの概要とドメインモデルの変遷
 
大規模画像認識とその周辺
大規模画像認識とその周辺大規模画像認識とその周辺
大規模画像認識とその周辺
 
20190804_icml_kyoto
20190804_icml_kyoto20190804_icml_kyoto
20190804_icml_kyoto
 
深層学習 第4章 大規模深層学習の実現技術
深層学習 第4章 大規模深層学習の実現技術深層学習 第4章 大規模深層学習の実現技術
深層学習 第4章 大規模深層学習の実現技術
 
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までーDeep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
 
MIRU2014 tutorial deeplearning
MIRU2014 tutorial deeplearningMIRU2014 tutorial deeplearning
MIRU2014 tutorial deeplearning
 
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2
 
全脳関西編(松尾)
全脳関西編(松尾)全脳関西編(松尾)
全脳関西編(松尾)
 
IEEE ITSS Nagoya Chapter
IEEE ITSS Nagoya ChapterIEEE ITSS Nagoya Chapter
IEEE ITSS Nagoya Chapter
 
ILSVRC2015 手法のメモ
ILSVRC2015 手法のメモILSVRC2015 手法のメモ
ILSVRC2015 手法のメモ
 
[論文紹介] Convolutional Neural Network(CNN)による超解像
[論文紹介] Convolutional Neural Network(CNN)による超解像[論文紹介] Convolutional Neural Network(CNN)による超解像
[論文紹介] Convolutional Neural Network(CNN)による超解像
 
DLフレームワークChainerの紹介と分散深層強化学習によるロボット制御
DLフレームワークChainerの紹介と分散深層強化学習によるロボット制御DLフレームワークChainerの紹介と分散深層強化学習によるロボット制御
DLフレームワークChainerの紹介と分散深層強化学習によるロボット制御
 
モデルアーキテクチャ観点からのDeep Neural Network高速化
モデルアーキテクチャ観点からのDeep Neural Network高速化モデルアーキテクチャ観点からのDeep Neural Network高速化
モデルアーキテクチャ観点からのDeep Neural Network高速化
 
Introduction to Deep Compression
Introduction to Deep CompressionIntroduction to Deep Compression
Introduction to Deep Compression
 
Cvim saisentan-6-4-tomoaki
Cvim saisentan-6-4-tomoakiCvim saisentan-6-4-tomoaki
Cvim saisentan-6-4-tomoaki
 
U-Net: Convolutional Networks for Biomedical Image Segmentationの紹介
U-Net: Convolutional Networks for Biomedical Image Segmentationの紹介U-Net: Convolutional Networks for Biomedical Image Segmentationの紹介
U-Net: Convolutional Networks for Biomedical Image Segmentationの紹介
 
CNNチュートリアル
CNNチュートリアルCNNチュートリアル
CNNチュートリアル
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
 
SSII2014 詳細画像識別 (FGVC) @OS2
SSII2014 詳細画像識別 (FGVC) @OS2SSII2014 詳細画像識別 (FGVC) @OS2
SSII2014 詳細画像識別 (FGVC) @OS2
 

Viewers also liked

Distance Metric Learning
Distance Metric LearningDistance Metric Learning
Distance Metric LearningSanghyuk Chun
 
Improving neural networks by preventing co adaptation of feature detectors
Improving neural networks by preventing co adaptation of feature detectorsImproving neural networks by preventing co adaptation of feature detectors
Improving neural networks by preventing co adaptation of feature detectorsJunya Saito
 
Laplacian Pyramid of Generative Adversarial Networks (LAPGAN) - NIPS2015読み会 #...
Laplacian Pyramid of Generative Adversarial Networks (LAPGAN) - NIPS2015読み会 #...Laplacian Pyramid of Generative Adversarial Networks (LAPGAN) - NIPS2015読み会 #...
Laplacian Pyramid of Generative Adversarial Networks (LAPGAN) - NIPS2015読み会 #...Koichi Hamada
 
Metric learning ICML2010 tutorial
Metric learning  ICML2010 tutorialMetric learning  ICML2010 tutorial
Metric learning ICML2010 tutorialzukun
 
Information-Theoretic Metric Learning
Information-Theoretic Metric LearningInformation-Theoretic Metric Learning
Information-Theoretic Metric LearningKoji Matsuda
 
Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3
Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3
Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3Daiki Shimada
 
Image net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural NetworksImage net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural NetworksShingo Horiuchi
 
Deep Residual Learning (ILSVRC2015 winner)
Deep Residual Learning (ILSVRC2015 winner)Deep Residual Learning (ILSVRC2015 winner)
Deep Residual Learning (ILSVRC2015 winner)Hirokatsu Kataoka
 
Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料
Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料
Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料tm_2648
 

Viewers also liked (10)

An Introduction to Metric Learning for Clustering
An Introduction to Metric Learning for ClusteringAn Introduction to Metric Learning for Clustering
An Introduction to Metric Learning for Clustering
 
Distance Metric Learning
Distance Metric LearningDistance Metric Learning
Distance Metric Learning
 
Improving neural networks by preventing co adaptation of feature detectors
Improving neural networks by preventing co adaptation of feature detectorsImproving neural networks by preventing co adaptation of feature detectors
Improving neural networks by preventing co adaptation of feature detectors
 
Laplacian Pyramid of Generative Adversarial Networks (LAPGAN) - NIPS2015読み会 #...
Laplacian Pyramid of Generative Adversarial Networks (LAPGAN) - NIPS2015読み会 #...Laplacian Pyramid of Generative Adversarial Networks (LAPGAN) - NIPS2015読み会 #...
Laplacian Pyramid of Generative Adversarial Networks (LAPGAN) - NIPS2015読み会 #...
 
Metric learning ICML2010 tutorial
Metric learning  ICML2010 tutorialMetric learning  ICML2010 tutorial
Metric learning ICML2010 tutorial
 
Information-Theoretic Metric Learning
Information-Theoretic Metric LearningInformation-Theoretic Metric Learning
Information-Theoretic Metric Learning
 
Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3
Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3
Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3
 
Image net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural NetworksImage net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural Networks
 
Deep Residual Learning (ILSVRC2015 winner)
Deep Residual Learning (ILSVRC2015 winner)Deep Residual Learning (ILSVRC2015 winner)
Deep Residual Learning (ILSVRC2015 winner)
 
Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料
Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料
Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料
 

Similar to 論文輪読: Deep neural networks are easily fooled: High confidence predictions for unrecognizable images

第1回NIPS読み会・関西発表資料 篠崎
 第1回NIPS読み会・関西発表資料 篠崎 第1回NIPS読み会・関西発表資料 篠崎
第1回NIPS読み会・関西発表資料 篠崎shinozaki_takashi
 
第1回NIPS読み会・関西発表資料
第1回NIPS読み会・関西発表資料第1回NIPS読み会・関西発表資料
第1回NIPS読み会・関西発表資料Takashi Shinozaki
 
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...Deep Learning JP
 
予測の不確かさのユーザー調査
予測の不確かさのユーザー調査予測の不確かさのユーザー調査
予測の不確かさのユーザー調査tmtm otm
 
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...SSII
 
先端技術とメディア表現 第4回レポートまとめ
先端技術とメディア表現 第4回レポートまとめ先端技術とメディア表現 第4回レポートまとめ
先端技術とメディア表現 第4回レポートまとめDigital Nature Group
 
コンピュータビジョンの研究開発状況
コンピュータビジョンの研究開発状況コンピュータビジョンの研究開発状況
コンピュータビジョンの研究開発状況cvpaper. challenge
 
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化Yusuke Uchida
 
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View SynthesisDeep Learning JP
 
AIがAIを生み出す?
AIがAIを生み出す?AIがAIを生み出す?
AIがAIを生み出す?Daiki Tsuchiya
 
Depth from Videos in the Wild: Unsupervised Monocular Depth Learning from Unk...
Depth from Videos in the Wild: Unsupervised Monocular Depth Learning from Unk...Depth from Videos in the Wild: Unsupervised Monocular Depth Learning from Unk...
Depth from Videos in the Wild: Unsupervised Monocular Depth Learning from Unk...Kazuyuki Miyazawa
 
文献紹介:PolyViT: Co-training Vision Transformers on Images, Videos and Audio
文献紹介:PolyViT: Co-training Vision Transformers on Images, Videos and Audio文献紹介:PolyViT: Co-training Vision Transformers on Images, Videos and Audio
文献紹介:PolyViT: Co-training Vision Transformers on Images, Videos and AudioToru Tamaki
 
ae-3. ディープラーニングの基礎
ae-3. ディープラーニングの基礎ae-3. ディープラーニングの基礎
ae-3. ディープラーニングの基礎kunihikokaneko1
 
3次元タスクにおけるディープラーニングの最新動向1DeepStereo
3次元タスクにおけるディープラーニングの最新動向1DeepStereo3次元タスクにおけるディープラーニングの最新動向1DeepStereo
3次元タスクにおけるディープラーニングの最新動向1DeepStereoWEBFARMER. ltd.
 
画像認識と深層学習
画像認識と深層学習画像認識と深層学習
画像認識と深層学習Yusuke Uchida
 
Rethinking and Beyond ImageNet
Rethinking and Beyond ImageNetRethinking and Beyond ImageNet
Rethinking and Beyond ImageNetcvpaper. challenge
 
Chainer meetup2016 03-19pub
Chainer meetup2016 03-19pubChainer meetup2016 03-19pub
Chainer meetup2016 03-19pubYuta Kashino
 
[DL輪読会] MoCoGAN: Decomposing Motion and Content for Video Generation
[DL輪読会] MoCoGAN: Decomposing Motion and Content for Video Generation[DL輪読会] MoCoGAN: Decomposing Motion and Content for Video Generation
[DL輪読会] MoCoGAN: Decomposing Motion and Content for Video GenerationDeep Learning JP
 
ae-10. 中間まとめ(ディープラーニング)
ae-10. 中間まとめ(ディープラーニング)ae-10. 中間まとめ(ディープラーニング)
ae-10. 中間まとめ(ディープラーニング)kunihikokaneko1
 

Similar to 論文輪読: Deep neural networks are easily fooled: High confidence predictions for unrecognizable images (20)

第1回NIPS読み会・関西発表資料 篠崎
 第1回NIPS読み会・関西発表資料 篠崎 第1回NIPS読み会・関西発表資料 篠崎
第1回NIPS読み会・関西発表資料 篠崎
 
第1回NIPS読み会・関西発表資料
第1回NIPS読み会・関西発表資料第1回NIPS読み会・関西発表資料
第1回NIPS読み会・関西発表資料
 
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
 
予測の不確かさのユーザー調査
予測の不確かさのユーザー調査予測の不確かさのユーザー調査
予測の不確かさのユーザー調査
 
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
 
先端技術とメディア表現 第4回レポートまとめ
先端技術とメディア表現 第4回レポートまとめ先端技術とメディア表現 第4回レポートまとめ
先端技術とメディア表現 第4回レポートまとめ
 
コンピュータビジョンの研究開発状況
コンピュータビジョンの研究開発状況コンピュータビジョンの研究開発状況
コンピュータビジョンの研究開発状況
 
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
 
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
 
AIがAIを生み出す?
AIがAIを生み出す?AIがAIを生み出す?
AIがAIを生み出す?
 
Depth from Videos in the Wild: Unsupervised Monocular Depth Learning from Unk...
Depth from Videos in the Wild: Unsupervised Monocular Depth Learning from Unk...Depth from Videos in the Wild: Unsupervised Monocular Depth Learning from Unk...
Depth from Videos in the Wild: Unsupervised Monocular Depth Learning from Unk...
 
文献紹介:PolyViT: Co-training Vision Transformers on Images, Videos and Audio
文献紹介:PolyViT: Co-training Vision Transformers on Images, Videos and Audio文献紹介:PolyViT: Co-training Vision Transformers on Images, Videos and Audio
文献紹介:PolyViT: Co-training Vision Transformers on Images, Videos and Audio
 
ae-3. ディープラーニングの基礎
ae-3. ディープラーニングの基礎ae-3. ディープラーニングの基礎
ae-3. ディープラーニングの基礎
 
SBRA2018講演資料
SBRA2018講演資料SBRA2018講演資料
SBRA2018講演資料
 
3次元タスクにおけるディープラーニングの最新動向1DeepStereo
3次元タスクにおけるディープラーニングの最新動向1DeepStereo3次元タスクにおけるディープラーニングの最新動向1DeepStereo
3次元タスクにおけるディープラーニングの最新動向1DeepStereo
 
画像認識と深層学習
画像認識と深層学習画像認識と深層学習
画像認識と深層学習
 
Rethinking and Beyond ImageNet
Rethinking and Beyond ImageNetRethinking and Beyond ImageNet
Rethinking and Beyond ImageNet
 
Chainer meetup2016 03-19pub
Chainer meetup2016 03-19pubChainer meetup2016 03-19pub
Chainer meetup2016 03-19pub
 
[DL輪読会] MoCoGAN: Decomposing Motion and Content for Video Generation
[DL輪読会] MoCoGAN: Decomposing Motion and Content for Video Generation[DL輪読会] MoCoGAN: Decomposing Motion and Content for Video Generation
[DL輪読会] MoCoGAN: Decomposing Motion and Content for Video Generation
 
ae-10. 中間まとめ(ディープラーニング)
ae-10. 中間まとめ(ディープラーニング)ae-10. 中間まとめ(ディープラーニング)
ae-10. 中間まとめ(ディープラーニング)
 

論文輪読: Deep neural networks are easily fooled: High confidence predictions for unrecognizable images

  • 1. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) 味曽野雅史 (weblab B4) 2015/10/15 2015/10/15 味曽野雅史 (weblab B4) 1
  • 2. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) 紹介する論文 • Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images • Anh Nguyen, Jason Yosinski, Jeff Clune • University of Wyoming, Cornell University • Computer Vision and Pattern Recognition (CVPR ’15), IEEE, 2015. • http://www.evolvingai.org/fooling • 被引用: 39 件 (Google Scholar) • 画像識別において,人間には理解できなくても DNN が 99.99%の確信度を 持つような画像を作成することができる; 進化的アルゴリズムにより,画像 を生成 2015/10/15 味曽野雅史 (weblab B4) 2
  • 3. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) 画像例 Figure 1: ImageNet で訓練された DNN で確信度 99.6%以上となる画像 (本論文より) 2015/10/15 味曽野雅史 (weblab B4) 3
  • 4. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) 背景 • DNN の中身はブラックボックス的に扱われることが多い • DNN を可視化することにより,何かしらの知見を得たい 2015/10/15 味曽野雅史 (weblab B4) 4
  • 5. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) 関連研究 : (C)NN の可視化 • 第一層のフィルタを可視化 • 高次元の表現を可視化 • 各層ごとにどういう計算がおこなわれるのかを可視化 • J.Yosinski et al. (2014) • Mahendran & Vadaldi (2014) • deconvolution による可視化 • Zeiler & Fergus (2013) • maximize activation • Erhan et al. (2009) • K.Simonyan et al. (2013) • C.Szegedy et al. (2013) • I.J.Goodfellow et al. (2014) • Deep Dream (2015) • J.Yosinski et al. (2015) 2015/10/15 味曽野雅史 (weblab B4) 5
  • 6. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) 第一層のフィルタを可視化 • 例えばガボールフィルタに近いものが学習される例が確認されている • Conv -> Pool -> FC -> FC -> Softmax の NN (MNIST) の第一層のフィ ルタ (http://eric-yuan.me/cnn/) 2015/10/15 味曽野雅史 (weblab B4) 6
  • 7. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) 高次元の表現を可視化 • http://colah.github.io/posts/2015-01-Visualizing-Representations/ 2015/10/15 味曽野雅史 (weblab B4) 7
  • 8. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) Deconvolution による可視化 • ある入力画像において,どの部分が活性化に寄与したかを可視化する (Zeiler & Fergus) 2015/10/15 味曽野雅史 (weblab B4) 8
  • 9. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) Deconvolution による可視化 Figure 2: Zeiler & Fergus (2013) より 2015/10/15 味曽野雅史 (weblab B4) 9
  • 10. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) Maximize Activation • 各層において,各ユニットの出力の和が最大になるような画像を生成する • ランダムなノイズパターン x = x0 からスタート • 活性化関数 ai (x) に対して x ← x + η ∂ai (x) ∂x により最適化 • このとき,適当な正則化項を用いないと,人間が見てよく分からない画像 が生成される 2015/10/15 味曽野雅史 (weblab B4) 10
  • 11. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) 本論文の例 • 正則化項なし (99.99%の確信度) 2015/10/15 味曽野雅史 (weblab B4) 11
  • 12. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) K.Simonayn et al. (2013) • L2 正則化を利用 2015/10/15 味曽野雅史 (weblab B4) 12
  • 13. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) Deep Dream • 隣接するピクセル同士が相関するような制約を入れている 2015/10/15 味曽野雅史 (weblab B4) 13
  • 14. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) J.Yosinski et al. (2015) • 4 つの異なる正則化方法を提案 2015/10/15 味曽野雅史 (weblab B4) 14
  • 15. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) 関連研究 : DNN と人間の視覚の違い • 正しく分類されている画像を,少し変更するだけで誤認識するように変更 できる • C.Szegedy et al. (2013) • I.J.Goodfellow et al. (2014) 2015/10/15 味曽野雅史 (weblab B4) 15
  • 16. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) C.Szegedy et al. (2013) • 正しく識別出来てる画像を少し歪ませることで,全く別のものとして識別 させる 2015/10/15 味曽野雅史 (weblab B4) 16
  • 17. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) Goodfellow et al. (2014) Figure 3: 2015/10/15 味曽野雅史 (weblab B4) 17
  • 18. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) どう画像を変化させているか? • 通常の学習の場合 → 誤差逆伝播,つまり誤識別した場合パラメータを調 整する • この時,パラメータを調整せず,逆に画像に少し変更を加えたら..? 2015/10/15 味曽野雅史 (weblab B4) 18
  • 19. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) この論文の内容 - EA で画像を生成したところ,よく分からないのができた,というのが実際の経 緯っぽい 2015/10/15 味曽野雅史 (weblab B4) 19
  • 20. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) この論文で使われるネットワークモデル • AlexNet (A.Krizhevsky et al. 2012) • LeNet (Y.LeCun et al. 1998) • 既に訓練済みのものを利用 (caffe 版) 2015/10/15 味曽野雅史 (weblab B4) 20
  • 21. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) 画像の生成手法 • 進化的アルゴリズム (Evolutionary Algorithm) • MAP-Elites (multi-dimensional archive of phenotypic elites) • A.Cully et al. 2015 • ベストな個体を記憶 • 各繰り返しステップにおいて, • 適当に個体を選び,適当に突然変異 • もし現在のベストな個体よりも良ければ,それと交換 • 今回の場合,ベストな個体 = 確信度が高い • direct encoding • 遺伝子として画像をそのまま表現 • 例) MNIST なら 28x28 のピクセル • 各ピクセルは一様乱数で初期化 • indirect encoding • Compositional Pattern-Producing Network (CPPN) • K.O.Stanley (2007) • ピクセル位置 (x,y) を受け取り,色値を出力する NN のようなもの 2015/10/15 味曽野雅史 (weblab B4) 21
  • 22. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) LeNet (MNIST) Figure 4: direct encoding: 確信度 99.99% 2015/10/15 味曽野雅史 (weblab B4) 22
  • 23. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) LeNet (MNIST) Figure 5: indirect encoding: 確信度 99.99% 2015/10/15 味曽野雅史 (weblab B4) 23
  • 24. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) AlexNet (ImageNet) • direct encoding における世代数と確信度の変化 • direct encoding はあまりうまくいかず 2015/10/15 味曽野雅史 (weblab B4) 24
  • 25. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) AlexNet (ImageNet) • indirect encoding における世代数と確信度の変化 2015/10/15 味曽野雅史 (weblab B4) 25
  • 26. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) indirect encoding によって生成された画像 Figure 6: 平均確信度 99.12% 2015/10/15 味曽野雅史 (weblab B4) 26
  • 27. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) fooling image を入れた学習 • DNN1 で学習 (n クラス) • DNN1 を使ってfooling image を作成 • DNN2 で fooling image を入れた (n+1) クラスの分類問題を学習 • これを繰り返す 2015/10/15 味曽野雅史 (weblab B4) 27
  • 28. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) fooling image を入れた学習: ImageNet での結果 • DNN2 で作成したfooling image の確信度は DNN1 のときと比べ,大きく下 がった (平均確信度 88.1%から 11.7%) • ただし,MNIST の場合は確信度はそれほど下がらなかった 2015/10/15 味曽野雅史 (weblab B4) 28
  • 29. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) 生成された画像に対する考察 • ユニークな特徴を強調するように進化すれば良い • (人間には知覚できない) 少しの変化で識別するクラスが変えられることを 考えると,多様性が生まれているに驚きがある 2015/10/15 味曽野雅史 (weblab B4) 29
  • 30. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) 系統的な画像の生成 • 同じ種類 (犬など) は,同じようなものが進化で得られる 2015/10/15 味曽野雅史 (weblab B4) 30
  • 31. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) 繰り返し模様を除去した場合 • indirect encoding で得られる結果には,繰り返し模様が多い • 繰り返しを除去した場合 (下図): 繰り返しが確信度に寄与することが確認 できる 2015/10/15 味曽野雅史 (weblab B4) 31
  • 32. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) 仮説: 生成モデルと識別モデル • 今回の DNN のような識別モデル p(y|X) の場合,入力 X に対して,クラ ス y を決める境界面を学習する • 入力空間が高次元の場合,あるクラスと認識する空間は訓練データの規模 よりも大きくなる • (仮説) 進化的計算で生成された画像は,境界面よりも遠く離れていた • 生成モデル p(y, X) であれば,p(y|X) の他に p(X) も必要.今回のような 問題はおきないかもしれない 2015/10/15 味曽野雅史 (weblab B4) 32
  • 33. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) まとめ • 進化的計算によりあるクラスと 99%の確信度で識別される画像を生成する と,人間には判断がつかないものが生成される • 進化的計算の結果得られる画像として考えられるもの • どのクラスに対応する画像も似たようなものが生成される (C.Szegedy らの実験結果より) • 人間に認識できる画像が生成される • 実験してみると,上の二つのどちらでもなかった • もちろん筆者が意図的に認識できないような画像を生成したわけでは ない • DNN の実世界への応用を考えると,セキュリティ的な問題がある • 防犯カメラ,自動運転,音声認識,画像検索エンジン,… • CPPN EA による画像生成は,DNN 可視化の新規手法ともいえる 2015/10/15 味曽野雅史 (weblab B4) 33
  • 34. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) Deep Visualization Toolbox • http://yosinski.com/deepvis • https://github.com/yosinski/deep-visualization-toolbox 2015/10/15 味曽野雅史 (weblab B4) 34
  • 35. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) Reference • Yosinski, J., Clune, J., Bengio, Y., and Lipson, H. How transferable are features in deep neural networks? In Ghahramani, Z., Welling, M., Cortes, C., Lawrence, N.D., and Weinberger, K.Q. (eds.), Advances in Neural Information Processing Systems 27, pp. 3320–3328. Curran Associates, Inc., Decembe 2014. • Mahendran, A. and Vedaldi, A. Understanding Deep Image Representations by Inverting Them. ArXiv e-prints, November 2014. • Zeiler, Matthew D and Fergus, Rob. Visualizing and understanding convolutional neural networks. arXiv preprint arXiv:1311.2901, 2013. • Erhan, Dumitru, Bengio, Yoshua, Courville, Aaron, and Vincent, Pascal. Visualizing higher-layer features of a deep network. Technical report, Technical report, University of Montreal, 2009. • K. Simonyan, A. Vedaldi, and A. Zisserman. Deep inside convolutional networks: Visualising image classification models and saliency maps. arXiv preprint arXiv:1312.6034, 2013 2015/10/15 味曽野雅史 (weblab B4) 35
  • 36. Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images (Anh Nguyen, Jason Yosinski, Jeff Clune; CVPR 2015) Reference • K. O. Stanley and R. Miikkulainen. A taxonomy for artificial embryogeny. Artificial Life, 9(2):93–130, 2003 • A. Cully, J. Clune, and J.-B. Mouret. Robots that can adapt like natural animals. arXiv preprint arXiv:1407.3501, 2014. • Szegedy, Christian, Zaremba, Wojciech, Sutskever, Ilya, Bruna, Joan, Erhan, Dumitru, Goodfellow, Ian J., and Fergus, Rob. Intriguing properties of neural networks. CoRR, abs/1312.6199, 2013. • Goodfellow, Ian J, Shlens, Jonathon, and Szegedy, Christian. Explaining and Harnessing Adversarial Examples. ArXiv e-prints, December 2014. • Jason Yosinski, Jeff Clune, Anh Nguyen, Thomas Fuchs, and Hod Lipson. Understanding Neural Networks Through Deep Visualization, ICML DL Workshop 2015. • Alexander Mordvintsev, Christopher Olah, Mike Tyka. Inceptionism: Going Deeper into Neural Networks http://googlere- search.blogspot.jp/2015/06/inceptionism-going-deeper-into-neural.html 2015/10/15 味曽野雅史 (weblab B4) 36