SlideShare a Scribd company logo
1 of 37
Download to read offline
© 2019 Fixstars Autonomous Technologies, All rights reserved.
自動運転におけるCNNの信頼性
株式会社 Fixstars Autonomous Technologies(2019/2/12)
エンジニア 吉田智晴
© 2019 Fixstars Autonomous Technologies, All rights reserved.
自動運転におけるCNN
1
[1] https://www.youtube.com/watch?v=qWl9idsCuLQ
[2] https://www.youtube.com/watch?v=8jfscFuP_9k
 CNNは自動運転において不可欠な技術
Semantic Segmentation[1] Object Detection[2]
実用においては性能だけでなく
CNNの予測の信頼性 が重要
© 2019 Fixstars Autonomous Technologies, All rights reserved.
予測の信頼性の社会的要求
2
 近年、国内外で機械学習技術の信頼性が求められている
 日本:人間中心のAI社会原則案(2019年3月に正式決定)
 EU:GDPR(一般データ保護規則, 2018年5月施行)
 アルゴリズムの出した結果の説明を求める権利(Right to Explanation)
CNNによる予測に対する 説明性 が今後求められそう
Ex)事故が起きた際になぜ起きたのかの説明
© 2019 Fixstars Autonomous Technologies, All rights reserved.
色々な信頼性の向上の仕方
3
 今回はこれら3つの観点で論文紹介
説明性 脆弱性への対処
予測の脆弱性に対処して
信頼性を高める
信頼性の表現
予測の信頼度を正確に
定量化して予測結果を
扱いやすくする
信頼性
予測を説明可能にして
その信頼性を高める
これが
原因!
© 2019 Fixstars Autonomous Technologies, All rights reserved.
論文紹介
予測の説明性
4
© 2019 Fixstars Autonomous Technologies, All rights reserved.
論文紹介:予測の説明性
5
 目的
 予測結果を人間が解釈できるようにすること
 誤った予測の原因を知ることによる効率的なモデルの改良
 想定活用シーン
事故発生!!
白線がいもむしに
見えていました。。
1. 事故原因の説明
Dog…
2. 効率的なモデルの改良
変な特徴を見て判断してる。。
もっと犬のデータ増やそう
© 2019 Fixstars Autonomous Technologies, All rights reserved.
予測の説明方法
6
[1] http://www.heatmapping.org/deeptaylor/
[2] Salvaraju et al., Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization, (2016)
 分類の根拠となった領域の可視化
 分類結果に対して、画像中のどの領域に注目してその判断が行われた
のかを可視化により説明する手法
© 2019 Fixstars Autonomous Technologies, All rights reserved.
どのように可視化するか
7
Salvaraju et al., Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization, (2016)
 Grad-CAM [Salvaraju+, ICCV16]
 CNNの出力の特徴mapの各クラスへの分類の貢献度𝑆 𝑐を定義
 貢献度𝑆 𝐶
の総和の順番を入れ替え
特徴マップを各座標ごとに平均
クラスごとのchannelの重要度
で重みづけして総和
ヒートマップとして可視化
© 2019 Fixstars Autonomous Technologies, All rights reserved.
どのように可視化するか
8
[1] Ungurean, DeepRCar: An Autonomous Car Model.(2018)
[2] Chattopadhyay et al., Grad-CAM++: Improved Visual Explanations for Deep Convolutional Networks.(2017)
 Grad-CAM++ [Chattopadhyay+, WACV18]
 Grad-CAMの拡張手法
 自動運転への応用例[1]
 自動運転のステアリング角度予測処理へのGrad-CAM適用例
過学習時は
見ている部位が変
正しい場所を見て
判断できてそう
© 2019 Fixstars Autonomous Technologies, All rights reserved.
自動運転での可視化手法
9
[1] Mariusz Bojarski et al, VisualBackProp: efficient visualization of CNNs, (2018)
 VisualBackProp [Bojarski+, ICRA18]
 自動運転用のdebugツールとして開発された可視化手法
 steeringの予測の例が紹介されているが汎用的に利用可
深い層の予測に強く関連する情報を浅い層まで逆伝搬させ、
高解像度で予測との関連情報を可視化
低解像度、予測との関連情報多い高解像度、予測との関連情報少ない
© 2019 Fixstars Autonomous Technologies, All rights reserved.
自動運転での可視化手法
10
[1]S Bach, et al, On Pixel-wise Explanations for Non-Linear Classifier Decisions by Layer-wise Relevance
Propagation, (2015)
[2] Mariusz Bojarski et al, VisualBackProp: efficient visualization of CNNs, (2018)
 VisualBackProp [Bojarski+, ICRA18]
 平均計算時間2ms, 既存手法[1]は24.6msで約12倍高速
 大規模データの分析やReal-timeのapplicationに有効
© 2019 Fixstars Autonomous Technologies, All rights reserved.
誤った説明の除去
11
[1]Kim et al., Interpretable Learning for Self-Driving Cars by Visualizing Causal Attention.(2017), ICCV
 Visual Causal Attention [Kim+, ICCV17]
1. 予測の根拠となるヒートマップを作成(deconvolution)
• 正しい場合もあれば、間違っている場合もある
2. ヒートマップをクラスタリングし、重要な根拠だけを抽出
© 2019 Fixstars Autonomous Technologies, All rights reserved.
可視化は欲しい説明となっているか?
12
[1]G Montavon, W Samek, KR Müller. Methods for Interpreting and Understanding Deep Neural Networks. Digital
Signal Processing, 73:1-15, 2018.
[2] http://www.heatmapping.org/slides/2019_NLDL.pdf
 何の可視化であるかの理解が大切 [G Montavon+, 2018]
 勾配の可視化(Sensitivity Analysis)
• どの部位が変化すればより車と判断されやすいか?を説明
 活性の可視化(LRP, Deep Taylor Decomposition)
• どの部位で車と判断しているか?を説明
© 2019 Fixstars Autonomous Technologies, All rights reserved.
可視化は欲しい説明となっているか?
13
[1]Cynthia Rudin, Please Stop Explaining Black Box Models for High-Stakes Decisions, (NIPS 2018), Workshop on
Critiquing and Correcting Trends in Machine Learning.
 説明性への警鐘 [C Rudin, NIPS18 WS]
 ヒートマップによる可視化は、どこを見て判断したかはわかる
が、それらの特徴をどう利用したかは分からない
• 見ている場所の正しさは、判断の正しさを保証しない
 説明は完璧に信頼できるものとは限らない
• 何らかの近似をしたモデルは説明が近似である可能性がある
• 誤った説明を信じることは誤った判断へとつながる
この部分の情報をどう使って
Catと予測した・・?
© 2019 Fixstars Autonomous Technologies, All rights reserved.
予測の説明性手法のまとめ
14
 CNNの判断の根拠となった部位の可視化手法は、どこに
注目したかの説明を行う
 どこの何に注目(勾配, 活性など)した説明なのかを理解し
て活用する必要がある
 求める予測の説明は何なのか(どこに注目したか, どう入
力を利用したかなど)の整理が必要
 説明手法を安易に信じることは、誤った判断を下しかね
ないことに注意
© 2019 Fixstars Autonomous Technologies, All rights reserved.
論文紹介
予測の信頼度の表現法
15
© 2019 Fixstars Autonomous Technologies, All rights reserved.
論文紹介:予測の信頼度の表現法
16
[1] https://arxiv.org/pdf/1803.01534.pdf ,[2] https://github.com/MaybeShewill-CV/lanenet-lane-detection,
[3] https://www.youtube.com/watch?v=8jfscFuP_9k
 目的
 信頼度の適切な定量化による正確なリスク評価
 信頼度の定量化による説明性の向上
 想定活用シーン
CNNの予測を組み合わせる際に各々をどの程度信頼して良いかが判断可能
複数モデルの組み合わせ
© 2019 Fixstars Autonomous Technologies, All rights reserved.
予測の信頼度の表現=予測の不確かさの表現
17
[1] Y. Gal, Uncertainty in deep learning, - University of Cambridge, 2016
[2] A Kendall, Y Gal, What uncertainties do we need in bayesian deep learning for computer vision?, 2017
 不確かさの分類 [Y. Gal, 2016]
 認識論的不確かさ(Epistemic uncertainty)
• モデルパラメータの不確かさ(データ数増加 →不確かさ減少)
• パラメータの確率分布として表現
 偶発的不確かさ(Aleatoric uncertainty)
• 観測データ固有の不確かさ(データ数増加 →不確かさ変化なし)
• モデルの出力の確率分布として表現
• Ex)センサノイズ
𝒑(𝒚|𝒇 𝑾 𝑿 ) 𝒑(𝑾|𝑿, 𝒀)
Epistemic uncertaintyAleatoric uncertainty
𝑓(𝑋):BNN, X:入力, Y:出力, W:パラメータ
© 2019 Fixstars Autonomous Technologies, All rights reserved.
予測の不確かさの表現
18
[1] Y. Gal, Uncertainty in deep learning, - University of Cambridge, 2016
[2] A Kendall, Y Gal, What uncertainties do we need in bayesian deep learning for computer vision?, 2017
 不確かさの可視化 [A.Kendall+, NIPS17]
 認識論的不確かさ(Epistemic uncertainty)
• データ不足で結果の誤りが大きな部分の不確かさが大きい
 偶発的不確かさ(Aleatoric uncertainty)
• エッジ部分や奥の方について不確かさが大きい
© 2019 Fixstars Autonomous Technologies, All rights reserved.
予測の信頼度の応用例
19
[1] Rowan McAllister et al., Concrete Problems for Autonomous Vehicle Safety: Advantages of Bayesian Deep
Learning, IJCAI2017
 複数手法の統合 [R McAllister+, IJCAI17]
 自動運転では複数モジュールの統合が必須
 個々のモジュールで許容される誤差も、組み合わせにより誤差
が蓄積されると危険
© 2019 Fixstars Autonomous Technologies, All rights reserved.
予測の信頼度の応用例
20
[1] Rowan McAllister et al., Concrete Problems for Autonomous Vehicle Safety: Advantages of Bayesian Deep
Learning, IJCAI2017
 複数手法の統合 [R McAllister+, IJCAI17]
 各々のモジュールが予測の不確かさを後段に送ることで、信頼
できる決定が可能
 個々の不確かさを利用してシステム全体の不確かさが測定可能
© 2019 Fixstars Autonomous Technologies, All rights reserved.
予測の信頼度の応用例
21
[1] R Michelmore et al., Evaluating Uncertainty Quantification in End-to-End Autonomous Driving Control, 2018
[2] L Smith et al., Understanding Measures of Uncertainty for Adversarial Example Detection, 2018
 衝突の予測 [R Michelmore+, 2018]
 予測の不確かさを利用した衝突予測
 衝突予測に適した不確かさの尺度を調査
 相互情報量が最も優れた性能(3秒前に衝突を予測)
 Adversarial Examplesの検出 [L Smith+, UAI18]
 予測の不確かさを利用したAdversarial Examplesの検出
 単一のBayesian Neural Networkモデルでは事後分布の近似精度
が悪くて検出不可
 アンサンブルで対処
© 2019 Fixstars Autonomous Technologies, All rights reserved.
予測の信頼度の表現まとめ
22
 予測の信頼度は予測の不確かさとして表現できる
 データ不足による不確かさ(認識論的不確かさ)とデータ
自体の持つ不確かさ(偶発的不確かさ)を分けてモデル化
 予測の不確かさを利用することで、適切なリスク評価が
可能となり判断の信頼性が向上
© 2019 Fixstars Autonomous Technologies, All rights reserved.
論文紹介
予測の脆弱性
23
© 2019 Fixstars Autonomous Technologies, All rights reserved.
論文紹介:予測の脆弱性
24
 目的
 CNNの脆弱性の把握
 CNNの脆弱性に対する強化
 想定活用シーン
脆弱性への対処を行うことで信頼できるロバストなモデルへと強化
脆弱性を把握して対処する
脆弱性 vs
© 2019 Fixstars Autonomous Technologies, All rights reserved.
Adversarial Examples
25
[1] Ian J. Goodfellow et al., Explaining and Harnessing Adversarial Examples, 2015
 入力画像に摂動を加え、CNNに誤分類させるサンプル
 FGSM [Goodfellow+, ICLR15]
パンダ テナガザル
人間の目ではパンダにしか見えない
© 2019 Fixstars Autonomous Technologies, All rights reserved.
自動運転におけるAdversarial Examples
26
[1] J Lu et al, NO Need to Worry about Adversarial Examples in Object Detection in Autonomous Vehicles, 2017
[2] K Eykholt et al, Robust Physical-World Attacks on Deep Learning Models, 2018
 自動運転では気にしなくていい? [J Lu+, CVPR17]
 Adversarial Examplesは角度や距離が変わると誤認識しない
 自動運転では角度や距離が変化するので大丈夫かも…?
 RP2 [K Eykholt+, CVPR18]
 距離や角度にロバストなAdversarial Examples(大丈夫じゃない)
誤認識は一瞬
© 2019 Fixstars Autonomous Technologies, All rights reserved.
自動運転におけるAdversarial Examples
27
[1] J Lu et al., Standard detectors aren’t (currently) fooled by physical adversarial stop signs, 2018
[2] K Eykholt et al., Physical Adversarial Examples for Object Detectors, 2018
 YOLOやFasterRCNNは騙せない [J Lu+(2017)]
 分類器は騙せても、検出器はだませるという確証はない
 検出器も騙した [K Eykholt+(2018)]
自動運転においても安心はできなさそう
© 2019 Fixstars Autonomous Technologies, All rights reserved.
自動運転車への攻撃例
28
[1] Sitawarin et al., DARTS: Deceiving autonomous cars with toxic signs.(2018)
 DARTS [C Sitawarin+, 2018]
 Out-of-Distribution attacks
• 訓練/テストデータにはないデータを初期値とした
Adversarial Examplesの作成
• 標識以外の物体も攻撃に利用される危険性がある
© 2019 Fixstars Autonomous Technologies, All rights reserved.
自動運転車への攻撃例
29
[1] Sitawarin et al., DARTS: Deceiving autonomous cars with toxic signs.(2018)
 DARTS [C Sitawarin+, 2018]
 Out-of-Distribution attacksに対するdefence
• Adversarial trainingによりロバストな学習を行い、
Adversarial Attackに対する防御性能を確認
• Out of distribution attackはin distribution attackよりも
防ぎにくい
© 2019 Fixstars Autonomous Technologies, All rights reserved.
Adversarial Examples以外の攻撃
30
[1] Sitawarin et al., DARTS: Deceiving autonomous cars with toxic signs.(2018)
 DARTS [C Sitawarin, 2018]
 Lenticular Printing attack
• 自動運転のセンサと人間の標識を見る角度の違いを利用
• 角度により見え方が変わる標識を用意して誤認識させる
© 2019 Fixstars Autonomous Technologies, All rights reserved.
予測の脆弱性のまとめ
31
 Adversarial Examplesによる予測の誤りは自動運転にお
いて深刻であり、将来的に課題となり得る
 研究が日々進んでおり、今後も動向の把握が必要
 攻撃はAdversarial Examples以外もある
© 2019 Fixstars Autonomous Technologies, All rights reserved.
全体のまとめ
32
 予測の説明性
 事故原因の特定や、モデルの改善に利用可能
 各手法で説明している内容が大きく異なるため、求めている説
明が何であるかの正しい認識が必要
 予測の信頼度の表現
 適切なリスク評価が可能となり、判断の信頼性が向上
 計算速度が課題
 予測の脆弱性
 自動運転において攻撃のされ方は様々
 CNNをロバストにするだけでは防ぎきれないかもしれず、今後
も脆弱性の把握と対処の検討が必要そう
© 2019 Fixstars Autonomous Technologies, All rights reserved.
参考文献
33
 予測の説明性
 Salvaraju et al., Grad-CAM: Visual Explanations from Deep Networks via Gradient-based
Localization, (2016). ICCV, https://arxiv.org/abs/1610.02391
 Chattopadhyay et al., Grad-CAM++: Improved Visual Explanations for Deep Convolutional
Networks.(2017), WACV 2018, https://arxiv.org/abs/1710.11063
 Ungurean, DeepRCar: An Autonomous Car Model.(2018),
https://dspace.cvut.cz/bitstream/handle/10467/76316/F8-DP-2018-Ungurean-David-
thesis.pdf
 Mariusz Bojarski et al, VisualBackProp: efficient visualization of CNNs, (2018), ICRA,
https://arxiv.org/abs/1611.05418
 Kim et al., Interpretable Learning for Self-Driving Cars by Visualizing Causal Attention.(2017),
ICCV, https://arxiv.org/abs/1703.10631
 G Montavon, W Samek, KR Müller. Methods for Interpreting and Understanding Deep Neural
Networks. Digital Signal Processing, 73:1-15, 2018, https://arxiv.org/abs/1706.07979
 S Bach, A Binder, G Montavon, F Klauschen, KR Müller, W Samek. On Pixel-wise
Explanations for Non-Linear Classifier Decisions by Layer-wise Relevance Propagation,
PLOS ONE, 10(7):e0130140, 2015, http://iphome.hhi.de/samek/pdf/BacPLOS15.pdf
 Cynthia Rudin, Please Stop Explaining Black Box Models for High-Stakes Decisions, (NIPS
2018), Workshop on Critiquing and Correcting Trends in Machine Learning.
https://arxiv.org/abs/1811.10154
© 2019 Fixstars Autonomous Technologies, All rights reserved.
参考文献
34
 予測の信頼度の表現法
 Y. Gal, Uncertainty in deep learning, - University of Cambridge, 2016,
http://mlg.eng.cam.ac.uk/yarin/blog_2248.html
 A Kendall, Y Gal, What uncertainties do we need in bayesian deep learning for computer
vision?, 2017, https://arxiv.org/abs/1703.04977
 Rowan McAllister et al., Concrete Problems for Autonomous Vehicle Safety: Advantages of
Bayesian Deep Learning, IJCAI2017, https://www.ijcai.org/proceedings/2017/661
 R Michelmore et al., Evaluating Uncertainty Quantification in End-to-End Autonomous
Driving Control, 2018, https://arxiv.org/abs/1811.06817
 L Smith et al., Understanding Measures of Uncertainty for Adversarial Example Detection,
2018, UAI, https://arxiv.org/abs/1803.08533
 A Kendall et al, Multi-Task Learning Using Uncertainty to Weigh Losses for Scene Geometry
and Semantics. 2018, CVPR, https://arxiv.org/abs/1705.07115
 A Kendall et al, Modelling Uncertainty in Deep Learning for Camera Relocalization, 2016,
ICRA, https://arxiv.org/abs/1509.05909
© 2019 Fixstars Autonomous Technologies, All rights reserved.
参考文献
35
 予測の脆弱性
 Ian J. Goodfellow et al., Explaining and Harnessing Adversarial Examples, 2015, ICLR,
https://arxiv.org/abs/1412.6572
 Sitawarin et al., DARTS: Deceiving autonomous cars with toxic signs.2018,
https://arxiv.org/abs/1802.06430
 J Lu et al, NO Need to Worry about Adversarial Examples in Object Detection in Autonomous
Vehicles, 2017, CVPR, https://arxiv.org/abs/1707.03501
 K Eykholt et al, Robust Physical-World Attacks on Deep Learning Models, 2018, CVPR,
https://arxiv.org/abs/1707.08945
 J Lu et al., Adversarial Examples that Fool Detectors, 2018, https://arxiv.org/abs/1712.02494
 J Lu et al., Standard detectors aren’t (currently) fooled by physical adversarial stop signs,
2017, https://arxiv.org/abs/1710.03337
 K Eykholt et al., Physical Adversarial Examples for Object Detectors, 2018,
https://arxiv.org/abs/1807.07769
© 2019 Fixstars Autonomous Technologies, All rights reserved.
36

More Related Content

What's hot

Transformer 動向調査 in 画像認識(修正版)
Transformer 動向調査 in 画像認識(修正版)Transformer 動向調査 in 画像認識(修正版)
Transformer 動向調査 in 画像認識(修正版)Kazuki Maeno
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習Eiji Uchibe
 
Generative Models(メタサーベイ )
Generative Models(メタサーベイ )Generative Models(メタサーベイ )
Generative Models(メタサーベイ )cvpaper. challenge
 
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介Deep Learning JP
 
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision TransformerYusuke Uchida
 
モデル高速化百選
モデル高速化百選モデル高速化百選
モデル高速化百選Yusuke Uchida
 
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜SSII
 
semantic segmentation サーベイ
semantic segmentation サーベイsemantic segmentation サーベイ
semantic segmentation サーベイyohei okawa
 
Overcoming Catastrophic Forgetting in Neural Networks読んだ
Overcoming Catastrophic Forgetting in Neural Networks読んだOvercoming Catastrophic Forgetting in Neural Networks読んだ
Overcoming Catastrophic Forgetting in Neural Networks読んだYusuke Uchida
 
Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)Yamato OKAMOTO
 
【DL輪読会】An Image is Worth One Word: Personalizing Text-to-Image Generation usi...
【DL輪読会】An Image is Worth One Word: Personalizing Text-to-Image Generation usi...【DL輪読会】An Image is Worth One Word: Personalizing Text-to-Image Generation usi...
【DL輪読会】An Image is Worth One Word: Personalizing Text-to-Image Generation usi...Deep Learning JP
 
ECCV2020 Oral論文 完全読破(1/2)
ECCV2020 Oral論文 完全読破(1/2)ECCV2020 Oral論文 完全読破(1/2)
ECCV2020 Oral論文 完全読破(1/2)cvpaper. challenge
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門tmtm otm
 
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...Deep Learning JP
 
【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者cvpaper. challenge
 
よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理Masatoshi Yoshida
 
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State SpacesDeep Learning JP
 
[DL輪読会]When Does Label Smoothing Help?
[DL輪読会]When Does Label Smoothing Help?[DL輪読会]When Does Label Smoothing Help?
[DL輪読会]When Does Label Smoothing Help?Deep Learning JP
 
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted WindowsDeep Learning JP
 

What's hot (20)

Transformer 動向調査 in 画像認識(修正版)
Transformer 動向調査 in 画像認識(修正版)Transformer 動向調査 in 画像認識(修正版)
Transformer 動向調査 in 画像認識(修正版)
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
 
Generative Models(メタサーベイ )
Generative Models(メタサーベイ )Generative Models(メタサーベイ )
Generative Models(メタサーベイ )
 
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
 
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
 
モデル高速化百選
モデル高速化百選モデル高速化百選
モデル高速化百選
 
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
 
semantic segmentation サーベイ
semantic segmentation サーベイsemantic segmentation サーベイ
semantic segmentation サーベイ
 
Overcoming Catastrophic Forgetting in Neural Networks読んだ
Overcoming Catastrophic Forgetting in Neural Networks読んだOvercoming Catastrophic Forgetting in Neural Networks読んだ
Overcoming Catastrophic Forgetting in Neural Networks読んだ
 
Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)
 
【DL輪読会】An Image is Worth One Word: Personalizing Text-to-Image Generation usi...
【DL輪読会】An Image is Worth One Word: Personalizing Text-to-Image Generation usi...【DL輪読会】An Image is Worth One Word: Personalizing Text-to-Image Generation usi...
【DL輪読会】An Image is Worth One Word: Personalizing Text-to-Image Generation usi...
 
ECCV2020 Oral論文 完全読破(1/2)
ECCV2020 Oral論文 完全読破(1/2)ECCV2020 Oral論文 完全読破(1/2)
ECCV2020 Oral論文 完全読破(1/2)
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
 
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
 
【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者
 
よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理
 
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
 
[DL輪読会]When Does Label Smoothing Help?
[DL輪読会]When Does Label Smoothing Help?[DL輪読会]When Does Label Smoothing Help?
[DL輪読会]When Does Label Smoothing Help?
 
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
 

Similar to 自動運転におけるCNNの信頼性

ポストAiを見据えた日本企業の経営戦略 加藤整 20171020_v1.2
ポストAiを見据えた日本企業の経営戦略 加藤整 20171020_v1.2ポストAiを見据えた日本企業の経営戦略 加藤整 20171020_v1.2
ポストAiを見据えた日本企業の経営戦略 加藤整 20171020_v1.2Sei Kato (加藤 整)
 
デジタルテクノロジーの進化がもたらすクルマの付加価値向上 20151218
デジタルテクノロジーの進化がもたらすクルマの付加価値向上 20151218デジタルテクノロジーの進化がもたらすクルマの付加価値向上 20151218
デジタルテクノロジーの進化がもたらすクルマの付加価値向上 20151218Sei Kato (加藤 整)
 
機械学習型サービス運用時の課題と実践的手法
機械学習型サービス運用時の課題と実践的手法機械学習型サービス運用時の課題と実践的手法
機械学習型サービス運用時の課題と実践的手法Sei Kato (加藤 整)
 
MLOps NYC 2019 and Strata Data Conference NY 2019 report nttdata
MLOps NYC 2019 and Strata Data Conference NY 2019 report nttdataMLOps NYC 2019 and Strata Data Conference NY 2019 report nttdata
MLOps NYC 2019 and Strata Data Conference NY 2019 report nttdataNTT DATA Technology & Innovation
 
【CVPR 2020 メタサーベイ】Vision Applications and Systems
【CVPR 2020 メタサーベイ】Vision Applications and Systems【CVPR 2020 メタサーベイ】Vision Applications and Systems
【CVPR 2020 メタサーベイ】Vision Applications and Systemscvpaper. challenge
 
【Azureデータ分析シリーズ】非専門家向け/利用部門主導で始めるデータ分析_ナレッジコミュニケーション公開資料
【Azureデータ分析シリーズ】非専門家向け/利用部門主導で始めるデータ分析_ナレッジコミュニケーション公開資料【Azureデータ分析シリーズ】非専門家向け/利用部門主導で始めるデータ分析_ナレッジコミュニケーション公開資料
【Azureデータ分析シリーズ】非専門家向け/利用部門主導で始めるデータ分析_ナレッジコミュニケーション公開資料Takaya Nakanishi
 
Uber 社の自動運転車の安全保証のための Safety Case Framework と ANSI/UL 4600 との適合性ギャップ分析: 安全コンセ...
Uber 社の自動運転車の安全保証のための Safety Case Framework と ANSI/UL 4600 との適合性ギャップ分析: 安全コンセ...Uber 社の自動運転車の安全保証のための Safety Case Framework と ANSI/UL 4600 との適合性ギャップ分析: 安全コンセ...
Uber 社の自動運転車の安全保証のための Safety Case Framework と ANSI/UL 4600 との適合性ギャップ分析: 安全コンセ...Kenji Taguchi
 
機械学習システムの品質保証に向けた課題とコンソーシアム活動
機械学習システムの品質保証に向けた課題とコンソーシアム活動機械学習システムの品質保証に向けた課題とコンソーシアム活動
機械学習システムの品質保証に向けた課題とコンソーシアム活動Hideto Ogawa
 
Trajectory_採用Deck202311
Trajectory_採用Deck202311Trajectory_採用Deck202311
Trajectory_採用Deck202311yhirokawa1
 
イノベーション創発に資する人工知能基盤技術の創出と統合化
イノベーション創発に資する人工知能基盤技術の創出と統合化イノベーション創発に資する人工知能基盤技術の創出と統合化
イノベーション創発に資する人工知能基盤技術の創出と統合化Osaka University
 
Supervised Machine Learning of Elastic Stack
Supervised Machine Learning of Elastic StackSupervised Machine Learning of Elastic Stack
Supervised Machine Learning of Elastic StackHiroshi Yoshioka
 
ディープラーニングによるユーザーの行動予測
ディープラーニングによるユーザーの行動予測ディープラーニングによるユーザーの行動予測
ディープラーニングによるユーザーの行動予測澪標アナリティクス
 
深層強化学習による自動運転車両の追い越し行動の実現に関する研究
深層強化学習による自動運転車両の追い越し行動の実現に関する研究深層強化学習による自動運転車両の追い越し行動の実現に関する研究
深層強化学習による自動運転車両の追い越し行動の実現に関する研究harmonylab
 
【FKEYセミナー 20150205 基調講演】「今こそクラウド活用」 講師:大和 敏彦 氏 (株式会社アイティアイ 代表取締役)
【FKEYセミナー 20150205 基調講演】「今こそクラウド活用」 講師:大和 敏彦 氏 (株式会社アイティアイ 代表取締役)【FKEYセミナー 20150205 基調講演】「今こそクラウド活用」 講師:大和 敏彦 氏 (株式会社アイティアイ 代表取締役)
【FKEYセミナー 20150205 基調講演】「今こそクラウド活用」 講師:大和 敏彦 氏 (株式会社アイティアイ 代表取締役)appliedelectronics
 
OCIへの直接接続 ハイブリッド・マルチクラウド構築 グローバル・デジタル基盤を提供する Equinix Platform™
OCIへの直接接続 ハイブリッド・マルチクラウド構築 グローバル・デジタル基盤を提供する Equinix Platform™ OCIへの直接接続 ハイブリッド・マルチクラウド構築 グローバル・デジタル基盤を提供する Equinix Platform™
OCIへの直接接続 ハイブリッド・マルチクラウド構築 グローバル・デジタル基盤を提供する Equinix Platform™ Kiyomichi Arai
 

Similar to 自動運転におけるCNNの信頼性 (20)

ポストAiを見据えた日本企業の経営戦略 加藤整 20171020_v1.2
ポストAiを見据えた日本企業の経営戦略 加藤整 20171020_v1.2ポストAiを見据えた日本企業の経営戦略 加藤整 20171020_v1.2
ポストAiを見据えた日本企業の経営戦略 加藤整 20171020_v1.2
 
デジタルテクノロジーの進化がもたらすクルマの付加価値向上 20151218
デジタルテクノロジーの進化がもたらすクルマの付加価値向上 20151218デジタルテクノロジーの進化がもたらすクルマの付加価値向上 20151218
デジタルテクノロジーの進化がもたらすクルマの付加価値向上 20151218
 
機械学習型サービス運用時の課題と実践的手法
機械学習型サービス運用時の課題と実践的手法機械学習型サービス運用時の課題と実践的手法
機械学習型サービス運用時の課題と実践的手法
 
MLOps NYC 2019 and Strata Data Conference NY 2019 report nttdata
MLOps NYC 2019 and Strata Data Conference NY 2019 report nttdataMLOps NYC 2019 and Strata Data Conference NY 2019 report nttdata
MLOps NYC 2019 and Strata Data Conference NY 2019 report nttdata
 
【CVPR 2020 メタサーベイ】Vision Applications and Systems
【CVPR 2020 メタサーベイ】Vision Applications and Systems【CVPR 2020 メタサーベイ】Vision Applications and Systems
【CVPR 2020 メタサーベイ】Vision Applications and Systems
 
【Azureデータ分析シリーズ】非専門家向け/利用部門主導で始めるデータ分析_ナレッジコミュニケーション公開資料
【Azureデータ分析シリーズ】非専門家向け/利用部門主導で始めるデータ分析_ナレッジコミュニケーション公開資料【Azureデータ分析シリーズ】非専門家向け/利用部門主導で始めるデータ分析_ナレッジコミュニケーション公開資料
【Azureデータ分析シリーズ】非専門家向け/利用部門主導で始めるデータ分析_ナレッジコミュニケーション公開資料
 
Uber 社の自動運転車の安全保証のための Safety Case Framework と ANSI/UL 4600 との適合性ギャップ分析: 安全コンセ...
Uber 社の自動運転車の安全保証のための Safety Case Framework と ANSI/UL 4600 との適合性ギャップ分析: 安全コンセ...Uber 社の自動運転車の安全保証のための Safety Case Framework と ANSI/UL 4600 との適合性ギャップ分析: 安全コンセ...
Uber 社の自動運転車の安全保証のための Safety Case Framework と ANSI/UL 4600 との適合性ギャップ分析: 安全コンセ...
 
機械学習システムの品質保証に向けた課題とコンソーシアム活動
機械学習システムの品質保証に向けた課題とコンソーシアム活動機械学習システムの品質保証に向けた課題とコンソーシアム活動
機械学習システムの品質保証に向けた課題とコンソーシアム活動
 
Trajectory_採用Deck202311
Trajectory_採用Deck202311Trajectory_採用Deck202311
Trajectory_採用Deck202311
 
06 sato
06 sato06 sato
06 sato
 
イノベーション創発に資する人工知能基盤技術の創出と統合化
イノベーション創発に資する人工知能基盤技術の創出と統合化イノベーション創発に資する人工知能基盤技術の創出と統合化
イノベーション創発に資する人工知能基盤技術の創出と統合化
 
Supervised Machine Learning of Elastic Stack
Supervised Machine Learning of Elastic StackSupervised Machine Learning of Elastic Stack
Supervised Machine Learning of Elastic Stack
 
ディープラーニングによるユーザーの行動予測
ディープラーニングによるユーザーの行動予測ディープラーニングによるユーザーの行動予測
ディープラーニングによるユーザーの行動予測
 
可視化の先にあるものとは
可視化の先にあるものとは可視化の先にあるものとは
可視化の先にあるものとは
 
[Track1-5] 製造業における最新AI適用事例のご紹介
[Track1-5] 製造業における最新AI適用事例のご紹介[Track1-5] 製造業における最新AI適用事例のご紹介
[Track1-5] 製造業における最新AI適用事例のご紹介
 
深層強化学習による自動運転車両の追い越し行動の実現に関する研究
深層強化学習による自動運転車両の追い越し行動の実現に関する研究深層強化学習による自動運転車両の追い越し行動の実現に関する研究
深層強化学習による自動運転車両の追い越し行動の実現に関する研究
 
Extreme Management Center を活用したネットワークの見える化
Extreme Management Center を活用したネットワークの見える化Extreme Management Center を活用したネットワークの見える化
Extreme Management Center を活用したネットワークの見える化
 
【FKEYセミナー 20150205 基調講演】「今こそクラウド活用」 講師:大和 敏彦 氏 (株式会社アイティアイ 代表取締役)
【FKEYセミナー 20150205 基調講演】「今こそクラウド活用」 講師:大和 敏彦 氏 (株式会社アイティアイ 代表取締役)【FKEYセミナー 20150205 基調講演】「今こそクラウド活用」 講師:大和 敏彦 氏 (株式会社アイティアイ 代表取締役)
【FKEYセミナー 20150205 基調講演】「今こそクラウド活用」 講師:大和 敏彦 氏 (株式会社アイティアイ 代表取締役)
 
OCIへの直接接続 ハイブリッド・マルチクラウド構築 グローバル・デジタル基盤を提供する Equinix Platform™
OCIへの直接接続 ハイブリッド・マルチクラウド構築 グローバル・デジタル基盤を提供する Equinix Platform™ OCIへの直接接続 ハイブリッド・マルチクラウド構築 グローバル・デジタル基盤を提供する Equinix Platform™
OCIへの直接接続 ハイブリッド・マルチクラウド構築 グローバル・デジタル基盤を提供する Equinix Platform™
 
Smfl20201001
Smfl20201001Smfl20201001
Smfl20201001
 

More from Fixstars Corporation

製造業向け量子コンピュータ時代のDXセミナー_生産計画最適化_20220323.pptx
製造業向け量子コンピュータ時代のDXセミナー_生産計画最適化_20220323.pptx製造業向け量子コンピュータ時代のDXセミナー_生産計画最適化_20220323.pptx
製造業向け量子コンピュータ時代のDXセミナー_生産計画最適化_20220323.pptxFixstars Corporation
 
CPU / GPU高速化セミナー!性能モデルの理論と実践:実践編
CPU / GPU高速化セミナー!性能モデルの理論と実践:実践編CPU / GPU高速化セミナー!性能モデルの理論と実践:実践編
CPU / GPU高速化セミナー!性能モデルの理論と実践:実践編Fixstars Corporation
 
製造業向け量子コンピュータ時代のDXセミナー~ 最適化の中身を覗いてみよう~
製造業向け量子コンピュータ時代のDXセミナー~ 最適化の中身を覗いてみよう~製造業向け量子コンピュータ時代のDXセミナー~ 最適化の中身を覗いてみよう~
製造業向け量子コンピュータ時代のDXセミナー~ 最適化の中身を覗いてみよう~Fixstars Corporation
 
製造業向け量子コンピュータ時代のDXセミナー ~見える化、分析、予測、その先の最適化へ~
製造業向け量子コンピュータ時代のDXセミナー ~見える化、分析、予測、その先の最適化へ~製造業向け量子コンピュータ時代のDXセミナー ~見える化、分析、予測、その先の最適化へ~
製造業向け量子コンピュータ時代のDXセミナー ~見える化、分析、予測、その先の最適化へ~Fixstars Corporation
 
株式会社フィックスターズの会社説明資料(抜粋)
株式会社フィックスターズの会社説明資料(抜粋)株式会社フィックスターズの会社説明資料(抜粋)
株式会社フィックスターズの会社説明資料(抜粋)Fixstars Corporation
 
CPU / GPU高速化セミナー!性能モデルの理論と実践:理論編
CPU / GPU高速化セミナー!性能モデルの理論と実践:理論編CPU / GPU高速化セミナー!性能モデルの理論と実践:理論編
CPU / GPU高速化セミナー!性能モデルの理論と実践:理論編Fixstars Corporation
 
Fpga online seminar by fixstars (1st)
Fpga online seminar by fixstars (1st)Fpga online seminar by fixstars (1st)
Fpga online seminar by fixstars (1st)Fixstars Corporation
 
Jetson活用セミナー ROS2自律走行実現に向けて
Jetson活用セミナー ROS2自律走行実現に向けてJetson活用セミナー ROS2自律走行実現に向けて
Jetson活用セミナー ROS2自律走行実現に向けてFixstars Corporation
 
いまさら聞けない!CUDA高速化入門
いまさら聞けない!CUDA高速化入門いまさら聞けない!CUDA高速化入門
いまさら聞けない!CUDA高速化入門Fixstars Corporation
 
量子コンピュータ時代の製造業におけるDXセミナー~生産工程効率化に向けた新たなご提案~
量子コンピュータ時代の製造業におけるDXセミナー~生産工程効率化に向けた新たなご提案~量子コンピュータ時代の製造業におけるDXセミナー~生産工程効率化に向けた新たなご提案~
量子コンピュータ時代の製造業におけるDXセミナー~生産工程効率化に向けた新たなご提案~Fixstars Corporation
 
金融業界向けセミナー 量子コンピュータ時代を見据えた組合せ最適化
金融業界向けセミナー 量子コンピュータ時代を見据えた組合せ最適化金融業界向けセミナー 量子コンピュータ時代を見据えた組合せ最適化
金融業界向けセミナー 量子コンピュータ時代を見据えた組合せ最適化Fixstars Corporation
 
いまさら聞けないarmを使ったNEONの基礎と活用事例
いまさら聞けないarmを使ったNEONの基礎と活用事例いまさら聞けないarmを使ったNEONの基礎と活用事例
いまさら聞けないarmを使ったNEONの基礎と活用事例Fixstars Corporation
 
ARM CPUにおけるSIMDを用いた高速計算入門
ARM CPUにおけるSIMDを用いた高速計算入門ARM CPUにおけるSIMDを用いた高速計算入門
ARM CPUにおけるSIMDを用いた高速計算入門Fixstars Corporation
 
株式会社フィックスターズ 会社説明資料(抜粋)
株式会社フィックスターズ 会社説明資料(抜粋)株式会社フィックスターズ 会社説明資料(抜粋)
株式会社フィックスターズ 会社説明資料(抜粋)Fixstars Corporation
 
株式会社フィックスターズ 会社説明資料(抜粋)
株式会社フィックスターズ 会社説明資料(抜粋)株式会社フィックスターズ 会社説明資料(抜粋)
株式会社フィックスターズ 会社説明資料(抜粋)Fixstars Corporation
 
ソフト高速化の専門家が教える!AI・IoTエッジデバイスの選び方
ソフト高速化の専門家が教える!AI・IoTエッジデバイスの選び方ソフト高速化の専門家が教える!AI・IoTエッジデバイスの選び方
ソフト高速化の専門家が教える!AI・IoTエッジデバイスの選び方Fixstars Corporation
 
AIチップ戦国時代における深層学習モデルの推論の最適化と実用的な運用を可能にするソフトウェア技術について
AIチップ戦国時代における深層学習モデルの推論の最適化と実用的な運用を可能にするソフトウェア技術についてAIチップ戦国時代における深層学習モデルの推論の最適化と実用的な運用を可能にするソフトウェア技術について
AIチップ戦国時代における深層学習モデルの推論の最適化と実用的な運用を可能にするソフトウェア技術についてFixstars Corporation
 
株式会社フィックスターズ 会社説明資料(抜粋)
株式会社フィックスターズ 会社説明資料(抜粋)株式会社フィックスターズ 会社説明資料(抜粋)
株式会社フィックスターズ 会社説明資料(抜粋)Fixstars Corporation
 
第8回 社内プログラミングコンテスト 結果発表会
第8回社内プログラミングコンテスト 結果発表会第8回社内プログラミングコンテスト 結果発表会
第8回 社内プログラミングコンテスト 結果発表会Fixstars Corporation
 
第8回 社内プログラミングコンテスト 第1位 taiyo
第8回社内プログラミングコンテスト 第1位 taiyo第8回社内プログラミングコンテスト 第1位 taiyo
第8回 社内プログラミングコンテスト 第1位 taiyoFixstars Corporation
 

More from Fixstars Corporation (20)

製造業向け量子コンピュータ時代のDXセミナー_生産計画最適化_20220323.pptx
製造業向け量子コンピュータ時代のDXセミナー_生産計画最適化_20220323.pptx製造業向け量子コンピュータ時代のDXセミナー_生産計画最適化_20220323.pptx
製造業向け量子コンピュータ時代のDXセミナー_生産計画最適化_20220323.pptx
 
CPU / GPU高速化セミナー!性能モデルの理論と実践:実践編
CPU / GPU高速化セミナー!性能モデルの理論と実践:実践編CPU / GPU高速化セミナー!性能モデルの理論と実践:実践編
CPU / GPU高速化セミナー!性能モデルの理論と実践:実践編
 
製造業向け量子コンピュータ時代のDXセミナー~ 最適化の中身を覗いてみよう~
製造業向け量子コンピュータ時代のDXセミナー~ 最適化の中身を覗いてみよう~製造業向け量子コンピュータ時代のDXセミナー~ 最適化の中身を覗いてみよう~
製造業向け量子コンピュータ時代のDXセミナー~ 最適化の中身を覗いてみよう~
 
製造業向け量子コンピュータ時代のDXセミナー ~見える化、分析、予測、その先の最適化へ~
製造業向け量子コンピュータ時代のDXセミナー ~見える化、分析、予測、その先の最適化へ~製造業向け量子コンピュータ時代のDXセミナー ~見える化、分析、予測、その先の最適化へ~
製造業向け量子コンピュータ時代のDXセミナー ~見える化、分析、予測、その先の最適化へ~
 
株式会社フィックスターズの会社説明資料(抜粋)
株式会社フィックスターズの会社説明資料(抜粋)株式会社フィックスターズの会社説明資料(抜粋)
株式会社フィックスターズの会社説明資料(抜粋)
 
CPU / GPU高速化セミナー!性能モデルの理論と実践:理論編
CPU / GPU高速化セミナー!性能モデルの理論と実践:理論編CPU / GPU高速化セミナー!性能モデルの理論と実践:理論編
CPU / GPU高速化セミナー!性能モデルの理論と実践:理論編
 
Fpga online seminar by fixstars (1st)
Fpga online seminar by fixstars (1st)Fpga online seminar by fixstars (1st)
Fpga online seminar by fixstars (1st)
 
Jetson活用セミナー ROS2自律走行実現に向けて
Jetson活用セミナー ROS2自律走行実現に向けてJetson活用セミナー ROS2自律走行実現に向けて
Jetson活用セミナー ROS2自律走行実現に向けて
 
いまさら聞けない!CUDA高速化入門
いまさら聞けない!CUDA高速化入門いまさら聞けない!CUDA高速化入門
いまさら聞けない!CUDA高速化入門
 
量子コンピュータ時代の製造業におけるDXセミナー~生産工程効率化に向けた新たなご提案~
量子コンピュータ時代の製造業におけるDXセミナー~生産工程効率化に向けた新たなご提案~量子コンピュータ時代の製造業におけるDXセミナー~生産工程効率化に向けた新たなご提案~
量子コンピュータ時代の製造業におけるDXセミナー~生産工程効率化に向けた新たなご提案~
 
金融業界向けセミナー 量子コンピュータ時代を見据えた組合せ最適化
金融業界向けセミナー 量子コンピュータ時代を見据えた組合せ最適化金融業界向けセミナー 量子コンピュータ時代を見据えた組合せ最適化
金融業界向けセミナー 量子コンピュータ時代を見据えた組合せ最適化
 
いまさら聞けないarmを使ったNEONの基礎と活用事例
いまさら聞けないarmを使ったNEONの基礎と活用事例いまさら聞けないarmを使ったNEONの基礎と活用事例
いまさら聞けないarmを使ったNEONの基礎と活用事例
 
ARM CPUにおけるSIMDを用いた高速計算入門
ARM CPUにおけるSIMDを用いた高速計算入門ARM CPUにおけるSIMDを用いた高速計算入門
ARM CPUにおけるSIMDを用いた高速計算入門
 
株式会社フィックスターズ 会社説明資料(抜粋)
株式会社フィックスターズ 会社説明資料(抜粋)株式会社フィックスターズ 会社説明資料(抜粋)
株式会社フィックスターズ 会社説明資料(抜粋)
 
株式会社フィックスターズ 会社説明資料(抜粋)
株式会社フィックスターズ 会社説明資料(抜粋)株式会社フィックスターズ 会社説明資料(抜粋)
株式会社フィックスターズ 会社説明資料(抜粋)
 
ソフト高速化の専門家が教える!AI・IoTエッジデバイスの選び方
ソフト高速化の専門家が教える!AI・IoTエッジデバイスの選び方ソフト高速化の専門家が教える!AI・IoTエッジデバイスの選び方
ソフト高速化の専門家が教える!AI・IoTエッジデバイスの選び方
 
AIチップ戦国時代における深層学習モデルの推論の最適化と実用的な運用を可能にするソフトウェア技術について
AIチップ戦国時代における深層学習モデルの推論の最適化と実用的な運用を可能にするソフトウェア技術についてAIチップ戦国時代における深層学習モデルの推論の最適化と実用的な運用を可能にするソフトウェア技術について
AIチップ戦国時代における深層学習モデルの推論の最適化と実用的な運用を可能にするソフトウェア技術について
 
株式会社フィックスターズ 会社説明資料(抜粋)
株式会社フィックスターズ 会社説明資料(抜粋)株式会社フィックスターズ 会社説明資料(抜粋)
株式会社フィックスターズ 会社説明資料(抜粋)
 
第8回 社内プログラミングコンテスト 結果発表会
第8回社内プログラミングコンテスト 結果発表会第8回社内プログラミングコンテスト 結果発表会
第8回 社内プログラミングコンテスト 結果発表会
 
第8回 社内プログラミングコンテスト 第1位 taiyo
第8回社内プログラミングコンテスト 第1位 taiyo第8回社内プログラミングコンテスト 第1位 taiyo
第8回 社内プログラミングコンテスト 第1位 taiyo
 

自動運転におけるCNNの信頼性

  • 1. © 2019 Fixstars Autonomous Technologies, All rights reserved. 自動運転におけるCNNの信頼性 株式会社 Fixstars Autonomous Technologies(2019/2/12) エンジニア 吉田智晴
  • 2. © 2019 Fixstars Autonomous Technologies, All rights reserved. 自動運転におけるCNN 1 [1] https://www.youtube.com/watch?v=qWl9idsCuLQ [2] https://www.youtube.com/watch?v=8jfscFuP_9k  CNNは自動運転において不可欠な技術 Semantic Segmentation[1] Object Detection[2] 実用においては性能だけでなく CNNの予測の信頼性 が重要
  • 3. © 2019 Fixstars Autonomous Technologies, All rights reserved. 予測の信頼性の社会的要求 2  近年、国内外で機械学習技術の信頼性が求められている  日本:人間中心のAI社会原則案(2019年3月に正式決定)  EU:GDPR(一般データ保護規則, 2018年5月施行)  アルゴリズムの出した結果の説明を求める権利(Right to Explanation) CNNによる予測に対する 説明性 が今後求められそう Ex)事故が起きた際になぜ起きたのかの説明
  • 4. © 2019 Fixstars Autonomous Technologies, All rights reserved. 色々な信頼性の向上の仕方 3  今回はこれら3つの観点で論文紹介 説明性 脆弱性への対処 予測の脆弱性に対処して 信頼性を高める 信頼性の表現 予測の信頼度を正確に 定量化して予測結果を 扱いやすくする 信頼性 予測を説明可能にして その信頼性を高める これが 原因!
  • 5. © 2019 Fixstars Autonomous Technologies, All rights reserved. 論文紹介 予測の説明性 4
  • 6. © 2019 Fixstars Autonomous Technologies, All rights reserved. 論文紹介:予測の説明性 5  目的  予測結果を人間が解釈できるようにすること  誤った予測の原因を知ることによる効率的なモデルの改良  想定活用シーン 事故発生!! 白線がいもむしに 見えていました。。 1. 事故原因の説明 Dog… 2. 効率的なモデルの改良 変な特徴を見て判断してる。。 もっと犬のデータ増やそう
  • 7. © 2019 Fixstars Autonomous Technologies, All rights reserved. 予測の説明方法 6 [1] http://www.heatmapping.org/deeptaylor/ [2] Salvaraju et al., Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization, (2016)  分類の根拠となった領域の可視化  分類結果に対して、画像中のどの領域に注目してその判断が行われた のかを可視化により説明する手法
  • 8. © 2019 Fixstars Autonomous Technologies, All rights reserved. どのように可視化するか 7 Salvaraju et al., Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization, (2016)  Grad-CAM [Salvaraju+, ICCV16]  CNNの出力の特徴mapの各クラスへの分類の貢献度𝑆 𝑐を定義  貢献度𝑆 𝐶 の総和の順番を入れ替え 特徴マップを各座標ごとに平均 クラスごとのchannelの重要度 で重みづけして総和 ヒートマップとして可視化
  • 9. © 2019 Fixstars Autonomous Technologies, All rights reserved. どのように可視化するか 8 [1] Ungurean, DeepRCar: An Autonomous Car Model.(2018) [2] Chattopadhyay et al., Grad-CAM++: Improved Visual Explanations for Deep Convolutional Networks.(2017)  Grad-CAM++ [Chattopadhyay+, WACV18]  Grad-CAMの拡張手法  自動運転への応用例[1]  自動運転のステアリング角度予測処理へのGrad-CAM適用例 過学習時は 見ている部位が変 正しい場所を見て 判断できてそう
  • 10. © 2019 Fixstars Autonomous Technologies, All rights reserved. 自動運転での可視化手法 9 [1] Mariusz Bojarski et al, VisualBackProp: efficient visualization of CNNs, (2018)  VisualBackProp [Bojarski+, ICRA18]  自動運転用のdebugツールとして開発された可視化手法  steeringの予測の例が紹介されているが汎用的に利用可 深い層の予測に強く関連する情報を浅い層まで逆伝搬させ、 高解像度で予測との関連情報を可視化 低解像度、予測との関連情報多い高解像度、予測との関連情報少ない
  • 11. © 2019 Fixstars Autonomous Technologies, All rights reserved. 自動運転での可視化手法 10 [1]S Bach, et al, On Pixel-wise Explanations for Non-Linear Classifier Decisions by Layer-wise Relevance Propagation, (2015) [2] Mariusz Bojarski et al, VisualBackProp: efficient visualization of CNNs, (2018)  VisualBackProp [Bojarski+, ICRA18]  平均計算時間2ms, 既存手法[1]は24.6msで約12倍高速  大規模データの分析やReal-timeのapplicationに有効
  • 12. © 2019 Fixstars Autonomous Technologies, All rights reserved. 誤った説明の除去 11 [1]Kim et al., Interpretable Learning for Self-Driving Cars by Visualizing Causal Attention.(2017), ICCV  Visual Causal Attention [Kim+, ICCV17] 1. 予測の根拠となるヒートマップを作成(deconvolution) • 正しい場合もあれば、間違っている場合もある 2. ヒートマップをクラスタリングし、重要な根拠だけを抽出
  • 13. © 2019 Fixstars Autonomous Technologies, All rights reserved. 可視化は欲しい説明となっているか? 12 [1]G Montavon, W Samek, KR Müller. Methods for Interpreting and Understanding Deep Neural Networks. Digital Signal Processing, 73:1-15, 2018. [2] http://www.heatmapping.org/slides/2019_NLDL.pdf  何の可視化であるかの理解が大切 [G Montavon+, 2018]  勾配の可視化(Sensitivity Analysis) • どの部位が変化すればより車と判断されやすいか?を説明  活性の可視化(LRP, Deep Taylor Decomposition) • どの部位で車と判断しているか?を説明
  • 14. © 2019 Fixstars Autonomous Technologies, All rights reserved. 可視化は欲しい説明となっているか? 13 [1]Cynthia Rudin, Please Stop Explaining Black Box Models for High-Stakes Decisions, (NIPS 2018), Workshop on Critiquing and Correcting Trends in Machine Learning.  説明性への警鐘 [C Rudin, NIPS18 WS]  ヒートマップによる可視化は、どこを見て判断したかはわかる が、それらの特徴をどう利用したかは分からない • 見ている場所の正しさは、判断の正しさを保証しない  説明は完璧に信頼できるものとは限らない • 何らかの近似をしたモデルは説明が近似である可能性がある • 誤った説明を信じることは誤った判断へとつながる この部分の情報をどう使って Catと予測した・・?
  • 15. © 2019 Fixstars Autonomous Technologies, All rights reserved. 予測の説明性手法のまとめ 14  CNNの判断の根拠となった部位の可視化手法は、どこに 注目したかの説明を行う  どこの何に注目(勾配, 活性など)した説明なのかを理解し て活用する必要がある  求める予測の説明は何なのか(どこに注目したか, どう入 力を利用したかなど)の整理が必要  説明手法を安易に信じることは、誤った判断を下しかね ないことに注意
  • 16. © 2019 Fixstars Autonomous Technologies, All rights reserved. 論文紹介 予測の信頼度の表現法 15
  • 17. © 2019 Fixstars Autonomous Technologies, All rights reserved. 論文紹介:予測の信頼度の表現法 16 [1] https://arxiv.org/pdf/1803.01534.pdf ,[2] https://github.com/MaybeShewill-CV/lanenet-lane-detection, [3] https://www.youtube.com/watch?v=8jfscFuP_9k  目的  信頼度の適切な定量化による正確なリスク評価  信頼度の定量化による説明性の向上  想定活用シーン CNNの予測を組み合わせる際に各々をどの程度信頼して良いかが判断可能 複数モデルの組み合わせ
  • 18. © 2019 Fixstars Autonomous Technologies, All rights reserved. 予測の信頼度の表現=予測の不確かさの表現 17 [1] Y. Gal, Uncertainty in deep learning, - University of Cambridge, 2016 [2] A Kendall, Y Gal, What uncertainties do we need in bayesian deep learning for computer vision?, 2017  不確かさの分類 [Y. Gal, 2016]  認識論的不確かさ(Epistemic uncertainty) • モデルパラメータの不確かさ(データ数増加 →不確かさ減少) • パラメータの確率分布として表現  偶発的不確かさ(Aleatoric uncertainty) • 観測データ固有の不確かさ(データ数増加 →不確かさ変化なし) • モデルの出力の確率分布として表現 • Ex)センサノイズ 𝒑(𝒚|𝒇 𝑾 𝑿 ) 𝒑(𝑾|𝑿, 𝒀) Epistemic uncertaintyAleatoric uncertainty 𝑓(𝑋):BNN, X:入力, Y:出力, W:パラメータ
  • 19. © 2019 Fixstars Autonomous Technologies, All rights reserved. 予測の不確かさの表現 18 [1] Y. Gal, Uncertainty in deep learning, - University of Cambridge, 2016 [2] A Kendall, Y Gal, What uncertainties do we need in bayesian deep learning for computer vision?, 2017  不確かさの可視化 [A.Kendall+, NIPS17]  認識論的不確かさ(Epistemic uncertainty) • データ不足で結果の誤りが大きな部分の不確かさが大きい  偶発的不確かさ(Aleatoric uncertainty) • エッジ部分や奥の方について不確かさが大きい
  • 20. © 2019 Fixstars Autonomous Technologies, All rights reserved. 予測の信頼度の応用例 19 [1] Rowan McAllister et al., Concrete Problems for Autonomous Vehicle Safety: Advantages of Bayesian Deep Learning, IJCAI2017  複数手法の統合 [R McAllister+, IJCAI17]  自動運転では複数モジュールの統合が必須  個々のモジュールで許容される誤差も、組み合わせにより誤差 が蓄積されると危険
  • 21. © 2019 Fixstars Autonomous Technologies, All rights reserved. 予測の信頼度の応用例 20 [1] Rowan McAllister et al., Concrete Problems for Autonomous Vehicle Safety: Advantages of Bayesian Deep Learning, IJCAI2017  複数手法の統合 [R McAllister+, IJCAI17]  各々のモジュールが予測の不確かさを後段に送ることで、信頼 できる決定が可能  個々の不確かさを利用してシステム全体の不確かさが測定可能
  • 22. © 2019 Fixstars Autonomous Technologies, All rights reserved. 予測の信頼度の応用例 21 [1] R Michelmore et al., Evaluating Uncertainty Quantification in End-to-End Autonomous Driving Control, 2018 [2] L Smith et al., Understanding Measures of Uncertainty for Adversarial Example Detection, 2018  衝突の予測 [R Michelmore+, 2018]  予測の不確かさを利用した衝突予測  衝突予測に適した不確かさの尺度を調査  相互情報量が最も優れた性能(3秒前に衝突を予測)  Adversarial Examplesの検出 [L Smith+, UAI18]  予測の不確かさを利用したAdversarial Examplesの検出  単一のBayesian Neural Networkモデルでは事後分布の近似精度 が悪くて検出不可  アンサンブルで対処
  • 23. © 2019 Fixstars Autonomous Technologies, All rights reserved. 予測の信頼度の表現まとめ 22  予測の信頼度は予測の不確かさとして表現できる  データ不足による不確かさ(認識論的不確かさ)とデータ 自体の持つ不確かさ(偶発的不確かさ)を分けてモデル化  予測の不確かさを利用することで、適切なリスク評価が 可能となり判断の信頼性が向上
  • 24. © 2019 Fixstars Autonomous Technologies, All rights reserved. 論文紹介 予測の脆弱性 23
  • 25. © 2019 Fixstars Autonomous Technologies, All rights reserved. 論文紹介:予測の脆弱性 24  目的  CNNの脆弱性の把握  CNNの脆弱性に対する強化  想定活用シーン 脆弱性への対処を行うことで信頼できるロバストなモデルへと強化 脆弱性を把握して対処する 脆弱性 vs
  • 26. © 2019 Fixstars Autonomous Technologies, All rights reserved. Adversarial Examples 25 [1] Ian J. Goodfellow et al., Explaining and Harnessing Adversarial Examples, 2015  入力画像に摂動を加え、CNNに誤分類させるサンプル  FGSM [Goodfellow+, ICLR15] パンダ テナガザル 人間の目ではパンダにしか見えない
  • 27. © 2019 Fixstars Autonomous Technologies, All rights reserved. 自動運転におけるAdversarial Examples 26 [1] J Lu et al, NO Need to Worry about Adversarial Examples in Object Detection in Autonomous Vehicles, 2017 [2] K Eykholt et al, Robust Physical-World Attacks on Deep Learning Models, 2018  自動運転では気にしなくていい? [J Lu+, CVPR17]  Adversarial Examplesは角度や距離が変わると誤認識しない  自動運転では角度や距離が変化するので大丈夫かも…?  RP2 [K Eykholt+, CVPR18]  距離や角度にロバストなAdversarial Examples(大丈夫じゃない) 誤認識は一瞬
  • 28. © 2019 Fixstars Autonomous Technologies, All rights reserved. 自動運転におけるAdversarial Examples 27 [1] J Lu et al., Standard detectors aren’t (currently) fooled by physical adversarial stop signs, 2018 [2] K Eykholt et al., Physical Adversarial Examples for Object Detectors, 2018  YOLOやFasterRCNNは騙せない [J Lu+(2017)]  分類器は騙せても、検出器はだませるという確証はない  検出器も騙した [K Eykholt+(2018)] 自動運転においても安心はできなさそう
  • 29. © 2019 Fixstars Autonomous Technologies, All rights reserved. 自動運転車への攻撃例 28 [1] Sitawarin et al., DARTS: Deceiving autonomous cars with toxic signs.(2018)  DARTS [C Sitawarin+, 2018]  Out-of-Distribution attacks • 訓練/テストデータにはないデータを初期値とした Adversarial Examplesの作成 • 標識以外の物体も攻撃に利用される危険性がある
  • 30. © 2019 Fixstars Autonomous Technologies, All rights reserved. 自動運転車への攻撃例 29 [1] Sitawarin et al., DARTS: Deceiving autonomous cars with toxic signs.(2018)  DARTS [C Sitawarin+, 2018]  Out-of-Distribution attacksに対するdefence • Adversarial trainingによりロバストな学習を行い、 Adversarial Attackに対する防御性能を確認 • Out of distribution attackはin distribution attackよりも 防ぎにくい
  • 31. © 2019 Fixstars Autonomous Technologies, All rights reserved. Adversarial Examples以外の攻撃 30 [1] Sitawarin et al., DARTS: Deceiving autonomous cars with toxic signs.(2018)  DARTS [C Sitawarin, 2018]  Lenticular Printing attack • 自動運転のセンサと人間の標識を見る角度の違いを利用 • 角度により見え方が変わる標識を用意して誤認識させる
  • 32. © 2019 Fixstars Autonomous Technologies, All rights reserved. 予測の脆弱性のまとめ 31  Adversarial Examplesによる予測の誤りは自動運転にお いて深刻であり、将来的に課題となり得る  研究が日々進んでおり、今後も動向の把握が必要  攻撃はAdversarial Examples以外もある
  • 33. © 2019 Fixstars Autonomous Technologies, All rights reserved. 全体のまとめ 32  予測の説明性  事故原因の特定や、モデルの改善に利用可能  各手法で説明している内容が大きく異なるため、求めている説 明が何であるかの正しい認識が必要  予測の信頼度の表現  適切なリスク評価が可能となり、判断の信頼性が向上  計算速度が課題  予測の脆弱性  自動運転において攻撃のされ方は様々  CNNをロバストにするだけでは防ぎきれないかもしれず、今後 も脆弱性の把握と対処の検討が必要そう
  • 34. © 2019 Fixstars Autonomous Technologies, All rights reserved. 参考文献 33  予測の説明性  Salvaraju et al., Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization, (2016). ICCV, https://arxiv.org/abs/1610.02391  Chattopadhyay et al., Grad-CAM++: Improved Visual Explanations for Deep Convolutional Networks.(2017), WACV 2018, https://arxiv.org/abs/1710.11063  Ungurean, DeepRCar: An Autonomous Car Model.(2018), https://dspace.cvut.cz/bitstream/handle/10467/76316/F8-DP-2018-Ungurean-David- thesis.pdf  Mariusz Bojarski et al, VisualBackProp: efficient visualization of CNNs, (2018), ICRA, https://arxiv.org/abs/1611.05418  Kim et al., Interpretable Learning for Self-Driving Cars by Visualizing Causal Attention.(2017), ICCV, https://arxiv.org/abs/1703.10631  G Montavon, W Samek, KR Müller. Methods for Interpreting and Understanding Deep Neural Networks. Digital Signal Processing, 73:1-15, 2018, https://arxiv.org/abs/1706.07979  S Bach, A Binder, G Montavon, F Klauschen, KR Müller, W Samek. On Pixel-wise Explanations for Non-Linear Classifier Decisions by Layer-wise Relevance Propagation, PLOS ONE, 10(7):e0130140, 2015, http://iphome.hhi.de/samek/pdf/BacPLOS15.pdf  Cynthia Rudin, Please Stop Explaining Black Box Models for High-Stakes Decisions, (NIPS 2018), Workshop on Critiquing and Correcting Trends in Machine Learning. https://arxiv.org/abs/1811.10154
  • 35. © 2019 Fixstars Autonomous Technologies, All rights reserved. 参考文献 34  予測の信頼度の表現法  Y. Gal, Uncertainty in deep learning, - University of Cambridge, 2016, http://mlg.eng.cam.ac.uk/yarin/blog_2248.html  A Kendall, Y Gal, What uncertainties do we need in bayesian deep learning for computer vision?, 2017, https://arxiv.org/abs/1703.04977  Rowan McAllister et al., Concrete Problems for Autonomous Vehicle Safety: Advantages of Bayesian Deep Learning, IJCAI2017, https://www.ijcai.org/proceedings/2017/661  R Michelmore et al., Evaluating Uncertainty Quantification in End-to-End Autonomous Driving Control, 2018, https://arxiv.org/abs/1811.06817  L Smith et al., Understanding Measures of Uncertainty for Adversarial Example Detection, 2018, UAI, https://arxiv.org/abs/1803.08533  A Kendall et al, Multi-Task Learning Using Uncertainty to Weigh Losses for Scene Geometry and Semantics. 2018, CVPR, https://arxiv.org/abs/1705.07115  A Kendall et al, Modelling Uncertainty in Deep Learning for Camera Relocalization, 2016, ICRA, https://arxiv.org/abs/1509.05909
  • 36. © 2019 Fixstars Autonomous Technologies, All rights reserved. 参考文献 35  予測の脆弱性  Ian J. Goodfellow et al., Explaining and Harnessing Adversarial Examples, 2015, ICLR, https://arxiv.org/abs/1412.6572  Sitawarin et al., DARTS: Deceiving autonomous cars with toxic signs.2018, https://arxiv.org/abs/1802.06430  J Lu et al, NO Need to Worry about Adversarial Examples in Object Detection in Autonomous Vehicles, 2017, CVPR, https://arxiv.org/abs/1707.03501  K Eykholt et al, Robust Physical-World Attacks on Deep Learning Models, 2018, CVPR, https://arxiv.org/abs/1707.08945  J Lu et al., Adversarial Examples that Fool Detectors, 2018, https://arxiv.org/abs/1712.02494  J Lu et al., Standard detectors aren’t (currently) fooled by physical adversarial stop signs, 2017, https://arxiv.org/abs/1710.03337  K Eykholt et al., Physical Adversarial Examples for Object Detectors, 2018, https://arxiv.org/abs/1807.07769
  • 37. © 2019 Fixstars Autonomous Technologies, All rights reserved. 36