6. 社会的な動向
6
総務省「人間中心のAI社会原則」
(2019年3月)
公平性,説明責任及び透明性の原則
EU Ethics guidelines for trustworthy AI
(2019年4月)
1. Human agency and oversight
(人間の代理機能・人間による監督)
2. Technical robustness and safety
(堅牢性と安全性)
3. Privacy and data governance
(プライバシーとデータガバナンス)
4. Transparency
(透明性)
5. Diversity, non-discrimination and fairness
(ダイバーシティ,差別禁止,公平性)
6. Societal and environmental wellbeing
(社会・環境ウェルビーイング)
7. Accountability
(説明性・説明責任)
OECD Principles on Artificial Intelligence
(2019年6月)
There should be transparency and responsible disclosure around AI
systems to ensure that people understand AI-based outcomes and
can challenge them.
AIシステムについて、人々がどのようなときにそれと関わり
結果の正当性を批判できるのかを理解できるようにするために、透
明性を確保し責任ある情報開示を行うべきである。
その他国内の動向
● 中部経済産業局 自律的自動運転の実現を支える人工知能搭載
システムの安全性立証技術の研究開発 (2017年-)
● 機械学習工学研究会 (MLSE, 2018年5月)
● NEDO・産総研 品質保証プロジェクト (2018年7月)
● QA4AI AIプロダクト品質保証ガイドライン (2019年5月)
● 国立情報学研究所 QAML
(高信頼な機械学習応用システムによる価値創造)
(2020年度) 等
9. 取り上げる技術
ニューラルネットワークの
入出力関係保証 (形式検証)
9
テストデータの
カバレッジ検証・生成
K. Pei et al. (2017)
敵対的攻撃・防御 Explainable AI (XAI)
2
テストデータの網羅性を確認し,
網羅性を高めるデータを生成する
データや物理系・環境系を操作して
学習器を誤判別させる (or誤判別を防止する) 機械学習の判断根拠を明確化する
ニューラルネットワークの入力に対する
出力を保証する
I.J.Goodfellow et al. (2015)
• V. Petsiuk et al. (2018)
• L. A. Hendricks et al. (2018)
21. DeepXplore (Pei et al., 2017)
21
生成画像
学習器1の予測結果
学習器2の予測結果
学習器3の予測結果
• 複数の学習器の識別結果をできる限り離れさせる
• ニューロンカバレッジを高める
K.Pei et al.,
DeepXplore: Automated Whitebox Testing
of Deep Learning Systems, SOSP2017.
https://arxiv.org/abs/1705.06640
オリジナル
画像
22. DeepXplore (Pei et al., 2017)
22
K.Pei et al.,
DeepXplore: Automated Whitebox Testing
of Deep Learning Systems, SOSP2017.
https://arxiv.org/abs/1705.06640
23. DeepTest (Tian et al., 2018)
23
● 以下の条件で変化させてテストデータを生成して
ニューロンカバレッジを向上
○ 輝度,コントラスト
○ 平行移動,スケール変換,剪断,回転,汚れ
○ 霧,雨
Y. Tian et al.,
DeepTest: Automated Testing of
Deep-Neural-Network-driven Autonomous Cars, ICSE2018.
https://arxiv.org/abs/1708.08559
24. ニューロンカバレッジの有用性
24
Z. Li et al.,
Structural coverage criteria for neural networks could be misleading. ICSE2019.
http://202.119.32.195/cache/11/03/moon.nju.edu.cn/c10bc72b8639f971f414a34620e26bca/2019-ICSENIER-ZLi-Misleading.pdf
● Structural coverage criteria for neural networks could be
misleading
○ カバレッジ基準により定義された空間においては,
敵対的生成例が大量に存在する.
一方で,取得可能なサンプルは非常にスパース.
○ これまでに報告されてきた失敗の検知「能力」は,
敵対志向の探索によるもので,本当の「高い」
カバレッジではない.
35. CMU: Excitatory and Inhibitory Samples
クラス分類に有効/非有効な学習データの同定
(重要な学習データの同定・可視化)
35
C.-K. Yeh et al., Representer point selection for explaining deep neural networks, NeurIPS2018.
https://papers.nips.cc/paper/8141-representer-point-selection-for-explaining-deep-neural-networks.pdf