SlideShare a Scribd company logo
1 of 33
Download to read offline
最新の異常検知論⽂のまとめ
ぱんさん@カーネル
そもそも異常とは︖
n 学習しているクラス以外のクラスのこと (Out-of-distribution)
n よくある問題設定で,多数の論⽂が存在する
n 学習したクラスの物体中のキズやよごれ
n データセットが最近までなかった or 問題が難しいため,
この異常に関する論⽂は極めて少ない
n MVTec AD — A Comprehensive Real-World Dataset for
Unsupervised Anomaly Detection (CVPR 2019)
n データセット論⽂
訓練データ テストデータ
正常 異常
学習しているクラス以外のクラスを検知する問題設定は主に2つ
n Out-of-distribution detection: 異常を⾒つける
n One-class classification: ⼀つのクラスの正常データを利⽤して,それ以外の異常データを検知する
n Deep Autoencoding Gaussian Mixture Model for Unsupervised Anomaly Detection (ICLR 2018)
n Deep Anomaly Detection Using Geometric Transformations (NIPS 2018)
n OCGAN- One-class Novelty Detection Using GANs with Constrained Latent Representations (CVPR 2019)
n Multi-class classification: 複数のクラスの正常データを利⽤して,それ以外の異常データを検知する
n A Baseline for Detecting Misclassified and Out-of-Distribution Examples in Neural Networks(ICLR 2017)
n Enhancing The Reliability of Out-of-distribution Image Detection in Neural Networks(ICLR 2018)
n Training Confidence-calibrated Classifiers for Detecting Out-of-Distribution Samples (ICLR 2018)
n A Simple Unified Framework for Detecting Out-of-Distribution Samples and Adversarial Attacks (NIPS 2018)
n Learning Confidence for Out-of-Distribution Detection in Neural Networks
n Predictive Uncertainty Estimation via Prior Networks (NIPS 2018)
n Deep Anomaly Detection with Outlier Exposure (ICLR 2019)
n Open Set Recognition: 異常を⾒つける ∧ 正常を正しく分類できる
n Towards Open Set Deep Networks (CVPR 2016)
n Generative OpenMax for Multi-Class Open Set Classification
n Open Set Learning with Counterfactual Images (ECCV 2018)
n C2AE- Class Conditioned Auto-Encoder for Open-set Recognition (CVPR 2019)
n Classification-Reconstruction Learning for Open-Set Recognition (CVPR 2019)
Out-of-distribution detectionの問題設定は2つ
n One-class classification: ⼀つのクラスの正常クラスのサンプルのみ訓練データとして与え
られ,テストデータを異常サンプルかどうかを分類する
n Multi-class classification: 複数のクラスの正常クラスのサンプルのみ訓練データとして与え
られ,テストデータを異常サンプルかどうかを分類する
訓練データ(すべて正常データ)
テストデータ
正常 異常
訓練データ(すべて正常データで⽝カテゴリと⿃カテゴリが存在する) テストデータ
正常 異常⽝ ⿃
猫
One-class classification の主な⽅法は3つ
n 再構成したときのロスを使う (PCA, Robust-PCA, deep autoencoders, ADGAN…)
n 再構成ベースの⼿法で学習された表現を使う
n One Class SVM を⽤いる
異常画像は再構成がうまくいかないはず,というアイデア
再構成画像テスト画像
L2ロス
One-class classification の主な⽅法は3つ
n 再構成したときのロスを使う
n 再構成ベースの⼿法で学習された表現を使う (KDE, Robust-KDE, DSEBM…)
n One Class SVM を⽤いる
テスト画像
異常画像は潜在空間上で確率密度が⼩さいはず,というアイデア
潜在空間
・
・
・
・・
・
・
・
・
・
・
・
・
・・ ・
・
・
・
・
・
・
・
・
・
・
・
・
・
・
・
・
・・
・
・
・
・
・
・
One-class classification の主な⽅法は3つ
n 再構成したときのロスを使う
n 再構成ベースの⼿法で学習された表現を使う
n One Class SVM を⽤いる (SVDD, Deep SVDD...)
訓練データができるだけ⼩さい超球内に⼊るような写像を学習し
超球外であれば異常画像である,というアイデア
Multi-class classification の主な⽅法
n 識別結果を利⽤する
n キャリブレーションの利⽤
n Enhancing The Reliability of Out-of-distribution Image Detection in Neural Networks(ICLR 2018)
n A Simple Unified Framework for Detecting Out-of-Distribution Samples and Adversarial Attacks (NIPS 2018)
n OODデータの利⽤
n Training Confidence-calibrated Classifiers for Detecting Out-of-Distribution Samples (ICLR 2018)
n Deep Anomaly Detection with Outlier Exposure (ICLR 2019)
n 不確かさの利⽤
n Predictive Uncertainty Estimation via Prior Networks (NIPS 2018)
n Learning Confidence for Out-of-Distribution Detection in Neural Networks
←ソフトマックス層の⼀層前の可視化
識別ロスを利⽤すると,OODは基本的にあいまいな分類結果
となるため,検知ができる
Open Set Recognition とは
n Open set recognitionとは N+1分類のこと
n Nクラスの正常データの分類に加え,テスト時にのみ現れる未知のデータを検知する
n ⼿法はMulti-class classificationのものと近いものが多い
Opennessの定義と例
n 普通の多クラス分類ではopennessはどんな場合でも0
n 顔認証はテストのときに,訓練データの顔と同じかどうかを判定すればよいのでtarget クラ
ス数 = training クラス数となる
n 検知は背景の数(negative class)が⾮常に多くなるが,targetの数は⼀つ
n Object recognitionは普通の分類に加え,それ以外の物体であることを認識する必要がある
Open space riskについて
n 多クラス分類のリスク
n Open space risk
具体的にいくつか論⽂を紹介する
n 学習したクラスの物体中の異常検知
n OOD検知: One-class classification
n OOD検知: Multi-class classification
n Open Set Recognition
具体的にいくつか論⽂を紹介する
n 学習したクラスの物体中の異常検知
n OOD検知: One-class classification
n OOD検知: Multi-class classification
n Open Set Recognition
MVTec AD — A Comprehensive Real-World Dataset for
Unsupervised Anomaly Detection (CVPR 2019)
n 誰もが待ち望んだデータセット論⽂
ベースライン結果
上: 正常データの検出精度,下: 異常データの検出精度 上: 異常箇所と重なった範囲,下: AUROC
具体的にいくつか論⽂を紹介する
n 学習したクラスの物体中の異常検知
n OOD検知: One-class classification
n OOD検知: Multi-class classification
n Open Set Recognition
Deep Autoencoding Gaussian Mixture Model for Unsupervised Anomaly Detection (ICLR 2018)
n ⼿法:
n 次元削減と再構成の情報を利⽤してOODを判定するネットワーク(右図)を提案した
n 再構成誤差最⼩化 + GMMの混合⽐をNNで推定してMLEを⾏うことで,E2Eな学習を可能にした
n 定性的な実験(左図):
n ⾚が異常サンプル,⻘が正常サンプル,縦軸が再構成誤差,横軸が1次元に圧縮したときの値
n 異常サンプルは,低次元で値が異なり,再構成が難しいことがわかる
Deep Anomaly Detection Using Geometric Transformations (NIPS 2018)
n ⼿法:
n 正常な画像なら幾何変換(回転,flipなど)した場合その変換をあてられるはずというアイデア
n 幾何変換で条件づけたときの対数尤度を使ったスコアを定義し,スコアが低いものを異常とみなす
n 結果: AUROCを使って評価し,OC-SVM, DAGMM, DSEBM, ADGANに⼤きく差をつけてSOTA
𝑇#(𝑥) 𝑇'(𝑥) 𝑇((𝑥) 𝑇)(𝑥)
例えば,訓練時に猫の画像(正常画像)の回転を
学習しても,テスト時に⼊⼒された
⽝の画像(異常画像)の回転はわからないはず
ということを利⽤する
詳しくは https://www.slideshare.net/DeepLearningJP2016/
dldeep-anomaly-detection-using-geometric-transformations-138639162
OCGAN- One-class Novelty Detection Using GANs with
Constrained Latent Representations (CVPR 2019)
n ⼿法: 例えば8の画像のみで訓練したモデルが,ほかのクラスの画像もすべて8に再構成する
ことによって,元の画像との誤差から異常を検知する
n 結果: CIFAR10では既存⼿法よりも若⼲のAUROCの向上
アイデアは⾯⽩いけど
結果は微妙だなあと思った
n ⼿法詳細: OCGANは4つの構造が含まれる
n Denoising autoencoder: 再構成するため
n Latent Discriminator: Adversarial Autoencoderのように,Encoderの出⼒を −1,1 -
に近づけることで,
潜在空間を限定する
n Visual Discriminator: −1,1 -
から⽣成したものがすべて学習データのみのデータになるようにする
n Classifier: 再構成したデータを正常,⽣成したデータを異常として学習させた後,Classifierは
Decoderが正常データを⽣成するように勾配を伝える
具体的にいくつか論⽂を紹介する
n 学習したクラスの物体中の異常検知
n OOD検知: One-class classification
n OOD検知: Multi-class classification
n Open Set Recognition
A Baseline for Detecting Misclassified and Out-of-Distribution
Examples in Neural Networks (ICLR 2017)
n 貢献
n multi-class classification分類のときの分布外検出の問題設定を提供し,ベースライン⼿法を提案した
n 提案⼿法: ソフトマックスの出⼒の最⼤値をOODの指標として使う
n アイデア: OODは予測分類が曖昧になるはず
n ex) 3クラスのとき,[0.9, 0.05, 0.05]→正常, [0.3, 0.3, 0.4]→異常
Enhancing The Reliability of Out-of-distribution Image Detection in
Neural Networks(ICLR 2018)
n 提案⼿法
n Baseline⼿法の改良(温度ソフトマックスを使う)
n 異常データと正常データの境界を広くするための前処理
n 結果: Baselineと⼤きく差を広げてSOTA
n ハイパラは検証⽤データ(若⼲のOODデータ)を利⽤してチューニングする
A Simple Unified Framework for Detecting Out-of-Distribution
Samples and Adversarial Attacks (NIPS 2018)
n 提案⼿法:
n 訓練分布から離れたところのサンプルを検出できるように,ソフトマックス層の⼀層前の出⼒の分布
を正規分布であることを仮定し,そこからどれだけ離れているかという⽅法でOOD検知を⾏う
n さらに,精度向上のため,キャリブレーションと特徴アンサンブルを⾏う
n 結果: OOD検知 + 敵対的攻撃でSOTA
詳しくは https://www.slideshare.net/ssuser9eb780/nips-2018-139360134
Training Confidence-calibrated Classifiers for Detecting Out-of-
Distribution Samples (ICLR 2018)
n 提案⼿法
n OODサンプルの予測を⼀様分布に近づけるというキャリブレーションを⾏う
n しかし,⼀般にはOODの分布をサンプルをカバーするようなサンプルはとれないので,GANを利
⽤する(GeneratorのサンプルをOODだと⾒⽴てる)
n OODを利⽤した定性的実験
n ⼀般に,下式のKL項を追加すると,分類精度は落ちるが,訓練データ(正常データ)に近い範囲で
OODデータを訓練データとして利⽤すれば,精度は落ちない → GANを利⽤する
Learning Confidence for Out-of-Distribution Detection in Neural Networks (2018)
n 提案⼿法: 分類確率だけでなく,信頼度を出⼒するようなモデルを提案した
n ⾃信がないときには本当のyを参照でき,それを答えとすることができる
n 参照したときには信頼度が減る
n 答えを参照するときにはペナルティがあり,その分ロスが増えるようになる
トイデータにおける信頼度のプロット
Predictive Uncertainty Estimation via Prior Networks (NIPS 2018)
n 提案⼿法: 事前分布のパラメータをNNで推定し,以下の(c)のデータを検知するモデルの提案
n (a): 正常データを正しく予測できるとき(confident)
n (b): 正常データだが,どのラベルに属しているかわからないとき(known-unknown)
n (c): 異常データ(unknown-unknown)
詳しくは https://www.slideshare.net/DeepLearningJP2016/
dlestimating-predictive-uncertainty-via-prior-networks
𝑥∗
𝑦∗
𝛼 𝜇
[0, 1, 0][0.05, 0.9, 0.05]
Prior Networks
具体的にいくつか論⽂を紹介する
n 学習したクラスの物体中の異常検知
n OOD検知: One-class classification
n OOD検知: Multi-class classification
n Open Set Recognition
Towards Open Set Deep Networks (CVPR 2016)
n 深層学習を使ったOSR問題を解こうとした最初の論⽂
n ⼿法 (Openmax):
n Activation vector (logit)のクラスごとの平均を利⽤してワイブ
ル分布でフィッティングする
n AVが与えられたときの割引率ωをもとめ,分布内確率を割り
引くことで,分布外確率を求める
n 結果: ILSVRC2012のデータセットを利⽤し,softmaxを
使った⽅法よりも精度向上
Open Set Learning with Counterfactual Images (ECCV 2018)
n ⼿法:
n 訓練データに近い(第⼀項)が,どの訓練データにも属さない(第⼆項)ようなデータをGANで作り出す
n Cは分類器で,クラスごとのlogitsのmaxの値が⼩さくなるようにしている
n 作ったデータを利⽤して,K+1クラス⽬を予測する新しい分類器を訓練
Classification-Reconstruction Learning for Open-Set Recognition (CVPR 2019)
n ⼿法: 予測結果とladder networkを使った潜在変
数を利⽤して,OODを検知する
C2AE- Class Conditioned Auto-Encoder for Open-set Recognition (CVPR 2019)
n ⼿法
n 1: Encoderで正常データを分類できるように学習
n 2: 条件付きAEで再構成が⾏えるように学習
n さらに,実際と異なるクラスの条件を利⽤した再構成を⾏
い,しきい値を決定する
n 3: クラス分の条件付き再構成を⾏い,再構成誤差の最⼩
値がしきい値を下回ったら正常,上回ったら異常とする
n 訓練データのみからしきい値τを決めることができることを⽰す図
n 左図: match condition vectorsとnon-match condition vectorsを利⽤したときの再構成誤差のヒストグラム
n 右図: 正常データと異常データの再構成誤差のヒストグラム
n 結果: 既存⼿法を⼤きく引き離してSOTA

More Related Content

What's hot

[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイDeep Learning JP
 
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...joisino
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方joisino
 
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State SpacesDeep Learning JP
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門tmtm otm
 
Triplet Loss 徹底解説
Triplet Loss 徹底解説Triplet Loss 徹底解説
Triplet Loss 徹底解説tancoro
 
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised LearningまとめDeep Learning JP
 
Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習Plot Hong
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoderSho Tatsuno
 
Towards Total Recall in Industrial Anomaly Detection
Towards Total Recall in Industrial Anomaly DetectionTowards Total Recall in Industrial Anomaly Detection
Towards Total Recall in Industrial Anomaly Detectionharmonylab
 
CV分野におけるサーベイ方法
CV分野におけるサーベイ方法CV分野におけるサーベイ方法
CV分野におけるサーベイ方法Hirokatsu Kataoka
 
ドメイン適応の原理と応用
ドメイン適応の原理と応用ドメイン適応の原理と応用
ドメイン適応の原理と応用Yoshitaka Ushiku
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)Masahiro Suzuki
 
Semi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learningSemi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learningYusuke Uchida
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門joisino
 
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Yusuke Uchida
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Yoshitaka Ushiku
 
不均衡データのクラス分類
不均衡データのクラス分類不均衡データのクラス分類
不均衡データのクラス分類Shintaro Fukushima
 

What's hot (20)

[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
 
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
 
実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方
 
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
 
Triplet Loss 徹底解説
Triplet Loss 徹底解説Triplet Loss 徹底解説
Triplet Loss 徹底解説
 
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
 
Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
 
Towards Total Recall in Industrial Anomaly Detection
Towards Total Recall in Industrial Anomaly DetectionTowards Total Recall in Industrial Anomaly Detection
Towards Total Recall in Industrial Anomaly Detection
 
CV分野におけるサーベイ方法
CV分野におけるサーベイ方法CV分野におけるサーベイ方法
CV分野におけるサーベイ方法
 
ドメイン適応の原理と応用
ドメイン適応の原理と応用ドメイン適応の原理と応用
ドメイン適応の原理と応用
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)
 
Semi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learningSemi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learning
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門
 
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
 
不均衡データのクラス分類
不均衡データのクラス分類不均衡データのクラス分類
不均衡データのクラス分類
 

Similar to Anomaly detection 系の論文を一言でまとめた

ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)ぱんいち すみもと
 
最近(2020/09/13)のarxivの分布外検知の論文を紹介
最近(2020/09/13)のarxivの分布外検知の論文を紹介最近(2020/09/13)のarxivの分布外検知の論文を紹介
最近(2020/09/13)のarxivの分布外検知の論文を紹介ぱんいち すみもと
 
パンハウスゼミ 異常検知論文紹介 20191005
パンハウスゼミ 異常検知論文紹介  20191005パンハウスゼミ 異常検知論文紹介  20191005
パンハウスゼミ 異常検知論文紹介 20191005ぱんいち すみもと
 
Muramatsu Bachelor Thesis
Muramatsu Bachelor ThesisMuramatsu Bachelor Thesis
Muramatsu Bachelor Thesispflab
 
Cvim saisentan-6-4-tomoaki
Cvim saisentan-6-4-tomoakiCvim saisentan-6-4-tomoaki
Cvim saisentan-6-4-tomoakitomoaki0705
 
[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)
[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)
[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)Deep Learning JP
 
PoisoningAttackSVM (ICMLreading2012)
PoisoningAttackSVM (ICMLreading2012)PoisoningAttackSVM (ICMLreading2012)
PoisoningAttackSVM (ICMLreading2012)Hidekazu Oiwa
 
自然言語処理における深層学習を用いた予測の不確実性 - Predictive Uncertainty in NLP -
自然言語処理における深層学習を用いた予測の不確実性  - Predictive Uncertainty in NLP -自然言語処理における深層学習を用いた予測の不確実性  - Predictive Uncertainty in NLP -
自然言語処理における深層学習を用いた予測の不確実性 - Predictive Uncertainty in NLP -tmtm otm
 
DLLab 異常検知ナイト 資料 20180214
DLLab 異常検知ナイト 資料 20180214DLLab 異常検知ナイト 資料 20180214
DLLab 異常検知ナイト 資料 20180214Kosuke Nakago
 
Image net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural NetworksImage net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural NetworksShingo Horiuchi
 
Datamining 5th Knn
Datamining 5th KnnDatamining 5th Knn
Datamining 5th Knnsesejun
 
R-CNNの原理とここ数年の流れ
R-CNNの原理とここ数年の流れR-CNNの原理とここ数年の流れ
R-CNNの原理とここ数年の流れKazuki Motohashi
 
Datamining 5th knn
Datamining 5th knnDatamining 5th knn
Datamining 5th knnsesejun
 
Deep Learningの基礎と応用
Deep Learningの基礎と応用Deep Learningの基礎と応用
Deep Learningの基礎と応用Seiya Tokui
 
物体検知(Meta Study Group 発表資料)
物体検知(Meta Study Group 発表資料)物体検知(Meta Study Group 発表資料)
物体検知(Meta Study Group 発表資料)cvpaper. challenge
 
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」Naoki Hayashi
 

Similar to Anomaly detection 系の論文を一言でまとめた (20)

ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)
 
最近(2020/09/13)のarxivの分布外検知の論文を紹介
最近(2020/09/13)のarxivの分布外検知の論文を紹介最近(2020/09/13)のarxivの分布外検知の論文を紹介
最近(2020/09/13)のarxivの分布外検知の論文を紹介
 
パンハウスゼミ 異常検知論文紹介 20191005
パンハウスゼミ 異常検知論文紹介  20191005パンハウスゼミ 異常検知論文紹介  20191005
パンハウスゼミ 異常検知論文紹介 20191005
 
Anomaly detection survey
Anomaly detection surveyAnomaly detection survey
Anomaly detection survey
 
Muramatsu Bachelor Thesis
Muramatsu Bachelor ThesisMuramatsu Bachelor Thesis
Muramatsu Bachelor Thesis
 
Cvim saisentan-6-4-tomoaki
Cvim saisentan-6-4-tomoakiCvim saisentan-6-4-tomoaki
Cvim saisentan-6-4-tomoaki
 
[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)
[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)
[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)
 
PoisoningAttackSVM (ICMLreading2012)
PoisoningAttackSVM (ICMLreading2012)PoisoningAttackSVM (ICMLreading2012)
PoisoningAttackSVM (ICMLreading2012)
 
自然言語処理における深層学習を用いた予測の不確実性 - Predictive Uncertainty in NLP -
自然言語処理における深層学習を用いた予測の不確実性  - Predictive Uncertainty in NLP -自然言語処理における深層学習を用いた予測の不確実性  - Predictive Uncertainty in NLP -
自然言語処理における深層学習を用いた予測の不確実性 - Predictive Uncertainty in NLP -
 
20141008物体検出器
20141008物体検出器20141008物体検出器
20141008物体検出器
 
DLLab 異常検知ナイト 資料 20180214
DLLab 異常検知ナイト 資料 20180214DLLab 異常検知ナイト 資料 20180214
DLLab 異常検知ナイト 資料 20180214
 
Image net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural NetworksImage net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural Networks
 
Deep Semi-Supervised Anomaly Detection
Deep Semi-Supervised Anomaly DetectionDeep Semi-Supervised Anomaly Detection
Deep Semi-Supervised Anomaly Detection
 
Datamining 5th Knn
Datamining 5th KnnDatamining 5th Knn
Datamining 5th Knn
 
DeepLearningDay2016Summer
DeepLearningDay2016SummerDeepLearningDay2016Summer
DeepLearningDay2016Summer
 
R-CNNの原理とここ数年の流れ
R-CNNの原理とここ数年の流れR-CNNの原理とここ数年の流れ
R-CNNの原理とここ数年の流れ
 
Datamining 5th knn
Datamining 5th knnDatamining 5th knn
Datamining 5th knn
 
Deep Learningの基礎と応用
Deep Learningの基礎と応用Deep Learningの基礎と応用
Deep Learningの基礎と応用
 
物体検知(Meta Study Group 発表資料)
物体検知(Meta Study Group 発表資料)物体検知(Meta Study Group 発表資料)
物体検知(Meta Study Group 発表資料)
 
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
 

More from ぱんいち すみもと (14)

ICLR・ICML読み会2021 by パンハウスゼミ
ICLR・ICML読み会2021 by パンハウスゼミICLR・ICML読み会2021 by パンハウスゼミ
ICLR・ICML読み会2021 by パンハウスゼミ
 
Free lunch for few shot learning distribution calibration
Free lunch for few shot learning distribution calibrationFree lunch for few shot learning distribution calibration
Free lunch for few shot learning distribution calibration
 
continual learning survey
continual learning surveycontinual learning survey
continual learning survey
 
Contrastive learning 20200607
Contrastive learning 20200607Contrastive learning 20200607
Contrastive learning 20200607
 
Variational denoising network
Variational denoising networkVariational denoising network
Variational denoising network
 
Anomaly Detection by Latent Regularized Dual Adversarial Networks
Anomaly Detection by Latent Regularized Dual Adversarial NetworksAnomaly Detection by Latent Regularized Dual Adversarial Networks
Anomaly Detection by Latent Regularized Dual Adversarial Networks
 
最新の異常検知手法(NIPS 2018)
最新の異常検知手法(NIPS 2018)最新の異常検知手法(NIPS 2018)
最新の異常検知手法(NIPS 2018)
 
Dual dl
Dual dlDual dl
Dual dl
 
Categorical reparameterization with gumbel softmax
Categorical reparameterization with gumbel softmaxCategorical reparameterization with gumbel softmax
Categorical reparameterization with gumbel softmax
 
Domain transfer サーベイ
Domain transfer サーベイDomain transfer サーベイ
Domain transfer サーベイ
 
Intro VAE
Intro VAEIntro VAE
Intro VAE
 
パンでも分かるVariational Autoencoder
パンでも分かるVariational Autoencoderパンでも分かるVariational Autoencoder
パンでも分かるVariational Autoencoder
 
PRML 14章
PRML 14章PRML 14章
PRML 14章
 
PRML 9章
PRML 9章PRML 9章
PRML 9章
 

Recently uploaded

20240412_HCCJP での Windows Server 2025 Active Directory
20240412_HCCJP での Windows Server 2025 Active Directory20240412_HCCJP での Windows Server 2025 Active Directory
20240412_HCCJP での Windows Server 2025 Active Directoryosamut
 
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Danieldanielhu54
 
PHP-Conference-Odawara-2024-04-000000000
PHP-Conference-Odawara-2024-04-000000000PHP-Conference-Odawara-2024-04-000000000
PHP-Conference-Odawara-2024-04-000000000Shota Ito
 
新人研修のまとめ 2024/04/12の勉強会で発表されたものです。
新人研修のまとめ       2024/04/12の勉強会で発表されたものです。新人研修のまとめ       2024/04/12の勉強会で発表されたものです。
新人研修のまとめ 2024/04/12の勉強会で発表されたものです。iPride Co., Ltd.
 
IoT in the era of generative AI, Thanks IoT ALGYAN.pptx
IoT in the era of generative AI, Thanks IoT ALGYAN.pptxIoT in the era of generative AI, Thanks IoT ALGYAN.pptx
IoT in the era of generative AI, Thanks IoT ALGYAN.pptxAtomu Hidaka
 
プレイマットのパターン生成支援ツール
プレイマットのパターン生成支援ツールプレイマットのパターン生成支援ツール
プレイマットのパターン生成支援ツールsugiuralab
 
プレイマットのパターン生成支援ツールの評価
プレイマットのパターン生成支援ツールの評価プレイマットのパターン生成支援ツールの評価
プレイマットのパターン生成支援ツールの評価sugiuralab
 
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。iPride Co., Ltd.
 

Recently uploaded (8)

20240412_HCCJP での Windows Server 2025 Active Directory
20240412_HCCJP での Windows Server 2025 Active Directory20240412_HCCJP での Windows Server 2025 Active Directory
20240412_HCCJP での Windows Server 2025 Active Directory
 
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Daniel
 
PHP-Conference-Odawara-2024-04-000000000
PHP-Conference-Odawara-2024-04-000000000PHP-Conference-Odawara-2024-04-000000000
PHP-Conference-Odawara-2024-04-000000000
 
新人研修のまとめ 2024/04/12の勉強会で発表されたものです。
新人研修のまとめ       2024/04/12の勉強会で発表されたものです。新人研修のまとめ       2024/04/12の勉強会で発表されたものです。
新人研修のまとめ 2024/04/12の勉強会で発表されたものです。
 
IoT in the era of generative AI, Thanks IoT ALGYAN.pptx
IoT in the era of generative AI, Thanks IoT ALGYAN.pptxIoT in the era of generative AI, Thanks IoT ALGYAN.pptx
IoT in the era of generative AI, Thanks IoT ALGYAN.pptx
 
プレイマットのパターン生成支援ツール
プレイマットのパターン生成支援ツールプレイマットのパターン生成支援ツール
プレイマットのパターン生成支援ツール
 
プレイマットのパターン生成支援ツールの評価
プレイマットのパターン生成支援ツールの評価プレイマットのパターン生成支援ツールの評価
プレイマットのパターン生成支援ツールの評価
 
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
 

Anomaly detection 系の論文を一言でまとめた

  • 2. そもそも異常とは︖ n 学習しているクラス以外のクラスのこと (Out-of-distribution) n よくある問題設定で,多数の論⽂が存在する n 学習したクラスの物体中のキズやよごれ n データセットが最近までなかった or 問題が難しいため, この異常に関する論⽂は極めて少ない n MVTec AD — A Comprehensive Real-World Dataset for Unsupervised Anomaly Detection (CVPR 2019) n データセット論⽂ 訓練データ テストデータ 正常 異常
  • 3. 学習しているクラス以外のクラスを検知する問題設定は主に2つ n Out-of-distribution detection: 異常を⾒つける n One-class classification: ⼀つのクラスの正常データを利⽤して,それ以外の異常データを検知する n Deep Autoencoding Gaussian Mixture Model for Unsupervised Anomaly Detection (ICLR 2018) n Deep Anomaly Detection Using Geometric Transformations (NIPS 2018) n OCGAN- One-class Novelty Detection Using GANs with Constrained Latent Representations (CVPR 2019) n Multi-class classification: 複数のクラスの正常データを利⽤して,それ以外の異常データを検知する n A Baseline for Detecting Misclassified and Out-of-Distribution Examples in Neural Networks(ICLR 2017) n Enhancing The Reliability of Out-of-distribution Image Detection in Neural Networks(ICLR 2018) n Training Confidence-calibrated Classifiers for Detecting Out-of-Distribution Samples (ICLR 2018) n A Simple Unified Framework for Detecting Out-of-Distribution Samples and Adversarial Attacks (NIPS 2018) n Learning Confidence for Out-of-Distribution Detection in Neural Networks n Predictive Uncertainty Estimation via Prior Networks (NIPS 2018) n Deep Anomaly Detection with Outlier Exposure (ICLR 2019) n Open Set Recognition: 異常を⾒つける ∧ 正常を正しく分類できる n Towards Open Set Deep Networks (CVPR 2016) n Generative OpenMax for Multi-Class Open Set Classification n Open Set Learning with Counterfactual Images (ECCV 2018) n C2AE- Class Conditioned Auto-Encoder for Open-set Recognition (CVPR 2019) n Classification-Reconstruction Learning for Open-Set Recognition (CVPR 2019)
  • 4. Out-of-distribution detectionの問題設定は2つ n One-class classification: ⼀つのクラスの正常クラスのサンプルのみ訓練データとして与え られ,テストデータを異常サンプルかどうかを分類する n Multi-class classification: 複数のクラスの正常クラスのサンプルのみ訓練データとして与え られ,テストデータを異常サンプルかどうかを分類する 訓練データ(すべて正常データ) テストデータ 正常 異常 訓練データ(すべて正常データで⽝カテゴリと⿃カテゴリが存在する) テストデータ 正常 異常⽝ ⿃ 猫
  • 5. One-class classification の主な⽅法は3つ n 再構成したときのロスを使う (PCA, Robust-PCA, deep autoencoders, ADGAN…) n 再構成ベースの⼿法で学習された表現を使う n One Class SVM を⽤いる 異常画像は再構成がうまくいかないはず,というアイデア 再構成画像テスト画像 L2ロス
  • 6. One-class classification の主な⽅法は3つ n 再構成したときのロスを使う n 再構成ベースの⼿法で学習された表現を使う (KDE, Robust-KDE, DSEBM…) n One Class SVM を⽤いる テスト画像 異常画像は潜在空間上で確率密度が⼩さいはず,というアイデア 潜在空間 ・ ・ ・ ・・ ・ ・ ・ ・ ・ ・ ・ ・ ・・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・・ ・ ・ ・ ・ ・ ・
  • 7. One-class classification の主な⽅法は3つ n 再構成したときのロスを使う n 再構成ベースの⼿法で学習された表現を使う n One Class SVM を⽤いる (SVDD, Deep SVDD...) 訓練データができるだけ⼩さい超球内に⼊るような写像を学習し 超球外であれば異常画像である,というアイデア
  • 8. Multi-class classification の主な⽅法 n 識別結果を利⽤する n キャリブレーションの利⽤ n Enhancing The Reliability of Out-of-distribution Image Detection in Neural Networks(ICLR 2018) n A Simple Unified Framework for Detecting Out-of-Distribution Samples and Adversarial Attacks (NIPS 2018) n OODデータの利⽤ n Training Confidence-calibrated Classifiers for Detecting Out-of-Distribution Samples (ICLR 2018) n Deep Anomaly Detection with Outlier Exposure (ICLR 2019) n 不確かさの利⽤ n Predictive Uncertainty Estimation via Prior Networks (NIPS 2018) n Learning Confidence for Out-of-Distribution Detection in Neural Networks ←ソフトマックス層の⼀層前の可視化 識別ロスを利⽤すると,OODは基本的にあいまいな分類結果 となるため,検知ができる
  • 9. Open Set Recognition とは n Open set recognitionとは N+1分類のこと n Nクラスの正常データの分類に加え,テスト時にのみ現れる未知のデータを検知する n ⼿法はMulti-class classificationのものと近いものが多い
  • 10. Opennessの定義と例 n 普通の多クラス分類ではopennessはどんな場合でも0 n 顔認証はテストのときに,訓練データの顔と同じかどうかを判定すればよいのでtarget クラ ス数 = training クラス数となる n 検知は背景の数(negative class)が⾮常に多くなるが,targetの数は⼀つ n Object recognitionは普通の分類に加え,それ以外の物体であることを認識する必要がある
  • 11. Open space riskについて n 多クラス分類のリスク n Open space risk
  • 12. 具体的にいくつか論⽂を紹介する n 学習したクラスの物体中の異常検知 n OOD検知: One-class classification n OOD検知: Multi-class classification n Open Set Recognition
  • 13. 具体的にいくつか論⽂を紹介する n 学習したクラスの物体中の異常検知 n OOD検知: One-class classification n OOD検知: Multi-class classification n Open Set Recognition
  • 14. MVTec AD — A Comprehensive Real-World Dataset for Unsupervised Anomaly Detection (CVPR 2019) n 誰もが待ち望んだデータセット論⽂
  • 16. 具体的にいくつか論⽂を紹介する n 学習したクラスの物体中の異常検知 n OOD検知: One-class classification n OOD検知: Multi-class classification n Open Set Recognition
  • 17. Deep Autoencoding Gaussian Mixture Model for Unsupervised Anomaly Detection (ICLR 2018) n ⼿法: n 次元削減と再構成の情報を利⽤してOODを判定するネットワーク(右図)を提案した n 再構成誤差最⼩化 + GMMの混合⽐をNNで推定してMLEを⾏うことで,E2Eな学習を可能にした n 定性的な実験(左図): n ⾚が異常サンプル,⻘が正常サンプル,縦軸が再構成誤差,横軸が1次元に圧縮したときの値 n 異常サンプルは,低次元で値が異なり,再構成が難しいことがわかる
  • 18. Deep Anomaly Detection Using Geometric Transformations (NIPS 2018) n ⼿法: n 正常な画像なら幾何変換(回転,flipなど)した場合その変換をあてられるはずというアイデア n 幾何変換で条件づけたときの対数尤度を使ったスコアを定義し,スコアが低いものを異常とみなす n 結果: AUROCを使って評価し,OC-SVM, DAGMM, DSEBM, ADGANに⼤きく差をつけてSOTA 𝑇#(𝑥) 𝑇'(𝑥) 𝑇((𝑥) 𝑇)(𝑥) 例えば,訓練時に猫の画像(正常画像)の回転を 学習しても,テスト時に⼊⼒された ⽝の画像(異常画像)の回転はわからないはず ということを利⽤する 詳しくは https://www.slideshare.net/DeepLearningJP2016/ dldeep-anomaly-detection-using-geometric-transformations-138639162
  • 19. OCGAN- One-class Novelty Detection Using GANs with Constrained Latent Representations (CVPR 2019) n ⼿法: 例えば8の画像のみで訓練したモデルが,ほかのクラスの画像もすべて8に再構成する ことによって,元の画像との誤差から異常を検知する n 結果: CIFAR10では既存⼿法よりも若⼲のAUROCの向上 アイデアは⾯⽩いけど 結果は微妙だなあと思った
  • 20. n ⼿法詳細: OCGANは4つの構造が含まれる n Denoising autoencoder: 再構成するため n Latent Discriminator: Adversarial Autoencoderのように,Encoderの出⼒を −1,1 - に近づけることで, 潜在空間を限定する n Visual Discriminator: −1,1 - から⽣成したものがすべて学習データのみのデータになるようにする n Classifier: 再構成したデータを正常,⽣成したデータを異常として学習させた後,Classifierは Decoderが正常データを⽣成するように勾配を伝える
  • 21. 具体的にいくつか論⽂を紹介する n 学習したクラスの物体中の異常検知 n OOD検知: One-class classification n OOD検知: Multi-class classification n Open Set Recognition
  • 22. A Baseline for Detecting Misclassified and Out-of-Distribution Examples in Neural Networks (ICLR 2017) n 貢献 n multi-class classification分類のときの分布外検出の問題設定を提供し,ベースライン⼿法を提案した n 提案⼿法: ソフトマックスの出⼒の最⼤値をOODの指標として使う n アイデア: OODは予測分類が曖昧になるはず n ex) 3クラスのとき,[0.9, 0.05, 0.05]→正常, [0.3, 0.3, 0.4]→異常
  • 23. Enhancing The Reliability of Out-of-distribution Image Detection in Neural Networks(ICLR 2018) n 提案⼿法 n Baseline⼿法の改良(温度ソフトマックスを使う) n 異常データと正常データの境界を広くするための前処理 n 結果: Baselineと⼤きく差を広げてSOTA n ハイパラは検証⽤データ(若⼲のOODデータ)を利⽤してチューニングする
  • 24. A Simple Unified Framework for Detecting Out-of-Distribution Samples and Adversarial Attacks (NIPS 2018) n 提案⼿法: n 訓練分布から離れたところのサンプルを検出できるように,ソフトマックス層の⼀層前の出⼒の分布 を正規分布であることを仮定し,そこからどれだけ離れているかという⽅法でOOD検知を⾏う n さらに,精度向上のため,キャリブレーションと特徴アンサンブルを⾏う n 結果: OOD検知 + 敵対的攻撃でSOTA 詳しくは https://www.slideshare.net/ssuser9eb780/nips-2018-139360134
  • 25. Training Confidence-calibrated Classifiers for Detecting Out-of- Distribution Samples (ICLR 2018) n 提案⼿法 n OODサンプルの予測を⼀様分布に近づけるというキャリブレーションを⾏う n しかし,⼀般にはOODの分布をサンプルをカバーするようなサンプルはとれないので,GANを利 ⽤する(GeneratorのサンプルをOODだと⾒⽴てる) n OODを利⽤した定性的実験 n ⼀般に,下式のKL項を追加すると,分類精度は落ちるが,訓練データ(正常データ)に近い範囲で OODデータを訓練データとして利⽤すれば,精度は落ちない → GANを利⽤する
  • 26. Learning Confidence for Out-of-Distribution Detection in Neural Networks (2018) n 提案⼿法: 分類確率だけでなく,信頼度を出⼒するようなモデルを提案した n ⾃信がないときには本当のyを参照でき,それを答えとすることができる n 参照したときには信頼度が減る n 答えを参照するときにはペナルティがあり,その分ロスが増えるようになる トイデータにおける信頼度のプロット
  • 27. Predictive Uncertainty Estimation via Prior Networks (NIPS 2018) n 提案⼿法: 事前分布のパラメータをNNで推定し,以下の(c)のデータを検知するモデルの提案 n (a): 正常データを正しく予測できるとき(confident) n (b): 正常データだが,どのラベルに属しているかわからないとき(known-unknown) n (c): 異常データ(unknown-unknown) 詳しくは https://www.slideshare.net/DeepLearningJP2016/ dlestimating-predictive-uncertainty-via-prior-networks 𝑥∗ 𝑦∗ 𝛼 𝜇 [0, 1, 0][0.05, 0.9, 0.05] Prior Networks
  • 28. 具体的にいくつか論⽂を紹介する n 学習したクラスの物体中の異常検知 n OOD検知: One-class classification n OOD検知: Multi-class classification n Open Set Recognition
  • 29. Towards Open Set Deep Networks (CVPR 2016) n 深層学習を使ったOSR問題を解こうとした最初の論⽂ n ⼿法 (Openmax): n Activation vector (logit)のクラスごとの平均を利⽤してワイブ ル分布でフィッティングする n AVが与えられたときの割引率ωをもとめ,分布内確率を割り 引くことで,分布外確率を求める n 結果: ILSVRC2012のデータセットを利⽤し,softmaxを 使った⽅法よりも精度向上
  • 30. Open Set Learning with Counterfactual Images (ECCV 2018) n ⼿法: n 訓練データに近い(第⼀項)が,どの訓練データにも属さない(第⼆項)ようなデータをGANで作り出す n Cは分類器で,クラスごとのlogitsのmaxの値が⼩さくなるようにしている n 作ったデータを利⽤して,K+1クラス⽬を予測する新しい分類器を訓練
  • 31. Classification-Reconstruction Learning for Open-Set Recognition (CVPR 2019) n ⼿法: 予測結果とladder networkを使った潜在変 数を利⽤して,OODを検知する
  • 32. C2AE- Class Conditioned Auto-Encoder for Open-set Recognition (CVPR 2019) n ⼿法 n 1: Encoderで正常データを分類できるように学習 n 2: 条件付きAEで再構成が⾏えるように学習 n さらに,実際と異なるクラスの条件を利⽤した再構成を⾏ い,しきい値を決定する n 3: クラス分の条件付き再構成を⾏い,再構成誤差の最⼩ 値がしきい値を下回ったら正常,上回ったら異常とする
  • 33. n 訓練データのみからしきい値τを決めることができることを⽰す図 n 左図: match condition vectorsとnon-match condition vectorsを利⽤したときの再構成誤差のヒストグラム n 右図: 正常データと異常データの再構成誤差のヒストグラム n 結果: 既存⼿法を⼤きく引き離してSOTA