More Related Content
Similar to CVPR2019読み会@関東CV (20)
More from Takanori Ogata (15)
CVPR2019読み会@関東CV
- 6. Learning Loss for Active Learning
・Input から直接Lossを予測し、予測
値に応じてActive Learningを⾏うこと
で、効率的なアノテーションを可能と
する論⽂
• タスク⾮依存な設計のため活⽤幅が
広い
・Classification/Regression/Hybridの
パターンで評価し、どちも良い性能を
得ることができた
- 8. Active Learning (能動学習)
• 正解なしデータの中から「これの正解がわかれば性能
が上がるかも」というデータを選ぶ
• Oracle(神託 : 正解を教えてくれる何か)にデータを
問い合わせ(query)、得た正解を訓練データに追加する
via (Settles 2009)
https://www.slideshare.net/shuyo/introduction-to-active-learning-25787487
- 21. compare a pair of samples
• 解決策として、Mini-Batch内のsample lossの⼤⼩⽐較問題を
解く
• B から B/2のSample pair 𝑥3 = 𝑥5, 𝑥7 を作成
• 𝑥5, 𝑥7それぞれの𝑙𝑜𝑠𝑠に対して、MiniBatch内で下記を計算
- 22. compare a pair of samples
• 解決策として、Mini-Batch内のsample lossの⼤⼩⽐較問題を
解く
• B から B/2のSample pair 𝑥3 = 𝑥5, 𝑥7 を作成
• 𝑥5, 𝑥7それぞれの𝑙𝑜𝑠𝑠に対して、MiniBatch内で下記を計算
真値 予測 マージン
- 23. compare a pair of samples
つまり、真値と予測の⼤⼩が⼊れ替わっているときにLossが
発⽣するような仕組みになっている
真値 予測 マージン
- 28. Object Detection
• Dataset: PASCAL VOC 2007 and 2012
• Model: SSD w/ VGG16
• Loss prediction module:
• {convi | i=4_3, 7, 8_2, 9_2, 10_2, 11_2}
• Classification+ Regression(BBox)のHybrid型での実験
- 30. Human Pose Estimation
• Dataset: MPII dataset
• Model: Stacked Hourglass Networks
• Loss prediction module:
• the last feature map of (H,W,C)=(64,64,256)
• Percentage of Correct Key-points (PCK)を指標に
• 3回の試⾏結果をプロット
• MSE Lossを使うのでRegression Task
- 33. まとめ
• Prediction Loss moduleを導⼊し、損失値を不確かさ
とみるActive Learningを提案
• タスク⾮依存な設計のため活⽤幅が広い
• 簡単なタスクだとワークしてるけど、難しいタスクに
なると初期の⽅はあんまりワークしてない
- 35. SCOPS: Self-Supervised Co-Part Segmentation
• 同じObject Categoryの画像群からマニュアルアノテーション
なしに、Class-agnositcなPart Segmentationを実現する研究
• 既存のUnsupervised Landmark detection approachと⽐較し
て外観のバリエーションやオクルージョンに対して頑健
• またlandmarkの個数を決められない物体に対しても適⽤可能
- 38. Overview
Channel-wise softmaxにより
𝑅 = 𝐹 𝐼; θH ∈ 0, 1 (#M1)×P×Q
のpart response mapを作成
(K個のparts map + Background)
• Geometric Concentration loss
• Equivariance loss
• Semantic Consistency Loss
の3つのloss + Unsupervised Saliencyを
活⽤
* ArchitectureはDeepLab-V2+ResNet50
- 42. Semantic Consistency Loss
• ⼈⼯的に作られた変換だけでは、異なるインスタンス間同⼠で⼀貫性を保
つのは難しい
• -> 異なるインスタンス同⼠で作⽤するLossを設計する必要がある
Pretraind-modelの特徴量を活⽤して、異なる部分セグメントに対応する与
えられた分類特徴において代表的な特徴クラスタを⾒つけることができる
のでは?
(画像の特徴量がパーツ特徴量の和になるように学習させる)
[Collins+, ECCV2018]
- 43. Semantic Consistency Loss
• 2つのLoss(Semantic
Consistency/Orthogonal Constraint)と
Saliencyの活⽤で構成される
• Pretrained Modelから抽出した特徴を、
GlobalなPartsごとの和として表すような
ベクトルを学習させたい
- 44. Semantic Consistency Loss
𝑉 ∈ 𝑅v × P × Q: Pretrained Modelの特徴量
𝑤_ ∈ 𝑅v, 𝑘 ∈ 1, 2, … , 𝐾 ∶ 𝑝𝑎𝑟𝑡 𝑏𝑎𝑠𝑖𝑠 𝑣𝑒𝑐𝑡𝑜𝑟𝑠
ResponseMap(scalar) * wがV(u, v)と同じにな
るように学習
Vとw_kが打ち消し合わないように、どちらに
もReLUを適⽤することで⾮負になるようにす
る。(先⾏研究はNMFを使っている)
- 52. A General and Adaptive Robust Loss Function
• おれがかんがえたさいきょーのLoss関数の提案