More Related Content Similar to 20170806 Discriminative Optimization (20) More from Takuya Minagawa (11) 20170806 Discriminative Optimization3. 紹介論文
Discriminative Optimization: Theory and
Application to Point Cloud Registration
JayakornVongkulbhisal, Fernando De la Torre, Joao P.
Costeira
点群同士の位置合わせをコスト関数の最小化とい
う形をとらず、特徴量から直接移動方向を算出す
る手法を提案
高速かつロバスト
ポスターで話聞いて面白いと思ったので紹介
12. Supervised Sequential Update (SSU)
顔器官検出/追跡などで近年使われる手法
Explicit Shape RegressionやSDMなど
ランドマーク周辺の特徴量から直接フィッティングのための移
動量を算出
Cao, X.,Wei,Y.,Wen, F., & Sun, J. (2012). Face Alignment by Explicit Shape
Regression. In IEEE Conference on ComputerVision and Pattern Recognition.
18. 学習データセット
学習データセット 𝐱0
(𝑖)
, 𝐱∗
(𝑖)
, 𝐡(𝑖)
𝑖=1
𝑁
を用意
・・・
𝐱0
(1)
𝐱∗
(1)
𝐱0
(2)
𝐱∗
(2)
𝐱∗
(𝑁)
𝐱0
(𝑁)
初期パラメータ Ground
Truth
サンプルごとの
(事前計算した)
特徴量
19. 𝐃 𝑘+1の学習
𝐃 𝑘+1 =
argmin
෩𝐃
1
𝑁
σ𝑖=1
𝑁
𝐱∗
(𝑖)
− 𝐱 𝑘
(𝑖)
+ ෩𝐃 𝐡(𝑖) 𝐱 𝑘
(𝑖) 2
+
𝜆
2
෩𝐃 𝐹
2
正則化項
リッジ回帰
・・・
𝐱 𝑘
(1)
𝐱∗
(1)
𝐱 𝑘
(2)
𝐱∗
(2)
𝐱∗
(𝑁)
𝐱 𝑘
(𝑁)
𝐱∗
(𝑖)
と𝐱 𝑘+1
(𝑖)
の二乗誤差の総和が最小となるように𝐃 𝑘+1を算出
21. 理論的な分析
定義1(単調性):
関数𝑓: ℝ 𝑝 → ℝ 𝑝が全ての𝐱 ∈ ℝ 𝑝において 𝐱 − 𝐱∗
T 𝑓 𝐱 ≥ 0
を満たすならば、 𝑓 𝐱 は𝐱∗ ∈ ℝ 𝑝
において単調(増加/減少)である
定理1:
訓練セット 𝐱0
(𝑖)
, 𝐱∗
(𝑖)
, 𝐡(𝑖)
𝑖=1
𝑁
において෩𝐃 𝐡(𝑖)
𝐱∗
(𝑖)
が単調
ならば、Algorithm 1は各イテレーションで必ず以下を満たす
𝑖=1
𝑁
𝐱∗
(𝑖)
− 𝐱 𝑘+1
(𝑖) 2
<
𝑖=1
𝑁
𝐱∗
(𝑖)
− 𝐱 𝑘
(𝑖) 2
25. 特徴量𝐡 𝐱 𝑘
モデル点群の有る点𝑚1の法線方向を算出
法線方向側にある点群をFrontとする。
モデル
シーン
26. 特徴量𝐡 𝐱 𝑘
モデル点群の有る点𝑚1の法線方向を算出
法線方向側にある点群をFrontとする。
法線方向と反対側の点群をBackとする。
モデル
シーン
29. 特徴量𝐡 𝐱 𝑘
モデル上の全ての点について同様に計算し、モデルの
点数x2次元の特徴量を得る。
30. 特徴量𝐡 𝐱 𝑘
モデル上の全ての点について同様に計算し、モデルの
点数x2次元の特徴量を得る。
36. まとめ
Discriminative Optimization (DO)の提案
訓練データからパラメータ空間におけるアップデートの方向を
直接算出
効率的かつロバスト
2Dおよび3Dの点群レジストレーションにおいてstate-of-the-
artの手法を大幅に上回る
FutureWork
モデルごとのトレーニングが不要な特徴量の設計
点群レジストレーション以外の分野への応用(non-rigid
registration, camera calibration, fitting shape models to videos)