SlideShare a Scribd company logo
1 of 13
画像認識 読書会
4章前半
コーディングの確率的手法
担当 波多
4.1.1 コーディング
• 原画像から特徴点を抽出
• 特徴点から,新たな高次の特徴量へ変換=
コーディング
– 特徴点を別の高次のベクトルに変換
• ある画像領域の複数のコーディングベクトル
を1つのベクトルにまとめる=プーリング
– ベクトルの数は減るが,1ベクトルあたりの次元
は同じ
コーディングの手法
• 確率分布を仮定した推定> 4.2
• 代表点 >4.3
• 多様体 >4.4
• カーネルの内積による近似>4.5
• 判別的な学習>4.6
4.2.1.1 BoVW
• 類似の特徴点をまとめてヒストグラム化する
• ある特徴点をどのグループのカウンタをアッ
プさせるか
– クラスタリング(教師なし学習)問題
• クラスタリングアルゴリズム k-means法
• 2点がどれだけ離れているのかを表す指標 カーネル
k-means法
• コードワード=プロトタイプ
𝑏2
𝑏1
𝑥1
𝑥2
𝑑(𝑥2, 𝑏1)
𝑑(𝑥2, 𝑏2)
各𝑥 𝑛ごとに所属するクラスタ𝔇𝑘を決定する
コードブック𝑏𝑗を決定する
𝑘 = argmin
𝑗
(𝑑 𝑥 𝑛, 𝑏𝑗 )
クラスタ𝔇𝑘ごとにコードワード𝑏𝑗を更新する
𝑏 𝑘 =
1
|𝔇 𝑘|
𝑥∈𝔇 𝑘
𝑥
カーネル法
𝑦 = 𝔀 𝑇
𝒙
𝑟𝑠(𝑦; 𝒙; 𝔀)=(𝑦-𝔀 𝑇 𝒙) 𝟐
𝑅 𝔀 =
𝑗=1
𝑛
𝑟𝑠(𝑦; 𝒙; 𝔀) =
𝑗=1
𝑛
(𝑦−𝔀 𝑇
𝒙) 𝟐
𝑦 =
𝑗=1
𝑛
𝛼𝑗 𝑘(𝒙 𝑗 , 𝒙)
𝑟𝑘(𝑦; 𝒙; 𝜶)=(𝑦- 𝑗=1
𝑛
𝛼𝑗 𝑘(𝒙 𝑗 , 𝒙)) 𝟐
𝑅 𝜶 = 𝒚 − 𝐾𝜶 𝑇
𝒚 − 𝐾𝜶
𝐾 =
𝑘 𝑥(1), 𝑥 1 ⋯ 𝑘 𝑥(1), 𝑥 𝑛
⋮ ⋱ ⋮
𝑘 𝑥(𝑛), 𝑥 1 ⋯ 𝑘 𝑥(𝑛), 𝑥 𝑛
最小二乗法 カーネル法
最小二乗法は,サンプルから線形モデル𝔀を生成する.カーネル法は,サンプルから
カーネル関数の線形モデル𝜶を生成する.カーネル関数は2点間距離(近さ,類似度)
関数.
カイ二乗カーネル/ヒストグラムインターセクションカーネル/ヘリンジャーカーネル等
4.2.1.3 カーネルコードブック
• ある特徴点はどこかひとつのクラスタに属するの
ではなく,いくつかの複数のクラスタに所属させ
られる
– コードワードからの距離(ガウシアンカーネル)の割合
による
𝑦 = exp(−0.5𝑥2)
𝑏2
𝑏1
𝑥2
𝑑(𝑥2, 𝑏1)
𝑑(𝑥2, 𝑏2)
𝑐 𝑘 𝑥 𝑛 =
𝑒𝑥𝑝 −
𝛾
2
𝑥 𝑛 − 𝑏𝑗
2
𝑗=1
𝐾
𝑒𝑥𝑝 −
𝛾
2 𝑥 𝑛 − 𝑏𝑗
2
𝑥 𝑛は𝑏 𝑘に𝑐 𝑘 𝑥 𝑛 × 100%
寄与している
4.2.2.1 GMM混合ガウス分布モデル
特徴点をK個のガウス分布からなる確率モデルから生成されたサンプルと仮定して,ガ
ウス分布のパラメータを推定する
π2=0.3
𝑥 𝑛
0.7𝒩(𝑥|5,1) + 0.3𝒩(𝑥|7,1)
0.7𝒩(6|5,1)
0.3𝒩(6|7,1)
π1=0.7
𝛾𝑛 1 =
0.7𝒩 6 5,1
0.7𝒩 6 5,1 + 0.3𝒩(6|7,1)
寄与率γの計算方法
𝜃 1
= 𝜋 𝑘
1
, 𝝁 𝑘
1
, 𝜮 𝑘
1
𝑘=1
𝐾
𝜋 𝑘
(𝑡+1)
=
𝑁𝑘
𝑁
, 𝑁𝑘 =
𝑛=1
𝑁
𝛾𝑛 𝑘
𝝁 𝒌
(𝒕+𝟏)
=
1
𝑁𝑘
𝑛=1
𝑁
𝛾𝑛 𝑘 𝒙 𝒏
𝜮 𝒌
(𝒕+𝟏)
=
1
𝑁𝑘
𝑛=1
𝑁
𝛾𝑛 𝑘 𝒙 𝒏 − 𝝁 𝒌
(𝒕+𝟏)
𝒙 𝒏 − 𝝁 𝒌
(𝒕+𝟏) 𝑇
各ガウス分布のパラメータを仮設定する
特徴点ごとに各分布への寄与率を計算
寄与率を盛り込んでパラメータを不偏推定
𝛾𝑛 𝑘 = 𝑝 𝑘 𝑥 𝑛, 𝜃(𝑡)
=
𝜋 𝑘
𝑡
𝒩 𝒙 𝒏 𝝁 𝑘
𝑡
, 𝜮 𝑘
𝑡
𝑗=1
𝐾
𝜋𝑗
𝑡
𝒩 𝒙 𝒏 𝝁 𝑗
𝑡
, 𝜮𝑗
𝑡
4.2.2.1 GMMスーパーベクトル
KL距離=2つの異なる確率密度関数の類似度
(厳密には距離ではない,pからqと,qからpへの距離が異なる)
二つの画像の類似度は,2つの画像の対応するガウス分布ごとにKL
を計算して,混合比を重みとして総和をとる
𝐾𝐿 ≤
1
2 𝑘=1
𝐾
𝜋 𝑘 𝝁 𝑘
𝑎
− 𝝁 𝑘
𝑏 𝑇
𝜮 𝑘
−1
𝝁 𝑘
𝑎
− 𝝁 𝑘
𝑏
類似度(カーネル関数)
𝑘 𝜇 𝑘
𝑎
, 𝜇 𝑘
𝑏
= 𝜋 𝑘 𝝁 𝑘
𝑎 𝑇
𝜮 𝑘
−1
𝝁 𝑘
𝑏
スーパーベクトル
𝜐 = 𝝁1, 𝝁2, ⋯ , 𝝁 𝐾
𝑇
𝝁 𝑘 = 𝜋 𝑘Σ 𝑘
−1/2
𝝁 𝑘
画像距離
𝜐 𝑎
, 𝜐 𝑏
= 𝜐 𝑎 𝑇
𝜐 𝑏
画像a
画像b
KL計算
KL計算
4.2.2.2 フィッシャーベクトル𝜕
𝜕𝜇
𝑓(𝑥|𝜇, 𝜎) : 尤度の偏微分
𝜇をわずかに移動すると,尤度がどれくらい増加するか
=>密度関数の勾配の強さを表す(分散に似た尺度)
対数尤度で勾配ベクトルをとる
𝒄 𝜽, 𝒙 = 𝛻𝜃 log 𝑓 𝑥 𝜇, 𝜎
=
𝜕
𝜕𝜇
log𝑓 𝑥 𝜇, 𝜎 ,
𝜕
𝜕𝜎
log𝑓 𝑥 𝜇, 𝜎
𝑇
𝜇 𝑥
𝑭 = 𝔼 𝑥 𝑐 𝜽, 𝒙 𝑐 𝜽, 𝒙 𝑻
=
𝔼 𝑥
𝜕
𝜕𝜇
log𝑓 𝑥 𝜇, 𝜎
2
𝔼 𝑥
𝜕
𝜕𝜇
log𝑓 𝑥 𝜇, 𝜎
𝜕
𝜕𝜎
log𝑓 𝑥 𝜇, 𝜎
𝔼 𝑥
𝜕
𝜕𝜇
log𝑓 𝑥 𝜇, 𝜎
𝜕
𝜕𝜎
log𝑓 𝑥 𝜇, 𝜎 𝔼 𝑥
𝜕
𝜕𝜎
log𝑓 𝑥 𝜇, 𝜎
2
フィッシャーカーネル:𝑘 𝒙1, 𝒙2 = 𝑐 𝜽, 𝒙1
𝑇
𝑭−1
𝑐 𝜽, 𝒙2 = 𝑐 𝜽, 𝒙 𝑛
𝑇
𝑐 𝜽, 𝒙 𝑛
𝒄 𝜽, 𝒙 𝑛 = 𝐹−1/2
𝒄(𝜽, 𝒙 𝑛)
フィッシャーベクトル
𝝊 = 𝑛=1
𝑁
𝒄( 𝜽, 𝒙 𝑛)
フィッシャー情報量行列
4.2.2.5 VLAD
GMMでも混合係数と共分散行列を無視して,平均値のみに着目する特徴点
各コンポーネント(ガウス分布の峰)ℛ 𝑘ごとにコードブック𝑏 𝑘と特徴点との差
の総和𝑣 𝑘を計算する
𝑣 𝑘 =
𝑥∈ℛ 𝑘
𝑥 − 𝑏 𝑘
スーパーベクトル 𝑣 = 𝑣1
𝑇
, 𝑣2
𝑇
, ⋯ , 𝑣 𝐾
𝑇 𝑇
もしくは正規化
𝑣 =
𝑣1
𝑇
𝑣1 2
,
𝑣2
𝑇
𝑣2 2
, ⋯ ,
𝑣2
𝑇
𝑣 𝐾 2
𝑇
4.2.2.5 VLAT
GMMでも混合係数を無視して,平均値と共分散行列に着目する特徴点
各コンポーネント(ガウス分布の峰)ℛ 𝑘ごとに平均からの二乗距離と共分散
行列Σ 𝑘との差の総和𝑇𝑘を計算する
𝑇𝑘 =
𝑥∈ℛ 𝑘
( 𝑥 − 𝜇 𝑘 𝑥 − 𝜇 𝑘
𝑇 − Σ 𝑘)
スーパーベクトル 𝑣 = 𝑣𝑒𝑐 𝑇1
𝑇, 𝑣𝑒𝑐 𝑇2
𝑇, ⋯ , 𝑣𝑒𝑐 𝑇 𝐾
𝑇 𝑇
4.2.3.2 Log-Euclidean計量
ガウス分布の共分散行列Sは正定値
正定値行列Sは固有値分解可能
𝑆 = 𝑈Λ𝑈 𝑇
∈ ℝ 𝐷×𝐷
exp 𝑆 = 𝑈𝑑𝑖𝑎𝑔(exp(𝜆1), exp(𝜆2), ⋯ , exp(𝜆 𝐷))𝑈 𝑇
log 𝑆 = 𝑈𝑑𝑖𝑎𝑔(log(𝜆1), log(𝜆2), ⋯ , log(𝜆 𝐷))𝑈 𝑇
ユークリッド距離のように扱える
𝐷 𝑆1, 𝑆2 = log 𝑆1 − log(𝑆2)
→ 𝜇も log Σ もユークリッド平面で取り扱いが可能になる

More Related Content

What's hot

2014.01.23 prml勉強会4.2確率的生成モデル
2014.01.23 prml勉強会4.2確率的生成モデル2014.01.23 prml勉強会4.2確率的生成モデル
2014.01.23 prml勉強会4.2確率的生成モデル
Takeshi Sakaki
 

What's hot (20)

[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1
 
[DL輪読会]Model-Based Reinforcement Learning via Meta-Policy Optimization
[DL輪読会]Model-Based Reinforcement Learning via Meta-Policy Optimization[DL輪読会]Model-Based Reinforcement Learning via Meta-Policy Optimization
[DL輪読会]Model-Based Reinforcement Learning via Meta-Policy Optimization
 
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
 
製造業向け量子コンピュータ時代のDXセミナー~ 最適化の中身を覗いてみよう~
製造業向け量子コンピュータ時代のDXセミナー~ 最適化の中身を覗いてみよう~製造業向け量子コンピュータ時代のDXセミナー~ 最適化の中身を覗いてみよう~
製造業向け量子コンピュータ時代のDXセミナー~ 最適化の中身を覗いてみよう~
 
音声コーパス設計と次世代音声研究に向けた提言
音声コーパス設計と次世代音声研究に向けた提言音声コーパス設計と次世代音声研究に向けた提言
音声コーパス設計と次世代音声研究に向けた提言
 
論文紹介 No-Reward Meta Learning (RL architecture勉強会)
論文紹介 No-Reward Meta Learning (RL architecture勉強会)論文紹介 No-Reward Meta Learning (RL architecture勉強会)
論文紹介 No-Reward Meta Learning (RL architecture勉強会)
 
多チャンネルバイラテラルフィルタの高速化
多チャンネルバイラテラルフィルタの高速化多チャンネルバイラテラルフィルタの高速化
多チャンネルバイラテラルフィルタの高速化
 
海鳥の経路予測のための逆強化学習
海鳥の経路予測のための逆強化学習海鳥の経路予測のための逆強化学習
海鳥の経路予測のための逆強化学習
 
サーベイ論文:画像からの歩行者属性認識
サーベイ論文:画像からの歩行者属性認識サーベイ論文:画像からの歩行者属性認識
サーベイ論文:画像からの歩行者属性認識
 
自由エネルギー原理から エナクティヴィズムへ
自由エネルギー原理から エナクティヴィズムへ自由エネルギー原理から エナクティヴィズムへ
自由エネルギー原理から エナクティヴィズムへ
 
2014.01.23 prml勉強会4.2確率的生成モデル
2014.01.23 prml勉強会4.2確率的生成モデル2014.01.23 prml勉強会4.2確率的生成モデル
2014.01.23 prml勉強会4.2確率的生成モデル
 
形式言語理論への 測度論的アプローチ
形式言語理論への 測度論的アプローチ形式言語理論への 測度論的アプローチ
形式言語理論への 測度論的アプローチ
 
Feature Erasing and Diffusion Network for Occluded Person Re-Identification
Feature Erasing and Diffusion Network for Occluded Person Re-IdentificationFeature Erasing and Diffusion Network for Occluded Person Re-Identification
Feature Erasing and Diffusion Network for Occluded Person Re-Identification
 
[DL輪読会]Learning Latent Dynamics for Planning from Pixels
[DL輪読会]Learning Latent Dynamics for Planning from Pixels[DL輪読会]Learning Latent Dynamics for Planning from Pixels
[DL輪読会]Learning Latent Dynamics for Planning from Pixels
 
目で見る過学習と正則化
目で見る過学習と正則化目で見る過学習と正則化
目で見る過学習と正則化
 
DeepLearning 輪読会 第1章 はじめに
DeepLearning 輪読会 第1章 はじめにDeepLearning 輪読会 第1章 はじめに
DeepLearning 輪読会 第1章 はじめに
 
多項式あてはめで眺めるベイズ推定 ~今日からきみもベイジアン~
多項式あてはめで眺めるベイズ推定~今日からきみもベイジアン~多項式あてはめで眺めるベイズ推定~今日からきみもベイジアン~
多項式あてはめで眺めるベイズ推定 ~今日からきみもベイジアン~
 
tvmf-similarity
tvmf-similaritytvmf-similarity
tvmf-similarity
 
わかりやすいパターン認識 4章
わかりやすいパターン認識 4章わかりやすいパターン認識 4章
わかりやすいパターン認識 4章
 

Similar to 画像認識4

PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデルPRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデル
Shohei Okada
 
CV勉強会@関東 3巻3章4節 画像表現
CV勉強会@関東 3巻3章4節 画像表現CV勉強会@関東 3巻3章4節 画像表現
CV勉強会@関東 3巻3章4節 画像表現
Yusuke Uchida
 
20101023 cvsaisentan tsubosaka
20101023 cvsaisentan tsubosaka20101023 cvsaisentan tsubosaka
20101023 cvsaisentan tsubosaka
正志 坪坂
 

Similar to 画像認識4 (14)

PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」
 
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじPRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじ
 
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじPRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじ
 
Fisher線形判別分析とFisher Weight Maps
Fisher線形判別分析とFisher Weight MapsFisher線形判別分析とFisher Weight Maps
Fisher線形判別分析とFisher Weight Maps
 
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
 
PRML4.3.3
PRML4.3.3PRML4.3.3
PRML4.3.3
 
PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデルPRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデル
 
CV勉強会@関東 3巻3章4節 画像表現
CV勉強会@関東 3巻3章4節 画像表現CV勉強会@関東 3巻3章4節 画像表現
CV勉強会@関東 3巻3章4節 画像表現
 
速習情報幾何 2018_10_25
速習情報幾何 2018_10_25速習情報幾何 2018_10_25
速習情報幾何 2018_10_25
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
 
20101023 cvsaisentan tsubosaka
20101023 cvsaisentan tsubosaka20101023 cvsaisentan tsubosaka
20101023 cvsaisentan tsubosaka
 
Pattern Recognition and Machine Learning study session - パターン認識と機械学習 勉強会資料
Pattern Recognition and Machine Learning study session - パターン認識と機械学習 勉強会資料Pattern Recognition and Machine Learning study session - パターン認識と機械学習 勉強会資料
Pattern Recognition and Machine Learning study session - パターン認識と機械学習 勉強会資料
 
PRML輪読#4
PRML輪読#4PRML輪読#4
PRML輪読#4
 
点群SegmentationのためのTransformerサーベイ
点群SegmentationのためのTransformerサーベイ点群SegmentationのためのTransformerサーベイ
点群SegmentationのためのTransformerサーベイ
 

画像認識4