SlideShare a Scribd company logo
1 of 62
1
PRMU研究会 @ 熊本大学
October 12-13, 2017
サーベイ論文: 動画像を用いた経路予測手法の分類
平川 翼† 山下 隆義† 玉木 徹‡ 藤吉 弘亘†
†中部大学 機械知覚ロボティクスグループ
‡広島大学
2
経路予測とは?
• 対象の移動経路を推定する技術
3
経路予測の応用先
• 自動運転
⎻ 周囲の環境理解
⎻ 事故の未然防止
• 監視カメラ映像の解析
⎻ 異常行動の検出
4
経路予測の難しさ ~人物の場合~
timepresentpast future
?
歩行者検出 人物追跡
過去・現在の観測に対する状態を推定
経路予測
観測が存在しない
5
周囲の環境
観測の代わりに
• 様々な情報をうまく活用する必要がある
現在の歩行者位置
過去の移動経路
他者の移動経路
6
経路予測の流れ
• 環境からの特徴抽出
⎻ シーンラベル
⎻ 局所領域のコスト
⎻ シーン全体の特徴ベクトル
• 対象からの特徴抽出
⎻ 過去の移動経路,向き
⎻ 身体的属性
⎻ 対象の特徴ベクトル
Prediction
特徴抽出 予測
• ベイズモデル
⎻ KF, DBN
• エネルギー最小化
⎻ Dijkstra’s Algorithm
• 深層学習
⎻ CNN, LSTM
• 逆強化学習
• その他
⎻ Social force model, Data driven
入力
⎻ 動画像
⎻ 過去の経路
出力
⎻ 座標
⎻ 確率分布
7
経路予測の流れ
• 環境からの特徴抽出
⎻ シーンラベル
⎻ 局所領域のコスト
⎻ シーン全体の特徴ベクトル
• 対象からの特徴抽出
⎻ 過去の移動経路,向き
⎻ 身体的属性
⎻ 対象の特徴ベクトル
予測
Prediction
特徴抽出
• ベイズモデル
⎻ KF, DBN
• エネルギー最小化
⎻ Dijkstra’s Algorithm
• 深層学習
⎻ CNN, LSTM
• 逆強化学習
• その他
⎻ Social force model, Data driven
入力
⎻ 動画像
⎻ 過去の経路
出力
⎻ 座標
⎻ 確率分布
8
主に車道を移動
環境からの特徴抽出
• 移動は周囲の環境に依存している
⎻ 移動しやすい領域を考慮
⎻ 移動範囲を限定
建物の領域は移動しない
障害物を避けて移動
9
環境からの特徴抽出
• 移動は周囲の環境に依存している
⎻ 移動しやすい領域を考慮
⎻ 移動範囲を限定
• シーンラベル
⎻ セマンティックセグメンテーション
• 局所領域のコスト
⎻ 対象が移動する可能性を表現
 テクスチャの識別・比較
…
• シーンの特徴ベクトル
⎻ シーンをうまく表現する特徴を記述
 特徴抽出器 (e.g. CNN)
10
シーン全体を表現する特徴
• 画像・フレームから特徴ベクトルを抽出
⎻ シーンをうまく表現するような特徴を記述
Pre-trained Network (AlexNet) [Krizhevsky et al., 2012]
類似度比較: Siamese Network [Bromley et al., 1994]
A. Krizhevsky, et al., “Imagenet classification with deep convolutional neural networks,” NIPS, 2012
J. Bromley, et al., “Signature verification using a siamese time delay neural network,” NIPS, 1994
CNN
CNNtest image
train image L2Dist.
Similarity score
11
シーンラベルに基づく特徴 1
• セマンティックセグメンテーションによる特徴抽出
Fully Convolutional Network (FCN) [Long et al., 2015]
J. Long, et al., “Fully Convolutional Networks for Semantic Segmentation,” CVPR, 2015
12
シーンラベルに基づく特徴 2
• FCN以外のセグメンテーション手法
Hierarchical Labeling [Munoz et al., 2010]
MRF-based Labeling [Yang et al., 2014]
D. Munoz, et al., “Stacked Hierarchical Labeling,” ECCV, 2010
J. Yang, et al., “Context Driven Scene Parsing with Attention to Rare Classes,” CVPR, 2014
13
セグメンテーションに基づく特徴表現
• 各ラベルの事後確率を特徴マップとして使用
• シーンラベルから局所領域的な特徴ベクトルを生成
K. Kitani, et al., “Activity Forecasting,” ECCV, 2012
L. Ballan, et al., “Knowledge Transfer for Scene-Specific Motion Prediction,” ECCV, 2016
14
局所領域のコストに基づく特徴
• 物体の移動する可能性を表現
⎻ コスト低: 移動しやすい
⎻ コスト高: 移動しづらい
BoVW + NN [Walker et al., 2014]
Spatial Matching Network [Huang et al., 2015]
J. Walker, et al., “Patch to the Future: Unsupervised Visual Prediction,” CVPR, 2014
S. Huang, et al., “Deep Learning Driven Visual Path Prediction from a Single Images,” IEEE IP, 2015
15
経路予測の流れ
• 環境からの特徴抽出
⎻ シーンラベル
⎻ 局所領域のコスト
⎻ シーン全体の特徴ベクトル
• 対象からの特徴抽出
⎻ 過去の移動経路,向き
⎻ 身体的属性
⎻ 対象の特徴ベクトル
予測
Prediction
特徴抽出
• ベイズモデル
⎻ KF, DBN
• エネルギー最小化
⎻ Dijkstra’s Algorithm
• 深層学習
⎻ CNN, LSTM
• 逆強化学習
• その他
⎻ Social force model, Data driven
入力
⎻ 動画像
⎻ 過去の経路
出力
⎻ 座標
⎻ 確率分布
16
予測対象からの特徴抽出
• 対象の保有する情報も経路の決定に大きく影響
⎻ 対象毎の特徴的な移動を考慮
17
予測対象からの特徴抽出
• 対象の保有する情報も経路の決定に大きく影響
⎻ 対象毎の特徴的な移動を考慮
• 過去の移動経路,向き
⎻ 移動方向を限定
 歩行者検出・追跡
 方向推定
• 身体的属性
⎻ 個人によって速度や経路が変化
 属性推定
Gender … male
Age … young
• 対象の特徴ベクトル
⎻ 対象をうまく表現する特徴を記述
 パッチ特徴量 (e.g. CNN, HOG)
…
18
対象を表現する特徴ベクトルの抽出
• 対象の保有する情報を暗に表現
⎻ 予測対象が含まれるパッチから特徴ベクトルを抽出
Mid-level patch features [Singh et al., 2012]
⎻ HOG + K-meansでパッチ内の特徴を表現2 Singh et al.
Our$Discrimina, ve$Patches$
Visual$Words$
Fig. 1. Thetop two detected Visual Words(bottom) vs. Mid-level Discriminative
Patches (top), trained without any supervision and on the same large unlabeledS. Singh, et al., “Unsupervised discovery of mid-level discriminative patches,” ECCV, 2012
19
現在の対象の位置に関する特徴
• 対象の過去〜現在までの動きを抽出
⎻ オンライン処理の予測に使用
⎻ 過去の経路から未来の移動を方向を限定
HOG + SVM detector [Dalal et al., 2005]
Superpixel-based Bayesian online tracking [Wang et al., 2011]
N. Dalal, et al., “Histograms of oriented gradients for human detection,” CVPR, 2005
S. Wang, et al., “Superpixel tracking,” ICCV, 2011
20
対象の向きに関する特徴
Orientation network [Huang et al., 2015]
⎻ 対象の移動方向を限定
Bayesian orientation estimation [Enzweiler et al., 2010]
⎻ 歩行者の頭部の向きを推定
S. Huang, et al., “Deep learning driven visual path prediction from a single image,” IEEE IP, 2015
M. Enzweiler, et al., “Integrated pedestrian classification and oriented estimation,” CVPR, 2010
21
歩行者属性に関する特徴
• 個人によって移動速度や経路の選択が異なる
⎻ 個人に着目した予測の実現
AlexNet-based multi-task learning [Ma et al., 2017]
⎻ 歩行者属性を単一のネットワークで推定
 歩行者の向き
 年齢
 性別
Young
Old
Male
Female
PersonalizePathway
AlexNet
W. Ma, et al., “Forecasting interactive dynamics of pedestrians with fictitious play,” CVPR, 2017
22
経路予測の流れ
• 環境からの特徴抽出
⎻ シーンラベル
⎻ 局所領域のコスト
⎻ シーン全体の特徴ベクトル
• 対象からの特徴抽出
⎻ 過去の移動経路,向き
⎻ 身体的属性
⎻ 対象の特徴ベクトル
予測
Prediction
特徴抽出
• ベイズモデル
⎻ KF, DBN
• エネルギー最小化
⎻ Dijkstra’s Algorithm
• 深層学習
⎻ CNN, LSTM
• 逆強化学習
• その他
⎻ Social force model, Data driven
入力
⎻ 動画像
⎻ 過去の経路
出力
⎻ 座標
⎻ 確率分布
23
ベイズモデルに基づくアプローチ
• 内部状態を逐次的に推定
⎻ 過去~現在: predictとupdateを繰り返す
⎻ 未来: predictのみを繰り返す
timepresentpast future
?
内部状態
観測
predict
update
歩行者検出・追跡の結果
24
KFベースの予測手法
Pedestrian path prediction
with recursive Bayesian filters [Schneider et al., 2013]
⎻ 拡張カルマンフィルタを用いて予測
 基礎的なモデルを使用(velocity, acceleration, turn)
⎻ 後述の車載カメラ映像のデータセットを作成
ー GT ー EKF (velocity) ー EKF (velocity + turn)
N. Schneider, et al., “Pedestrian path prediction with recursive Bayesian filters: A comparative study” GCPR, 2013
25
DBNベースの予測手法
Context-based Pedestrian Path Prediction [Kooij et al., 2014]
⎻ Switching Linear Dynamical System (SLDS)を導入
 歩行者の状態(移動・停止)を制御
⎻ シーンから様々なコンテキストを取得
 頭の向き
 縁石までの距離
 車〜歩行者までの距離
J.F.P. Kooij, et al., “Context-based pedestrian path prediction,” ECCV, 2014
26
経路予測の流れ
• 環境からの特徴抽出
⎻ シーンラベル
⎻ 局所領域のコスト
⎻ シーン全体の特徴ベクトル
• 対象からの特徴抽出
⎻ 過去の移動経路,向き
⎻ 身体的属性
⎻ 対象の特徴ベクトル
予測
Prediction
特徴抽出
• ベイズモデル
⎻ KF, DBN
• エネルギー最小化
⎻ Dijkstra’s Algorithm
• 深層学習
⎻ CNN, LSTM
• 逆強化学習
• その他
⎻ Social force model, Data driven
入力
⎻ 動画像
⎻ 過去の経路
出力
⎻ 座標
⎻ 確率分布
27
エネルギー最小化に基づくアプローチ
• 最短経路問題として経路を推定
⎻ 2次元の格子状グラフを作成
⎻ エッジにコストを付与
⎻ ダイクストラ法で最短経路を推定
… 環境からの特徴抽出
start
goal
28
エネルギー最小化に基づく手法 1
Deep Learning Driven Visual Path Prediction
[Huang et al., 2015]
⎻ Spatial Matching Network: 局所領域の報酬(コスト)を推定
⎻ Orientation Network: 対象の向きを推定
⎻ 報酬 + 向きから目的関数を定義
⎻ ダイクストラ法で最短経路を推定
S. Huang, et al., “Deep learning driven visual path prediction from a single image,” IEEE IP, 2015
29
エネルギー最小化に基づく手法 2
Inferring ‘Dark Matter’ and ‘Dark Energy’ from Videos [Xie et al.,
2013]
⎻ 歩行者はシーン中の目的地に向かって移動していると仮定
 e.g. bending machine, chairs, exit
⎻ 目的地を中心に引き寄せられるようなエネルギー場を生成
⎻ ダイクストラ法で各目的地へ到達する最短経路を推定
D. Xie, et al., “Inferring dark matter and dark energy from videos,” ICCV, 2013
30
経路予測の流れ
• 環境からの特徴抽出
⎻ シーンラベル
⎻ 局所領域のコスト
⎻ シーン全体の特徴ベクトル
• 対象からの特徴抽出
⎻ 過去の移動経路,向き
⎻ 身体的属性
⎻ 対象の特徴ベクトル
予測
Prediction
特徴抽出
• ベイズモデル
⎻ KF, DBN
• エネルギー最小化
⎻ Dijkstra’s Algorithm
• 深層学習
⎻ CNN, LSTM
• 逆強化学習
• その他
⎻ Social force model, Data driven
入力
⎻ 動画像
⎻ 過去の経路
出力
⎻ 座標
⎻ 確率分布
31
深層学習に基づくアプローチ
• 過去の移動経路から未来の経路を直接推定
⎻ 入力: 過去の移動座標
⎻ 特徴抽出・予測: 何らかのネットワーク
⎻ 出力: 未来の移動座標
Prediction
入力 特徴抽出 予測 出力
32
LSTMベースの予測手法
Social LSTM [Alahi et al., 2016]
⎻ 複数の歩行者の移動経路を同時に予測
⎻ Social Pooling Layerを提案
 周囲の歩行者の位置・中間層出力を入力
 相互作用を考慮
ー GT ー SF
ー Linear ー Social-LSTM
A. Alahi, et al., “Social LSTM: Human trajectory prediction in crowded space,” CVPR, 2016
33
CNNベースの予測手法
Pedestrian Behavior Understanding and Prediction
with DNN [Yi et al., 2016]
⎻ 過去の移動経路をスパースなボリュームデータで表現
⎻ Encoder-Decoder Networkに通すことで経路を予測
S. Yi, et al., “Pedestrian understanding and prediction with deep neural networks,” ECCV, 2016
34
経路予測の流れ
• 環境からの特徴抽出
⎻ シーンラベル
⎻ 局所領域のコスト
⎻ シーン全体の特徴ベクトル
• 対象からの特徴抽出
⎻ 過去の移動経路,向き
⎻ 身体的属性
⎻ 対象の特徴ベクトル
予測
Prediction
特徴抽出
• ベイズモデル
⎻ KF, DBN
• エネルギー最小化
⎻ Dijkstra’s Algorithm
• 深層学習
⎻ CNN, LSTM
• 逆強化学習
• その他
⎻ Social force model, Data driven
入力
⎻ 動画像
⎻ 過去の経路
出力
⎻ 座標
⎻ 確率分布
35
逆強化学習に基づくアプローチ (1)
• 強化学習 … エージェントの行動規範を獲得
⎻ 行動の良さを報酬で評価
⎻ 報酬が高くなるような方策(行動規範)を試行錯誤しながら獲得
⎻ 獲得した方策を用いてエージェントの行動を決定
エージェント
方策
状態に基づき行動を決定
学習器
方策の改善
状態観測器
エージェントの状態の推定
環境
行動
報酬
状態遷移
迷路
例) ゴールに到達: +10
ゴールに未到達: -10
36
逆強化学習に基づくアプローチ (1)
• 強化学習 … エージェントの行動規範を獲得
⎻ 行動の良さを報酬で評価
⎻ 報酬が高くなるような方策(行動規範)を試行錯誤しながら獲得
⎻ 獲得した方策を用いてエージェントの行動を決定
経路予測
エージェント
方策
状態に基づき行動を決定
学習器
方策の改善
状態観測器
エージェントの状態の推定
環境
行動
報酬
状態遷移
報酬を決定するのが困難
37
逆強化学習に基づくアプローチ (2)
• 逆強化学習 … 「報酬」を求める
⎻ 教師データ(再現したい行動のデータ)から報酬(+方策)を学習
⎻ 求めた方策を用いて,エージェントの動き(行動)を決定
経路予測
エージェント
方策
状態に基づき行動を決定
学習器
方策の改善
状態観測器
エージェントの状態の推定
環境
行動
状態遷移
報酬
再現したい行動データ
38
Activity Forecasting
• Markov Decision Process (MDP)
⎻ 現在の状態 と 行動 から状態が遷移
⎻ 現在地 と 移動方向 から現在地が遷移
⎻ 行動選択で移動経路が決まる
• Activity Forecasting [Kitani et al., 2012]
⎻ 対象の行動を予測する問題設定
⎻ 行動により変化した状態(座標)の系列が経路予測結果
※ Path prediction: 各時刻の座標を直接推定・出力
状態
行動
報酬
39
IRLベースの予測手法 1
Activity Forecasting [Kitani et al., 2012]
⎻ 逆強化学習を初めて導入した手法
⎻ 周囲の環境が移動経路の決定に影響を与えていると仮定
K. Kitani, et al., “Activity forecasting,” ECCV, 2012
40
IRLベースの予測手法 2
Forecasting Interactive Dynamics of Pedestrians
with Fictitious Play [Ma et al., 2017]
⎻ 複数の歩行者の移動経路を同時に予測
⎻ Fictitious Playと呼ばれるゲーム理論を導入
⎻ 各時刻・各歩行者の行動を逐次的に推定
t = 3 t = 6 t = 9 t = 12
YellowGreenRed
Forecasted distribution growswith time
Agentstaketurnsforecasting
sampled from U(t )
n
sampled from µ(t )
¬n
n
n
W. Ma, et al., “Forecasting interactive dynamics of pedestrians with fictitious play,” CVPR, 2017
41
IRLベースの経路予測の応用例
• 海鳥の飛行経路予測 [Hirakawa et al., 2017]
⎻ 海鳥は海上のみを飛行する
 環境属性に依存
⎻ 各環境属性の影響度を教師データから学習
T. Hirakawa, et al., “Travel Time-dependent IRL for Seabird Trajectory Prediction,” ACPR, 2017
環境マップの例 メスの予測結果
オスの予測結果
42
経路予測の流れ
• 環境からの特徴抽出
⎻ シーンラベル
⎻ 局所領域のコスト
⎻ シーン全体の特徴ベクトル
• 対象からの特徴抽出
⎻ 過去の移動経路,向き
⎻ 身体的属性
⎻ 対象の特徴ベクトル
予測
Prediction
特徴抽出
• ベイズモデル
⎻ KF, DBN
• エネルギー最小化
⎻ Dijkstra’s Algorithm
• 深層学習
⎻ CNN, LSTM
• 逆強化学習
• その他
⎻ Social force model, Data driven
入力
⎻ 動画像
⎻ 過去の経路
出力
⎻ 座標
⎻ 確率分布
43
その他のアプローチ 1 ~Social force model~
• 相互作用を考慮したモデル
⎻ 引力や斥力のようなエネルギー
⎻ 障害物や他者との衝突を回避
44
その他のアプローチ 1 ~Social force model~
• 相互作用を考慮したモデル
⎻ 引力や斥力のようなエネルギー
⎻ 障害物や他者との衝突を回避
Learning Social Etiquette [Robicquet et al., 2016]
⎻ Social Sensitivityと呼ばれる特徴を抽出
 特徴に基づきクラスタを割り当てる
 衝突を避ける移動経路を決定
A. Robicquet, et al., “Learning social etiquette: Human trajectory understanding in crowded scenes,” ECCV, 2016
45
その他のアプローチ 2 ~Data driven~
Egocentric Future Localization [Park et al., 2016]
⎻ 予測シーンに類似した学習シーンを検索
⎻ 学習データの経路を予測シーンに転移
H.S. Park, et al., “Egocentric future localization,” CVPR, 2016
46
経路予測の流れ
• 環境からの特徴抽出
⎻ シーンラベル
⎻ 局所領域のコスト
⎻ シーン全体の特徴ベクトル
• 対象からの特徴抽出
⎻ 過去の移動経路,向き
⎻ 身体的属性
⎻ 対象の特徴ベクトル
予測
Prediction
特徴抽出
• ベイズモデル
⎻ KF, DBN
• エネルギー最小化
⎻ Dijkstra’s Algorithm
• 深層学習
⎻ CNN, LSTM
• 逆強化学習
• その他
⎻ Social force model, Data driven
入力
⎻ 動画像
⎻ 過去の経路
出力
⎻ 座標
⎻ 確率分布
47
評価データセット
鳥瞰視点映像 監視カメラ映像
車載カメラ映像 一人称視点映像
視点変化無
視点変化有
48
鳥瞰視点映像のデータセット 1
• UCY Dataset [Lerner et al., 2007]
⎻ 歩行者数: 786
⎻ シーン数: 3
• ETH Dataset [Pellegrini et al., 2009]
⎻ 歩行者数: 750
⎻ シーン数: 2
A. Lerner, et al., “Crowds by example,” Computer Graphics Forum, 2007
S. Pellegrini, et al., “You’ll never walk alone: Modeling social behavior for multi-target tracking,” ICCV, 2009
49
鳥瞰視点映像のデータセット 2
• Edinburgh Informatics Forum Pedestrian
Dataset [Majecka, 2009]
⎻ 歩行者数: 95,998
⎻ シーン数: 1
• Stanford Drone Dataset
[Robicquet et al., 2016]
⎻ 歩行者数: 11,216
⎻ シーン数: 8
⎻ その他の予測対象: car, bus, biker, skater,
carts
B. Majecka, et al., “Statistical models of pedestrian behavior in the forum,” PhD thesis, 2009
A. Robicquet, et al., “Learning social etiquette: Human trajectory understanding in crowded scenes,” ECCV, 2016
50
監視カメラ映像のデータセット
• VIRAT Video Dataset [Oh et al., 2011]
⎻ 歩行者数: 4,021
⎻ シーン数: 11
⎻ 追加情報: 物体の座標,行動カテゴリ
• Town Centre Dataset [Benfold et al., 2009]
⎻ 歩行者数: 230
⎻ シーン数: 1
⎻ 追加情報: 頭部の座標
• Grand Central Station Dataset
[Yi et al., 2015]
⎻ 歩行者数: 12,600
⎻ シーン数: 1
S. Oh, et al., “A large-scale benchmark dataset for event recognition in surveillance video,” CVPR, 2011
B. Benfold, et al., “Stable multi-target tracking in real-time surveillance video,” CVPR, 2009
S. Yi, et al., “Understanding pedestrian behaviors from stationary crowd groups,” CVPR, 2015
51
車載カメラ映像のデータセット
• Daimler Pedestrian Path Prediction
Benchmark Dataset [Schneider et al., 2013]
⎻ 歩行者数: 68
⎻ 追加情報: ステレオカメラ
• KITTI Vision Benchmark Suite
[Geiger et al., 2012]
⎻ 歩行者数: 6,336
⎻ 追加情報: ステレオカメラ,LIDAR,
地図情報
N. Schneider, et al., “Pedestrian path prediction with recursive Bayesian filters: A comparative study” GCPR, 2013
A. Geiger, et al., “Are we ready for autonomous driving? The KITTI vision benchmark suite,” CVPR, 2012
52
一人称視点映像のデータセット
• EgoMotion Dataset [Park et al., 2016]
⎻ シーン数: 26
⎻ 追加情報: ステレオカメラ
• First-person Continuous Activity Dataset
[Rhinehart et al., 2017]
⎻ シーン数: 17
⎻ 追加情報: 物体情報
データセットは未公開
H.S. Park, et al., “Egocentric future localization,” CVPR, 2016
N. Rhinehart, et al., “First-person activity forecasting with online inverse reinforcement learning,” ICCV, 2017
53
評価指標
• 座標に対する評価指標
⎻ Average Displacement Error
 各時刻での予測座標と真値とのユークリッド距離の平均値
• 確率分布に対する評価指標
⎻ Negative Log-Loss (NLL)
 推定した確率分布の元での真値の対数尤度の期待値
: 真値
: 予測値
: 真値
54
まとめ
• 特徴抽出法と予測手法について整理
⎻ 特徴抽出
 環境
 予測対象
⎻ 予測
 ベイズモデル
 エネルギー最小化
 深層学習
 逆強化学習
• 評価用データセットと評価指標を紹介
55
今後の展望
• DLによる経路予測のための特徴抽出
⎻ 既存手法 (FCNs) … 正しいラベルを出力するように学習
⎻ 今後 … 正しい経路を出力するように学習
• 環境や対象の特徴を考慮し,end-to-endで学習
⎻ 既存手法 … 座標列のみを入力とするものが多い
⎻ 今後 … シーンや対象の特徴も同時に抽出
56
環境を考慮したDLによる予測手法
DESIRE [Lee et al., 2017]
⎻ DL + IRLの複合的な枠組み
 RNN Enc.-Dec.: 複数の予測を生成
 IRL: 予測をランク付け,Refine
⎻ Pooling無しのCNNでシーンの特徴抽出
⎻ End-to-endで学習
N. Lee, et al., “DESIRE: Distant future prediction in dynamic scenes with interacting agents,” CVPR, 2017
提案モデル 予測結果
ー Obs. ー GT
ー Result
57
本サーベイで参照した文献 ~予測手法~
N. Schneider and D.M. Gavrila, “Pedestrian path prediction with recursive bayesian filters: A comparative study,” GCPR, 2013.
J.F.P. Kooij, et al., “Context-based pedestrian path prediction,” ECCV, 2014.
L. Ballan, et al., “Knowledge transfer for scene-specific motion prediction,” ECCV, 2016.
D. Xie, et al., “Inferring ‘Dark Matter’ and ‘Dark Energy’ from videos,” ICCV, 2013.
○ J. Walker, et al., “Patch to the future: Unsupervised visual prediction,” CVPR, 2014.
S. Huang, et al., “Deep learning driven visual path prediction from a single image,” IEEE IP, 2016.
S. Yi, et al., “Pedestrian behavior understanding and prediction with deep neural networks,” ECCV, 2016.
○ A. Alahi, et al., “Social LSTM: Human trajectory prediction in crowded spaces,” CVPR, 2016.
T. Fernando, et al., “Soft+ hardwired attention: An LSTM framework for human trajectory prediction and abnormal event detection,” arXiv
preprint, 2017
T. Fernando, et al., “Tree memory networks for modelling long-term temporal dependencies,” arXiv preprint, 2017.
N. Lee, et al., “DESIRE: distant future prediction in dynamic scenes with interacting agents,” CVPR, 2017.
○ K.M. Kitani, et al., “Activity forecasting,” ECCV, 2012.
N. Lee and K.M. Kitani, “Predicting wide receiver trajectories in American football,” WACV, 2016.
S.Z. Bokhari and K.M. Kitani, “Long-term activity forecasting using first-person vision,” ACCV, 2016.
N. Rhinehart and K.M. Kitani, “First-person activity forecasting with online inverse reinforcement learning,” ICCV, 2017.
W. Ma, et al., “Forecasting interactive dynamics of pedestrians with fictitious play,” CVPR, 2016.
E. Rehder, et al., “Pedestrian prediction by planning using deep neural networks,” arXiv preprint, 2017.
C.G. Keller and D.M. Gavrila, “Will the pedestrian cross? a study on pedestrian path prediction,” IEEE ITS, 2014.
E. Rehder and H. Kloeden, “Goal-directed pedestrian prediction,” ICCV Workshop, 2015.
H.S. Park, et al., “Egocentric future localization,” CVPR, 2016.
S. Su, et al., “Predicting behaviors of basketball players from first person videos,” CVPR, 2017.
K. Yamaguchi, et al., “Who are you with and where are you going?,” CVPR, 2011.
A. Robicquet, et al., “Learning social etiquette: Human trajectory understanding in crowded scenes,” ECCV, 2016.
○ … プログラム有
58
本サーベイで参照した文献 ~特徴抽出法~
D. Munoz, et al., “Stacked hierarchical labeling,” ECCV, 2010.
○ J. Yang, et al., “Context driven scene parsing with attention to rare classes,” CVPR, 2014.
○ J. Long, et al., “Fully convolutional networks for semantic segmentation,” CVPR, 2015.
○ E. Shelhamer, et al., “Fully convolutional networks for semantic segmentation,” IEEE PAMI, 2017.
S. Huang, et al., “Deep learning driven visual path prediction from a single image,” IEEE IP, 2016.
○ A. Krizhevsky, et al., “ImageNet classification with deep convolutional neural networks,” NIPS, 2012.
○ J. Bromley, et al., “Signature verification using a "siamese" time delay neural network,” NIPS, 1994.
○ N. Dalal and B. Triggs, “Histograms of oriented gradients for human detection,” CVPR, 2005.
M. Enzweiler and D.M. Gavrila, “Integrated pedestrian classification and orientation estimation,” CVPR, 2010.
W. Ma, et al., “Forecasting interactive dynamics of pedestrians with fictitious play,” CVPR, 2017.
○ S. Singh, et al., “Unsupervised discovery of mid-level discriminative patches,” ECCV, 2012.
○ … プログラム有
59
特徴抽出法一覧
図 1 経路予測手法の処理の流れ. 文献 [9] より 改変.
表 1 経路予測に用いる特徴抽出法の分類.
抽出対象 特徴の種類 代表的な手法
環境 シーンラ ベル Stacked hierarchical labeling [10]
Superpixel-based MRF [11]
Fully Convolutional Networks[12], [13]
コ スト Bag-of-Visual Words
Spatial Matching Network [14]
シーン全体の特徴ベク ト ル Pretrained AlexNet [15]
Siamese Network [16]
予測対象 歩行者の位置 HOG + SVM detector [17]
対象の向き Bayesian orientation estimation [18]
Orientation Network [14]
身体的属性 AlexNet-based multi-task learning [19]
対象物の特徴ベク ト ル Mid-level patch features[20]
を踏まえ, 本稿ではコ ンピュ ータ ビジョ ン分野における
を用いた経路予測手法についてサーベイ し , 経路予測に
れる 特徴抽出及び予測のアプ ロ ーチについて体系的に
2. 1 環境属性に対する特徴抽出
予測対象が移動する際には, その周辺環境が大き く 影
いる. 例えば, 歩行者が移動する際にはシーンに存在す
60
予測手法一覧
61
データセット一覧
62
謝辞
• 本研究の一部は科研費 (JP16H06540)の補助を受けたもの
である.

More Related Content

What's hot

[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View SynthesisDeep Learning JP
 
【メタサーベイ】Video Transformer
 【メタサーベイ】Video Transformer 【メタサーベイ】Video Transformer
【メタサーベイ】Video Transformercvpaper. challenge
 
Image Retrieval Overview (from Traditional Local Features to Recent Deep Lear...
Image Retrieval Overview (from Traditional Local Features to Recent Deep Lear...Image Retrieval Overview (from Traditional Local Features to Recent Deep Lear...
Image Retrieval Overview (from Traditional Local Features to Recent Deep Lear...Yusuke Uchida
 
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...Kazuki Adachi
 
ドメイン適応の原理と応用
ドメイン適応の原理と応用ドメイン適応の原理と応用
ドメイン適応の原理と応用Yoshitaka Ushiku
 
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised LearningまとめDeep Learning JP
 
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話Yusuke Uchida
 
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision TransformerYusuke Uchida
 
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係についてDeep Learning JP
 
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報Deep Learning JP
 
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)Yamato OKAMOTO
 
3Dマップを活用したVisual Localization
3Dマップを活用したVisual Localization3Dマップを活用したVisual Localization
3Dマップを活用したVisual LocalizationHajime Taira
 
ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)ぱんいち すみもと
 
3次元レジストレーション(PCLデモとコード付き)
3次元レジストレーション(PCLデモとコード付き)3次元レジストレーション(PCLデモとコード付き)
3次元レジストレーション(PCLデモとコード付き)Toru Tamaki
 
Transformer メタサーベイ
Transformer メタサーベイTransformer メタサーベイ
Transformer メタサーベイcvpaper. challenge
 
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜SSII
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII
 
画像認識モデルを作るための鉄板レシピ
画像認識モデルを作るための鉄板レシピ画像認識モデルを作るための鉄板レシピ
画像認識モデルを作るための鉄板レシピTakahiro Kubo
 

What's hot (20)

[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
 
【メタサーベイ】Video Transformer
 【メタサーベイ】Video Transformer 【メタサーベイ】Video Transformer
【メタサーベイ】Video Transformer
 
Image Retrieval Overview (from Traditional Local Features to Recent Deep Lear...
Image Retrieval Overview (from Traditional Local Features to Recent Deep Lear...Image Retrieval Overview (from Traditional Local Features to Recent Deep Lear...
Image Retrieval Overview (from Traditional Local Features to Recent Deep Lear...
 
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...
 
ドメイン適応の原理と応用
ドメイン適応の原理と応用ドメイン適応の原理と応用
ドメイン適応の原理と応用
 
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
 
Semantic segmentation
Semantic segmentationSemantic segmentation
Semantic segmentation
 
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
 
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
 
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について
 
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報
 
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)
 
3Dマップを活用したVisual Localization
3Dマップを活用したVisual Localization3Dマップを活用したVisual Localization
3Dマップを活用したVisual Localization
 
ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)
 
3次元レジストレーション(PCLデモとコード付き)
3次元レジストレーション(PCLデモとコード付き)3次元レジストレーション(PCLデモとコード付き)
3次元レジストレーション(PCLデモとコード付き)
 
Transformer メタサーベイ
Transformer メタサーベイTransformer メタサーベイ
Transformer メタサーベイ
 
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
 
画像認識モデルを作るための鉄板レシピ
画像認識モデルを作るための鉄板レシピ画像認識モデルを作るための鉄板レシピ
画像認識モデルを作るための鉄板レシピ
 

Viewers also liked

BEM記法~HTMLコーディングする際のidやclassの命名規則~
BEM記法~HTMLコーディングする際のidやclassの命名規則~BEM記法~HTMLコーディングする際のidやclassの命名規則~
BEM記法~HTMLコーディングする際のidやclassの命名規則~Younju Park
 
Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換
Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換
Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換Koichi Hamada
 
合成変量とアンサンブル:回帰森と加法モデルの要点
合成変量とアンサンブル:回帰森と加法モデルの要点合成変量とアンサンブル:回帰森と加法モデルの要点
合成変量とアンサンブル:回帰森と加法モデルの要点Ichigaku Takigawa
 
ゼロから始める自然言語処理 【FIT2016チュートリアル】
ゼロから始める自然言語処理 【FIT2016チュートリアル】ゼロから始める自然言語処理 【FIT2016チュートリアル】
ゼロから始める自然言語処理 【FIT2016チュートリアル】Yuki Arase
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説弘毅 露崎
 
20170806 Discriminative Optimization
20170806 Discriminative Optimization20170806 Discriminative Optimization
20170806 Discriminative OptimizationTakuya Minagawa
 

Viewers also liked (7)

BEM記法~HTMLコーディングする際のidやclassの命名規則~
BEM記法~HTMLコーディングする際のidやclassの命名規則~BEM記法~HTMLコーディングする際のidやclassの命名規則~
BEM記法~HTMLコーディングする際のidやclassの命名規則~
 
Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換
Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換
Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換
 
合成変量とアンサンブル:回帰森と加法モデルの要点
合成変量とアンサンブル:回帰森と加法モデルの要点合成変量とアンサンブル:回帰森と加法モデルの要点
合成変量とアンサンブル:回帰森と加法モデルの要点
 
ゼロから始める自然言語処理 【FIT2016チュートリアル】
ゼロから始める自然言語処理 【FIT2016チュートリアル】ゼロから始める自然言語処理 【FIT2016チュートリアル】
ゼロから始める自然言語処理 【FIT2016チュートリアル】
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
 
20170806 Discriminative Optimization
20170806 Discriminative Optimization20170806 Discriminative Optimization
20170806 Discriminative Optimization
 
Cvpr2017事前読み会
Cvpr2017事前読み会Cvpr2017事前読み会
Cvpr2017事前読み会
 

Similar to 動画像を用いた経路予測手法の分類

Eccv2016 pedestrian behavior understanding and prediction with deep neural ne...
Eccv2016 pedestrian behavior understanding and prediction with deep neural ne...Eccv2016 pedestrian behavior understanding and prediction with deep neural ne...
Eccv2016 pedestrian behavior understanding and prediction with deep neural ne...ishii yasunori
 
【チュートリアル】コンピュータビジョンによる動画認識 v2
【チュートリアル】コンピュータビジョンによる動画認識 v2【チュートリアル】コンピュータビジョンによる動画認識 v2
【チュートリアル】コンピュータビジョンによる動画認識 v2Hirokatsu Kataoka
 
Eccv2016 pedestrian behavior understanding and prediction with deep neural ne...
Eccv2016 pedestrian behavior understanding and prediction with deep neural ne...Eccv2016 pedestrian behavior understanding and prediction with deep neural ne...
Eccv2016 pedestrian behavior understanding and prediction with deep neural ne...ishii yasunori
 
[サーベイ論文] Deep Learningを用いた歩行者検出の研究動向
[サーベイ論文] Deep Learningを用いた歩行者検出の研究動向[サーベイ論文] Deep Learningを用いた歩行者検出の研究動向
[サーベイ論文] Deep Learningを用いた歩行者検出の研究動向Hiroshi Fukui
 
Online moving camera_background_subtraction
Online moving camera_background_subtractionOnline moving camera_background_subtraction
Online moving camera_background_subtractionDaichi Suzuo
 
地球観測衛星データを用いた移動経路推測の事例研究
地球観測衛星データを用いた移動経路推測の事例研究地球観測衛星データを用いた移動経路推測の事例研究
地球観測衛星データを用いた移動経路推測の事例研究庞 欧得
 
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...cvpaper. challenge
 
[DL輪読会]DIVERSE TRAJECTORY FORECASTING WITH DETERMINANTAL POINT PROCESSES
[DL輪読会]DIVERSE TRAJECTORY FORECASTING WITH DETERMINANTAL POINT PROCESSES[DL輪読会]DIVERSE TRAJECTORY FORECASTING WITH DETERMINANTAL POINT PROCESSES
[DL輪読会]DIVERSE TRAJECTORY FORECASTING WITH DETERMINANTAL POINT PROCESSESDeep Learning JP
 
GISA2013学術研究発表Web大会 居住者の時空間分布に基づく地域間距離の都市モデルへの適用
GISA2013学術研究発表Web大会 居住者の時空間分布に基づく地域間距離の都市モデルへの適用GISA2013学術研究発表Web大会 居住者の時空間分布に基づく地域間距離の都市モデルへの適用
GISA2013学術研究発表Web大会 居住者の時空間分布に基づく地域間距離の都市モデルへの適用MurakamiAyaka
 
[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...
[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...
[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...Deep Learning JP
 
【チュートリアル】動的な人物・物体認識技術 -Dense Trajectories-
【チュートリアル】動的な人物・物体認識技術 -Dense Trajectories-【チュートリアル】動的な人物・物体認識技術 -Dense Trajectories-
【チュートリアル】動的な人物・物体認識技術 -Dense Trajectories-Hirokatsu Kataoka
 
CVPR2013の論文紹介(車載カメラ関連)
CVPR2013の論文紹介(車載カメラ関連)CVPR2013の論文紹介(車載カメラ関連)
CVPR2013の論文紹介(車載カメラ関連)Ken Sakurada
 
ECCV読み会 "Materials for Masses: SVBRDF Acquisition with a Single Mobile Phone ...
ECCV読み会 "Materials for Masses: SVBRDF Acquisition with a Single Mobile Phone ...ECCV読み会 "Materials for Masses: SVBRDF Acquisition with a Single Mobile Phone ...
ECCV読み会 "Materials for Masses: SVBRDF Acquisition with a Single Mobile Phone ...Hajime Mihara
 
Learning Spatial Common Sense with Geometry-Aware Recurrent Networks
Learning Spatial Common Sense with Geometry-Aware Recurrent NetworksLearning Spatial Common Sense with Geometry-Aware Recurrent Networks
Learning Spatial Common Sense with Geometry-Aware Recurrent NetworksKento Doi
 
サーベイ論文:画像からの歩行者属性認識
サーベイ論文:画像からの歩行者属性認識サーベイ論文:画像からの歩行者属性認識
サーベイ論文:画像からの歩行者属性認識Yasutomo Kawanishi
 
[DL輪読会]Imputing Missing Events in Continuous-Time Event Streams (ICML 2019)
[DL輪読会]Imputing Missing Events in Continuous-Time Event Streams (ICML 2019)[DL輪読会]Imputing Missing Events in Continuous-Time Event Streams (ICML 2019)
[DL輪読会]Imputing Missing Events in Continuous-Time Event Streams (ICML 2019)Deep Learning JP
 
Gravity of Location-Based Service:Analyzing the Effects for Mobility Pattern ...
Gravity of Location-Based Service:Analyzing the Effects for Mobility Pattern ...Gravity of Location-Based Service:Analyzing the Effects for Mobility Pattern ...
Gravity of Location-Based Service:Analyzing the Effects for Mobility Pattern ...Shun Kojima
 
海鳥の経路予測のための逆強化学習
海鳥の経路予測のための逆強化学習海鳥の経路予測のための逆強化学習
海鳥の経路予測のための逆強化学習Tsubasa Hirakawa
 

Similar to 動画像を用いた経路予測手法の分類 (20)

Eccv2016 pedestrian behavior understanding and prediction with deep neural ne...
Eccv2016 pedestrian behavior understanding and prediction with deep neural ne...Eccv2016 pedestrian behavior understanding and prediction with deep neural ne...
Eccv2016 pedestrian behavior understanding and prediction with deep neural ne...
 
【チュートリアル】コンピュータビジョンによる動画認識 v2
【チュートリアル】コンピュータビジョンによる動画認識 v2【チュートリアル】コンピュータビジョンによる動画認識 v2
【チュートリアル】コンピュータビジョンによる動画認識 v2
 
Eccv2016 pedestrian behavior understanding and prediction with deep neural ne...
Eccv2016 pedestrian behavior understanding and prediction with deep neural ne...Eccv2016 pedestrian behavior understanding and prediction with deep neural ne...
Eccv2016 pedestrian behavior understanding and prediction with deep neural ne...
 
[サーベイ論文] Deep Learningを用いた歩行者検出の研究動向
[サーベイ論文] Deep Learningを用いた歩行者検出の研究動向[サーベイ論文] Deep Learningを用いた歩行者検出の研究動向
[サーベイ論文] Deep Learningを用いた歩行者検出の研究動向
 
Online moving camera_background_subtraction
Online moving camera_background_subtractionOnline moving camera_background_subtraction
Online moving camera_background_subtraction
 
地球観測衛星データを用いた移動経路推測の事例研究
地球観測衛星データを用いた移動経路推測の事例研究地球観測衛星データを用いた移動経路推測の事例研究
地球観測衛星データを用いた移動経路推測の事例研究
 
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
 
[DL輪読会]DIVERSE TRAJECTORY FORECASTING WITH DETERMINANTAL POINT PROCESSES
[DL輪読会]DIVERSE TRAJECTORY FORECASTING WITH DETERMINANTAL POINT PROCESSES[DL輪読会]DIVERSE TRAJECTORY FORECASTING WITH DETERMINANTAL POINT PROCESSES
[DL輪読会]DIVERSE TRAJECTORY FORECASTING WITH DETERMINANTAL POINT PROCESSES
 
RobotPaperChallenge 2019-07
RobotPaperChallenge 2019-07RobotPaperChallenge 2019-07
RobotPaperChallenge 2019-07
 
GISA2013学術研究発表Web大会 居住者の時空間分布に基づく地域間距離の都市モデルへの適用
GISA2013学術研究発表Web大会 居住者の時空間分布に基づく地域間距離の都市モデルへの適用GISA2013学術研究発表Web大会 居住者の時空間分布に基づく地域間距離の都市モデルへの適用
GISA2013学術研究発表Web大会 居住者の時空間分布に基づく地域間距離の都市モデルへの適用
 
[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...
[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...
[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...
 
【チュートリアル】動的な人物・物体認識技術 -Dense Trajectories-
【チュートリアル】動的な人物・物体認識技術 -Dense Trajectories-【チュートリアル】動的な人物・物体認識技術 -Dense Trajectories-
【チュートリアル】動的な人物・物体認識技術 -Dense Trajectories-
 
CVPR2013の論文紹介(車載カメラ関連)
CVPR2013の論文紹介(車載カメラ関連)CVPR2013の論文紹介(車載カメラ関連)
CVPR2013の論文紹介(車載カメラ関連)
 
ECCV読み会 "Materials for Masses: SVBRDF Acquisition with a Single Mobile Phone ...
ECCV読み会 "Materials for Masses: SVBRDF Acquisition with a Single Mobile Phone ...ECCV読み会 "Materials for Masses: SVBRDF Acquisition with a Single Mobile Phone ...
ECCV読み会 "Materials for Masses: SVBRDF Acquisition with a Single Mobile Phone ...
 
Icra2020 v1
Icra2020 v1Icra2020 v1
Icra2020 v1
 
Learning Spatial Common Sense with Geometry-Aware Recurrent Networks
Learning Spatial Common Sense with Geometry-Aware Recurrent NetworksLearning Spatial Common Sense with Geometry-Aware Recurrent Networks
Learning Spatial Common Sense with Geometry-Aware Recurrent Networks
 
サーベイ論文:画像からの歩行者属性認識
サーベイ論文:画像からの歩行者属性認識サーベイ論文:画像からの歩行者属性認識
サーベイ論文:画像からの歩行者属性認識
 
[DL輪読会]Imputing Missing Events in Continuous-Time Event Streams (ICML 2019)
[DL輪読会]Imputing Missing Events in Continuous-Time Event Streams (ICML 2019)[DL輪読会]Imputing Missing Events in Continuous-Time Event Streams (ICML 2019)
[DL輪読会]Imputing Missing Events in Continuous-Time Event Streams (ICML 2019)
 
Gravity of Location-Based Service:Analyzing the Effects for Mobility Pattern ...
Gravity of Location-Based Service:Analyzing the Effects for Mobility Pattern ...Gravity of Location-Based Service:Analyzing the Effects for Mobility Pattern ...
Gravity of Location-Based Service:Analyzing the Effects for Mobility Pattern ...
 
海鳥の経路予測のための逆強化学習
海鳥の経路予測のための逆強化学習海鳥の経路予測のための逆強化学習
海鳥の経路予測のための逆強化学習
 

Recently uploaded

Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Yuma Ohgami
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNetToru Tamaki
 
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略Ryo Sasaki
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものですiPride Co., Ltd.
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムsugiuralab
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdftaisei2219
 
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...Toru Tamaki
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)Hiroki Ichikura
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A surveyToru Tamaki
 
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Danieldanielhu54
 

Recently uploaded (10)

Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet
 
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システム
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdf
 
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey
 
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Daniel
 

動画像を用いた経路予測手法の分類

  • 1. 1 PRMU研究会 @ 熊本大学 October 12-13, 2017 サーベイ論文: 動画像を用いた経路予測手法の分類 平川 翼† 山下 隆義† 玉木 徹‡ 藤吉 弘亘† †中部大学 機械知覚ロボティクスグループ ‡広島大学
  • 3. 3 経路予測の応用先 • 自動運転 ⎻ 周囲の環境理解 ⎻ 事故の未然防止 • 監視カメラ映像の解析 ⎻ 異常行動の検出
  • 4. 4 経路予測の難しさ ~人物の場合~ timepresentpast future ? 歩行者検出 人物追跡 過去・現在の観測に対する状態を推定 経路予測 観測が存在しない
  • 6. 6 経路予測の流れ • 環境からの特徴抽出 ⎻ シーンラベル ⎻ 局所領域のコスト ⎻ シーン全体の特徴ベクトル • 対象からの特徴抽出 ⎻ 過去の移動経路,向き ⎻ 身体的属性 ⎻ 対象の特徴ベクトル Prediction 特徴抽出 予測 • ベイズモデル ⎻ KF, DBN • エネルギー最小化 ⎻ Dijkstra’s Algorithm • 深層学習 ⎻ CNN, LSTM • 逆強化学習 • その他 ⎻ Social force model, Data driven 入力 ⎻ 動画像 ⎻ 過去の経路 出力 ⎻ 座標 ⎻ 確率分布
  • 7. 7 経路予測の流れ • 環境からの特徴抽出 ⎻ シーンラベル ⎻ 局所領域のコスト ⎻ シーン全体の特徴ベクトル • 対象からの特徴抽出 ⎻ 過去の移動経路,向き ⎻ 身体的属性 ⎻ 対象の特徴ベクトル 予測 Prediction 特徴抽出 • ベイズモデル ⎻ KF, DBN • エネルギー最小化 ⎻ Dijkstra’s Algorithm • 深層学習 ⎻ CNN, LSTM • 逆強化学習 • その他 ⎻ Social force model, Data driven 入力 ⎻ 動画像 ⎻ 過去の経路 出力 ⎻ 座標 ⎻ 確率分布
  • 9. 9 環境からの特徴抽出 • 移動は周囲の環境に依存している ⎻ 移動しやすい領域を考慮 ⎻ 移動範囲を限定 • シーンラベル ⎻ セマンティックセグメンテーション • 局所領域のコスト ⎻ 対象が移動する可能性を表現  テクスチャの識別・比較 … • シーンの特徴ベクトル ⎻ シーンをうまく表現する特徴を記述  特徴抽出器 (e.g. CNN)
  • 10. 10 シーン全体を表現する特徴 • 画像・フレームから特徴ベクトルを抽出 ⎻ シーンをうまく表現するような特徴を記述 Pre-trained Network (AlexNet) [Krizhevsky et al., 2012] 類似度比較: Siamese Network [Bromley et al., 1994] A. Krizhevsky, et al., “Imagenet classification with deep convolutional neural networks,” NIPS, 2012 J. Bromley, et al., “Signature verification using a siamese time delay neural network,” NIPS, 1994 CNN CNNtest image train image L2Dist. Similarity score
  • 11. 11 シーンラベルに基づく特徴 1 • セマンティックセグメンテーションによる特徴抽出 Fully Convolutional Network (FCN) [Long et al., 2015] J. Long, et al., “Fully Convolutional Networks for Semantic Segmentation,” CVPR, 2015
  • 12. 12 シーンラベルに基づく特徴 2 • FCN以外のセグメンテーション手法 Hierarchical Labeling [Munoz et al., 2010] MRF-based Labeling [Yang et al., 2014] D. Munoz, et al., “Stacked Hierarchical Labeling,” ECCV, 2010 J. Yang, et al., “Context Driven Scene Parsing with Attention to Rare Classes,” CVPR, 2014
  • 13. 13 セグメンテーションに基づく特徴表現 • 各ラベルの事後確率を特徴マップとして使用 • シーンラベルから局所領域的な特徴ベクトルを生成 K. Kitani, et al., “Activity Forecasting,” ECCV, 2012 L. Ballan, et al., “Knowledge Transfer for Scene-Specific Motion Prediction,” ECCV, 2016
  • 14. 14 局所領域のコストに基づく特徴 • 物体の移動する可能性を表現 ⎻ コスト低: 移動しやすい ⎻ コスト高: 移動しづらい BoVW + NN [Walker et al., 2014] Spatial Matching Network [Huang et al., 2015] J. Walker, et al., “Patch to the Future: Unsupervised Visual Prediction,” CVPR, 2014 S. Huang, et al., “Deep Learning Driven Visual Path Prediction from a Single Images,” IEEE IP, 2015
  • 15. 15 経路予測の流れ • 環境からの特徴抽出 ⎻ シーンラベル ⎻ 局所領域のコスト ⎻ シーン全体の特徴ベクトル • 対象からの特徴抽出 ⎻ 過去の移動経路,向き ⎻ 身体的属性 ⎻ 対象の特徴ベクトル 予測 Prediction 特徴抽出 • ベイズモデル ⎻ KF, DBN • エネルギー最小化 ⎻ Dijkstra’s Algorithm • 深層学習 ⎻ CNN, LSTM • 逆強化学習 • その他 ⎻ Social force model, Data driven 入力 ⎻ 動画像 ⎻ 過去の経路 出力 ⎻ 座標 ⎻ 確率分布
  • 17. 17 予測対象からの特徴抽出 • 対象の保有する情報も経路の決定に大きく影響 ⎻ 対象毎の特徴的な移動を考慮 • 過去の移動経路,向き ⎻ 移動方向を限定  歩行者検出・追跡  方向推定 • 身体的属性 ⎻ 個人によって速度や経路が変化  属性推定 Gender … male Age … young • 対象の特徴ベクトル ⎻ 対象をうまく表現する特徴を記述  パッチ特徴量 (e.g. CNN, HOG) …
  • 18. 18 対象を表現する特徴ベクトルの抽出 • 対象の保有する情報を暗に表現 ⎻ 予測対象が含まれるパッチから特徴ベクトルを抽出 Mid-level patch features [Singh et al., 2012] ⎻ HOG + K-meansでパッチ内の特徴を表現2 Singh et al. Our$Discrimina, ve$Patches$ Visual$Words$ Fig. 1. Thetop two detected Visual Words(bottom) vs. Mid-level Discriminative Patches (top), trained without any supervision and on the same large unlabeledS. Singh, et al., “Unsupervised discovery of mid-level discriminative patches,” ECCV, 2012
  • 19. 19 現在の対象の位置に関する特徴 • 対象の過去〜現在までの動きを抽出 ⎻ オンライン処理の予測に使用 ⎻ 過去の経路から未来の移動を方向を限定 HOG + SVM detector [Dalal et al., 2005] Superpixel-based Bayesian online tracking [Wang et al., 2011] N. Dalal, et al., “Histograms of oriented gradients for human detection,” CVPR, 2005 S. Wang, et al., “Superpixel tracking,” ICCV, 2011
  • 20. 20 対象の向きに関する特徴 Orientation network [Huang et al., 2015] ⎻ 対象の移動方向を限定 Bayesian orientation estimation [Enzweiler et al., 2010] ⎻ 歩行者の頭部の向きを推定 S. Huang, et al., “Deep learning driven visual path prediction from a single image,” IEEE IP, 2015 M. Enzweiler, et al., “Integrated pedestrian classification and oriented estimation,” CVPR, 2010
  • 21. 21 歩行者属性に関する特徴 • 個人によって移動速度や経路の選択が異なる ⎻ 個人に着目した予測の実現 AlexNet-based multi-task learning [Ma et al., 2017] ⎻ 歩行者属性を単一のネットワークで推定  歩行者の向き  年齢  性別 Young Old Male Female PersonalizePathway AlexNet W. Ma, et al., “Forecasting interactive dynamics of pedestrians with fictitious play,” CVPR, 2017
  • 22. 22 経路予測の流れ • 環境からの特徴抽出 ⎻ シーンラベル ⎻ 局所領域のコスト ⎻ シーン全体の特徴ベクトル • 対象からの特徴抽出 ⎻ 過去の移動経路,向き ⎻ 身体的属性 ⎻ 対象の特徴ベクトル 予測 Prediction 特徴抽出 • ベイズモデル ⎻ KF, DBN • エネルギー最小化 ⎻ Dijkstra’s Algorithm • 深層学習 ⎻ CNN, LSTM • 逆強化学習 • その他 ⎻ Social force model, Data driven 入力 ⎻ 動画像 ⎻ 過去の経路 出力 ⎻ 座標 ⎻ 確率分布
  • 23. 23 ベイズモデルに基づくアプローチ • 内部状態を逐次的に推定 ⎻ 過去~現在: predictとupdateを繰り返す ⎻ 未来: predictのみを繰り返す timepresentpast future ? 内部状態 観測 predict update 歩行者検出・追跡の結果
  • 24. 24 KFベースの予測手法 Pedestrian path prediction with recursive Bayesian filters [Schneider et al., 2013] ⎻ 拡張カルマンフィルタを用いて予測  基礎的なモデルを使用(velocity, acceleration, turn) ⎻ 後述の車載カメラ映像のデータセットを作成 ー GT ー EKF (velocity) ー EKF (velocity + turn) N. Schneider, et al., “Pedestrian path prediction with recursive Bayesian filters: A comparative study” GCPR, 2013
  • 25. 25 DBNベースの予測手法 Context-based Pedestrian Path Prediction [Kooij et al., 2014] ⎻ Switching Linear Dynamical System (SLDS)を導入  歩行者の状態(移動・停止)を制御 ⎻ シーンから様々なコンテキストを取得  頭の向き  縁石までの距離  車〜歩行者までの距離 J.F.P. Kooij, et al., “Context-based pedestrian path prediction,” ECCV, 2014
  • 26. 26 経路予測の流れ • 環境からの特徴抽出 ⎻ シーンラベル ⎻ 局所領域のコスト ⎻ シーン全体の特徴ベクトル • 対象からの特徴抽出 ⎻ 過去の移動経路,向き ⎻ 身体的属性 ⎻ 対象の特徴ベクトル 予測 Prediction 特徴抽出 • ベイズモデル ⎻ KF, DBN • エネルギー最小化 ⎻ Dijkstra’s Algorithm • 深層学習 ⎻ CNN, LSTM • 逆強化学習 • その他 ⎻ Social force model, Data driven 入力 ⎻ 動画像 ⎻ 過去の経路 出力 ⎻ 座標 ⎻ 確率分布
  • 27. 27 エネルギー最小化に基づくアプローチ • 最短経路問題として経路を推定 ⎻ 2次元の格子状グラフを作成 ⎻ エッジにコストを付与 ⎻ ダイクストラ法で最短経路を推定 … 環境からの特徴抽出 start goal
  • 28. 28 エネルギー最小化に基づく手法 1 Deep Learning Driven Visual Path Prediction [Huang et al., 2015] ⎻ Spatial Matching Network: 局所領域の報酬(コスト)を推定 ⎻ Orientation Network: 対象の向きを推定 ⎻ 報酬 + 向きから目的関数を定義 ⎻ ダイクストラ法で最短経路を推定 S. Huang, et al., “Deep learning driven visual path prediction from a single image,” IEEE IP, 2015
  • 29. 29 エネルギー最小化に基づく手法 2 Inferring ‘Dark Matter’ and ‘Dark Energy’ from Videos [Xie et al., 2013] ⎻ 歩行者はシーン中の目的地に向かって移動していると仮定  e.g. bending machine, chairs, exit ⎻ 目的地を中心に引き寄せられるようなエネルギー場を生成 ⎻ ダイクストラ法で各目的地へ到達する最短経路を推定 D. Xie, et al., “Inferring dark matter and dark energy from videos,” ICCV, 2013
  • 30. 30 経路予測の流れ • 環境からの特徴抽出 ⎻ シーンラベル ⎻ 局所領域のコスト ⎻ シーン全体の特徴ベクトル • 対象からの特徴抽出 ⎻ 過去の移動経路,向き ⎻ 身体的属性 ⎻ 対象の特徴ベクトル 予測 Prediction 特徴抽出 • ベイズモデル ⎻ KF, DBN • エネルギー最小化 ⎻ Dijkstra’s Algorithm • 深層学習 ⎻ CNN, LSTM • 逆強化学習 • その他 ⎻ Social force model, Data driven 入力 ⎻ 動画像 ⎻ 過去の経路 出力 ⎻ 座標 ⎻ 確率分布
  • 31. 31 深層学習に基づくアプローチ • 過去の移動経路から未来の経路を直接推定 ⎻ 入力: 過去の移動座標 ⎻ 特徴抽出・予測: 何らかのネットワーク ⎻ 出力: 未来の移動座標 Prediction 入力 特徴抽出 予測 出力
  • 32. 32 LSTMベースの予測手法 Social LSTM [Alahi et al., 2016] ⎻ 複数の歩行者の移動経路を同時に予測 ⎻ Social Pooling Layerを提案  周囲の歩行者の位置・中間層出力を入力  相互作用を考慮 ー GT ー SF ー Linear ー Social-LSTM A. Alahi, et al., “Social LSTM: Human trajectory prediction in crowded space,” CVPR, 2016
  • 33. 33 CNNベースの予測手法 Pedestrian Behavior Understanding and Prediction with DNN [Yi et al., 2016] ⎻ 過去の移動経路をスパースなボリュームデータで表現 ⎻ Encoder-Decoder Networkに通すことで経路を予測 S. Yi, et al., “Pedestrian understanding and prediction with deep neural networks,” ECCV, 2016
  • 34. 34 経路予測の流れ • 環境からの特徴抽出 ⎻ シーンラベル ⎻ 局所領域のコスト ⎻ シーン全体の特徴ベクトル • 対象からの特徴抽出 ⎻ 過去の移動経路,向き ⎻ 身体的属性 ⎻ 対象の特徴ベクトル 予測 Prediction 特徴抽出 • ベイズモデル ⎻ KF, DBN • エネルギー最小化 ⎻ Dijkstra’s Algorithm • 深層学習 ⎻ CNN, LSTM • 逆強化学習 • その他 ⎻ Social force model, Data driven 入力 ⎻ 動画像 ⎻ 過去の経路 出力 ⎻ 座標 ⎻ 確率分布
  • 35. 35 逆強化学習に基づくアプローチ (1) • 強化学習 … エージェントの行動規範を獲得 ⎻ 行動の良さを報酬で評価 ⎻ 報酬が高くなるような方策(行動規範)を試行錯誤しながら獲得 ⎻ 獲得した方策を用いてエージェントの行動を決定 エージェント 方策 状態に基づき行動を決定 学習器 方策の改善 状態観測器 エージェントの状態の推定 環境 行動 報酬 状態遷移 迷路 例) ゴールに到達: +10 ゴールに未到達: -10
  • 36. 36 逆強化学習に基づくアプローチ (1) • 強化学習 … エージェントの行動規範を獲得 ⎻ 行動の良さを報酬で評価 ⎻ 報酬が高くなるような方策(行動規範)を試行錯誤しながら獲得 ⎻ 獲得した方策を用いてエージェントの行動を決定 経路予測 エージェント 方策 状態に基づき行動を決定 学習器 方策の改善 状態観測器 エージェントの状態の推定 環境 行動 報酬 状態遷移 報酬を決定するのが困難
  • 37. 37 逆強化学習に基づくアプローチ (2) • 逆強化学習 … 「報酬」を求める ⎻ 教師データ(再現したい行動のデータ)から報酬(+方策)を学習 ⎻ 求めた方策を用いて,エージェントの動き(行動)を決定 経路予測 エージェント 方策 状態に基づき行動を決定 学習器 方策の改善 状態観測器 エージェントの状態の推定 環境 行動 状態遷移 報酬 再現したい行動データ
  • 38. 38 Activity Forecasting • Markov Decision Process (MDP) ⎻ 現在の状態 と 行動 から状態が遷移 ⎻ 現在地 と 移動方向 から現在地が遷移 ⎻ 行動選択で移動経路が決まる • Activity Forecasting [Kitani et al., 2012] ⎻ 対象の行動を予測する問題設定 ⎻ 行動により変化した状態(座標)の系列が経路予測結果 ※ Path prediction: 各時刻の座標を直接推定・出力 状態 行動 報酬
  • 39. 39 IRLベースの予測手法 1 Activity Forecasting [Kitani et al., 2012] ⎻ 逆強化学習を初めて導入した手法 ⎻ 周囲の環境が移動経路の決定に影響を与えていると仮定 K. Kitani, et al., “Activity forecasting,” ECCV, 2012
  • 40. 40 IRLベースの予測手法 2 Forecasting Interactive Dynamics of Pedestrians with Fictitious Play [Ma et al., 2017] ⎻ 複数の歩行者の移動経路を同時に予測 ⎻ Fictitious Playと呼ばれるゲーム理論を導入 ⎻ 各時刻・各歩行者の行動を逐次的に推定 t = 3 t = 6 t = 9 t = 12 YellowGreenRed Forecasted distribution growswith time Agentstaketurnsforecasting sampled from U(t ) n sampled from µ(t ) ¬n n n W. Ma, et al., “Forecasting interactive dynamics of pedestrians with fictitious play,” CVPR, 2017
  • 41. 41 IRLベースの経路予測の応用例 • 海鳥の飛行経路予測 [Hirakawa et al., 2017] ⎻ 海鳥は海上のみを飛行する  環境属性に依存 ⎻ 各環境属性の影響度を教師データから学習 T. Hirakawa, et al., “Travel Time-dependent IRL for Seabird Trajectory Prediction,” ACPR, 2017 環境マップの例 メスの予測結果 オスの予測結果
  • 42. 42 経路予測の流れ • 環境からの特徴抽出 ⎻ シーンラベル ⎻ 局所領域のコスト ⎻ シーン全体の特徴ベクトル • 対象からの特徴抽出 ⎻ 過去の移動経路,向き ⎻ 身体的属性 ⎻ 対象の特徴ベクトル 予測 Prediction 特徴抽出 • ベイズモデル ⎻ KF, DBN • エネルギー最小化 ⎻ Dijkstra’s Algorithm • 深層学習 ⎻ CNN, LSTM • 逆強化学習 • その他 ⎻ Social force model, Data driven 入力 ⎻ 動画像 ⎻ 過去の経路 出力 ⎻ 座標 ⎻ 確率分布
  • 43. 43 その他のアプローチ 1 ~Social force model~ • 相互作用を考慮したモデル ⎻ 引力や斥力のようなエネルギー ⎻ 障害物や他者との衝突を回避
  • 44. 44 その他のアプローチ 1 ~Social force model~ • 相互作用を考慮したモデル ⎻ 引力や斥力のようなエネルギー ⎻ 障害物や他者との衝突を回避 Learning Social Etiquette [Robicquet et al., 2016] ⎻ Social Sensitivityと呼ばれる特徴を抽出  特徴に基づきクラスタを割り当てる  衝突を避ける移動経路を決定 A. Robicquet, et al., “Learning social etiquette: Human trajectory understanding in crowded scenes,” ECCV, 2016
  • 45. 45 その他のアプローチ 2 ~Data driven~ Egocentric Future Localization [Park et al., 2016] ⎻ 予測シーンに類似した学習シーンを検索 ⎻ 学習データの経路を予測シーンに転移 H.S. Park, et al., “Egocentric future localization,” CVPR, 2016
  • 46. 46 経路予測の流れ • 環境からの特徴抽出 ⎻ シーンラベル ⎻ 局所領域のコスト ⎻ シーン全体の特徴ベクトル • 対象からの特徴抽出 ⎻ 過去の移動経路,向き ⎻ 身体的属性 ⎻ 対象の特徴ベクトル 予測 Prediction 特徴抽出 • ベイズモデル ⎻ KF, DBN • エネルギー最小化 ⎻ Dijkstra’s Algorithm • 深層学習 ⎻ CNN, LSTM • 逆強化学習 • その他 ⎻ Social force model, Data driven 入力 ⎻ 動画像 ⎻ 過去の経路 出力 ⎻ 座標 ⎻ 確率分布
  • 48. 48 鳥瞰視点映像のデータセット 1 • UCY Dataset [Lerner et al., 2007] ⎻ 歩行者数: 786 ⎻ シーン数: 3 • ETH Dataset [Pellegrini et al., 2009] ⎻ 歩行者数: 750 ⎻ シーン数: 2 A. Lerner, et al., “Crowds by example,” Computer Graphics Forum, 2007 S. Pellegrini, et al., “You’ll never walk alone: Modeling social behavior for multi-target tracking,” ICCV, 2009
  • 49. 49 鳥瞰視点映像のデータセット 2 • Edinburgh Informatics Forum Pedestrian Dataset [Majecka, 2009] ⎻ 歩行者数: 95,998 ⎻ シーン数: 1 • Stanford Drone Dataset [Robicquet et al., 2016] ⎻ 歩行者数: 11,216 ⎻ シーン数: 8 ⎻ その他の予測対象: car, bus, biker, skater, carts B. Majecka, et al., “Statistical models of pedestrian behavior in the forum,” PhD thesis, 2009 A. Robicquet, et al., “Learning social etiquette: Human trajectory understanding in crowded scenes,” ECCV, 2016
  • 50. 50 監視カメラ映像のデータセット • VIRAT Video Dataset [Oh et al., 2011] ⎻ 歩行者数: 4,021 ⎻ シーン数: 11 ⎻ 追加情報: 物体の座標,行動カテゴリ • Town Centre Dataset [Benfold et al., 2009] ⎻ 歩行者数: 230 ⎻ シーン数: 1 ⎻ 追加情報: 頭部の座標 • Grand Central Station Dataset [Yi et al., 2015] ⎻ 歩行者数: 12,600 ⎻ シーン数: 1 S. Oh, et al., “A large-scale benchmark dataset for event recognition in surveillance video,” CVPR, 2011 B. Benfold, et al., “Stable multi-target tracking in real-time surveillance video,” CVPR, 2009 S. Yi, et al., “Understanding pedestrian behaviors from stationary crowd groups,” CVPR, 2015
  • 51. 51 車載カメラ映像のデータセット • Daimler Pedestrian Path Prediction Benchmark Dataset [Schneider et al., 2013] ⎻ 歩行者数: 68 ⎻ 追加情報: ステレオカメラ • KITTI Vision Benchmark Suite [Geiger et al., 2012] ⎻ 歩行者数: 6,336 ⎻ 追加情報: ステレオカメラ,LIDAR, 地図情報 N. Schneider, et al., “Pedestrian path prediction with recursive Bayesian filters: A comparative study” GCPR, 2013 A. Geiger, et al., “Are we ready for autonomous driving? The KITTI vision benchmark suite,” CVPR, 2012
  • 52. 52 一人称視点映像のデータセット • EgoMotion Dataset [Park et al., 2016] ⎻ シーン数: 26 ⎻ 追加情報: ステレオカメラ • First-person Continuous Activity Dataset [Rhinehart et al., 2017] ⎻ シーン数: 17 ⎻ 追加情報: 物体情報 データセットは未公開 H.S. Park, et al., “Egocentric future localization,” CVPR, 2016 N. Rhinehart, et al., “First-person activity forecasting with online inverse reinforcement learning,” ICCV, 2017
  • 53. 53 評価指標 • 座標に対する評価指標 ⎻ Average Displacement Error  各時刻での予測座標と真値とのユークリッド距離の平均値 • 確率分布に対する評価指標 ⎻ Negative Log-Loss (NLL)  推定した確率分布の元での真値の対数尤度の期待値 : 真値 : 予測値 : 真値
  • 54. 54 まとめ • 特徴抽出法と予測手法について整理 ⎻ 特徴抽出  環境  予測対象 ⎻ 予測  ベイズモデル  エネルギー最小化  深層学習  逆強化学習 • 評価用データセットと評価指標を紹介
  • 55. 55 今後の展望 • DLによる経路予測のための特徴抽出 ⎻ 既存手法 (FCNs) … 正しいラベルを出力するように学習 ⎻ 今後 … 正しい経路を出力するように学習 • 環境や対象の特徴を考慮し,end-to-endで学習 ⎻ 既存手法 … 座標列のみを入力とするものが多い ⎻ 今後 … シーンや対象の特徴も同時に抽出
  • 56. 56 環境を考慮したDLによる予測手法 DESIRE [Lee et al., 2017] ⎻ DL + IRLの複合的な枠組み  RNN Enc.-Dec.: 複数の予測を生成  IRL: 予測をランク付け,Refine ⎻ Pooling無しのCNNでシーンの特徴抽出 ⎻ End-to-endで学習 N. Lee, et al., “DESIRE: Distant future prediction in dynamic scenes with interacting agents,” CVPR, 2017 提案モデル 予測結果 ー Obs. ー GT ー Result
  • 57. 57 本サーベイで参照した文献 ~予測手法~ N. Schneider and D.M. Gavrila, “Pedestrian path prediction with recursive bayesian filters: A comparative study,” GCPR, 2013. J.F.P. Kooij, et al., “Context-based pedestrian path prediction,” ECCV, 2014. L. Ballan, et al., “Knowledge transfer for scene-specific motion prediction,” ECCV, 2016. D. Xie, et al., “Inferring ‘Dark Matter’ and ‘Dark Energy’ from videos,” ICCV, 2013. ○ J. Walker, et al., “Patch to the future: Unsupervised visual prediction,” CVPR, 2014. S. Huang, et al., “Deep learning driven visual path prediction from a single image,” IEEE IP, 2016. S. Yi, et al., “Pedestrian behavior understanding and prediction with deep neural networks,” ECCV, 2016. ○ A. Alahi, et al., “Social LSTM: Human trajectory prediction in crowded spaces,” CVPR, 2016. T. Fernando, et al., “Soft+ hardwired attention: An LSTM framework for human trajectory prediction and abnormal event detection,” arXiv preprint, 2017 T. Fernando, et al., “Tree memory networks for modelling long-term temporal dependencies,” arXiv preprint, 2017. N. Lee, et al., “DESIRE: distant future prediction in dynamic scenes with interacting agents,” CVPR, 2017. ○ K.M. Kitani, et al., “Activity forecasting,” ECCV, 2012. N. Lee and K.M. Kitani, “Predicting wide receiver trajectories in American football,” WACV, 2016. S.Z. Bokhari and K.M. Kitani, “Long-term activity forecasting using first-person vision,” ACCV, 2016. N. Rhinehart and K.M. Kitani, “First-person activity forecasting with online inverse reinforcement learning,” ICCV, 2017. W. Ma, et al., “Forecasting interactive dynamics of pedestrians with fictitious play,” CVPR, 2016. E. Rehder, et al., “Pedestrian prediction by planning using deep neural networks,” arXiv preprint, 2017. C.G. Keller and D.M. Gavrila, “Will the pedestrian cross? a study on pedestrian path prediction,” IEEE ITS, 2014. E. Rehder and H. Kloeden, “Goal-directed pedestrian prediction,” ICCV Workshop, 2015. H.S. Park, et al., “Egocentric future localization,” CVPR, 2016. S. Su, et al., “Predicting behaviors of basketball players from first person videos,” CVPR, 2017. K. Yamaguchi, et al., “Who are you with and where are you going?,” CVPR, 2011. A. Robicquet, et al., “Learning social etiquette: Human trajectory understanding in crowded scenes,” ECCV, 2016. ○ … プログラム有
  • 58. 58 本サーベイで参照した文献 ~特徴抽出法~ D. Munoz, et al., “Stacked hierarchical labeling,” ECCV, 2010. ○ J. Yang, et al., “Context driven scene parsing with attention to rare classes,” CVPR, 2014. ○ J. Long, et al., “Fully convolutional networks for semantic segmentation,” CVPR, 2015. ○ E. Shelhamer, et al., “Fully convolutional networks for semantic segmentation,” IEEE PAMI, 2017. S. Huang, et al., “Deep learning driven visual path prediction from a single image,” IEEE IP, 2016. ○ A. Krizhevsky, et al., “ImageNet classification with deep convolutional neural networks,” NIPS, 2012. ○ J. Bromley, et al., “Signature verification using a "siamese" time delay neural network,” NIPS, 1994. ○ N. Dalal and B. Triggs, “Histograms of oriented gradients for human detection,” CVPR, 2005. M. Enzweiler and D.M. Gavrila, “Integrated pedestrian classification and orientation estimation,” CVPR, 2010. W. Ma, et al., “Forecasting interactive dynamics of pedestrians with fictitious play,” CVPR, 2017. ○ S. Singh, et al., “Unsupervised discovery of mid-level discriminative patches,” ECCV, 2012. ○ … プログラム有
  • 59. 59 特徴抽出法一覧 図 1 経路予測手法の処理の流れ. 文献 [9] より 改変. 表 1 経路予測に用いる特徴抽出法の分類. 抽出対象 特徴の種類 代表的な手法 環境 シーンラ ベル Stacked hierarchical labeling [10] Superpixel-based MRF [11] Fully Convolutional Networks[12], [13] コ スト Bag-of-Visual Words Spatial Matching Network [14] シーン全体の特徴ベク ト ル Pretrained AlexNet [15] Siamese Network [16] 予測対象 歩行者の位置 HOG + SVM detector [17] 対象の向き Bayesian orientation estimation [18] Orientation Network [14] 身体的属性 AlexNet-based multi-task learning [19] 対象物の特徴ベク ト ル Mid-level patch features[20] を踏まえ, 本稿ではコ ンピュ ータ ビジョ ン分野における を用いた経路予測手法についてサーベイ し , 経路予測に れる 特徴抽出及び予測のアプ ロ ーチについて体系的に 2. 1 環境属性に対する特徴抽出 予測対象が移動する際には, その周辺環境が大き く 影 いる. 例えば, 歩行者が移動する際にはシーンに存在す