SlideShare a Scribd company logo
1 of 39
DEEP LEARNING JP
[DL Papers]
DeepNav: Learning to Navigate Large Cities (CVPR2017)
MasashiYokota, Nakayama Lab
http://deeplearning.jp/
書誌情報
• Authers: Samarth Brahmbhatt, James Hays
• Conference: CVPR 2017
• 選定理由:
不動産系(BtoB)で起業しているので都市構造を学習するという視
点がすごい好きだった。
2
3
コンビニがどこに多くあるか
知っていますか?
概要
• コンビニどこにある?
– 主要幹線道路
– 学校、オフィス周辺
– バス停
– 駅
4
なんで??
人が多いから!!
5
名古屋駅の最寄りのUFJへの
行き方はわかりますか?
概要
• 名古屋出身の自分でも分からない….
でも、ググらなくても、なんとなく探すことは可能!
– 人通りの多いところへ行ってみる
– 大通りへ行ってみる
• 上記の事ができるのは、なんとなく銀行がどこにありそうか予測で
きるから。
– この論文で習得したい事!
6
構造物の建設場所には、ある程度規則性がある。この規則性が
分かるようになれば、初めての場所でもどこに何があるのか予
測できるはず。
何が嬉しい?
• 地理
– GPSの届かない場所でのナビゲーション
• 僻地、地下道、電波の届きにくい高層ビル群 etc
• 屋内
– 家庭内ロボット
• 部屋の配置傾向を知っていれば再学習無し(or少ないデータでの再学習)
で運用可能。
– 風呂場の近くにはトイレがあるetc
7
この論文において解くタスク
• Street Viewで取得した複数の都市データで都市構造を学習
– 全てのデータ点で5種類の目的地(銀行、学校etc)の場所を学習
• 目的地までの距離はどれくらいか
• どの方向に何があるのか
• 見ず知らずの場所で指定された目的地へ行けるかテスト
– 評価値
• 目的地までの到達成功率
• 目的地まで到達する最小ステップ数
8
データセット
1. Google Map Street Viewから
道の画像データを収集
– 各交差点に対して東西南北の画
像を取得
2. 選んだ画像データからグラフ
を作成(最短距離の
Annotationを作るため)
3. 目的地(学校、銀行、マクドナ
ルド、教会、ガソリンスタンド)
の場所を取得
4. 各写真の位置から目的地ま
での距離で取得。
9
10
提案手法
提案手法
• 距離ベース
– DeepNav-distance
• 与えられた画像の位置から、最寄りのスポットまでの距離を予測
• 方向ベース
– DeepNav-direction
• 与えられた画像の位置から、最寄りのスポットの方角を予測
– DeepNav-pair
• 画像のペアが与えられて、目的地に行くのにどちらへ行けばよいのかを予測
11
12
提案手法
DeepNav-distance
DeepNav-distance
13
• 東西南北のそれぞれの
方向へ進んだ時の目的
地までの距離を予測。
• 各目的地までのMSEを
最小化するように学習
• (テスト時)距離が最も
小さくなる方向へ進む。
ガソリンスタンドへ行きたい。
どっちへ進めば良い?
DeepNav-distance
14
• 東西南北のそれぞれの
方向へ進んだ時の目的
地までの距離を予測。
• 各目的地までのMSEを
最小化するように学習
• (テスト時)距離が最も
小さくなる方向へ進む。
ガソリンスタンドへ行きたい。
どっちへ進めば良い?
90m
340m
510m
290m
DeepNav-distance
15
入力画像の方向に対して進んだ時、各目的地との距離を予測。
学習時は予測値と実際の距離のMSEを最小化する。
16
提案手法
DeepNav-direction
DeepNav-direction
17
前
左 右
後
ガソリンスタンドへ行きたい。
どっちの方向へ行けば良い?
1. 入力画像(1枚)に対して、前
後左右どちらへ行けば目的地
へ到着できるのかを予測。
2. 各目的地に対してどちらに行
けばよいか予測する。
3. 学習時は各目的地に対して、
通常の分類問題を最小化する。
DeepNav-direction
18
入力画像に対して、前後左右どちらへ行けば目的地へ到着できるのかを予測。
学習時は通常の分類問題を最小化する。
DeepNav-direction Annotation
• データ作成時に作ったグラ
フを用いる。
• 各ノードに対してA*探索ア
ルゴリズムを使って最短経
路を計算
• その最短経路をannotation
とする。
19
20
提案手法
DeepNav-pair
DeepNav-pair
21
ガソリンスタンドへ行くには、どっちへ行けば良い?
IDEA: 複数の方向を見て学習した方が効率が良いはず。
学習時に各画像に対してスコアを計算し、正しい方向の
画像のスコアが高くなるように学習する。
DeepNav-pair
22
ガソリンスタンドへ行くには、どっちへ行けば良い?
IDEA: 複数の方向を見て学習した方が効率が良いはず。
学習時に各画像に対してスコアを計算し、正しい方向の
画像のスコアが高くなるように学習する。
Score 20 50
DeepNav-pair
23
画像ペアが与えられ、目的地へ到達するのに上の画像に行けば良い場合は0、
下の画像へ行けば良い場合は1として分類問題として学習させる。どちらも違う
場合はXとして学習時には無視する。
DeepNav-pair テスト時
24
ガソリンスタンドへ行きたい。
どっちへ進めば良い?
55
20
18
47
モデルのブランチを1つにして目的
地のスコアを出力。各方向のスコア
を比較し最も大きいスコアの方向へ
進む。
モデル
Score
DeepNav-pair Annotation
25
• 各ノードに対してA*探索アル
ゴリズムを使って最短経路を
計算する。
• 最短距離のパス中の各ノード
において2方向を選び、ラベ
ルを付ける。
– 1つ目の画像の方向が最短経
路ならラベル0
– 2つ目の画像の方向が最短経
路ならラベル1
– どれも違うならラベルX
• これを最短経路を構成してい
る全てのノードに対して行う。
損失関数(DeepNav-direction, -pair)
26
ほとんどの学習データは、現在地から目的地まで距離がある。
現在地から目的地への距離(最短ステップ数)が遠い程、影響は
小くし、近いほど影響は大きくするべき。
→ li(目的地までのステップ数)を考慮することで重みを付ける。
Lg: GeometricallyWeighted Loss
N: バッチサイズ
λ: GeometricWeighting Factor(=0.9)
Li: i番目のロス
li: 目的地までの最短ステップ数
27
実験
実験
• データセット
– 学習データ
• 6都市(Atlanta, Boston, Chicago, Houston, Los Angeles, Philadelphia)
– テストデータ(平均ds[m]だけ離れた位置から各都市10回試行)
• 4都市(Dallas, New York, Phoenix, San Francisco)
• 目的地
– 銀行
– 教会
– ガソリンスタンド
– 高校
– マクドナルド
• 評価値
– 目的地までの到達率
– 目的地までの到達に必要なステップ数の期待値
28
評価値
• 成功率
– 目的地まで75m以内の位置に到達できれば成功。
– 1000回移動しても、目的地に到着できなければ失敗。
• 目的地へ到達するためのステップ数の期待値
29
s: 成功率
L: 成功時の平均ステップ数
Lmax: 最大ステップ数(=1000)
結果 1/8
30
テストデータにおける到達ステップ数の期待値
結果 2/8
31
サンフランシスコの銀行へ行く場合の各ノードのConfidence。
青点が銀行の位置、オレンジ線がconfidenceの強さ。
DeepNav-pairは目的地周辺のconfidenceがはっきりと高くなっている。
結果 3/8
32
サンフランシスコのマクドナルドが近くにあると判定している時の画像(上カラム)
近くにマクドナルドが無いと判定している画像(下カラム)
結果 4/8
33
サンフランシスコのガソリンスタンドが近くにあると判定している時の画像(上カラム)
近くにガソリンスタンドが無いと判定している画像(下カラム)
結果 5/8
34
ニューヨークにおいて教会が目的地の場合の移動の軌跡
青:スタート地点、緑:教会の位置
結果 6/8
35
結果 7/8
36
結果 8/8
37
全体的にDeepNav-directionが良い感じ。
まとめ
• データセットは、API使い全自動で取得
• 手法
– 距離ベース
• DeepNav-distance
– 方向ベース
• DeepNav-direction → 最も良かった
• DeepNav-pair
• random walkと先行研究よりかは良い結果が出てる。
38
感想
• 正直、ナビゲーション感は少ない
• 都市構造の傾向を理解するというアイディアは面白い
– 道案内よりも街に何が足りないのかを判定するとかの方が面白そう。
(ex. 機械に都市計画させる etc)
• 都市構造を学習させるなら時系列にして学習させた方が良さそう。
– LSTMとかで過去の情報も保持しておくとか。
39

More Related Content

Viewers also liked

Web開発初心者がReactをチームに導入して半年経った
Web開発初心者がReactをチームに導入して半年経ったWeb開発初心者がReactをチームに導入して半年経った
Web開発初心者がReactをチームに導入して半年経ったkazuki matsumura
 
[DL輪読会] The Conditional Analogy GAN: Swapping Fashion Articles on People Images
[DL輪読会] The Conditional Analogy GAN: Swapping Fashion Articles on People Images[DL輪読会] The Conditional Analogy GAN: Swapping Fashion Articles on People Images
[DL輪読会] The Conditional Analogy GAN: Swapping Fashion Articles on People ImagesDeep Learning JP
 
[DL輪読会]Parallel Multiscale Autoregressive Density Estimation
[DL輪読会]Parallel Multiscale Autoregressive Density Estimation[DL輪読会]Parallel Multiscale Autoregressive Density Estimation
[DL輪読会]Parallel Multiscale Autoregressive Density EstimationDeep Learning JP
 
[DLHacks 実装]Neural Machine Translation in Linear Time
[DLHacks 実装]Neural Machine Translation in Linear Time [DLHacks 実装]Neural Machine Translation in Linear Time
[DLHacks 実装]Neural Machine Translation in Linear Time Deep Learning JP
 
[DL輪読会]Training RNNs as Fast as CNNs
[DL輪読会]Training RNNs as Fast as CNNs[DL輪読会]Training RNNs as Fast as CNNs
[DL輪読会]Training RNNs as Fast as CNNsDeep Learning JP
 
[DLHacks 実装] The statistical recurrent unit
[DLHacks 実装] The statistical recurrent unit[DLHacks 実装] The statistical recurrent unit
[DLHacks 実装] The statistical recurrent unitDeep Learning JP
 
[DLHacks 実装]Network Dissection: Quantifying Interpretability of Deep Visual R...
[DLHacks 実装]Network Dissection: Quantifying Interpretability of Deep Visual R...[DLHacks 実装]Network Dissection: Quantifying Interpretability of Deep Visual R...
[DLHacks 実装]Network Dissection: Quantifying Interpretability of Deep Visual R...Deep Learning JP
 
[DLHacks 実装]Perceptual Adversarial Networks for Image-to-Image Transformation
[DLHacks 実装]Perceptual Adversarial Networks for Image-to-Image Transformation[DLHacks 実装]Perceptual Adversarial Networks for Image-to-Image Transformation
[DLHacks 実装]Perceptual Adversarial Networks for Image-to-Image TransformationDeep Learning JP
 
[DLHacks LT] PytorchのDataLoader -torchtextのソースコードを読んでみた-
[DLHacks LT] PytorchのDataLoader -torchtextのソースコードを読んでみた-[DLHacks LT] PytorchのDataLoader -torchtextのソースコードを読んでみた-
[DLHacks LT] PytorchのDataLoader -torchtextのソースコードを読んでみた-Deep Learning JP
 
[DL輪読会]Opening the Black Box of Deep Neural Networks via Information
[DL輪読会]Opening the Black Box of Deep Neural Networks via Information[DL輪読会]Opening the Black Box of Deep Neural Networks via Information
[DL輪読会]Opening the Black Box of Deep Neural Networks via InformationDeep Learning JP
 
[DL輪読会] MoCoGAN: Decomposing Motion and Content for Video Generation
[DL輪読会] MoCoGAN: Decomposing Motion and Content for Video Generation[DL輪読会] MoCoGAN: Decomposing Motion and Content for Video Generation
[DL輪読会] MoCoGAN: Decomposing Motion and Content for Video GenerationDeep Learning JP
 
[DL輪読会]Energy-based generative adversarial networks
[DL輪読会]Energy-based generative adversarial networks[DL輪読会]Energy-based generative adversarial networks
[DL輪読会]Energy-based generative adversarial networksDeep Learning JP
 

Viewers also liked (13)

Web開発初心者がReactをチームに導入して半年経った
Web開発初心者がReactをチームに導入して半年経ったWeb開発初心者がReactをチームに導入して半年経った
Web開発初心者がReactをチームに導入して半年経った
 
[DL輪読会] The Conditional Analogy GAN: Swapping Fashion Articles on People Images
[DL輪読会] The Conditional Analogy GAN: Swapping Fashion Articles on People Images[DL輪読会] The Conditional Analogy GAN: Swapping Fashion Articles on People Images
[DL輪読会] The Conditional Analogy GAN: Swapping Fashion Articles on People Images
 
[DL輪読会]Parallel Multiscale Autoregressive Density Estimation
[DL輪読会]Parallel Multiscale Autoregressive Density Estimation[DL輪読会]Parallel Multiscale Autoregressive Density Estimation
[DL輪読会]Parallel Multiscale Autoregressive Density Estimation
 
[DLHacks 実装]Neural Machine Translation in Linear Time
[DLHacks 実装]Neural Machine Translation in Linear Time [DLHacks 実装]Neural Machine Translation in Linear Time
[DLHacks 実装]Neural Machine Translation in Linear Time
 
[DL輪読会]Training RNNs as Fast as CNNs
[DL輪読会]Training RNNs as Fast as CNNs[DL輪読会]Training RNNs as Fast as CNNs
[DL輪読会]Training RNNs as Fast as CNNs
 
React.js + Flux入門 #scripty02
React.js + Flux入門 #scripty02React.js + Flux入門 #scripty02
React.js + Flux入門 #scripty02
 
[DLHacks 実装] The statistical recurrent unit
[DLHacks 実装] The statistical recurrent unit[DLHacks 実装] The statistical recurrent unit
[DLHacks 実装] The statistical recurrent unit
 
[DLHacks 実装]Network Dissection: Quantifying Interpretability of Deep Visual R...
[DLHacks 実装]Network Dissection: Quantifying Interpretability of Deep Visual R...[DLHacks 実装]Network Dissection: Quantifying Interpretability of Deep Visual R...
[DLHacks 実装]Network Dissection: Quantifying Interpretability of Deep Visual R...
 
[DLHacks 実装]Perceptual Adversarial Networks for Image-to-Image Transformation
[DLHacks 実装]Perceptual Adversarial Networks for Image-to-Image Transformation[DLHacks 実装]Perceptual Adversarial Networks for Image-to-Image Transformation
[DLHacks 実装]Perceptual Adversarial Networks for Image-to-Image Transformation
 
[DLHacks LT] PytorchのDataLoader -torchtextのソースコードを読んでみた-
[DLHacks LT] PytorchのDataLoader -torchtextのソースコードを読んでみた-[DLHacks LT] PytorchのDataLoader -torchtextのソースコードを読んでみた-
[DLHacks LT] PytorchのDataLoader -torchtextのソースコードを読んでみた-
 
[DL輪読会]Opening the Black Box of Deep Neural Networks via Information
[DL輪読会]Opening the Black Box of Deep Neural Networks via Information[DL輪読会]Opening the Black Box of Deep Neural Networks via Information
[DL輪読会]Opening the Black Box of Deep Neural Networks via Information
 
[DL輪読会] MoCoGAN: Decomposing Motion and Content for Video Generation
[DL輪読会] MoCoGAN: Decomposing Motion and Content for Video Generation[DL輪読会] MoCoGAN: Decomposing Motion and Content for Video Generation
[DL輪読会] MoCoGAN: Decomposing Motion and Content for Video Generation
 
[DL輪読会]Energy-based generative adversarial networks
[DL輪読会]Energy-based generative adversarial networks[DL輪読会]Energy-based generative adversarial networks
[DL輪読会]Energy-based generative adversarial networks
 

Similar to [DL輪読会] DeepNav: Learning to Navigate Large Cities

OB訪問本第2弾キックオフMTG資料
 OB訪問本第2弾キックオフMTG資料 OB訪問本第2弾キックオフMTG資料
OB訪問本第2弾キックオフMTG資料Satoshi Taniguchi
 
とある履歴の研究主題(コミュニケーション):   Webと人とのつながりを通して研究すること Saura
とある履歴の研究主題(コミュニケーション):   Webと人とのつながりを通して研究すること Sauraとある履歴の研究主題(コミュニケーション):   Webと人とのつながりを通して研究すること Saura
とある履歴の研究主題(コミュニケーション):   Webと人とのつながりを通して研究すること Sauraalis_lib
 
第一回ワークショップ(チームEss)
第一回ワークショップ(チームEss)第一回ワークショップ(チームEss)
第一回ワークショップ(チームEss)Megumi Saida
 
自己PR pp pdf
自己PR pp pdf自己PR pp pdf
自己PR pp pdfkengo021021
 
図書館だけど、図書館じゃない未来の大学図書館(舘野資料)
図書館だけど、図書館じゃない未来の大学図書館(舘野資料)図書館だけど、図書館じゃない未来の大学図書館(舘野資料)
図書館だけど、図書館じゃない未来の大学図書館(舘野資料)tatthiy
 
Canpass 若者よ 世界へ!!!_企画書
Canpass 若者よ 世界へ!!!_企画書Canpass 若者よ 世界へ!!!_企画書
Canpass 若者よ 世界へ!!!_企画書Yuichi Morito
 
第一回ワークショップ(チームEss)
第一回ワークショップ(チームEss)第一回ワークショップ(チームEss)
第一回ワークショップ(チームEss)Megumi Saida
 
20130215 ku-librarians勉強会#159:新人企画その2「twitterを手にした人環・総人図書館は、附属図書館を超えうるか」(山口)
20130215 ku-librarians勉強会#159:新人企画その2「twitterを手にした人環・総人図書館は、附属図書館を超えうるか」(山口)20130215 ku-librarians勉強会#159:新人企画その2「twitterを手にした人環・総人図書館は、附属図書館を超えうるか」(山口)
20130215 ku-librarians勉強会#159:新人企画その2「twitterを手にした人環・総人図書館は、附属図書館を超えうるか」(山口)kulibrarians
 
埼玉工業大学 2011年秋学期 ボランティアの研究 第8回 コーチングインタビュー
埼玉工業大学 2011年秋学期 ボランティアの研究 第8回 コーチングインタビュー埼玉工業大学 2011年秋学期 ボランティアの研究 第8回 コーチングインタビュー
埼玉工業大学 2011年秋学期 ボランティアの研究 第8回 コーチングインタビューYoshihiko Suko (Ph.D) / BADO! Inc. of CEO
 

Similar to [DL輪読会] DeepNav: Learning to Navigate Large Cities (11)

OB訪問本第2弾キックオフMTG資料
 OB訪問本第2弾キックオフMTG資料 OB訪問本第2弾キックオフMTG資料
OB訪問本第2弾キックオフMTG資料
 
とある履歴の研究主題(コミュニケーション):   Webと人とのつながりを通して研究すること Saura
とある履歴の研究主題(コミュニケーション):   Webと人とのつながりを通して研究すること Sauraとある履歴の研究主題(コミュニケーション):   Webと人とのつながりを通して研究すること Saura
とある履歴の研究主題(コミュニケーション):   Webと人とのつながりを通して研究すること Saura
 
第一回ワークショップ(チームEss)
第一回ワークショップ(チームEss)第一回ワークショップ(チームEss)
第一回ワークショップ(チームEss)
 
自己PR pp pdf
自己PR pp pdf自己PR pp pdf
自己PR pp pdf
 
20111205 駒澤大学講演プレゼン2
20111205 駒澤大学講演プレゼン220111205 駒澤大学講演プレゼン2
20111205 駒澤大学講演プレゼン2
 
図書館だけど、図書館じゃない未来の大学図書館(舘野資料)
図書館だけど、図書館じゃない未来の大学図書館(舘野資料)図書館だけど、図書館じゃない未来の大学図書館(舘野資料)
図書館だけど、図書館じゃない未来の大学図書館(舘野資料)
 
Canpass 若者よ 世界へ!!!_企画書
Canpass 若者よ 世界へ!!!_企画書Canpass 若者よ 世界へ!!!_企画書
Canpass 若者よ 世界へ!!!_企画書
 
第一回ワークショップ(チームEss)
第一回ワークショップ(チームEss)第一回ワークショップ(チームEss)
第一回ワークショップ(チームEss)
 
20111205 駒澤大学講演プレゼン1
20111205 駒澤大学講演プレゼン120111205 駒澤大学講演プレゼン1
20111205 駒澤大学講演プレゼン1
 
20130215 ku-librarians勉強会#159:新人企画その2「twitterを手にした人環・総人図書館は、附属図書館を超えうるか」(山口)
20130215 ku-librarians勉強会#159:新人企画その2「twitterを手にした人環・総人図書館は、附属図書館を超えうるか」(山口)20130215 ku-librarians勉強会#159:新人企画その2「twitterを手にした人環・総人図書館は、附属図書館を超えうるか」(山口)
20130215 ku-librarians勉強会#159:新人企画その2「twitterを手にした人環・総人図書館は、附属図書館を超えうるか」(山口)
 
埼玉工業大学 2011年秋学期 ボランティアの研究 第8回 コーチングインタビュー
埼玉工業大学 2011年秋学期 ボランティアの研究 第8回 コーチングインタビュー埼玉工業大学 2011年秋学期 ボランティアの研究 第8回 コーチングインタビュー
埼玉工業大学 2011年秋学期 ボランティアの研究 第8回 コーチングインタビュー
 

More from Deep Learning JP

【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving PlannersDeep Learning JP
 
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについてDeep Learning JP
 
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...Deep Learning JP
 
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-ResolutionDeep Learning JP
 
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxivDeep Learning JP
 
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLMDeep Learning JP
 
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo... 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...Deep Learning JP
 
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place RecognitionDeep Learning JP
 
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?Deep Learning JP
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究についてDeep Learning JP
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )Deep Learning JP
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...Deep Learning JP
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"Deep Learning JP
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "Deep Learning JP
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat ModelsDeep Learning JP
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"Deep Learning JP
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...Deep Learning JP
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...Deep Learning JP
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...Deep Learning JP
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...Deep Learning JP
 

More from Deep Learning JP (20)

【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
 
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
 
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
 
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
 
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
 
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM
 
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo... 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
 
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
 

Recently uploaded

AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineerYuki Kikuchi
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?akihisamiyanaga1
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものですiPride Co., Ltd.
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案sugiuralab
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)Hiroki Ichikura
 

Recently uploaded (9)

AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
 

[DL輪読会] DeepNav: Learning to Navigate Large Cities