SlideShare a Scribd company logo
1 of 58
Download to read offline
CVPR2019読み会@関東CV
@conta_
Self-introduction
Takanori OGATA
Co-founder & Head of Research @ABEJA, Inc.
twitter: @conta_
CVPR2019
CVPR2019気になった論⽂2+1選
Learning Loss for Active Learning
・Input から直接Lossを予測し、予測
値に応じてActive Learningを⾏うこと
で、効率的なアノテーションを可能と
する論⽂
• タスク⾮依存な設計のため活⽤幅が
広い
・Classification/Regression/Hybridの
パターンで評価し、どちも良い性能を
得ることができた
Active Learning?
アクティブ・ラーニングは学修者が能動的に学習に取り
組む学習法の総称である。これにより学習内容を確かに
修得しつつ、座学中⼼の⼀⽅的教授⽅法では⾝につくこ
との少なかった21世紀型スキルをはじめとする汎⽤的能
⼒、ひいては新しい学⼒観に基づくような「⾃らが学ぶ
⼒」が養われることが期待されている。
by Wikipedia
https://ja.wikipedia.org/wiki/%E3%82%A2%E3%82%AF%E3%83%86%E3
%82%A3%E3%83%96%E3%83%BB%E3%83%A9%E3%83%BC%E3%83%8
B%E3%83%B3%E3%82%B0
Active Learning (能動学習)
• 正解なしデータの中から「これの正解がわかれば性能
が上がるかも」というデータを選ぶ
• Oracle(神託 : 正解を教えてくれる何か)にデータを
問い合わせ(query)、得た正解を訓練データに追加する
via (Settles 2009)
https://www.slideshare.net/shuyo/introduction-to-active-learning-25787487
何をしたいのか?
• 限られたBudgetの中でAnnotationしたい
• -> できる限り精度に寄与するデータのみをアノテーションしたい
• -> モデルにとって不確かなデータを優先的にアノテーションしたい
• -> 不確かさ == Loss を活⽤しよう!
未知のデータからLossを予測する
モデルを同時に学習、適⽤すること
で効率的なデータ選択⽅法を実現!
Overview
ターゲットタスクのモデル
ターゲット中間層からLossを予測するモデル
Overview
𝑈"
𝑈#𝑈"$#
%
K個サンプリング
Θ'()*+'
Θ,-..
Overview
𝑈"
𝐿#
%
𝑈"$#
% アノテーション
Θ'()*+'
Θ,-..
Overview
𝑈"
𝐿#
%
𝑈"$#
%
学習
Θ'()*+'
%
Θ,-..
%
Overview
𝑈"
𝐿#
%
𝑈"$#
%
Lossを予測
Θ'()*+'
%
Θ,-..
%
Overview
𝑈"
𝐿#
%
𝑈"$0#
1
Top-Kをサンプリング
Θ'()*+'
%
Θ,-..
%
𝑈#
1
Overview
𝑈"
𝐿#
%
𝑈"$0#
1
Θ'()*+'
%
Θ,-..
%
𝐿#
1
アノテーション
Overview
𝑈"
𝐿#
%
𝑈"$0#
1
Θ'()*+'
1
Θ,-..
1
𝐿#
1
学習
Overview
𝑈"
𝐿#
%
𝑈"$0#
1
Θ'()*+'
1
Θ,-..
1
𝐿#
1
学習Budgetの許す限り頑張る
Loss Prediction Module
なるべく⼩さいモデルを⽬指したい&ターゲットと同時に学習
したいのでなるべくSimpleにしたい
-> 各中間層から特徴量をもってきてGAPするだけの簡単なモ
デルを構築
(Deepなモデルも試したけどそんなに変わらなかった)
Learning Loss
• TargetのLossを教師データにすれば良い
• 最適化⽅法は?
• ⼀般的にMSEを想像するが、それだとうまくいかない
• (lossのスケールは学習するごとに変化してしまうのでラフな
scaleに対する値を出すようなモデルになってしまう)
compare a pair of samples
• 解決策として、Mini-Batch内のsample lossの⼤⼩⽐較問題を
解く
• B から B/2のSample pair 𝑥3 = 𝑥5, 𝑥7 を作成
• 𝑥5, 𝑥7それぞれの𝑙𝑜𝑠𝑠に対して、MiniBatch内で下記を計算
compare a pair of samples
• 解決策として、Mini-Batch内のsample lossの⼤⼩⽐較問題を
解く
• B から B/2のSample pair 𝑥3 = 𝑥5, 𝑥7 を作成
• 𝑥5, 𝑥7それぞれの𝑙𝑜𝑠𝑠に対して、MiniBatch内で下記を計算
真値 予測 マージン
compare a pair of samples
つまり、真値と予測の⼤⼩が⼊れ替わっているときにLossが
発⽣するような仕組みになっている
真値 予測 マージン
Overall Loss
• ターゲットタスクにPrediction Lossを加えるだけなの
で汎⽤的に活⽤できる
Evaluation
• Image Classification(Classification)
• Object Detection(Classification + Regression)
• Pose Estimation(Regression)
の3タスクで実験
Image Classification
• Dataset: Cifar10
• Model: ResNet-18
• Loss prediction module:
• {convi 1, convi 2 | i=2, 3, 4, 5} の特徴量を活⽤
• 5回の実験結果の平均を記載
Image Classification
• 既存⼿法を上回る
• MSEがワークしていないことも
⽰唆
Object Detection
• Dataset: PASCAL VOC 2007 and 2012
• Model: SSD w/ VGG16
• Loss prediction module:
• {convi | i=4_3, 7, 8_2, 9_2, 10_2, 11_2}
• Classification+ Regression(BBox)のHybrid型での実験
Object Detection
• 最初の数回は既存⼿法に劣って
いるが、徐々に上回った
• Entropy basedな⼿法は
Regressionには使えないので、
他の指標を設計しなければなら
ない
• 提案⼿法はlossを観測するだけ
なので、タスクに縛られないの
で良い
Human Pose Estimation
• Dataset: MPII dataset
• Model: Stacked Hourglass Networks
• Loss prediction module:
• the last feature map of (H,W,C)=(64,64,256)
• Percentage of Correct Key-points (PCK)を指標に
• 3回の試⾏結果をプロット
• MSE Lossを使うのでRegression Task
Human Pose Estimation
• さ、最終的には提案⼿法が
他⼿法とのGT/predの相関⽐較
• 提案⼿法のほうが相関係数が強い
まとめ
• Prediction Loss moduleを導⼊し、損失値を不確かさ
とみるActive Learningを提案
• タスク⾮依存な設計のため活⽤幅が広い
• 簡単なタスクだとワークしてるけど、難しいタスクに
なると初期の⽅はあんまりワークしてない
SCOPS: Self-Supervised Co-Part Segmentation
• 同じObject Categoryの画像群からマニュアルアノテーション
なしに、Class-agnositcなPart Segmentationを実現する研究
• 既存のUnsupervised Landmark detection approachと⽐較し
て外観のバリエーションやオクルージョンに対して頑健
• またlandmarkの個数を決められない物体に対しても適⽤可能
モチベーション
• 物体を解析する上で、パーツ特徴量は重要
• Parts Segmentationをやるときにマニュアルアノテー
ションするのは⾟い。。。
• => 同じクラスの画像群から共起特徴をを⾒つけて⾃動
的にParts Segmentationをできないか?
Related Works
[Collins+, ECCV2018]
https://www.slideshare.net/takanoriogata1121/unsupe
rvised-learning-of-object-landmarks-by-factorized-
spatial-embeddings-84198954
[Thewlis+, ICCV2017]
Object Concept Discovery
Landmark detection
Overview
Channel-wise softmaxにより
𝑅 = 𝐹 𝐼; θH ∈ 0, 1 (#M1)×P×Q
のpart response mapを作成
(K個のparts map + Background)
• Geometric Concentration loss
• Equivariance loss
• Semantic Consistency Loss
の3つのloss + Unsupervised Saliencyを
活⽤
* ArchitectureはDeepLab-V2+ResNet50
* 他の論⽂だと、Landmark同⼠が離れるようなロス設計をしているけど、今回はそういうのは⼊れてない
Geometric Concentration Loss
• Parts CenterにResponseが集中するようなMapになるような
Lossの定義
𝑘: 𝑝𝑎𝑟𝑡𝑠 𝑐ℎ𝑎𝑛𝑛𝑒𝑙
𝑢, 𝑣: 座標
𝑐^
_: 𝑝𝑎𝑟𝑡𝑠 𝑘, 𝑢軸における中⼼座標
𝑤ℎ𝑒𝑟𝑒 𝑧_ = b
^,c
𝑅(𝑘, 𝑢, 𝑣)
Equivariance Loss
• AppearanceとPoseに対して頑健に
なるようなLossの提唱
• 特徴量に変換をかけたResponse
Mapと、元画像に変換をかけた
Response Mapを⽐較
𝑇.: random	spatial	transform	
To: 𝑎𝑝𝑝𝑒𝑎𝑟𝑎𝑛𝑐𝑒 𝑝𝑒𝑟𝑡𝑢𝑟𝑏𝑎𝑡𝑖𝑜𝑛
Rs: 𝐼s = 𝑇. 𝑇( 𝐼 の𝑅𝑒𝑠𝑝𝑜𝑛𝑠𝑒𝑀𝑎𝑝
Equivariance Loss
Transformとしてscale/rotation/shiftingを利⽤
Parts Segmentationに対するLoss
Parts Centerに対するLoss
Semantic Consistency Loss
• ⼈⼯的に作られた変換だけでは、異なるインスタンス間同⼠で⼀貫性を保
つのは難しい
• -> 異なるインスタンス同⼠で作⽤するLossを設計する必要がある
Pretraind-modelの特徴量を活⽤して、異なる部分セグメントに対応する与
えられた分類特徴において代表的な特徴クラスタを⾒つけることができる
のでは?
(画像の特徴量がパーツ特徴量の和になるように学習させる)
[Collins+, ECCV2018]
Semantic Consistency Loss
• 2つのLoss(Semantic
Consistency/Orthogonal Constraint)と
Saliencyの活⽤で構成される
• Pretrained Modelから抽出した特徴を、
GlobalなPartsごとの和として表すような
ベクトルを学習させたい
Semantic Consistency Loss
𝑉 ∈ 𝑅v × P × Q: Pretrained Modelの特徴量
𝑤_ ∈ 𝑅v, 𝑘 ∈ 1, 2, … , 𝐾 ∶ 𝑝𝑎𝑟𝑡 𝑏𝑎𝑠𝑖𝑠 𝑣𝑒𝑐𝑡𝑜𝑟𝑠
ResponseMap(scalar) * wがV(u, v)と同じにな
るように学習
Vとw_kが打ち消し合わないように、どちらに
もReLUを適⽤することで⾮負になるようにす
る。(先⾏研究はNMFを使っている)
Orthonormal Constraint
パーツ同⼠の特徴が被らないように、
Parts basis vectorが直⾏するように学習
させる
Saliency Constraint
• データが少ない or Kが⼤きいと同じような背景に反
応しがち
• -> Saliency detection method(Zhu+, CVPR2014)を
活⽤することで V が背景に反応しないようにする
Experiments
• CelebA , AFLW (human faces), CUB(birds),PASCALで実験
• VGG19から特徴を抽出(V)
既存⼿法を上回り、各Lossの有効性を検証
Visual results on CelebA face images
Visual results on CUB/PASCAL VOC
まとめ
• 同じObject Categoryの画像群からマニュアルアノテーションな
しに、Class-agnositcなPart Segmentation⼿法を提案
• 既存⼿法と⽐べてスケーラブル(DFFは全データに対してNMF
しないといけないけど、提案⼿法はSGD使える)であり、複数
Lossの併⽤による⾼精度化が望める
A General and Adaptive Robust Loss Function
• おれがかんがえたさいきょーのLoss関数の提案
これ
Variational Autoencoders
Unsupervised Monocular Depth Estimation
We are hiring!
https://www.wantedly.com/companies/abeja
Reseacher / ML Engineer・インターン・アルバイト募集中
懇親会でお声がけください!

More Related Content

What's hot

What's hot (20)

【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
 
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?
 
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
 
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
 
機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化
 
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
 
SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII2022 [OS3-02] Federated Learningの基礎と応用SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII2022 [OS3-02] Federated Learningの基礎と応用
 
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
 
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
 
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
 
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
 
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
 
Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)
 
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)
 
画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ
 
continual learning survey
continual learning surveycontinual learning survey
continual learning survey
 

Similar to CVPR2019読み会@関東CV

Id説明資料20130107Ver1.1
Id説明資料20130107Ver1.1Id説明資料20130107Ver1.1
Id説明資料20130107Ver1.1
Norihiro Oku
 
ID説明資料20130107ver1.0
ID説明資料20130107ver1.0ID説明資料20130107ver1.0
ID説明資料20130107ver1.0
Norihiro Oku
 
自己調整学習能力形成を促すeラーニングコンテンツ推薦手法の提案~日本語学習者を例として~
自己調整学習能力形成を促すeラーニングコンテンツ推薦手法の提案~日本語学習者を例として~自己調整学習能力形成を促すeラーニングコンテンツ推薦手法の提案~日本語学習者を例として~
自己調整学習能力形成を促すeラーニングコンテンツ推薦手法の提案~日本語学習者を例として~
Akiko Kai
 

Similar to CVPR2019読み会@関東CV (20)

NIPS KANSAI Reading Group #7: 逆強化学習の行動解析への応用
NIPS KANSAI Reading Group #7: 逆強化学習の行動解析への応用NIPS KANSAI Reading Group #7: 逆強化学習の行動解析への応用
NIPS KANSAI Reading Group #7: 逆強化学習の行動解析への応用
 
Id説明資料20130107Ver1.1
Id説明資料20130107Ver1.1Id説明資料20130107Ver1.1
Id説明資料20130107Ver1.1
 
スクラム 研究 プロジェクト
スクラム 研究 プロジェクトスクラム 研究 プロジェクト
スクラム 研究 プロジェクト
 
2019年度 若手技術者向け講座 オブジェクト指向
2019年度 若手技術者向け講座 オブジェクト指向2019年度 若手技術者向け講座 オブジェクト指向
2019年度 若手技術者向け講座 オブジェクト指向
 
鷲崎 愛媛大学講演-プロジェクト型演習2014年12月15日
鷲崎 愛媛大学講演-プロジェクト型演習2014年12月15日鷲崎 愛媛大学講演-プロジェクト型演習2014年12月15日
鷲崎 愛媛大学講演-プロジェクト型演習2014年12月15日
 
ID説明資料20130107ver1.0
ID説明資料20130107ver1.0ID説明資料20130107ver1.0
ID説明資料20130107ver1.0
 
Centerlossを読んでみた_20170618@abeja
Centerlossを読んでみた_20170618@abejaCenterlossを読んでみた_20170618@abeja
Centerlossを読んでみた_20170618@abeja
 
トモノカイの探究教材(2022.02.21版)
トモノカイの探究教材(2022.02.21版)トモノカイの探究教材(2022.02.21版)
トモノカイの探究教材(2022.02.21版)
 
OpenDataの利活用と日本における情報経済社会の推進
OpenDataの利活用と日本における情報経済社会の推進OpenDataの利活用と日本における情報経済社会の推進
OpenDataの利活用と日本における情報経済社会の推進
 
WWW2018 論文読み会 Web Search and Mining
WWW2018 論文読み会 Web Search and MiningWWW2018 論文読み会 Web Search and Mining
WWW2018 論文読み会 Web Search and Mining
 
実践のためのスクラムガイド
実践のためのスクラムガイド実践のためのスクラムガイド
実践のためのスクラムガイド
 
120502助産学会・講演1.8
120502助産学会・講演1.8120502助産学会・講演1.8
120502助産学会・講演1.8
 
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
 
【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者
 
各回授業への学生からのフィードバックコメントについての考察
各回授業への学生からのフィードバックコメントについての考察各回授業への学生からのフィードバックコメントについての考察
各回授業への学生からのフィードバックコメントについての考察
 
強化学習を可視化する chainerrl-visualizerを動かしてみた
強化学習を可視化する chainerrl-visualizerを動かしてみた強化学習を可視化する chainerrl-visualizerを動かしてみた
強化学習を可視化する chainerrl-visualizerを動かしてみた
 
自己調整学習能力形成を促すeラーニングコンテンツ推薦手法の提案~日本語学習者を例として~
自己調整学習能力形成を促すeラーニングコンテンツ推薦手法の提案~日本語学習者を例として~自己調整学習能力形成を促すeラーニングコンテンツ推薦手法の提案~日本語学習者を例として~
自己調整学習能力形成を促すeラーニングコンテンツ推薦手法の提案~日本語学習者を例として~
 
NECT Workshop 1-2 Technology Integration
NECT Workshop 1-2 Technology IntegrationNECT Workshop 1-2 Technology Integration
NECT Workshop 1-2 Technology Integration
 
問題解決型授業による「モデル化とシミュレーション」の授業実践
問題解決型授業による「モデル化とシミュレーション」の授業実践問題解決型授業による「モデル化とシミュレーション」の授業実践
問題解決型授業による「モデル化とシミュレーション」の授業実践
 
多次元的能力開発システム(mdl) の概要
多次元的能力開発システム(mdl) の概要 多次元的能力開発システム(mdl) の概要
多次元的能力開発システム(mdl) の概要
 

More from Takanori Ogata

More from Takanori Ogata (15)

20210108 Tread: Circuits
20210108 Tread: Circuits20210108 Tread: Circuits
20210108 Tread: Circuits
 
20200704 Deep Snake for Real-Time Instance Segmentation
20200704 Deep Snake for Real-Time Instance Segmentation 20200704 Deep Snake for Real-Time Instance Segmentation
20200704 Deep Snake for Real-Time Instance Segmentation
 
190412 Annotation Survey@関東CV勉強会
190412 Annotation Survey@関東CV勉強会190412 Annotation Survey@関東CV勉強会
190412 Annotation Survey@関東CV勉強会
 
190410 ML@LOFT
190410 ML@LOFT190410 ML@LOFT
190410 ML@LOFT
 
180204 Attention-aware Deep Reinforcement Learning for Video Face Recognition
180204 Attention-aware Deep Reinforcement Learning for Video Face Recognition180204 Attention-aware Deep Reinforcement Learning for Video Face Recognition
180204 Attention-aware Deep Reinforcement Learning for Video Face Recognition
 
Unsupervised learning of object landmarks by factorized spatial embeddings
Unsupervised learning of object landmarks by factorized spatial embeddingsUnsupervised learning of object landmarks by factorized spatial embeddings
Unsupervised learning of object landmarks by factorized spatial embeddings
 
Annotating object instances with a polygon rnn
Annotating object instances with a polygon rnnAnnotating object instances with a polygon rnn
Annotating object instances with a polygon rnn
 
Training object class detectors with click supervision
Training object class detectors with click supervisionTraining object class detectors with click supervision
Training object class detectors with click supervision
 
SSD: Single Shot MultiBox Detector (ECCV2016)
SSD: Single Shot MultiBox Detector (ECCV2016)SSD: Single Shot MultiBox Detector (ECCV2016)
SSD: Single Shot MultiBox Detector (ECCV2016)
 
160924 Deep Learning Tuningathon
160924 Deep Learning Tuningathon160924 Deep Learning Tuningathon
160924 Deep Learning Tuningathon
 
Convolutional Pose Machines
Convolutional Pose MachinesConvolutional Pose Machines
Convolutional Pose Machines
 
Deep Learningライブラリ 色々つかってみた感想まとめ
Deep Learningライブラリ 色々つかってみた感想まとめDeep Learningライブラリ 色々つかってみた感想まとめ
Deep Learningライブラリ 色々つかってみた感想まとめ
 
Cv20160205
Cv20160205Cv20160205
Cv20160205
 
10分でわかる主成分分析(PCA)
10分でわかる主成分分析(PCA)10分でわかる主成分分析(PCA)
10分でわかる主成分分析(PCA)
 
DeepAKB
DeepAKBDeepAKB
DeepAKB
 

Recently uploaded

Recently uploaded (11)

Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 

CVPR2019読み会@関東CV