SlideShare a Scribd company logo
1 of 28
Download to read offline
DEEP LEARNING JP [DL Papers]
“YOLO9000: Better, Faster, Stronger” (CVPR’17 Best Paper)
And the History of Object Detection
Makoto Kawano, Keio University
http://deeplearning.jp/
1
書誌情報
• CVPR2017 Best Paper Award
• Joseph Redmon, Ali Farhadi(ワシントン大学)
• 選定理由:
• YOLOという前バージョン(同じ著者たち+α)の存在を知っていた
• バージョンアップして,ベストペーパーに選ばれたことを耳にしたから
• この論文を中心に物体検出の歴史みたいなものを話します
• R-CNN(2014)~Mask R-CNN(2017)
• R-CNN, SPPNet, Fast R-CNN, Faster R-CNN, YOLO, SSD, YOLO9000, (Mask R-CNNのさわりだけ)
• ほとんど触れたことがない分野で,宣言したことをものすごく後悔
• 結構独断と偏見に満ち溢れているので,間違ってたら指摘お願いします
2
3
アジェンダ(歴史)
• NOT End-to-End Learning時代(2013~2015年)
• R-CNN(CVPR’14, 2013/11)
• SPPNet(ECCV’14, 2014/6)
• Fast R-CNN(ICCV’15, 2015/4)
• End-to-End Learning時代(2015年~現在)
• Faster R-CNN(NIPS’15, 2015/6)
• YOLO(2015/6)
• SSD(2015/12)
• YOLO9000(CVPR’17, 2016/12)
• Mask R-CNN(2017/3)
4
アジェンダ(歴史)
• NOT End-to-End Learning時代(2013~2015年)
• R-CNN(CVPR’14, 2013/11) Girshickら(UCバークレー)
• SPPNet(ECCV’14, 2014/6) Heら(Microsoft)
• Fast R-CNN(ICCV’15, 2015/4) Girshick(Microsoft)
• End-to-End Learning時代(2015年~現在)
• Faster R-CNN(NIPS’15, 2015/6) He+Girshickら(Microsoft)
• YOLO(2015/6) Redmon+Girshickら(ワシントン大学+Facebook)
• SSD(2015/12) Google勢
• YOLO9000(CVPR’17, 2016/12) Redmonら(ワシントン大学)
• Mask R-CNN(2017/3) He+Girshickら(Facebook)
世界は3人(1人)に振り回されている
5Kaiming He
Ross Girshick
Joseph Redmon
伝授?
アジェンダ(系譜?)
6
Fast R-CNN
R-CNN
SPPnet
YOLO Faster R-CNN
SSD
YOLO9000
Masked R-CNN
NOT End-to-End learning時代
End-to-End learning時代
2013年
2015年6月
インスタンス検出時代突入?
そもそも物体検出とは
• CVタスクの一つ
• 与えられた画像の中から,
物体の位置とカテゴリ(クラス)を当てる
• 基本的な流れ:
1. 画像から物体領域の候補選出(Region Proposal)
枠, Bounding Boxとも呼ばれる
2. 各枠で画像認識
多クラス分類問題
7
物体検出の二つの時代
• Not End-to-End Learning時代
• 1.領域候補(Region Proposal)と2.物体認識(分類)を別々に行う
• 物体認識で強かったCNNを取り入れてすごいとされた時代
• End-to-End Learning時代
• 1.と2.の処理を一つのニューラルネットワークで済ませる
• 精度向上・速度向上を目指す時代
8
Region Proposal Methods
• Selective Search[]やEdgeBoxes[]など いずれも計算量が膨大
• SSの場合,ピクセルレベルで類似する領域をグルーピングしていく
• 似たような特徴を持つ領域を結合していき、1つのオブジェクトとして抽出する
9
Regional-CNN
• 物体の領域を見つける
• 領域をリサイズして,CNNで特徴抽出
• SVMで画像分類
Selective Search Object Classification 10
R-CNNの欠点
• 各工程をそれぞれで学習する必要がある
• 領域候補の回帰
• CNNのFine-tuning
• SVMの多クラス分類学習
• テスト(実行)時間が遅い
• Selective Search:1枚あたり2秒くらい
11
SPPnet
• この時代のCNNは入力画像サイズが固定
• R-CNNもリサイズしていた
• 領域候補全て(2000個)に対してCNNは遅い
• Spatial Pyramid Poolingの提案
• 様々なH×Wのグリッドに分割してそれぞれでMaxpooling
• Pros.
• 高速化に成功
• Cons.
• SPPのどれを逆伝搬すればいいかわからない
• 全層を通しての学習はできない
12
Fast R-CNN
• 物体検出のための学習を可能にした
• SVMの代わりにSoftmaxと座標の回帰層
• Region on Interest Pooling Layerの導入
• Selective Searchなどで出てきた領域をFeature Mapに射影する
• H×Wのグリッドに分割して,各セルでMaxpoolingする
• Spatial Pyramid Pollingレイヤーの一種類だけと同じ
• 個人的に5.4. Do SVMs outperform softmax? という節の貢献大の印象
• Pros.
• 学習とテスト両方で高精度・高速化を達成
• Cons.
• 依然としてSelective Searchなど領域候補選出は別のアルゴリズム
13
End-to-End Learning時代の幕開け
• どんなにCNN側が速くなったり,性能が良くなったりしても,
Selective Searchを使っている限り未来はない
• Region ProposalもCNN使えばいいんじゃない??
• Faster R-CNNとYOLOの登場
• Faster R-CNN: 2015/6/4
• YOLO: 2015/6/8
• どちらもお互いを参照してない
• でも共著に同じ人いる,,,
14
Faster R-CNN
• Region Proposal Network(RPN)+Fast R-CNN
• 各Feature Mapのピクセル?に対して9種類の領域候補を出す
• FeatureMapをFCNに入力するイメージ
• FCN:W×H×クラス数
• RPN:w×h×( ((物体orNOT)と座標)×k(=9) )
15
YOLO: You Only Look Once
• R-CNN系は領域候補を出した後に分類していた
• 両方同時にやったらいいのでは YOLOの提案
• 入力画像をグリッドに分割
• 各グリッドのクラス分類
• 各グリッドで2つ領域候補
16
YOLO: You Only Look Once
• アーキテクチャはものすごく単純
• GoogLeNetを参考にしたCNN 各グリッドのクラス分類と座標を算出する
17
λcoord
S2
X
i=0
BX
j=0
1lobj
ij
⇥
(xi − ˆxi)2
+ (yi − ˆyi)2
⇤
+ λcoord
S2
X
i=0
BX
j=0
1lobj
ij
"
⇣p
wi −
p
ˆwi
⌘2
+
✓p
hi −
q
ˆhi
◆2
#
+
S2
X
i=0
1lobj
ij (pi(c) − ˆpi(c))
2
+
S2
X
i=0
BX
j=0
1lobj
ij
⇣
Ci − ˆCi
⌘2
+ λnoobj
S2
X
i=0
BX
j=0
1lnoobj
ij
⇣
Ci − ˆCi
⌘2
座座標標のの誤誤差差
信信頼頼度度のの誤誤差差
分分類類誤誤差差
YOLO: You Only Look Once
• Pros.
• Faster R-CNNに比べると精度は劣るが,検出速度は速い
• 45FPS-155FPS
• CNNに画像全体を入れるため,背景との見分けはFast R-CNNより良い
• Cons.
• 各グリッドにつき1クラスのため,
複数物体が1グリッド内にあるとだめ
18
• YOLOをStraightForwardに改良したバージョン
• ①②③:ネットワークのアーキテクチャを改良
• ④:出力をLinearではなく,FCNにした(Faster R-CNN参考)
• ⑤⑥:データを複数解像度で与える
• ⑦⑧:データの事前情報
①①
②②
③③
④④
⑤⑤
⑥⑥
⑦⑦
⑧⑧
YOLOv2
YOLOv2
• アーキテクチャの工夫
• ①全Conv層にBatch Normalizationを入れる
• 収束を速くし,正則化の効果を得る
• ②新しい構造Darknet-19にする
• VGG16のように3×3のフィルタサイズ
• Network In NetworkのGlobal Average Poolingを使う
• ③Passthroughを入れる(わからない)
• add a passthrough layer from the final 3 × 3 × 512
layer to the second to last convolutional layer
20
YOLOv2
• データの事前情報
• 良さげなBounding boxの大きさや数を学習データから得る
21
YOLOv2
• 出力はFeature Mapの各ピクセルにつき(whxyとクラス)×5
• 学習は以下の手順:
• 1.画像分類の学習
• 最初に224×224で学習させた後,448×448で学習させる
• 2.物体検出の学習
• {320, 352, … 608}ピクセルの画像を10エポックごとにランダムに変えて学習させる
• CNNで入力画像は32分の1になるため,その倍数ピクセルを扱う
22
SSD
• FCNで,クラスと座標の出力を毎回行う
• 各Conv層はk×(c+4つの座標)のフィルタサイズになる
23
YOLOv2
• 基本的には概ね既存手法よりも高精度・高速
24
YOLO9000
• 物体検出用のデータセットのカテゴリは少ない
• アノテーションコストが高すぎる
• ImageNetのカテゴリとかを使えたらいいのでは?
• Distant Supervision的な?
• WordNetを使えば拡張できる!
• 有向グラフで構築されている≠木構造
25
YOLO9000
• ImageNetのvisual nounでWordTreeを構築
• 条件付き確率で表現可能に
26
YOLO9000
• ImageNet検出タスク
• COCOにある44カテゴリを共有している
• ほとんど分類用で,検出用データはほとんど学習できていない
• 残りの156カテゴリでは16.0mAP,全体で19.7mAP
• 結果の考察:
• COCOに含まれている動物はうまく推定できている
• 含まれていない服装はできない
27
Mask R-CNN
• 物体検出だけではなく,インスタンス検出だった
• 体力があればやります
28

More Related Content

What's hot

What's hot (20)

SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
 
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
 
物体検出の歴史(R-CNNからSSD・YOLOまで)
物体検出の歴史(R-CNNからSSD・YOLOまで)物体検出の歴史(R-CNNからSSD・YOLOまで)
物体検出の歴史(R-CNNからSSD・YOLOまで)
 
Semi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learningSemi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learning
 
[DL輪読会]PV-RCNN: Point-Voxel Feature Set Abstraction for 3D Object Detection
[DL輪読会]PV-RCNN: Point-Voxel Feature Set Abstraction for 3D Object Detection[DL輪読会]PV-RCNN: Point-Voxel Feature Set Abstraction for 3D Object Detection
[DL輪読会]PV-RCNN: Point-Voxel Feature Set Abstraction for 3D Object Detection
 
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
 
[DL輪読会]医用画像解析におけるセグメンテーション
[DL輪読会]医用画像解析におけるセグメンテーション[DL輪読会]医用画像解析におけるセグメンテーション
[DL輪読会]医用画像解析におけるセグメンテーション
 
【DL輪読会】DayDreamer: World Models for Physical Robot Learning
【DL輪読会】DayDreamer: World Models for Physical Robot Learning【DL輪読会】DayDreamer: World Models for Physical Robot Learning
【DL輪読会】DayDreamer: World Models for Physical Robot Learning
 
画像認識と深層学習
画像認識と深層学習画像認識と深層学習
画像認識と深層学習
 
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
 
Yolo v1
Yolo v1Yolo v1
Yolo v1
 
動作認識の最前線:手法,タスク,データセット
動作認識の最前線:手法,タスク,データセット動作認識の最前線:手法,タスク,データセット
動作認識の最前線:手法,タスク,データセット
 
モデル高速化百選
モデル高速化百選モデル高速化百選
モデル高速化百選
 
【DL輪読会】マルチエージェント強化学習における近年の 協調的方策学習アルゴリズムの発展
【DL輪読会】マルチエージェント強化学習における近年の 協調的方策学習アルゴリズムの発展【DL輪読会】マルチエージェント強化学習における近年の 協調的方策学習アルゴリズムの発展
【DL輪読会】マルチエージェント強化学習における近年の 協調的方策学習アルゴリズムの発展
 
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
 
帰納バイアスが成立する条件
帰納バイアスが成立する条件帰納バイアスが成立する条件
帰納バイアスが成立する条件
 
Active Convolution, Deformable Convolution ―形状・スケールを学習可能なConvolution―
Active Convolution, Deformable Convolution ―形状・スケールを学習可能なConvolution―Active Convolution, Deformable Convolution ―形状・スケールを学習可能なConvolution―
Active Convolution, Deformable Convolution ―形状・スケールを学習可能なConvolution―
 
[DL輪読会]画像を使ったSim2Realの現況
[DL輪読会]画像を使ったSim2Realの現況[DL輪読会]画像を使ったSim2Realの現況
[DL輪読会]画像を使ったSim2Realの現況
 
[DL輪読会]Dream to Control: Learning Behaviors by Latent Imagination
[DL輪読会]Dream to Control: Learning Behaviors by Latent Imagination[DL輪読会]Dream to Control: Learning Behaviors by Latent Imagination
[DL輪読会]Dream to Control: Learning Behaviors by Latent Imagination
 

Viewers also liked

Viewers also liked (6)

SSD: Single Shot MultiBox Detector (ECCV2016)
SSD: Single Shot MultiBox Detector (ECCV2016)SSD: Single Shot MultiBox Detector (ECCV2016)
SSD: Single Shot MultiBox Detector (ECCV2016)
 
コンピュータビジョンの今を映す-CVPR 2017 速報より- (夏のトップカンファレンス論文読み会)
コンピュータビジョンの今を映す-CVPR 2017 速報より- (夏のトップカンファレンス論文読み会)コンピュータビジョンの今を映す-CVPR 2017 速報より- (夏のトップカンファレンス論文読み会)
コンピュータビジョンの今を映す-CVPR 2017 速報より- (夏のトップカンファレンス論文読み会)
 
音声認識と深層学習
音声認識と深層学習音声認識と深層学習
音声認識と深層学習
 
TensorFlow XLAの可能性
TensorFlow XLAの可能性 TensorFlow XLAの可能性
TensorFlow XLAの可能性
 
Using Raspberry Pi GPU for DNN
Using Raspberry Pi GPU for DNNUsing Raspberry Pi GPU for DNN
Using Raspberry Pi GPU for DNN
 
モデルアーキテクチャ観点からのDeep Neural Network高速化
モデルアーキテクチャ観点からのDeep Neural Network高速化モデルアーキテクチャ観点からのDeep Neural Network高速化
モデルアーキテクチャ観点からのDeep Neural Network高速化
 

Similar to [DL輪読会]YOLO9000: Better, Faster, Stronger

Similar to [DL輪読会]YOLO9000: Better, Faster, Stronger (6)

関西Cvprml勉強会2017.9資料
関西Cvprml勉強会2017.9資料関西Cvprml勉強会2017.9資料
関西Cvprml勉強会2017.9資料
 
[DL輪読会]ODT: Online Decision Transformer
[DL輪読会]ODT: Online Decision Transformer[DL輪読会]ODT: Online Decision Transformer
[DL輪読会]ODT: Online Decision Transformer
 
[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object Detection[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object Detection
 
Hangyo emnlp paperreading2016
Hangyo emnlp paperreading2016Hangyo emnlp paperreading2016
Hangyo emnlp paperreading2016
 
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
 
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
 

More from Deep Learning JP

More from Deep Learning JP (20)

【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
 
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
 
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
 
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
 
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
 
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM
 
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo... 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
 
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
 

Recently uploaded

Recently uploaded (11)

論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsUtilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native Integrations
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
 
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 

[DL輪読会]YOLO9000: Better, Faster, Stronger