SlideShare a Scribd company logo
1 of 28
tattaka
(自己紹介)
tattaka
Twitter:@tattaka_sun
GitHub: https://github.com/tattaka
趣味:競プロ・Kaggle・料理・VTuber(見るだけ)
最近の興味:
• Robot Vision
• Semi/Weakly Supervised Semantic Segmentation
(よく使うicon)
Agenda
1. Abstract
2. 論文の目的・貢献
3. ベースラインの設定
4. 効率的なトレーニング手順
5. ResNetモデル構造の調整
6. トレーニング方法の改良
7. 転移学習
8. まとめ
Abstract
• 近年の画像分類の論文ではネットワーク構造の改良の他にData
Augmentや最適化手法などのトレーニング手法の改良にも貢献して
いるが,その多くは実装の詳細としてやソースコードのみで言及さ
れている
• この論文はそれらのテクニックをまとめてそれらを組み合わせるこ
とで様々なCNNモデルの精度を改善する
Agenda
1. Abstract
2. 論文の目的・貢献
3. ベースラインの設定
4. 効率的なトレーニング手順
5. ResNetモデル構造の調整
6. トレーニング方法の改良
7. 転移学習
8. まとめ
論文の目的・貢献
• これまで各々の実装の中でしか触れられていないようなテク
ニックをサーベイ
• これらのテクニックを用いることでSE-ResNext50などの他の
新しい手法よりも計算量的にわずかの変更で精度が改善される
ことを示す(→CNN系Paper全体のベースラインの底上げを目
指す?)
Agenda
1. Abstract
2. 論文の目的・貢献
3. ベースラインの設定
4. 効率的なトレーニング手順
5. ResNetモデル構造の調整
6. トレーニング方法の改良
7. 転移学習
8. まとめ
ベースラインの設定(1/2)
前処理の手順として以下を行なった
1. 画像をランダムにサンプリングし,pixel値を[0, 255]にデコード
(fp32)
2. 画像からアスペクト比[3/4, 4/3]、面積が[8%, 100%]の間でラ
ンダムに切り抜いた領域を(224, 224)にリサイズ
3. 50%の確率で水平にFlip
4. [0.6, 1.4]の間の一様分布に基づいた係数で色相・明度・彩度を
スケール
5. 正規分布N(0, 0.1)に基づいた係数でPCAノイズを追加
6. [123.68, 116.779, 103.939]を減算し[58.393, 57.12,
57.375]で除算して正規化
ベースラインの設定(2/2)
• テスト時には画像の短辺をアスペクト比を維持したまま
256pixelにした後,中央(224, 224)を切り抜き
• ネットワークの重みはXavierアルゴリズムで初期化
• OptimizerはSDG+Nesterov Accelerated Gradient
• Nvidia V100 x 8で各GPUバッチサイズ32,120epoch訓練
• 初期 lr=0.1,30・60・90epochで1/10
結果(Inception-V3のinputは(299, 299))
→
Agenda
1. Abstract
2. 論文の目的・貢献
3. ベースラインの設定
4. 効率的なトレーニング手順
5. ResNetモデル構造の調整
6. トレーニング方法の改良
7. 転移学習
8. まとめ
効率的なトレーニング手順(1/3)
近年,GPUの発達により数年前に比べて効率的なトレーニング手順は変
化している(低い数値精度(fp16)+大きなバッチサイズなど)
精度を落とさず効率化するには
• 学習率の線形スケーリング
• 学習率のウォームアップ
• ResNetに置けるパラメータγの0初期化
• 重み減衰をバイアス項に適用しない
• スカラーの乗算・更新用のパラメータのfp32コピー
効率的なトレーニング手順(2/3)
ResNetに置けるパラメータγの0初期化
学習可能なパラメータ𝛾を0で初期化することで
初期段階の訓練が容易になる
input:𝑥
Output: 𝛾 𝑥 𝐴 + 𝑥 𝑏
効率的なトレーニング手順(3/3)
Baseline (BS=256 with fp32)とEfficient(BS=1024 with fp16)精度
と学習速度の結果
それぞれのテクニック別の効果内訳
Agenda
1. Abstract
2. 論文の目的・貢献
3. ベースラインの設定
4. 効率的なトレーニング手順
5. ResNetモデル構造の調整
6. トレーニング方法の改良
7. 転移学習
8. まとめ
ResNetモデル構造の調整(1/3)
resnet-A resnet-B resnet-C resnet-D
標準的なresnet-Aから微調整されたresnet-B・C・Dについて検討する
ResNetモデル構造の調整(2/3)
• resnet-B
• ResNetのDown Sampling Blockを変更
• 2つ目のConv層でstrideを行うことで情報の損失を防ぐ
• resnet-C
• ResNetのinput stemを変更
• resnet-Aのinput stemでは7x7の畳み込みを用いているが計算コストが高い
ため3x3の畳み込みに置き換える
• resnet-D
• ResNetのDown Sampling Blockを変更
• Path Bの1x1畳み込みで3/4の情報が失われるため事前に2x2のAverage
Poolingを追加
ResNetモデル構造の調整(3/3)
結果として,計算時間を犠牲にせずに元のResNetから1%ほどの
精度向上!
Agenda
1. Abstract
2. 論文の目的・貢献
3. ベースラインの設定
4. 効率的なトレーニング手順
5. ResNetモデル構造の調整
6. トレーニング方法の改良
7. 転移学習
8. まとめ
トレーニング方法の改良(1/6)
その他のモデル精度向上のためのテクニックについて
• 学習率のcosine減衰
• ラベル平滑化
• 蒸留
• Mix Up
トレーニング方法の改良(2/6)
学習率のcosine減衰
下の図(a)のようにあるepochで学習率を除算するのではなく
cosine関数にしたがって学習率を減衰させる
(𝜂は初期学習率,𝑇, 𝑡は最大/現在の𝑒𝑝𝑜𝑐ℎ数)
トレーニング方法の改良(3/6)
ラベル平滑化
通常,Image Classficationには正解ラベルをOne-Hot
ベクトルとして表すが,正解ラベルの要素に小さい定数
𝜀を足し,それ以外に𝜀を引くことで理想的な出力が有限
に抑えられる(𝐾はベクトルの長さ)
トレーニング方法の改良(4/6)
蒸留
𝐿 = 𝐿1 + 𝐿2
𝐿1 = Loss p, softmax z
𝐿2 = 𝑇2
Loss softmax
z
𝑇
, softmax
r
T
(𝑇はsoftmaxの値をどれだけ滑らかにするかのHP)
トレーニング方法の改良(5/6)
MixUp
学習時にバッチの中から 𝑥𝑖, 𝑦𝑖 , (𝑥𝑗, 𝑦𝑗)の2つの組をサンプリ
ングして以下のように混ぜ合わせる(𝜆はベータ分布β(𝛼, 𝛼)から
サンプリング)
Saint Bernard
[0.0, 1.0]
Miniature Poodle
[1.0, 0.0]
[0.4, 0.6]
トレーニング方法の改良(6/6)
組み合わせることでTop-1・5ともに精度向上
別データセットでも有効!
Agenda
1. Abstract
2. 論文の目的・貢献
3. ベースラインの設定
4. 効率的なトレーニング手順
5. ResNetモデル構造の調整
6. トレーニング方法の改良
7. 転移学習
8. まとめ
転移学習
物体検出やSemantic Segmentationでもこれまでのテクニック
を使って学習したモデルが転移学習したら効果があるかどうか
検証した
Faster-RCNN on Pascal VOC FCN on ADE20K
Agenda
1. Abstract
2. 論文の目的・貢献
3. ベースラインの設定
4. 効率的なトレーニング手順
5. ResNetモデル構造の調整
6. トレーニング方法の改良
7. 転移学習
8. まとめ
まとめ
• 広く適用できるかつ簡易で計算量に関わらない変更で
ResNet50・Inception-V3の精度を向上させることができた
• それぞれのテクニック単体だけでなく組み合わせることで精度
が向上することも確認した
• 転移学習においても良い結果を得ることができた

More Related Content

What's hot

StyleGAN解説 CVPR2019読み会@DeNA
StyleGAN解説 CVPR2019読み会@DeNAStyleGAN解説 CVPR2019読み会@DeNA
StyleGAN解説 CVPR2019読み会@DeNAKento Doi
 
TensorFlowをもう少し詳しく入門
TensorFlowをもう少し詳しく入門TensorFlowをもう少し詳しく入門
TensorFlowをもう少し詳しく入門tak9029
 
[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめ[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめDeep Learning JP
 
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
[DL輪読会]Glow: Generative Flow with Invertible 1×1 ConvolutionsDeep Learning JP
 
画像認識の初歩、SIFT,SURF特徴量
画像認識の初歩、SIFT,SURF特徴量画像認識の初歩、SIFT,SURF特徴量
画像認識の初歩、SIFT,SURF特徴量takaya imai
 
点群深層学習 Meta-study
点群深層学習 Meta-study点群深層学習 Meta-study
点群深層学習 Meta-studyNaoya Chiba
 
[DL輪読会]Progressive Growing of GANs for Improved Quality, Stability, and Varia...
[DL輪読会]Progressive Growing of GANs for Improved Quality, Stability, and Varia...[DL輪読会]Progressive Growing of GANs for Improved Quality, Stability, and Varia...
[DL輪読会]Progressive Growing of GANs for Improved Quality, Stability, and Varia...Deep Learning JP
 
[DL輪読会]Live-Streaming Fraud Detection: A Heterogeneous Graph Neural Network A...
[DL輪読会]Live-Streaming Fraud Detection: A Heterogeneous Graph Neural Network A...[DL輪読会]Live-Streaming Fraud Detection: A Heterogeneous Graph Neural Network A...
[DL輪読会]Live-Streaming Fraud Detection: A Heterogeneous Graph Neural Network A...Deep Learning JP
 
画像認識と深層学習
画像認識と深層学習画像認識と深層学習
画像認識と深層学習Yusuke Uchida
 
物体検知(Meta Study Group 発表資料)
物体検知(Meta Study Group 発表資料)物体検知(Meta Study Group 発表資料)
物体検知(Meta Study Group 発表資料)cvpaper. challenge
 
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs	(gMLP)[DL輪読会]Pay Attention to MLPs	(gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)Deep Learning JP
 
社内論文読み会資料 Image-to-Image Retrieval by Learning Similarity between Scene Graphs
社内論文読み会資料 Image-to-Image Retrieval by Learning Similarity between Scene Graphs社内論文読み会資料 Image-to-Image Retrieval by Learning Similarity between Scene Graphs
社内論文読み会資料 Image-to-Image Retrieval by Learning Similarity between Scene GraphsKazuhiro Ota
 
モデル高速化百選
モデル高速化百選モデル高速化百選
モデル高速化百選Yusuke Uchida
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!TransformerArithmer Inc.
 
Network weight saving_20190123
Network weight saving_20190123Network weight saving_20190123
Network weight saving_20190123Masakazu Shinoda
 
Neural scene representation and rendering の解説(第3回3D勉強会@関東)
Neural scene representation and rendering の解説(第3回3D勉強会@関東)Neural scene representation and rendering の解説(第3回3D勉強会@関東)
Neural scene representation and rendering の解説(第3回3D勉強会@関東)Masaya Kaneko
 
Bayesian Neural Networks : Survey
Bayesian Neural Networks : SurveyBayesian Neural Networks : Survey
Bayesian Neural Networks : Surveytmtm otm
 
[DL輪読会]NAS-FPN: Learning Scalable Feature Pyramid Architecture for Object Det...
[DL輪読会]NAS-FPN: Learning Scalable Feature Pyramid Architecture for Object Det...[DL輪読会]NAS-FPN: Learning Scalable Feature Pyramid Architecture for Object Det...
[DL輪読会]NAS-FPN: Learning Scalable Feature Pyramid Architecture for Object Det...Deep Learning JP
 
Towards Total Recall in Industrial Anomaly Detection
Towards Total Recall in Industrial Anomaly DetectionTowards Total Recall in Industrial Anomaly Detection
Towards Total Recall in Industrial Anomaly Detectionharmonylab
 

What's hot (20)

StyleGAN解説 CVPR2019読み会@DeNA
StyleGAN解説 CVPR2019読み会@DeNAStyleGAN解説 CVPR2019読み会@DeNA
StyleGAN解説 CVPR2019読み会@DeNA
 
TensorFlowをもう少し詳しく入門
TensorFlowをもう少し詳しく入門TensorFlowをもう少し詳しく入門
TensorFlowをもう少し詳しく入門
 
[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめ[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめ
 
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
 
画像認識の初歩、SIFT,SURF特徴量
画像認識の初歩、SIFT,SURF特徴量画像認識の初歩、SIFT,SURF特徴量
画像認識の初歩、SIFT,SURF特徴量
 
点群深層学習 Meta-study
点群深層学習 Meta-study点群深層学習 Meta-study
点群深層学習 Meta-study
 
[DL輪読会]Progressive Growing of GANs for Improved Quality, Stability, and Varia...
[DL輪読会]Progressive Growing of GANs for Improved Quality, Stability, and Varia...[DL輪読会]Progressive Growing of GANs for Improved Quality, Stability, and Varia...
[DL輪読会]Progressive Growing of GANs for Improved Quality, Stability, and Varia...
 
[DL輪読会]Live-Streaming Fraud Detection: A Heterogeneous Graph Neural Network A...
[DL輪読会]Live-Streaming Fraud Detection: A Heterogeneous Graph Neural Network A...[DL輪読会]Live-Streaming Fraud Detection: A Heterogeneous Graph Neural Network A...
[DL輪読会]Live-Streaming Fraud Detection: A Heterogeneous Graph Neural Network A...
 
画像認識と深層学習
画像認識と深層学習画像認識と深層学習
画像認識と深層学習
 
物体検知(Meta Study Group 発表資料)
物体検知(Meta Study Group 発表資料)物体検知(Meta Study Group 発表資料)
物体検知(Meta Study Group 発表資料)
 
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs	(gMLP)[DL輪読会]Pay Attention to MLPs	(gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)
 
社内論文読み会資料 Image-to-Image Retrieval by Learning Similarity between Scene Graphs
社内論文読み会資料 Image-to-Image Retrieval by Learning Similarity between Scene Graphs社内論文読み会資料 Image-to-Image Retrieval by Learning Similarity between Scene Graphs
社内論文読み会資料 Image-to-Image Retrieval by Learning Similarity between Scene Graphs
 
モデル高速化百選
モデル高速化百選モデル高速化百選
モデル高速化百選
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
Network weight saving_20190123
Network weight saving_20190123Network weight saving_20190123
Network weight saving_20190123
 
Hessian free
Hessian freeHessian free
Hessian free
 
Neural scene representation and rendering の解説(第3回3D勉強会@関東)
Neural scene representation and rendering の解説(第3回3D勉強会@関東)Neural scene representation and rendering の解説(第3回3D勉強会@関東)
Neural scene representation and rendering の解説(第3回3D勉強会@関東)
 
Bayesian Neural Networks : Survey
Bayesian Neural Networks : SurveyBayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
 
[DL輪読会]NAS-FPN: Learning Scalable Feature Pyramid Architecture for Object Det...
[DL輪読会]NAS-FPN: Learning Scalable Feature Pyramid Architecture for Object Det...[DL輪読会]NAS-FPN: Learning Scalable Feature Pyramid Architecture for Object Det...
[DL輪読会]NAS-FPN: Learning Scalable Feature Pyramid Architecture for Object Det...
 
Towards Total Recall in Industrial Anomaly Detection
Towards Total Recall in Industrial Anomaly DetectionTowards Total Recall in Industrial Anomaly Detection
Towards Total Recall in Industrial Anomaly Detection
 

Similar to 【論文読み】Bag of Tricks for Image Classification with Convolutional Neural Networks

Development and Experiment of Deep Learning with Caffe and maf
Development and Experiment of Deep Learning with Caffe and mafDevelopment and Experiment of Deep Learning with Caffe and maf
Development and Experiment of Deep Learning with Caffe and mafKenta Oono
 
ASP.NETCoreOptionsPattern.pptx
ASP.NETCoreOptionsPattern.pptxASP.NETCoreOptionsPattern.pptx
ASP.NETCoreOptionsPattern.pptxTakao Tetsuro
 
こんなに使えるTrainer
こんなに使えるTrainerこんなに使えるTrainer
こんなに使えるTrainerYuta Koreeda
 
An Agile Way As an SET at LINE
An Agile Way As an SET at LINEAn Agile Way As an SET at LINE
An Agile Way As an SET at LINELINE Corporation
 
Chainer Contribution Guide
Chainer Contribution GuideChainer Contribution Guide
Chainer Contribution GuideKenta Oono
 
OSSデータベースの開発コミュニティに参加しよう! (DEIM2024 発表資料)
OSSデータベースの開発コミュニティに参加しよう! (DEIM2024 発表資料)OSSデータベースの開発コミュニティに参加しよう! (DEIM2024 発表資料)
OSSデータベースの開発コミュニティに参加しよう! (DEIM2024 発表資料)NTT DATA Technology & Innovation
 
ディープラーニング最近の発展とビジネス応用への課題
ディープラーニング最近の発展とビジネス応用への課題ディープラーニング最近の発展とビジネス応用への課題
ディープラーニング最近の発展とビジネス応用への課題Kenta Oono
 
NuGet でゲット! Visual Studio パッケージ マネージャ―概要
NuGet でゲット! Visual Studio パッケージ マネージャ―概要NuGet でゲット! Visual Studio パッケージ マネージャ―概要
NuGet でゲット! Visual Studio パッケージ マネージャ―概要Akira Inoue
 
Skinny Controllers, Skinny Models
Skinny Controllers, Skinny ModelsSkinny Controllers, Skinny Models
Skinny Controllers, Skinny ModelsKazuhiro Sera
 
【de:code 2020】 Azure Kubernetes Service と Azure DevOps による GitOps の実践
【de:code 2020】 Azure Kubernetes Service と Azure DevOps による GitOps の実践【de:code 2020】 Azure Kubernetes Service と Azure DevOps による GitOps の実践
【de:code 2020】 Azure Kubernetes Service と Azure DevOps による GitOps の実践日本マイクロソフト株式会社
 
TeachmeBizを支えるフロントエンドのアーキテクチャと品質担保
TeachmeBizを支えるフロントエンドのアーキテクチャと品質担保TeachmeBizを支えるフロントエンドのアーキテクチャと品質担保
TeachmeBizを支えるフロントエンドのアーキテクチャと品質担保Shingo Sasaki
 
Git & ブランチモデルで学ぶ バージョン管理入門
Git & ブランチモデルで学ぶ バージョン管理入門Git & ブランチモデルで学ぶ バージョン管理入門
Git & ブランチモデルで学ぶ バージョン管理入門kazuki kuriyama
 
続・Twitter bootstrap入門 #html5j
続・Twitter bootstrap入門 #html5j続・Twitter bootstrap入門 #html5j
続・Twitter bootstrap入門 #html5jToshiaki Maki
 
[DL輪読会]Deep Face Recognition: A Survey
[DL輪読会]Deep Face Recognition: A Survey[DL輪読会]Deep Face Recognition: A Survey
[DL輪読会]Deep Face Recognition: A SurveyDeep Learning JP
 
Jubatusでマルウェア分類
Jubatusでマルウェア分類Jubatusでマルウェア分類
Jubatusでマルウェア分類Shuzo Kashihara
 
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on TwitterKDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twittersleepy_yoshi
 
CIサーバを制圧せよ! - プロジェクトメトリクスと自動化技術の活用よる混乱の収拾と「最強」の組織の育成
CIサーバを制圧せよ! - プロジェクトメトリクスと自動化技術の活用よる混乱の収拾と「最強」の組織の育成CIサーバを制圧せよ! - プロジェクトメトリクスと自動化技術の活用よる混乱の収拾と「最強」の組織の育成
CIサーバを制圧せよ! - プロジェクトメトリクスと自動化技術の活用よる混乱の収拾と「最強」の組織の育成Rakuten Group, Inc.
 

Similar to 【論文読み】Bag of Tricks for Image Classification with Convolutional Neural Networks (20)

Development and Experiment of Deep Learning with Caffe and maf
Development and Experiment of Deep Learning with Caffe and mafDevelopment and Experiment of Deep Learning with Caffe and maf
Development and Experiment of Deep Learning with Caffe and maf
 
ASP.NETCoreOptionsPattern.pptx
ASP.NETCoreOptionsPattern.pptxASP.NETCoreOptionsPattern.pptx
ASP.NETCoreOptionsPattern.pptx
 
こんなに使えるTrainer
こんなに使えるTrainerこんなに使えるTrainer
こんなに使えるTrainer
 
2014.07.02 EDUPUB技術の日本への適用
2014.07.02 EDUPUB技術の日本への適用2014.07.02 EDUPUB技術の日本への適用
2014.07.02 EDUPUB技術の日本への適用
 
An Agile Way As an SET at LINE
An Agile Way As an SET at LINEAn Agile Way As an SET at LINE
An Agile Way As an SET at LINE
 
Osc2010 Slide
Osc2010 SlideOsc2010 Slide
Osc2010 Slide
 
Chainer Contribution Guide
Chainer Contribution GuideChainer Contribution Guide
Chainer Contribution Guide
 
OSSデータベースの開発コミュニティに参加しよう! (DEIM2024 発表資料)
OSSデータベースの開発コミュニティに参加しよう! (DEIM2024 発表資料)OSSデータベースの開発コミュニティに参加しよう! (DEIM2024 発表資料)
OSSデータベースの開発コミュニティに参加しよう! (DEIM2024 発表資料)
 
ディープラーニング最近の発展とビジネス応用への課題
ディープラーニング最近の発展とビジネス応用への課題ディープラーニング最近の発展とビジネス応用への課題
ディープラーニング最近の発展とビジネス応用への課題
 
NuGet でゲット! Visual Studio パッケージ マネージャ―概要
NuGet でゲット! Visual Studio パッケージ マネージャ―概要NuGet でゲット! Visual Studio パッケージ マネージャ―概要
NuGet でゲット! Visual Studio パッケージ マネージャ―概要
 
Skinny Controllers, Skinny Models
Skinny Controllers, Skinny ModelsSkinny Controllers, Skinny Models
Skinny Controllers, Skinny Models
 
【de:code 2020】 Azure Kubernetes Service と Azure DevOps による GitOps の実践
【de:code 2020】 Azure Kubernetes Service と Azure DevOps による GitOps の実践【de:code 2020】 Azure Kubernetes Service と Azure DevOps による GitOps の実践
【de:code 2020】 Azure Kubernetes Service と Azure DevOps による GitOps の実践
 
TeachmeBizを支えるフロントエンドのアーキテクチャと品質担保
TeachmeBizを支えるフロントエンドのアーキテクチャと品質担保TeachmeBizを支えるフロントエンドのアーキテクチャと品質担保
TeachmeBizを支えるフロントエンドのアーキテクチャと品質担保
 
Git & ブランチモデルで学ぶ バージョン管理入門
Git & ブランチモデルで学ぶ バージョン管理入門Git & ブランチモデルで学ぶ バージョン管理入門
Git & ブランチモデルで学ぶ バージョン管理入門
 
続・Twitter bootstrap入門 #html5j
続・Twitter bootstrap入門 #html5j続・Twitter bootstrap入門 #html5j
続・Twitter bootstrap入門 #html5j
 
[DL輪読会]Deep Face Recognition: A Survey
[DL輪読会]Deep Face Recognition: A Survey[DL輪読会]Deep Face Recognition: A Survey
[DL輪読会]Deep Face Recognition: A Survey
 
Jubatusでマルウェア分類
Jubatusでマルウェア分類Jubatusでマルウェア分類
Jubatusでマルウェア分類
 
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on TwitterKDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
 
CIサーバを制圧せよ! - プロジェクトメトリクスと自動化技術の活用よる混乱の収拾と「最強」の組織の育成
CIサーバを制圧せよ! - プロジェクトメトリクスと自動化技術の活用よる混乱の収拾と「最強」の組織の育成CIサーバを制圧せよ! - プロジェクトメトリクスと自動化技術の活用よる混乱の収拾と「最強」の組織の育成
CIサーバを制圧せよ! - プロジェクトメトリクスと自動化技術の活用よる混乱の収拾と「最強」の組織の育成
 
IDPF、W3Cのデジタル教科書、教材関連標準化動向
IDPF、W3Cのデジタル教科書、教材関連標準化動向IDPF、W3Cのデジタル教科書、教材関連標準化動向
IDPF、W3Cのデジタル教科書、教材関連標準化動向
 

【論文読み】Bag of Tricks for Image Classification with Convolutional Neural Networks

Editor's Notes

  1. 大規模なバッチサイズでトレーニングするときはバッチサイズに応じて学習率を線形に変化させると精度の低下が抑えられることが知られています(0.1 × b/256) 学習率のウォームアップは初めは少ない学習率から始め、徐々に学習が安定化するにつれ初期学習率に戻すことです ResNetに置けるパラメータgammaの0初期化については次のスライドで説明します fp16でパラメータを更新すると高速化するが、値がオーバーフローしたりするので定数をかけてfp16に収めたりパラメータを更新するときだけfp32を使ったりすると良いようです
  2. resnet-AのDown Sampling Blockでは初めのConv層でstrideしているので次の層までに3/4の情報が失われます。
  3. resnet-AのDown Sampling Blockでは初めのConv層でstrideしているので次の層までに3/4の情報が失われます。
  4. softmax cross entropyをそのまま使うと正解ラベル 𝑦 𝑖 に対する理想的な出力のベクトルは1要素がinf,それ以外が十分に小さいベクトルになり,過学習につながる
  5. ResNet152のような大規模な学習済みモデルの出力にResNet50のような小規模のモデルの出力が合うように学習することでモデルの規模を落としつつ精度を下げないことができる
  6. CutMixとかRICAPとか同じようなdata augment方法はたくさんある manifold mixupなどの発展系も最近出てきてる
  7. Semantic SegmentationでのLabel Smoothingや蒸留・MixUpはピクセル単位の情報が欠落するからではと説明されています