SlideShare a Scribd company logo
1 of 30
Download to read offline
#はじパタ  LT

実装  ディープラーニング

@0kayu
1
紹介


岡  右⾥里里恵  (早⼤大理理⼯工M1)    



出⾝身、住まい等          横浜



趣味  映画鑑賞,  シンセ  /  kaggle歴  3ヶ⽉月      



好きな物  redbullと最近はドクペ



@0kayu

研究    脳画像を⽤用いた診断補助法の開発

2
DEEP LEARNING
1.  Deep  Learning  の  仕組み スライド	
  がたくさん!	
  
2.  Deep  Learning  パラメータ/学習法  について
3.  実装:  パッケージ調べ  ←	
  今日はこれ!!!!!!!!!!!

ディープラーニングをもっと、もっと手軽に

3
1. ディープラーニング概要(1)
ディープラーニング?

画像認識を例にして....

従来法

ディープ
ラーニング

h'p://www.slideshare.net/kazoo04/deep-­‐learning-­‐15097274
4
1. ディープラーニング概要(1)
ディープラーニングの定義(諸説あり)
以下を満足するDeep	
  Architecture
・多層構造をもつ
・階層的な処理理である
・⾼高位の問題解決を⽬目的とする

5
1. ディープラーニング概要(2)
プレトレーニング  +  ファインチューニング

各層の●,●,●は
入力データ●の特徴量を表す

http://www.vision.is.tohoku.ac.jp/files/9313/6601/7876/
CVIM_tutorial_deep_learning.pdf

6
1. ディープラーニング概要(2)

判別器

プレトレーニング  +  ファインチューニング

SVM,  LR,  ...  etc

AE(3)
AE(2)
AE(1)

教師無し学習器群
AE:オートエンコーダー
RBM:制限ボルツマンマシン

http://www.vision.is.tohoku.ac.jp/files/9313/6601/7876/
CVIM_tutorial_deep_learning.pdf

DBM,	
  stacking	
  AE

DBN,	
  stacking	
  AE

7
制約つきボルツマンマシン(RBM)
•  ⽣生成モデルの1つ
生成モデルの学習方法

vi,  hj  は{0,1}をとる
h/p://www.vision.is.tohoku.ac.jp/files/9313/6601/7876/CVIM_tutorial_deep_learning.pdf
8
RBM +

DeepStructure

制約つきボルツマンマシン(RBM)

可視層と隠れ層からなる2層ネット
ワーク

判別器

DBN(Deep	
  
	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  Belief	
  
	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  Network)

RBM(3)
RBM(2)

DBM(Deep	
  
	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  Boltzma
	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  Machine)

RBM(1)
vi, hj	
  =	
  {0,1}

入力データ
9
RBM +

DeepStructure

+

max	
  pooling

ConvDBN	
  (ConvoluFonal	
  Belief	
  Network)	
  
RBMに畳み込みニューラル

ネットで使われるmax	
  pooling
を追加したもの

http://www.vision.is.tohoku.ac.jp/files/9313/6601/7876/CVIM_tutorial_deep_learning.pdf

10
オートエンコーダー(AE)
  AE  (オートエンコーダー)
⼊入⼒力力データを再現するような[表現h,  encoder,  decoder]  を学習する
  dAE(denoising  Auto  Encoder)
ノイズを加えたデータで学習させる
  スパースオートエンコーダー  
出⼒力力層がスパースになるように正規化したもの
y(=x)

h
入力データ
x

Decoder

y = f ´(W´h)

スパースオートエンコーダーでは次の
評価関数を最小化する

Encoder

h = f (Wx)
正規化項
11
AE

+

DeepStructure

Stacked  Auto  Encoder
学習した表現yを、次の層のオートエンコーダーの⼊入⼒力力とする
AE(2)の入力データ

y(=x)

h
AE(2)の入力データ

入力データ
x

レイヤー1(AE1)

レイヤー2(AE2)

12
2. 各層の学習法について
基本    バッチ学習  +  確率率率的勾配法  (SGD)  
バッチ学習  :  全データで学習
確率率率的勾配法(SGD)  :  t個⽬目のサンプルだけを⽤用いて重みが更更新可能
→  データをミニバッチに分け、ミニバッチごとに重みを更更新
→  学習の⾼高速化  !  
バッチ関連のパラメータ
ミニバッチサイズ

データを分割する量量。分割したデータ(バッチ)を⽤用いて学習させる。

バッチ毎の学習

バッチを学習させて、バッチごとにパタメータを更更新

モニター数(⇔速度度に影響)

すべてのバッチのうち、⼀一部のバッチのみvalidationをしてモデルが学習できているか確認す
る

max_̲epoch

1つのデータを何回(何epoch)繰り返して学習させるか
13
2. パラメータについて
1.  機械全体の形
  レイヤーの数
  教師無し学習器(モデル)の選択
  判別器の選択

太字  =  「特に重要なパラメータ」

2.  各層のモデルのパラメータ
  隠れ層のユニット数
  重みの正規化
  ユニットのスパース化
  活性化関数の選択

3.  最適化のためのパラメータ
  学習⽅方法
  学習率率率  (初期値,  減衰)
  ミニバッチサイズ
  イテレーション回数
  Momentum

4.  その他  

  重みの初期化  (のスケール)
  乱数
  前処理理

おすすめの参考スライド http://www.slideshare.net/koji_matsuda/practical-recommendationfordeeplearning
14
3. 実装 : 現状の関連コード比較
pylearn2
python
+theano

元の言語

Torch7

Lua

python
numpy+scipy

nolearn deepnet
python
+ sklearn

△

導入しやすさ(mac)

ディープラーニン RBM, DBN, AE,
MLP, Maxout
グの種類等

ー

python
+ gnumpy
ー

RBM, AE,
DBN

DBN, RBM

RBM, AE, DBM,
DBN, CNN, feedforward NN

ー

GPU計算
とっつきやすさ

入力データの準備
特徴

sugomori
さん

△
△
種類が豊富, 画
像の可視化

ー

ー

ー
matlab
ライク

ー

Java版あり,

オプションが

ー
GPU計算が前提

多いsklearn風
シンプル
pylearn2	
  	
  http://deeplearning.net/software/pylearn2/index.html
DL先→ torch7	
  	
  	
  	
  	
  	
  http://www.torch.ch/manual/install/index
sugomori	
  	
  http://blog.yusugomori.com/post/42424440144/pythondeep-learning-stacked-denoising
nolearn	
  	
  	
  	
  h'ps://github.com/dnouri/nolearn	
  or	
  pip	
  install	
  nolearn
deepnet	
  	
  	
  h'ps://github.com/niQshsrivastava/deepnet

15
1.  pylearn2

市民権争い pylearn2 VS torch7

  利利点
-‐‑‒  Benjio先⽣生(先のスライドの原著)  の最新のアルゴリズムが実装されて
いる  (Maxout等)
-‐‑‒  市⺠民権の獲得に積極的  (kaggleのベンチマーク)
-‐‑‒  実装の⾒見見た⽬目は綺麗麗,  評価を下すのにmonitor.py  がなかなか使える
-‐‑‒  設定をエディットしやすい
  ⽋欠点

-‐‑‒    データ構造が⽞玄⼈人向け、慣れれば快適...??
-‐‑‒    公式HPのチュートリアルやドキュメントが開発途中
-‐‑‒    pylearn2のgoogle  groups等を追う姿勢が⼤大事

16
1.  pylearn2

DL実装の流れ@pylearn2(1)
layer_̲1.yaml

1層⽬目学習
train	
  =	
  yaml_parse.load(layer1_yaml)
train.main_loop() **
dae_l1.pkl

layer_̲2.yaml

2層⽬目学習
train	
  =	
  yaml_parse.load(layer2_yaml)
train.main_loop()
dae_l2.pkl

mlp.yaml

判別器学習
train	
  =	
  yaml_parse.load(mlp_yaml)
train.main_loop()
mlp_best.pkl

簡単3ステップ+α
STEP1:	
  データをpylearn2のデータ形式で登録
(ベンチマーク系は既に登録済み)

STEP2:	
  YAMLファイル形式(テンプレあり)で、
   train{入力データ,学習器,学習法}を指定
STEP3:	
  train.pyに作った	
  *.yamlを放り込む
STEPα:	
  モニター結果から学習できてるか判断

**:	
  $	
  train.py	
  layer_1.yaml	
  でも可

17
1.  pylearn2

DL実装の流れ@pylearn2(1)

前準備
インストール時にあらかじめ{PYLEARN2_DATA_PATH}にdataの保存場所のパスを
通しておく

ベンチマークを用意するには
${PYLEARN2_DATA_PAHT}/mnist/以下にMNISTデータを入れておく.
dataset.pyを作る必要はない

自分のデータを用意するには
例 : kaggleのicml_2013_emotionsをデータとして登録
1. dataset.py を作成
.csvの場合はemotion_dataset.py が参考になる。
2. ${PYLEARN2_DATA_PATH}/icml_2013_emotions
を作成し、中にデータをいれる
18
1.  pylearn2

DL実装の流れ@pylearn2(2)

2層目の学習で、train.pyに与えるYAMLファイルの例
!obj:pylearn2.train.Train {
dataset: &train !obj:pylearn2.datasets.transformer_dataset.TransformerDataset {
raw: !obj:pylearn2.datasets.mnist.MNIST {
1.	
  入力データ:	
  
which_set: 'train',
start: 0,
#データのうち0から50000を学習
TransformerDataset(MNIST)
stop: 50000
},
transformer: !pkl: "./dae_l1.pkl"
},
model: !obj:pylearn2.models.autoencoder.DenoisingAutoencoder {
nvis : 500, #visible layerの次元
2.	
  学習器	
  :	
  Denoising	
  Autoencoder
nhid : 500, #hidden layerの次元
irange : 0.05,
corruptor: !obj:pylearn2.corruption.BinomialCorruptor {
corruption_level: .3, #ノイズの程度
},
act_enc: "tanh",
act_dec: null,
# Linear activation on the decoder side.
},
algorithm: !obj:pylearn2.training_algorithms.sgd.SGD {
learning_rate : 1e-3, #学習率
3.	
  学習法:	
  StochasQcGradient	
  Descent
batch_size : 100,
#バッチサイズ(100データごとに学習)
monitoring_batches : 5,
#モニターするバッチの数
monitoring_dataset : *train,
cost : !obj:pylearn2.costs.autoencoder.MeanSquaredReconstructionError {},
termination_criterion : !obj:pylearn2.termination_criteria.EpochCounter {
max_epochs: 10,
},
},
save_path: "./dae_l2.pkl",
save_freq: 1
}

19
1.  pylearn2

DL実装の流れ@pylearn2(3)

評価例	
  	
  	
  
$	
  print_monitor.py	
  <学習して出力した	
  *.pkl>	
  や	
  summarize_model.py	
  *.pkl
epochs	
  seen:	
  	
  10
Qme	
  trained:	
  	
  141.956558943
learning_rate	
  :	
  0.001
monitor_seconds_per_epoch	
  :	
  11.0
objecQve	
  :	
  11.414127059

$	
  plot_monitor.py	
  	
  <学習して出力した	
  *.pkl	
  >

→	
  デモ

	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  

20
1.  pylearn2

DL実装の流れ@pylearn2(4)

重みの可視化について
○	
  学習器にオートエンコーダーを用いた場合
一層目	
  →	
  show_weights.py
二層目→	
  	
  ×	
  

○	
  学習器にRBMを用いた場合
一層目→	
  show_weights.py

$:	
  show_examples.py	
  	
  データ.yaml

二層目→	
  top_filters.py	
  

○	
  各層の重みの値
layer	
  =	
  parse.load(“モデル名.pkl”)
W	
  =	
  layer.weights()

$:	
  show_weights.py	
  1層目のモデル.pkl	
  -­‐-­‐out=”hoge.png”
21
1.  pylearn2

pylearn2を今からはじめるには

公式のドキュメント  +  script以下のコードのコメントから学ぶ
  ディープラーニングの知識識をコードから学びたい
→  pylearn2の前⾝身の    http://deeplearning.net/tutorial/
→  pylearn2/srcripts/tutorials/*.ipynb      :  数式や⽂文章付きで学べる
  ええい!とにかく試してみたい!かじりたい!
→  pylearn2/scripts/tutorials/stacked_̲autoencoders.ipynb
→  pylearn2/scripts/tutorials/dbm_̲demo/rbm.yaml
  kaggleに殴り込みをしようと思うんだが...  
  ⼿手持ちのデータをさくっとディープラーニングできないかな~∼
→  pylearn2/scripts/icml_̲2013_̲wrepl/emotions/
22
2.  その他のpython系パッケージ

  特徴

-‐‑‒  Theanoを覚えるのが⼤大変なあなたに
-‐‑‒  インストールが簡単,
-‐‑‒  SGD/RBM/dA      多値ロジスティック回帰    が使⽤用可能
-‐‑‒  sparse.matrix  に対応していないので、⼤大規模疎⾏行行列列は扱えない
-‐‑‒  少量量のデータならばnumpy+scipyのほうがてっとり早い
-‐‑‒  速度度はpylearn2と⼤大きく変わらない  (CPU計算の場合)

23
2.  numpy+scipy

numpy+scipy(使用例)
全体の構造を作成

プレトレーニング

24
3.  nolearn

nolearn使い方(1) インストール	
  は、$	
  pip	
  install	
  nolearn

h'p://packages.python.org/nolearn/
25
3.  nolearn

nolearn使い方(2)

26
3.  nolearn

nolearn使い方(3)

27
ありがとうございました

28
参考文献等
ディープラーニングチュートリアル

h$p://www.vision.is.tohoku.ac.jp/files/9313/6601/7876/CVIM_tutorial_deep_learning.pdf

第7章 パーセプトロン型学習規則 #はじパタ
http://www.slideshare.net/Tyee/f5up

自然言語処理まわりのDeep Learningを自分なりにまとめてみた
http://kiyukuta.github.io/2013/09/28/casualdeeplearning4nlp.html

機械学習におけるオンライン確率的最適化の理論
http://www.slideshare.net/trinmu/stochasticoptim2013
Practical recommendations for gradient-based training of deep architectures ~Benjio先生のおすすめレシピ~

http://www.slideshare.net/koji_matsuda/practical-recommendation-fordeeplearning

深層学習
http://sugiyama-www.cs.titech.ac.jp/ sugi/2007/Canon-MachineLearning30-jp.pdf
Pythonとdeep learningで手書き文字認識
http://www.slideshare.net/mokemokechicken/pythondeep-learning

29
パッケージまとめ
◎	
  	
  	
  pylearn2
h$p://deeplearning.net/soHware/pylearn2/

◎	
  	
  	
  deeplearning	
  Tutorial
h$p://deeplearning.net/tutorial/

◎	
  	
  	
  Torch7
h$p://torch.ch

◎	
  	
  	
  nolearn
h$ps://github.com/dnouri/nolearn

◎	
  	
  	
  deepnet
h'ps://github.com/niQshsrivastava/deepnet
◎	
  	
  	
  sugomiriさん

http://blog.yusugomori.com/post/42424440144/python-deep-learning-stacked-denoising

30

More Related Content

What's hot

畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化Yusuke Uchida
 
Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2
Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2
Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2Preferred Networks
 
[DL輪読会]SlowFast Networks for Video Recognition
[DL輪読会]SlowFast Networks for Video Recognition[DL輪読会]SlowFast Networks for Video Recognition
[DL輪読会]SlowFast Networks for Video RecognitionDeep Learning JP
 
backbone としての timm 入門
backbone としての timm 入門backbone としての timm 入門
backbone としての timm 入門Takuji Tahara
 
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion ModelsDeep Learning JP
 
BERTをブラウザで動かしたい! ―MobileBERTとTensorFlow.js―
BERTをブラウザで動かしたい!―MobileBERTとTensorFlow.js―BERTをブラウザで動かしたい!―MobileBERTとTensorFlow.js―
BERTをブラウザで動かしたい! ―MobileBERTとTensorFlow.js―Shion Honda
 
Halide による画像処理プログラミング入門
Halide による画像処理プログラミング入門Halide による画像処理プログラミング入門
Halide による画像処理プログラミング入門Fixstars Corporation
 
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence ModelingDeep Learning JP
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習cvpaper. challenge
 
Rustに触れて私のPythonはどう変わったか
Rustに触れて私のPythonはどう変わったかRustに触れて私のPythonはどう変わったか
Rustに触れて私のPythonはどう変わったかShunsukeNakamura17
 
[DL輪読会]Pixel2Mesh: Generating 3D Mesh Models from Single RGB Images
[DL輪読会]Pixel2Mesh: Generating 3D Mesh Models from Single RGB Images[DL輪読会]Pixel2Mesh: Generating 3D Mesh Models from Single RGB Images
[DL輪読会]Pixel2Mesh: Generating 3D Mesh Models from Single RGB ImagesDeep Learning JP
 
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State SpacesDeep Learning JP
 
Introduction to YOLO detection model
Introduction to YOLO detection modelIntroduction to YOLO detection model
Introduction to YOLO detection modelWEBFARMER. ltd.
 
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some PreliminaryDeep Learning JP
 
Triplet Loss 徹底解説
Triplet Loss 徹底解説Triplet Loss 徹底解説
Triplet Loss 徹底解説tancoro
 
高速な倍精度指数関数expの実装
高速な倍精度指数関数expの実装高速な倍精度指数関数expの実装
高速な倍精度指数関数expの実装MITSUNARI Shigeo
 
[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential EquationsDeep Learning JP
 
Tensor コアを使った PyTorch の高速化
Tensor コアを使った PyTorch の高速化Tensor コアを使った PyTorch の高速化
Tensor コアを使った PyTorch の高速化Yusuke Fujimoto
 
画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイcvpaper. challenge
 

What's hot (20)

畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
 
Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2
Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2
Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2
 
[DL輪読会]SlowFast Networks for Video Recognition
[DL輪読会]SlowFast Networks for Video Recognition[DL輪読会]SlowFast Networks for Video Recognition
[DL輪読会]SlowFast Networks for Video Recognition
 
backbone としての timm 入門
backbone としての timm 入門backbone としての timm 入門
backbone としての timm 入門
 
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
 
BERTをブラウザで動かしたい! ―MobileBERTとTensorFlow.js―
BERTをブラウザで動かしたい!―MobileBERTとTensorFlow.js―BERTをブラウザで動かしたい!―MobileBERTとTensorFlow.js―
BERTをブラウザで動かしたい! ―MobileBERTとTensorFlow.js―
 
Halide による画像処理プログラミング入門
Halide による画像処理プログラミング入門Halide による画像処理プログラミング入門
Halide による画像処理プログラミング入門
 
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
 
Rustに触れて私のPythonはどう変わったか
Rustに触れて私のPythonはどう変わったかRustに触れて私のPythonはどう変わったか
Rustに触れて私のPythonはどう変わったか
 
[DL輪読会]Pixel2Mesh: Generating 3D Mesh Models from Single RGB Images
[DL輪読会]Pixel2Mesh: Generating 3D Mesh Models from Single RGB Images[DL輪読会]Pixel2Mesh: Generating 3D Mesh Models from Single RGB Images
[DL輪読会]Pixel2Mesh: Generating 3D Mesh Models from Single RGB Images
 
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
 
一般向けのDeep Learning
一般向けのDeep Learning一般向けのDeep Learning
一般向けのDeep Learning
 
Introduction to YOLO detection model
Introduction to YOLO detection modelIntroduction to YOLO detection model
Introduction to YOLO detection model
 
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
 
Triplet Loss 徹底解説
Triplet Loss 徹底解説Triplet Loss 徹底解説
Triplet Loss 徹底解説
 
高速な倍精度指数関数expの実装
高速な倍精度指数関数expの実装高速な倍精度指数関数expの実装
高速な倍精度指数関数expの実装
 
[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations
 
Tensor コアを使った PyTorch の高速化
Tensor コアを使った PyTorch の高速化Tensor コアを使った PyTorch の高速化
Tensor コアを使った PyTorch の高速化
 
画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ
 

Similar to 実装ディープラーニング

ae-3. ディープラーニングの基礎
ae-3. ディープラーニングの基礎ae-3. ディープラーニングの基礎
ae-3. ディープラーニングの基礎kunihikokaneko1
 
Paper intoduction "Playing Atari with deep reinforcement learning"
Paper intoduction   "Playing Atari with deep reinforcement learning"Paper intoduction   "Playing Atari with deep reinforcement learning"
Paper intoduction "Playing Atari with deep reinforcement learning"Hiroshi Tsukahara
 
Deep Learning Implementations: pylearn2 and torch7 (JNNS 2015)
Deep Learning Implementations: pylearn2 and torch7 (JNNS 2015)Deep Learning Implementations: pylearn2 and torch7 (JNNS 2015)
Deep Learning Implementations: pylearn2 and torch7 (JNNS 2015)Kotaro Nakayama
 
Getting Started with Deep Learning using Scala
Getting Started with Deep Learning using ScalaGetting Started with Deep Learning using Scala
Getting Started with Deep Learning using ScalaTaisuke Oe
 
大規模言語モデル開発を支える分散学習技術 - 東京工業大学横田理央研究室の藤井一喜さん
大規模言語モデル開発を支える分散学習技術 - 東京工業大学横田理央研究室の藤井一喜さん大規模言語モデル開発を支える分散学習技術 - 東京工業大学横田理央研究室の藤井一喜さん
大規模言語モデル開発を支える分散学習技術 - 東京工業大学横田理央研究室の藤井一喜さんAkira Shibata
 
はじめての人のためのDeep Learning
はじめての人のためのDeep Learningはじめての人のためのDeep Learning
はじめての人のためのDeep LearningTadaichiro Nakano
 
新入社員の俺がDeepLearningのコードを書いてみたら神検出率だった件
新入社員の俺がDeepLearningのコードを書いてみたら神検出率だった件新入社員の俺がDeepLearningのコードを書いてみたら神検出率だった件
新入社員の俺がDeepLearningのコードを書いてみたら神検出率だった件Study Group by SciencePark Corp.
 
テーブルコンペと比べて分かる画像コンペ入門
テーブルコンペと比べて分かる画像コンペ入門テーブルコンペと比べて分かる画像コンペ入門
テーブルコンペと比べて分かる画像コンペ入門ShinichiroSaito
 
チュートリアル:細胞画像を使った初めてのディープラーニング
チュートリアル:細胞画像を使った初めてのディープラーニングチュートリアル:細胞画像を使った初めてのディープラーニング
チュートリアル:細胞画像を使った初めてのディープラーニングDaisukeTakao
 
ディープニューラルネット入門
ディープニューラルネット入門ディープニューラルネット入門
ディープニューラルネット入門TanUkkii
 
ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド
 ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド
ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイドEtsuji Nakai
 
2013.07.15 はじパタlt scikit-learnで始める機械学習
2013.07.15 はじパタlt scikit-learnで始める機械学習2013.07.15 はじパタlt scikit-learnで始める機械学習
2013.07.15 はじパタlt scikit-learnで始める機械学習Motoya Wakiyama
 
なにわテック20180127
なにわテック20180127なにわテック20180127
なにわテック20180127Natsutani Minoru
 
[Ridge-i 論文読み会] ICLR2019における不完全ラベル学習
[Ridge-i 論文読み会] ICLR2019における不完全ラベル学習[Ridge-i 論文読み会] ICLR2019における不完全ラベル学習
[Ridge-i 論文読み会] ICLR2019における不完全ラベル学習Masanari Kimura
 

Similar to 実装ディープラーニング (16)

ae-3. ディープラーニングの基礎
ae-3. ディープラーニングの基礎ae-3. ディープラーニングの基礎
ae-3. ディープラーニングの基礎
 
Paper intoduction "Playing Atari with deep reinforcement learning"
Paper intoduction   "Playing Atari with deep reinforcement learning"Paper intoduction   "Playing Atari with deep reinforcement learning"
Paper intoduction "Playing Atari with deep reinforcement learning"
 
Deep Learning Implementations: pylearn2 and torch7 (JNNS 2015)
Deep Learning Implementations: pylearn2 and torch7 (JNNS 2015)Deep Learning Implementations: pylearn2 and torch7 (JNNS 2015)
Deep Learning Implementations: pylearn2 and torch7 (JNNS 2015)
 
Getting Started with Deep Learning using Scala
Getting Started with Deep Learning using ScalaGetting Started with Deep Learning using Scala
Getting Started with Deep Learning using Scala
 
大規模言語モデル開発を支える分散学習技術 - 東京工業大学横田理央研究室の藤井一喜さん
大規模言語モデル開発を支える分散学習技術 - 東京工業大学横田理央研究室の藤井一喜さん大規模言語モデル開発を支える分散学習技術 - 東京工業大学横田理央研究室の藤井一喜さん
大規模言語モデル開発を支える分散学習技術 - 東京工業大学横田理央研究室の藤井一喜さん
 
Tokyo r30 beginner
Tokyo r30 beginnerTokyo r30 beginner
Tokyo r30 beginner
 
はじめての人のためのDeep Learning
はじめての人のためのDeep Learningはじめての人のためのDeep Learning
はじめての人のためのDeep Learning
 
新入社員の俺がDeepLearningのコードを書いてみたら神検出率だった件
新入社員の俺がDeepLearningのコードを書いてみたら神検出率だった件新入社員の俺がDeepLearningのコードを書いてみたら神検出率だった件
新入社員の俺がDeepLearningのコードを書いてみたら神検出率だった件
 
テーブルコンペと比べて分かる画像コンペ入門
テーブルコンペと比べて分かる画像コンペ入門テーブルコンペと比べて分かる画像コンペ入門
テーブルコンペと比べて分かる画像コンペ入門
 
チュートリアル:細胞画像を使った初めてのディープラーニング
チュートリアル:細胞画像を使った初めてのディープラーニングチュートリアル:細胞画像を使った初めてのディープラーニング
チュートリアル:細胞画像を使った初めてのディープラーニング
 
ディープニューラルネット入門
ディープニューラルネット入門ディープニューラルネット入門
ディープニューラルネット入門
 
ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド
 ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド
ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド
 
2013.07.15 はじパタlt scikit-learnで始める機械学習
2013.07.15 はじパタlt scikit-learnで始める機械学習2013.07.15 はじパタlt scikit-learnで始める機械学習
2013.07.15 はじパタlt scikit-learnで始める機械学習
 
なにわテック20180127
なにわテック20180127なにわテック20180127
なにわテック20180127
 
Tokyo r38
Tokyo r38Tokyo r38
Tokyo r38
 
[Ridge-i 論文読み会] ICLR2019における不完全ラベル学習
[Ridge-i 論文読み会] ICLR2019における不完全ラベル学習[Ridge-i 論文読み会] ICLR2019における不完全ラベル学習
[Ridge-i 論文読み会] ICLR2019における不完全ラベル学習
 

実装ディープラーニング