SlideShare a Scribd company logo
1 of 16
Download to read offline
Chapter 1: はじめに
機械学習プロフェッショナルシリーズ輪読会
∼「深層学習」編∼

@a_macbee
後ろの章で説明される話題が多いので
本書を読み終わった後にもう一度読むと
理解が深まりそうで良さそう
意:ここではあまり内容を深堀りません
• 1.1 研究の歴史
• 1.1.1 多層ニューラルネットへの期待と失望
• 1.1.2 多層ネットワークの事前学習
• 1.1.3 特徴量の学習
• 1.1.4 深層学習の隆盛
• 1.2 本書の構成 (※話しません)
• 1.1 研究の歴史
• 1.1.1 多層ニューラルネットへの期待と失望
• 1.1.2 多層ネットワークの事前学習
• 1.1.3 特徴量の学習
• 1.1.4 深層学習の隆盛
• 1.2 本書の構成 (※話しません)
多層ニューラルネットワークの歴史
• 人工ニューラルネットワーク(以下ニューラルネット)
の研究の歴史は山あり谷あり
• 1940年代:

 研究開始
• 1980 - 1990年代:

 誤差逆伝播法 (back propagation) (4章)の発明によ

 る2度目のブーム
• 1990年代後半 - 2000年代前半:

 再び下火に
この間 盛り上がったり下がったり
あったらしい
なぜ流行らなかったのか?
• 誤差逆伝播法によるニューラルネットの学習は多
層になるとうまくいかない (図1.1)
• 勾配消失問題にもとづく過学習が問題に
• 畳み込みニューラルネット (CNN) (6章) はこの限りでは
ない
• 学習パラメータ (層数 / ユニット数 等) の性能へ
の寄与がよく分からない
• 1.1 研究の歴史
• 1.1.1 多層ニューラルネットへの期待と失望
• 1.1.2 多層ネットワークの事前学習
• 1.1.3 特徴量の学習
• 1.1.4 深層学習の隆盛
• 1.2 本書の構成 (※話しません)
多層ネットワークの事前学習
• Hintonらのディープビリーフネットワーク
(DBN) の登場 (2010年)
• 一般的なニューラルネットとは原理が異なるが、
どちらにしろ多層になると学習は困難
多層ネットワークの事前学習
• Hintonらのディープビリーフネットワーク
(DBN) の登場 (2010年)
• 制約ボルツマンマシン (RBM) (8章)と呼ばれる
単層ネットワークに分類し,層ごとに事前学習
   多層であっても過適合を起こさない
層ごとにパラメータの
良い初期値を得る
多層ネットワークの事前学習
• DBNやRBMより単純な自己符号化器 (auto-
encoder) (5章)を使っても事前学習が可能
• 1.1 研究の歴史
• 1.1.1 多層ニューラルネットへの期待と失望
• 1.1.2 多層ネットワークの事前学習
• 1.1.3 特徴量の学習
• 1.1.4 深層学習の隆盛
• 1.2 本書の構成 (※話しません)
特徴量の学習
• 強い偏りを持ちながら複雑に広がる高次元デー
タ (e.g. 画像,音声) をどう学習するのか
• 自己符号化器に,少数の基底の組み合わせで入
力を表現するスパース符号化 (sparse coding)
(5章)の考え方を導入

 → 多層ネットワークは学習によって興味深い

   階層構造を構成する
わかりやすかった解説:http://d.hatena.ne.jp/takmin/20121224/1356315231
多層ネットワークの階層構造の例
• 特定の物体だけに選択的に反応するユニット
Building High-level Features Using Large Scale Unsupervised Learning
引用:http://static.googleusercontent.com/media/research.google.com/ja//
pubs/archive/38115.pdf
100,000
et, only
d the lo-
ned the
uracy of
ith pre-
contrast
for face
be seen,
n learns
tractors.
age, the
reshold,
an input
than 0.
s (blue).
between
on tech-
approach can be susceptible to local minima. Results,
shown in Figure 13, confirm that the tested neuron
indeed learns the concept of faces.
Figure 3. Top: Top 48 stimuli of the best neuron from the
test set. Bottom: The optimal stimulus according to nu-
merical constraint optimization.
4.5. Invariance properties
We would like to assess the robustness of the face de-
tector against common object transformations, e.g.,
translation, scaling and out-of-plane rotation. First,
Building high-level features using large-scale unsupervised learning
e (left) and out-of-plane (3D) rotation (right)
perties of the best feature.
Figure 6. Visualization of the cat face neu
human body neuron (right).
For the ease of interpretation, these da
positive-to-negative ratio identical to the
• 1.1 研究の歴史
• 1.1.1 多層ニューラルネットへの期待と失望
• 1.1.2 多層ネットワークの事前学習
• 1.1.3 特徴量の学習
• 1.1.4 深層学習の隆盛
• 1.2 本書の構成 (※話しません)
深層学習の隆盛
• 深層学習 (deep learning)の有効性が広く認知される
• 深層学習の様々な方法論
• 音声認識
• 層間ユニットが全結合したネットワークがよく利用される
(事前学習がよく用いられる)
• 画像認識
• 畳込みニューラルネットが主流.事前学習はあまり利用さ
れない
• 自然言語処理 / 音声認識
• 再帰型ニューラルネット (RNN)が使われている
なぜ多層ニューラルネットは有用か
• 現実の問題は複雑なので,それに見合う規模の
ニューラルネットが必要

→ 学習できるだけのデータがある
• 計算機の計算能力が飛躍的に向上
現実世界の大規模な問題に対し
多層ニューラルネットを試してみたところ
思わぬ性能を発揮した…が実際のところ?

More Related Content

What's hot

深層学習(講談社)のまとめ(1章~2章)
深層学習(講談社)のまとめ(1章~2章)深層学習(講談社)のまとめ(1章~2章)
深層学習(講談社)のまとめ(1章~2章)okku apot
 
CVIM#11 3. 最小化のための数値計算
CVIM#11 3. 最小化のための数値計算CVIM#11 3. 最小化のための数値計算
CVIM#11 3. 最小化のための数値計算sleepy_yoshi
 
ハミルトニアンモンテカルロ法についての説明
ハミルトニアンモンテカルロ法についての説明ハミルトニアンモンテカルロ法についての説明
ハミルトニアンモンテカルロ法についての説明KCS Keio Computer Society
 
POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用Yasunori Ozaki
 
PRML 上 1.2.4 ~ 1.2.6
PRML 上 1.2.4 ~ 1.2.6PRML 上 1.2.4 ~ 1.2.6
PRML 上 1.2.4 ~ 1.2.6禎晃 山崎
 
ベイズ推論による機械学習入門 第4章
ベイズ推論による機械学習入門 第4章ベイズ推論による機械学習入門 第4章
ベイズ推論による機械学習入門 第4章YosukeAkasaka
 
深層学習の判断根拠を理解するための 研究とその意義 @PRMU 2017熊本
深層学習の判断根拠を理解するための 研究とその意義 @PRMU 2017熊本深層学習の判断根拠を理解するための 研究とその意義 @PRMU 2017熊本
深層学習の判断根拠を理解するための 研究とその意義 @PRMU 2017熊本Takahiro Kubo
 
探索と活用の戦略 ベイズ最適化と多腕バンディット
探索と活用の戦略 ベイズ最適化と多腕バンディット探索と活用の戦略 ベイズ最適化と多腕バンディット
探索と活用の戦略 ベイズ最適化と多腕バンディットH Okazaki
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習Eiji Uchibe
 
確率ロボティクス第二回
確率ロボティクス第二回確率ロボティクス第二回
確率ロボティクス第二回Ryuichi Ueda
 
Autoencoderの実装と愉快な仲間との比較
Autoencoderの実装と愉快な仲間との比較Autoencoderの実装と愉快な仲間との比較
Autoencoderの実装と愉快な仲間との比較YumaMatsuoka
 
2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)Tatsuya Yokota
 
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化Miyoshi Yuya
 
『劣モジュラ最適化と機械学習』 4章
『劣モジュラ最適化と機械学習』 4章『劣モジュラ最適化と機械学習』 4章
『劣モジュラ最適化と機械学習』 4章ayato shimada
 
がうす・まるこふ の定理とかそのへん
がうす・まるこふ の定理とかそのへんがうす・まるこふ の定理とかそのへん
がうす・まるこふ の定理とかそのへんT T
 
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
深層学習による自然言語処理入門: word2vecからBERT, GPT-3までYahoo!デベロッパーネットワーク
 
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習Deep Learning JP
 
画像認識モデルを作るための鉄板レシピ
画像認識モデルを作るための鉄板レシピ画像認識モデルを作るための鉄板レシピ
画像認識モデルを作るための鉄板レシピTakahiro Kubo
 
機械学習研究の現状とこれから
機械学習研究の現状とこれから機械学習研究の現状とこれから
機械学習研究の現状とこれからMLSE
 
パターン認識と機械学習入門
パターン認識と機械学習入門パターン認識と機械学習入門
パターン認識と機械学習入門Momoko Hayamizu
 

What's hot (20)

深層学習(講談社)のまとめ(1章~2章)
深層学習(講談社)のまとめ(1章~2章)深層学習(講談社)のまとめ(1章~2章)
深層学習(講談社)のまとめ(1章~2章)
 
CVIM#11 3. 最小化のための数値計算
CVIM#11 3. 最小化のための数値計算CVIM#11 3. 最小化のための数値計算
CVIM#11 3. 最小化のための数値計算
 
ハミルトニアンモンテカルロ法についての説明
ハミルトニアンモンテカルロ法についての説明ハミルトニアンモンテカルロ法についての説明
ハミルトニアンモンテカルロ法についての説明
 
POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用
 
PRML 上 1.2.4 ~ 1.2.6
PRML 上 1.2.4 ~ 1.2.6PRML 上 1.2.4 ~ 1.2.6
PRML 上 1.2.4 ~ 1.2.6
 
ベイズ推論による機械学習入門 第4章
ベイズ推論による機械学習入門 第4章ベイズ推論による機械学習入門 第4章
ベイズ推論による機械学習入門 第4章
 
深層学習の判断根拠を理解するための 研究とその意義 @PRMU 2017熊本
深層学習の判断根拠を理解するための 研究とその意義 @PRMU 2017熊本深層学習の判断根拠を理解するための 研究とその意義 @PRMU 2017熊本
深層学習の判断根拠を理解するための 研究とその意義 @PRMU 2017熊本
 
探索と活用の戦略 ベイズ最適化と多腕バンディット
探索と活用の戦略 ベイズ最適化と多腕バンディット探索と活用の戦略 ベイズ最適化と多腕バンディット
探索と活用の戦略 ベイズ最適化と多腕バンディット
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
 
確率ロボティクス第二回
確率ロボティクス第二回確率ロボティクス第二回
確率ロボティクス第二回
 
Autoencoderの実装と愉快な仲間との比較
Autoencoderの実装と愉快な仲間との比較Autoencoderの実装と愉快な仲間との比較
Autoencoderの実装と愉快な仲間との比較
 
2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)
 
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
 
『劣モジュラ最適化と機械学習』 4章
『劣モジュラ最適化と機械学習』 4章『劣モジュラ最適化と機械学習』 4章
『劣モジュラ最適化と機械学習』 4章
 
がうす・まるこふ の定理とかそのへん
がうす・まるこふ の定理とかそのへんがうす・まるこふ の定理とかそのへん
がうす・まるこふ の定理とかそのへん
 
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
 
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習
 
画像認識モデルを作るための鉄板レシピ
画像認識モデルを作るための鉄板レシピ画像認識モデルを作るための鉄板レシピ
画像認識モデルを作るための鉄板レシピ
 
機械学習研究の現状とこれから
機械学習研究の現状とこれから機械学習研究の現状とこれから
機械学習研究の現状とこれから
 
パターン認識と機械学習入門
パターン認識と機械学習入門パターン認識と機械学習入門
パターン認識と機械学習入門
 

More from Ai Makabi

Ansibleを使ってローカル開発環境を作ろう ( #PyLadiesTokyo Meetup )
Ansibleを使ってローカル開発環境を作ろう ( #PyLadiesTokyo Meetup ) Ansibleを使ってローカル開発環境を作ろう ( #PyLadiesTokyo Meetup )
Ansibleを使ってローカル開発環境を作ろう ( #PyLadiesTokyo Meetup ) Ai Makabi
 
Python for Beginners ( #PyLadiesKyoto Meetup )
Python for Beginners ( #PyLadiesKyoto Meetup )Python for Beginners ( #PyLadiesKyoto Meetup )
Python for Beginners ( #PyLadiesKyoto Meetup )Ai Makabi
 
単純ベイズ法による異常検知 #ml-professional
単純ベイズ法による異常検知  #ml-professional単純ベイズ法による異常検知  #ml-professional
単純ベイズ法による異常検知 #ml-professionalAi Makabi
 
Chapter 02 #ml-professional
Chapter 02  #ml-professionalChapter 02  #ml-professional
Chapter 02 #ml-professionalAi Makabi
 
ガンダムを見た事のない私が想像だけでガンダムを語る Ver.2
ガンダムを見た事のない私が想像だけでガンダムを語る Ver.2ガンダムを見た事のない私が想像だけでガンダムを語る Ver.2
ガンダムを見た事のない私が想像だけでガンダムを語る Ver.2Ai Makabi
 
Pyladies tokyo 20150123
Pyladies tokyo 20150123Pyladies tokyo 20150123
Pyladies tokyo 20150123Ai Makabi
 
Pycharm 4への誘い
Pycharm 4への誘いPycharm 4への誘い
Pycharm 4への誘いAi Makabi
 
PyLadies Tokyo 立ち上げのお知らせ
PyLadies Tokyo 立ち上げのお知らせPyLadies Tokyo 立ち上げのお知らせ
PyLadies Tokyo 立ち上げのお知らせAi Makabi
 
Juliaのススメ
JuliaのススメJuliaのススメ
JuliaのススメAi Makabi
 
バンディットアルゴリズム勉強会
バンディットアルゴリズム勉強会バンディットアルゴリズム勉強会
バンディットアルゴリズム勉強会Ai Makabi
 

More from Ai Makabi (10)

Ansibleを使ってローカル開発環境を作ろう ( #PyLadiesTokyo Meetup )
Ansibleを使ってローカル開発環境を作ろう ( #PyLadiesTokyo Meetup ) Ansibleを使ってローカル開発環境を作ろう ( #PyLadiesTokyo Meetup )
Ansibleを使ってローカル開発環境を作ろう ( #PyLadiesTokyo Meetup )
 
Python for Beginners ( #PyLadiesKyoto Meetup )
Python for Beginners ( #PyLadiesKyoto Meetup )Python for Beginners ( #PyLadiesKyoto Meetup )
Python for Beginners ( #PyLadiesKyoto Meetup )
 
単純ベイズ法による異常検知 #ml-professional
単純ベイズ法による異常検知  #ml-professional単純ベイズ法による異常検知  #ml-professional
単純ベイズ法による異常検知 #ml-professional
 
Chapter 02 #ml-professional
Chapter 02  #ml-professionalChapter 02  #ml-professional
Chapter 02 #ml-professional
 
ガンダムを見た事のない私が想像だけでガンダムを語る Ver.2
ガンダムを見た事のない私が想像だけでガンダムを語る Ver.2ガンダムを見た事のない私が想像だけでガンダムを語る Ver.2
ガンダムを見た事のない私が想像だけでガンダムを語る Ver.2
 
Pyladies tokyo 20150123
Pyladies tokyo 20150123Pyladies tokyo 20150123
Pyladies tokyo 20150123
 
Pycharm 4への誘い
Pycharm 4への誘いPycharm 4への誘い
Pycharm 4への誘い
 
PyLadies Tokyo 立ち上げのお知らせ
PyLadies Tokyo 立ち上げのお知らせPyLadies Tokyo 立ち上げのお知らせ
PyLadies Tokyo 立ち上げのお知らせ
 
Juliaのススメ
JuliaのススメJuliaのススメ
Juliaのススメ
 
バンディットアルゴリズム勉強会
バンディットアルゴリズム勉強会バンディットアルゴリズム勉強会
バンディットアルゴリズム勉強会
 

Chapter 01 #ml-professional