SlideShare a Scribd company logo
1 of 49
Download to read offline
ニューラルネットと深層学習の歴史
阿部晃典
サイバーエージェント メディアディベロップメント事業本部
LT Thursday 2016.11.24
1
自己紹介
● 名前: 阿部晃典
● GitHub: @akabe
● 略歴
○ 〜2016.3 東北の山奥で大学生活
■ プログラミング言語の基礎理論
■ ちょっと機械学習
○ 2016.4〜 サイバーエージェント(新卒入社)
■ 広告配信設定の自動化
2
今日のお話
● 大学時代のニューラルネットの歴史の調査を圧縮した内容
● 機械学習初心者向け(のつもり)
● 話すこと
○ ニューラルネットの歴史に沿って著名な研究・手法を紹介
■ 分類問題(機械学習の基礎)
■ パーセプトロン
■ 多層ニューラルネットワーク
■ 深層学習の主な研究(主観と偏見で選定)
● 話さないこと
○ プログラミング・ライブラリ・ツールの話
○ アルゴリズムや手法の詳細
3
ニューラルネット、深層学習とは?
● 人工ニューラルネットワーク
○ 生物の神経系に着想を得た機械学習モデル
○ 信号を加工する人工ニューロンを複数繋いで構成
● 深層学習(ディープラーニング)
○ ニューロンを沢山繋いだニューラルネットを使った手法の総称
■ グラフィカルモデルとかを含むこともあるけど、多くはニューラル
ネットが主役
○ 既存の手法よりも良い精度を出したので、流行っている
4
分類問題(機械学習の基礎)
5
このリンゴは美味しいですか?
青森県産で、種は5個
6
※ リンゴを食べずに、
 「美味しいかどうか」
 だけ知りたい
過去データから推定したい
x1(種の個数) x2(青森産か否か) y(美味しいか否か)
3 +1(青森産) 美味しい
4 +1(青森産) 美味しい
3 -1(青森産ではない) まずい
4 -1(青森産ではない) まずい
6 -1(青森産ではない) 美味しい
5 +1(青森産) 不明
過去のデータ
7
座標空間で考える
8
美味しい
まずい
不明
たぶん、美味しい
青森産 (+1)
青森産
でない (-1)
種の個数(x1)
x2
美味しい・まずいを分離境界で判断
9
美味しい
まずい
不明
青森産 (+1)
青森産
でない (-1)
種の個数 (x1)
x2
分離境界を引いて、
● 上:美味しい
● 下:まずい
分離境界を数式で表す
10
美味しい
まずい
不明
青森産 (+1)
青森産
でない (-1)
種の個数(x1)
x2
f(x1, x2) = 0
f(x1, x2) < 0
f(x1, x2) > 0
f(x1, x2) = -3 + 1 * x1 + 2 * x2
重みと特徴
11
f(x1, x2) = -3 + 1 * x1 + 2 * x2
特徴重み
● 特徴 (feature)
○ 直感的には分類に用いる指標
○ 人間が悩みながら決める(特徴職人)
○ 一部のタスクでは、深層学習で特徴も獲得することができる
● 重み (weight)
○ 直感的には特徴の重要度
○ 教師データから機械学習で 自動的に計算する(学習・訓練)
ニューラルネット基礎研究の開花 (‘40s〜’50s)
重みの学習方法が発明されたのは50年代後半
● 1943 Threshold logic units (TLU) [McCulloch & Pitts]
○ 人工ニューロンの数理モデル
● 1949 Hebbian learning rule [Hebb]
○ ニューロンの学習のメカニズム
● 1951 The Snark [Minsky]
○ 世界初のニューロコンピュータ(ちゃんと学習出来なかった)
● 1957 Perceptron [Rosenblatt]
○ 初めて、まともに重みを学習できるようになった
12
1950〜60年代
ニューラルネットの黄金期
(パーセプトロンの流行)
13
パーセプトロン [Rosenblatt 1957]
● 教師データを元に重み (= 分離境界) を自動的に求める手法の1つ
● 単一の人工ニューロンで構成(1層のニューラルネット)
● 簡単なアルゴリズムで重みを計算することができる
○ 学習は反復法(ランダムな初期値から徐々に解に近づけていく)
14
x1
x2
x3
w1
w2
w3
y
y = sign(w1 * x1 + w2 * x2 + w3 * x3)
特徴量
(入力)
重み
クラス
(出力)
パーセプトロンの学習 (1)
まず、ランダムに分離境界を引く
15
パーセプトロンの学習 (2)
点を1つ選んで正しく分離できているかチェック
16
【間違った予測】
本当は赤なのに
青と判定されている
パーセプトロンの学習 (3)
予測が間違いなら、正しく予測できる方向に境界を移動
17
分離境界を移動
正しく予測できる
ようになった
パーセプトロンの学習 (4)
点の選択と境界の移動を反復して、正しい境界を求める
18
パーセプトロンの収束定理 [Rosenblatt 1962]
与えられた教師データが線形分離可能(直線で分離できる)ならば、必ず
● パーセプトロンの学習が収束して、
● 教師データ内の全ての点を正しく分類する重みを求める
ことができる。
19
パーセプトロン、
いいじゃん!
20
パーセプトロン関連研究が盛んに (‘50s〜’60s)
● 1957 Perceptron [Rosenblatt]
○ 初めて、まともに重みを学習できるようになった
● 1958 The Mark I Perceptron [Rosenblatt, Wightman+]
○ 画像認識用のニューロコンピュータ
● 1960 ADALINE [Widrow & Hoff]
○ Perceptron の改良版
● 1962 Perceptron convergence theorem [Rosenblatt]
○ 線形分離可能ならば、訓練データを全て正しく分類できる
21
Mark I Perceptron
22
1970年代
黄金期の終焉/冬の時代
23
パーセプトロンの欠点
● ノイズに弱い
● 収束が遅い
● 線形分離不可能なのとき、重みを学習できない [Minsky & Papert 1969]
○ 現実には線形分離でない問題も多い
● 多層化(パーセプトロン同士を接続)したときに、学習できなかった
○ 学習に必要な中間素子の信号を推定する方法がない
○ 多層化できれば、線形分離不可能な問題も解けるのに...
24
1980年代
黄金期の再来(多層ニューラルネット)
25
多層ニューラルネット
● 複数の人工ニューロンを接続して作ったネットワーク
○ 「層 (layer)」という単位でネットワークの規模を図ることが多い
● 線形分離ではない問題も解ける(= 曲線の分離境界を引ける)
● 学習:勾配法 + 誤差逆伝搬法 [Rumelhart, Hinton & Williams 1986]
○ ニューラルネットの微分を効率的に計算できるようになった
26
第4層
第1層
第2層
第3層
人工ニューロンの出力情報の変移
● 1950〜60年代
○ 人工ニューロンの出力は 真偽値(あるクラスに属するか否かの情報のみ)
○ 人工ニューロンは重みと特徴の線形和の符号のみを出力(ステップ関数)
■ 微分との相性がすこぶる悪い
● 1980年代
○ 人工ニューロンの出力は 確率値(あるクラスに属する確率)
○ 重みと特徴の線形和をシグモイド関数で変換
■ シグモイド関数は微分との相性が良い (微分の計算コストが小さい)
● 最近
○ 主に折れ線関数を使うのが一般的(後述)
27
万能近似 [Cybenko 1989 等]
● 隠れ層(中間層)に十分な数のニューロンがあれば、2層ニューラルネットは任意の
連続関数を近似できる。
28
y = |x| y = sin(x) y = -x^2
多層ニューラルネット、
いいじゃん!
29
30
1990〜2000年代
冬の時代、再び
31
多層ニューラルネットの欠点
多層ニューラルネットの強力さは諸刃の剣だった。
● 過学習
● 勾配の消失
32
過学習 (over-fitting)
ちょっとした誤差等に引きずられてメチャメチャな分離境界を引いてしまう。
33
勾配の消失 (vanishing gradient)
学習が出力層付近で完結してしまい、下層部の存在意義がない。
34
さよなら、ニューラルネット
After being extremely popular in the early 1990s, neural networks have fallen out
of favor in research in the last 5 years. In 2000, it was even pointed out by the
organizers of the Neural Information Processing System (NIPS) conference that
the term “neural networks” in the submission title was negatively correlated with
acceptance. In contrast, positive correlations were made with support vector
machines (SVMs), Bayesian networks, and variational methods.
[Simard+ ICDAR2003]
35
2000年代後半〜
3度目の黄金期(深層学習)
36
2006ごろから諸問題が徐々に解決
規模の大きなニューラルネットが使えるようになってきた。
● RBM による教師なし事前学習 [Hinton & Salakhutdinov ‘06]
○ 浅いニューラルネットで予め「良い初期値」を教師なし学習する。
○ 深いニューラルネットに良い初期値を入れて教師あり学習すると、精度が上がる。
● ReLU (Rectified linear units) [Nair & Hinton ‘10], Maxout [Godfellow ‘13]
○ シグモイド関数の代わりに折れ線近似した関数を使って、勾配消失を防ぐ。
○ これ以降は折れ線関数を使うのが一般的になった。
● Dropout [Hinton+ ‘12]
○ ランダムにニューロンを欠落させながら学習すると、精度が上がる。
計算機能力の向上も大きい。
37
画像認識コンペでの圧勝 [Krizhevsky, Ilya & Hinton, NIPS‘12]
● ImageNet Large Scale Visual Recognition Challange (ILSVRC) 2012
○ 写真に写っている物体を識別するコンペ( 1000 クラス)
● トロント大学の Hinton らのチームが大差で優勝
38
チーム 誤差
SuperVision 0.15315
ISI 0.26172
OXFORD_VGG 0.26979
深層化による発見 [Lee+ ICML’09]
● 下位層で得られた特徴から、上位層でより高度な特徴を学習
● 最下層への入力はピクセル生データで良い
○ 従来は SIFT などの特徴抽出を自力で行う必要があった。
39
エッジ成分
(下位層)
顔のパーツ
(中間層)
人の顔
(上位層)
おばあさん細胞の再現 (Google) [Le+ ICML’12]
● おばあさん細胞仮説
○ 自分のおばあさんを見たときだけ強く反応する細胞
○ 一般に、複合的な概念を表現するニューロン(仮想的な
存在)
● 自動的におばあさん細胞らしきものを獲得
○ モデル:9 層オートエンコーダ
○ 訓練集合:一千万枚の画像
40
自然言語処理への応用
● 単語をベクトル表現に変換 [Mikolov+ ICLR’13]
○ word2vec とかで有名アレ
○ vec(“King”) - vec(“Man”) + vec(“Woman”) ≒ vec(“Queen”)
● 句・文をベクトル表現に変換 [Socher+ EMNLP’11, NIPS’11]
○ 似た意味の文は似たようなベクトルに変換される
41
他の分野への応用
● Deep Q-learning [Mnih+ ‘13]
○ クラシックゲームを畳み込みニューラルネットで強化学習
○ 画面のピクセルデータから、プレイ方法を獲得させる
○ 長期戦略が不要なゲームでは熟練者に勝利
● Execute to learning [Zaremba+ ‘14]
○ ソースコードから実行結果をリカレントニューラルネットで学習
○ 文字単位で入力
42
まとめ
栄枯盛衰
43
Appendix
44
多層ニューラルネットの学習 (1)
ニューラルネットの重みを適当に初期化する
● ニューラルネットの各矢印に重みが対応
● 全ての重みをランダムに初期化
45
第4層
第1層
第2層
第3層
多層ニューラルネットの学習 (2)
適当な教師入力を順伝搬
● 教師データから任意に点を1つ選ぶ
● 教師入力をニューラルネットに入力
● 出力側に向かって順方向伝搬
● 予測結果が出力される
46
第4層
第1層
第2層
第3層
教師入力
予測結果
多層ニューラルネットの学習 (3)
予測結果と教師出力から誤差(の勾配)を計算
47
第4層
第1層
第2層
第3層
誤差勾配予測結果 教師出力
多層ニューラルネットの学習 (4)
誤差の勾配を逆伝搬
● 出力側に誤差の勾配を入力
● 出力から入力に向かって逆伝搬
● 入力側からニューラルネット全体の勾配が
出力
48
第4層
第1層
第2層
第3層
誤差勾配
ニューラルネット全
体の勾配
過学習の検出
過学習すると、訓練集合の誤差が小さいのに、テスト集合の誤差が大きくなる
49

More Related Content

What's hot

ドメイン適応の原理と応用
ドメイン適応の原理と応用ドメイン適応の原理と応用
ドメイン適応の原理と応用Yoshitaka Ushiku
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -tmtm otm
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)RyuichiKanoh
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Yusuke Uchida
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門tmtm otm
 
ブースティング入門
ブースティング入門ブースティング入門
ブースティング入門Retrieva inc.
 
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and EditingDeep Learning JP
 
[DL輪読会]When Does Label Smoothing Help?
[DL輪読会]When Does Label Smoothing Help?[DL輪読会]When Does Label Smoothing Help?
[DL輪読会]When Does Label Smoothing Help?Deep Learning JP
 
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習Deep Learning JP
 
ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)
ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)
ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)Masakazu Iwamura
 
Generative Models(メタサーベイ )
Generative Models(メタサーベイ )Generative Models(メタサーベイ )
Generative Models(メタサーベイ )cvpaper. challenge
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向Motokawa Tetsuya
 
SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​
SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​
SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​SSII
 
Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)Yamato OKAMOTO
 
DNNの曖昧性に関する研究動向
DNNの曖昧性に関する研究動向DNNの曖昧性に関する研究動向
DNNの曖昧性に関する研究動向Naoki Matsunaga
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門Shuyo Nakatani
 
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報Deep Learning JP
 
[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object Detection[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object DetectionDeep Learning JP
 

What's hot (20)

ドメイン適応の原理と応用
ドメイン適応の原理と応用ドメイン適応の原理と応用
ドメイン適応の原理と応用
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
 
ブースティング入門
ブースティング入門ブースティング入門
ブースティング入門
 
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
 
[DL輪読会]When Does Label Smoothing Help?
[DL輪読会]When Does Label Smoothing Help?[DL輪読会]When Does Label Smoothing Help?
[DL輪読会]When Does Label Smoothing Help?
 
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習
 
ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)
ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)
ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)
 
Generative Models(メタサーベイ )
Generative Models(メタサーベイ )Generative Models(メタサーベイ )
Generative Models(メタサーベイ )
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向
 
SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​
SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​
SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​
 
Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)
 
DNNの曖昧性に関する研究動向
DNNの曖昧性に関する研究動向DNNの曖昧性に関する研究動向
DNNの曖昧性に関する研究動向
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門
 
実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE
 
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報
 
[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object Detection[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object Detection
 

Viewers also liked

トピックモデルを用いた 潜在ファッション嗜好の推定
トピックモデルを用いた 潜在ファッション嗜好の推定トピックモデルを用いた 潜在ファッション嗜好の推定
トピックモデルを用いた 潜在ファッション嗜好の推定Takashi Kaneda
 
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-Naoki Yanai
 
パターン認識 第10章 決定木
パターン認識 第10章 決定木 パターン認識 第10章 決定木
パターン認識 第10章 決定木 Miyoshi Yuya
 
今日から使える! みんなのクラスタリング超入門
今日から使える! みんなのクラスタリング超入門今日から使える! みんなのクラスタリング超入門
今日から使える! みんなのクラスタリング超入門toilet_lunch
 
Simple perceptron by TJO
Simple perceptron by TJOSimple perceptron by TJO
Simple perceptron by TJOTakashi J OZAKI
 
バンディットアルゴリズム入門と実践
バンディットアルゴリズム入門と実践バンディットアルゴリズム入門と実践
バンディットアルゴリズム入門と実践智之 村上
 
SVMについて
SVMについてSVMについて
SVMについてmknh1122
 
機会学習ハッカソン:ランダムフォレスト
機会学習ハッカソン:ランダムフォレスト機会学習ハッカソン:ランダムフォレスト
機会学習ハッカソン:ランダムフォレストTeppei Baba
 
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tatsuya Tojima
 
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京Koichi Hamada
 
ロジスティック回帰の考え方・使い方 - TokyoR #33
ロジスティック回帰の考え方・使い方 - TokyoR #33ロジスティック回帰の考え方・使い方 - TokyoR #33
ロジスティック回帰の考え方・使い方 - TokyoR #33horihorio
 
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual TalksYuya Unno
 

Viewers also liked (15)

トピックモデルを用いた 潜在ファッション嗜好の推定
トピックモデルを用いた 潜在ファッション嗜好の推定トピックモデルを用いた 潜在ファッション嗜好の推定
トピックモデルを用いた 潜在ファッション嗜好の推定
 
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-
 
パターン認識 第10章 決定木
パターン認識 第10章 決定木 パターン認識 第10章 決定木
パターン認識 第10章 決定木
 
今日から使える! みんなのクラスタリング超入門
今日から使える! みんなのクラスタリング超入門今日から使える! みんなのクラスタリング超入門
今日から使える! みんなのクラスタリング超入門
 
Simple perceptron by TJO
Simple perceptron by TJOSimple perceptron by TJO
Simple perceptron by TJO
 
バンディットアルゴリズム入門と実践
バンディットアルゴリズム入門と実践バンディットアルゴリズム入門と実践
バンディットアルゴリズム入門と実践
 
決定木学習
決定木学習決定木学習
決定木学習
 
SVMについて
SVMについてSVMについて
SVMについて
 
機会学習ハッカソン:ランダムフォレスト
機会学習ハッカソン:ランダムフォレスト機会学習ハッカソン:ランダムフォレスト
機会学習ハッカソン:ランダムフォレスト
 
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
 
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
 
ロジスティック回帰の考え方・使い方 - TokyoR #33
ロジスティック回帰の考え方・使い方 - TokyoR #33ロジスティック回帰の考え方・使い方 - TokyoR #33
ロジスティック回帰の考え方・使い方 - TokyoR #33
 
一般向けのDeep Learning
一般向けのDeep Learning一般向けのDeep Learning
一般向けのDeep Learning
 
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks
 
Deep parking
Deep parkingDeep parking
Deep parking
 

Similar to ニューラルネットと深層学習の歴史

深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理Taiji Suzuki
 
令和元年度 実践セミナー - Deep Learning 概論 -
令和元年度 実践セミナー - Deep Learning 概論 -令和元年度 実践セミナー - Deep Learning 概論 -
令和元年度 実践セミナー - Deep Learning 概論 -Yutaka KATAYAMA
 
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化marsee101
 
Structural data analysis based on multilayer networks
Structural data analysis based on multilayer networksStructural data analysis based on multilayer networks
Structural data analysis based on multilayer networkstm1966
 
深層学習の基礎と導入
深層学習の基礎と導入深層学習の基礎と導入
深層学習の基礎と導入Kazuki Motohashi
 
教師なしオブジェクトマッチング(第2回ステアラボ人工知能セミナー)
教師なしオブジェクトマッチング(第2回ステアラボ人工知能セミナー)教師なしオブジェクトマッチング(第2回ステアラボ人工知能セミナー)
教師なしオブジェクトマッチング(第2回ステアラボ人工知能セミナー)STAIR Lab, Chiba Institute of Technology
 
点群深層学習 Meta-study
点群深層学習 Meta-study点群深層学習 Meta-study
点群深層学習 Meta-studyNaoya Chiba
 
Convolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をするConvolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をするDaiki Shimada
 
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?Masanao Ochi
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!TransformerArithmer Inc.
 
Learning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for GraphsLearning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for GraphsTakuya Akiba
 
Learning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for GraphsLearning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for GraphsTakuya Akiba
 

Similar to ニューラルネットと深層学習の歴史 (13)

深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
 
令和元年度 実践セミナー - Deep Learning 概論 -
令和元年度 実践セミナー - Deep Learning 概論 -令和元年度 実践セミナー - Deep Learning 概論 -
令和元年度 実践セミナー - Deep Learning 概論 -
 
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
 
Structural data analysis based on multilayer networks
Structural data analysis based on multilayer networksStructural data analysis based on multilayer networks
Structural data analysis based on multilayer networks
 
深層学習の基礎と導入
深層学習の基礎と導入深層学習の基礎と導入
深層学習の基礎と導入
 
教師なしオブジェクトマッチング(第2回ステアラボ人工知能セミナー)
教師なしオブジェクトマッチング(第2回ステアラボ人工知能セミナー)教師なしオブジェクトマッチング(第2回ステアラボ人工知能セミナー)
教師なしオブジェクトマッチング(第2回ステアラボ人工知能セミナー)
 
Jsai2020
Jsai2020Jsai2020
Jsai2020
 
点群深層学習 Meta-study
点群深層学習 Meta-study点群深層学習 Meta-study
点群深層学習 Meta-study
 
Convolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をするConvolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をする
 
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
Learning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for GraphsLearning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for Graphs
 
Learning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for GraphsLearning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for Graphs
 

ニューラルネットと深層学習の歴史