SlideShare a Scribd company logo
1 of 53
Download to read offline
サポートベクターマシン入門
〜オブジェクト自動識別システムの構築〜
@salinger001101
さりんじゃー	
1
自己紹介
•  新潟にある長岡技術科学大学で修士まで6年。
•  4月からデータ分析のお仕事始めました。
•  職場まで徒歩0分です。
•  主な使用言語
•  Python、R、シェルスクリプト  (+  mcmd)
•  Clojure  もちょこちょこ学習中
•  前々回の  Tokyo.R  では  「R  でダイエット」  という
タイトルで  LT  しました。
•  http://www.slideshare.net/tojimat/diet-by-r
2
注意
•  内容は個人の見解であり、
所属する組織の公式見解ではありません。
•  って言っとけばだいたいセーフらしい。
•  数式少なめ
•  適当な説明になってる部分が多々あり。
3
今回の内容
1.  はじめに
2.  サポートベクターマシンの理論
3.  最適化のお話
4.  オブジェクトの識別
4
今回の内容
1.  はじめに
2.  サポートベクターマシンの理論
3.  最適化のお話
4.  オブジェクトの識別
5
突然ですが…
6
次の画像を
2種類に分けるなら、
どのように分ける?
7
分けるとしたら…
8
眼鏡っ娘他
9
もしこの識別が
コンピュータで
自動化できれば…	
10
  ネットの海
      眼鏡っ娘  分類器
俺
画像を大量に自動収集
大量の眼鏡っ娘画像
=  幸せ  
11
分類器作成のための機械学習の手法
• サポートベクターマシン
• ランダムフォレスト
• 単純ベイズ分類器
• ニューラルネットワーク
etc.
今回は
これを詳しく
12
今回の内容
1.  はじめに
2.  サポートベクターマシンの理論
3.  最適化のお話
4.  オブジェクトの識別
13
未知の        は        と        どちらに分類される?
14
2つのグループ間のマージンが
最大になるような  P  を決定する
P:  分離超平面
15
       はどちら側?
P
16
サポートベクターマシン  (SVM)  とは?
•  教師あり学習  (入力例を与える)
•  さっきの例では          &        が学習データ
未知の        を分類する        
•  マージン最大化学習を行う2値分類器
•  分離超平面を決定する
•  線形分類器  (真っ直ぐなものしか切れない)
だったのだが…
17
Q:  じゃあ、こういう場合どうするの?
18
高次元空間に射影すると…
(空間の方をねじ曲げる)
y = Φ(x)	
19
A:  直線で切れる!
20
これと等価
21
カーネル法の話
•  非線形なカーネル関数により、
非線形な識別関数を学習可能。
•  カーネル関数を取り入れた一連の手法では、
どのような写像が行われるか知らずに
計算できる。
⇒  カーネルトリック
線形以外のカーネル関数を使うと、
さっきの図のような変換をやってくれる。
22
カーネル関数の例
•  線形
(Linear)
•  多項式
(Polynomial)
•  RBF:  “Gaussian”
(Radial  Basis  Function)
•  シグモイド(Sigmoid)
K( ix , jx ) = i
T
x jx
K( ix , jx ) = exp(−γ i
T
x − jx
2
)
K( ix , jx ) = (γ i
T
x jx +r)d
(γ > 0)
(γ > 0)
K( ix , jx ) = tanh(γ i
T
x jx +r)
基本的に普段使うのは  線形カーネル  と、
非線形の  RBFカーネル  ぐらい。RBF  の名前だけは覚えておこう。
23
マージンの話
•  問題を解く際には、どの程度誤りを許容するかが問題となる。
•  コストパラメータ:C  で決定する。
分類精度を向上させるためには適当さも必要
C  が大きい C  が小さい= =
or
24
実際にSVMを
使いたいときは
これを自力実装?
25
R  で使える  SVM  のライブラリ
•  e1071
•  Libsvm  のアルゴリズム(Chang  and  Lin,  2001)を
利用することができる。視覚化やパラメーター調整などを
行なえる(Dimitriadou  et  al.,  2005)。
•  kernlab
•  カーネル法に基づく  SVM  アルゴリズムを利用できる。
そのほかに、libsvm  や  bsvm  (Hsu  and  Lin,  2002)  を
改良した柔軟性のある  SVM  を提供している。
•  klaR
•  SVMlight  アルゴリズムを利用できる。
26
今回の内容
1.  はじめに
2.  サポートベクターマシンの理論
3.  最適化のお話
4.  オブジェクトの識別
27
SVMのダメな使い方
1.  データをSVMで使えるように整形。
2.  デフォルトのパラメータで試行。
3.  「精度悪いなぁ…」
4.  「パラメータの調整とやらで精度が上がるらしいぞ?」
5.  適当に選択したカーネルとパラメータで試行。
6.  「精度悪いなぁ…別の手法試すか…」
ダメ!絶対!
28
BETTERな手順
1.  データをSVMで使えるように整形。
2.  素性の選択
3.  データのスケーリング
4.  カーネルの決定
5.  交差検定・グリッドサーチにより、
最適なコストやカーネルのパラメータを調べる。
6.  実行!
29
1.  データの整形
•  学習用データ
•  「素性ベクトル」  と  「正解ラベル」  のペア
•  本番用のデータ
•  学習用に使用した素性ベクトルと
同じ要素数からなる素性ベクトル
v1:  [  [0.50,  0.33,  -0.21],
                [0.12,  0.98,    1.34],
                …                                                    ]
l:  [  1,
        -1,
        …        ]
v2:  [  [0.23,  0.55,  -0.19],
                [0.10,  0.24,    0.78],
                …                                                    ]
O:  [  1,
            -1,
            …        ]
システムの出力
30
2.  素性の選択(1)
•  数値データ
•  そのまま使用 [10.0,  2.5,  6.4,  -8.2]
•  範囲ごとに分割 [10,  0,  5,  -10]
•  バイナリ化 [1,  1,  1,  0]
•  テキストデータ
•  単語の出現回数  (n-gram)
•  品詞情報  等を数値化
•  画像・音声データ
•  元データをそのまま行列からベクトルに
•  フィルタリング
•  圧縮して単純化
•  フーリエ変換・ウェーブレット変換  等
31
2.  素性の選択(2)
•  次元の呪い  (curse  of  dimensionality)
•  超高次元になるとモデルが複雑に
•  学習データが不足する。
•  球面集中現象
•  次元の増加に伴って各データ間の距離が
互いに等しくなる。
•  まとめられるものはまとめる  ⇒  特徴選択・次元削減
      Ex.  単語の出現回数  ⇒  類語をまとめてカウント
32
3.  スケーリングの話
•  値のとりうる範囲が大きい素性が支配的に
•  正規化したほうが良い結果になる場合も
例.   -118  <=  x  <=  200
0  <=  x  <=  1    or    -1  <=  x  <=  1
33
4.カーネル関数の決定
•  基本はRBFカーネルでOK。
(気になる人は後で補足部分読んで)
34
5.  パラメータの決定
•  RBFカーネルの場合
•  コストパラメータ:C
•  カーネルパラメータ:γ
•  最適なパラメータは?
⇒  交差検定  ・  グリッドサーチ  を利用し決定。
35
5.1  交差検定
•  訓練データとテストデータの分割方法
1 2 3 4 5 全データをk個に分割
1
2 3 4 5
テストデータ
訓練データ 1 2 3 4
5
〜
•  k  回試行してその平均を利用
•  テストデータは常に未知のデータ
⇒  過剰適応  (Over  fitting)  を防げる。
テストデータ
訓練データ
36
5.2.  グリッドサーチ
•  2種類のパラメータを網羅的に探索
•  グラフの赤い点を網羅的に試す。(粗  ⇒  細)
•  指数増加列がよい。
    Ex.  C  =  2n  (n  =  -5  〜  15),    γ  =  2m  (m  =  -15  〜  3)
0
1
2
3
4
5
6
0 1 2 3 4 5 6
log2γ	
log2C	
37
最適化のまとめ
•  素性の選択大事!
•  とりあえず、RBFカーネルでOK!
•  パラメータ調整大事!
38
今回の内容
1.  はじめに
2.  サポートベクターマシンの理論
3.  最適化のお話
4.  オブジェクトの識別
39
サンプルコード
•  ここにあります!
https://github.com/Salinger/glasses_classifier/blob/
master/glasses_classifier.R
•  ただし、学習データセットは含めていないので、
サンプルコードを実行したい場合は自分で
画像を集めてきてください。
•  ていうか、学習データ足らないので眼鏡っ娘
画像持ってる方、ください。
40
用意したデータ
•  データ数
•  学習  &  チューニング用データ
•  眼鏡っ娘画像:  75枚 他:  75枚
計150枚
•  テスト用データ  (作成した分類器の動作確認用)
•  眼鏡っ娘画像:  3枚 他:  3枚
計  6枚
•  内容
•  ネットで拾ったアニメのキャプ画。
•  主に人物単体写ってるもの
•  基本顔がはっきりとわかるもの。
41
biOps ライブラリ  で画像を加工
42
1.  元画像 2.  グレースケール変換
3.  エッジ検出 4.  ダウンサイジング  (48x27)
要素  (次元)  数  1296  の  素性ベクトル
(眼鏡:75  個  Not:  75  個  計150個)
5.
0〜1に
なるよう
正規化
imgRGB2Grey()	
imgCanny()	
imgAverageShrink()	
vec / 255
動作確認
•  SVMは  R  の  e1071  ライブラリを利用。
•  RBFカーネル  &  デフォルトパラメータで試行。
•  交差検定は  分割数  =  学習データ数  
とする  Leave-one-out  法  を用いる。
•  今回の場合149個学習させて残り1個を分類
結果やいかに?
43
動作確認の結果
44
•  2値分類なので、完全ランダムに振り分けた
とすると分類精度は理論上  50  %  。
•  ランダムよりはだいぶ良くなってる。
グリッドサーチで最適なパラメータを決定
45
Gamma	
Cost	
誤分類率	
良
悪
最適化の結果
•  精度  7割  達成。
•  このあたりが単純な手法だと限界っぽい。
•  実用化はまだまだっぽい。
46
テスト用データを分類
47
眼鏡 眼鏡 眼鏡じゃない
眼鏡じゃない 眼鏡じゃない 眼鏡
•  素性ベクトルの作成方法等をもっと工夫すれば
もっと精度上がるかも。
眼鏡っ娘いいよね
あとSVMって便利だね
本日のまとめ
48
参考文献
・SVM実践ガイド  (A  Practical  Guide  to  Support  Vector  Classification)
http://d.hatena.ne.jp/sleepy_yoshi/20120624/p1
・カーネル法
http://www.eb.waseda.ac.jp/murata/research/kernel
・TAKASHI  ISHIDA HomePage  SVM
http://www.bi.a.u-tokyo.ac.jp/~tak/svm.html
・バイオインフォマティクス  Rで行うSVM解析,  e1071,  kernlab,  klaR  パッケージの使い方  
http://bi.biopapyrus.net/compute/r-svm.html
・眼鏡っ娘分類器  サンプルコード
(学習データを含んでいないので、そのまま実行はできない)
https://github.com/Salinger/glasses_classifier/blob/master/glasses_classifier.R
49
補足資料
50
カーネル関数の決定(1)
•  最初に試すのはRBFカーネル
•  事前知識がない場合これが無難
•  高次元の非線形空間
•  線形カーネルはRBFカーネルの特殊系
•  シグモイドカーネルもRBFカーネルとほぼ同じように動作
•  γパラメータ  +  Cパラメータ  のみの調整で良い
•  じゃ他のカーネルを使う場合はあるの?
51
カーネル関数の決定(2)
•  線形カーネルの利点
•  高速な  LIBLINEAR  が使用出来る
•  Cパラメータのみの調整で良い
•  事前に線形分離できると予想できる場合
                ⇒  線形カーネルを用いるほうがいいかも
52
カーネル関数の決定(3)
1.  事例数  <<  素性数  の場合
•  素性が高次元なので写像する必要がない
•  線形カーネルを使うべき
2.  事例数  >>  素性数  の場合
•  非線形カーネルを利用して高次元に写像すべき
3.  事例数も素性数も大きい  場合
•  学習に時間がかかる。LIBSVMが苦手なケース
•  線形カーネル  &  LIBLINEARの利用を検討
53

More Related Content

What's hot

組合せ最適化入門:線形計画から整数計画まで
組合せ最適化入門:線形計画から整数計画まで組合せ最適化入門:線形計画から整数計画まで
組合せ最適化入門:線形計画から整数計画までShunji Umetani
 
大規模言語モデルとChatGPT
大規模言語モデルとChatGPT大規模言語モデルとChatGPT
大規模言語モデルとChatGPTnlab_utokyo
 
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明Satoshi Hara
 
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement LearningPreferred Networks
 
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)Shota Imai
 
強化学習その3
強化学習その3強化学習その3
強化学習その3nishio
 
トップカンファレンスへの論文採択に向けて(AI研究分野版)/ Toward paper acceptance at top conferences (AI...
トップカンファレンスへの論文採択に向けて(AI研究分野版)/ Toward paper acceptance at top conferences (AI...トップカンファレンスへの論文採択に向けて(AI研究分野版)/ Toward paper acceptance at top conferences (AI...
トップカンファレンスへの論文採択に向けて(AI研究分野版)/ Toward paper acceptance at top conferences (AI...JunSuzuki21
 
ブレインパッドにおける機械学習プロジェクトの進め方
ブレインパッドにおける機械学習プロジェクトの進め方ブレインパッドにおける機械学習プロジェクトの進め方
ブレインパッドにおける機械学習プロジェクトの進め方BrainPad Inc.
 
機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論Taiji Suzuki
 
DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜Jun Okumura
 
AIと最適化の違いをうっかり聞いてしまう前に
AIと最適化の違いをうっかり聞いてしまう前にAIと最適化の違いをうっかり聞いてしまう前に
AIと最適化の違いをうっかり聞いてしまう前にMonta Yashi
 
研究の基本ツール
研究の基本ツール研究の基本ツール
研究の基本ツール由来 藤原
 
K meansによるクラスタリングの解説と具体的なクラスタリングの活用方法の紹介
K meansによるクラスタリングの解説と具体的なクラスタリングの活用方法の紹介K meansによるクラスタリングの解説と具体的なクラスタリングの活用方法の紹介
K meansによるクラスタリングの解説と具体的なクラスタリングの活用方法の紹介Takeshi Mikami
 
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章Hakky St
 
不均衡データのクラス分類
不均衡データのクラス分類不均衡データのクラス分類
不均衡データのクラス分類Shintaro Fukushima
 
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
深層学習による自然言語処理入門: word2vecからBERT, GPT-3までYahoo!デベロッパーネットワーク
 
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII
 
5 クラスタリングと異常検出
5 クラスタリングと異常検出5 クラスタリングと異常検出
5 クラスタリングと異常検出Seiichi Uchida
 
機械学習で嘘をつく話
機械学習で嘘をつく話機械学習で嘘をつく話
機械学習で嘘をつく話Satoshi Hara
 
ノンパラベイズ入門の入門
ノンパラベイズ入門の入門ノンパラベイズ入門の入門
ノンパラベイズ入門の入門Shuyo Nakatani
 

What's hot (20)

組合せ最適化入門:線形計画から整数計画まで
組合せ最適化入門:線形計画から整数計画まで組合せ最適化入門:線形計画から整数計画まで
組合せ最適化入門:線形計画から整数計画まで
 
大規模言語モデルとChatGPT
大規模言語モデルとChatGPT大規模言語モデルとChatGPT
大規模言語モデルとChatGPT
 
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明
 
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
 
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
 
強化学習その3
強化学習その3強化学習その3
強化学習その3
 
トップカンファレンスへの論文採択に向けて(AI研究分野版)/ Toward paper acceptance at top conferences (AI...
トップカンファレンスへの論文採択に向けて(AI研究分野版)/ Toward paper acceptance at top conferences (AI...トップカンファレンスへの論文採択に向けて(AI研究分野版)/ Toward paper acceptance at top conferences (AI...
トップカンファレンスへの論文採択に向けて(AI研究分野版)/ Toward paper acceptance at top conferences (AI...
 
ブレインパッドにおける機械学習プロジェクトの進め方
ブレインパッドにおける機械学習プロジェクトの進め方ブレインパッドにおける機械学習プロジェクトの進め方
ブレインパッドにおける機械学習プロジェクトの進め方
 
機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論
 
DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜
 
AIと最適化の違いをうっかり聞いてしまう前に
AIと最適化の違いをうっかり聞いてしまう前にAIと最適化の違いをうっかり聞いてしまう前に
AIと最適化の違いをうっかり聞いてしまう前に
 
研究の基本ツール
研究の基本ツール研究の基本ツール
研究の基本ツール
 
K meansによるクラスタリングの解説と具体的なクラスタリングの活用方法の紹介
K meansによるクラスタリングの解説と具体的なクラスタリングの活用方法の紹介K meansによるクラスタリングの解説と具体的なクラスタリングの活用方法の紹介
K meansによるクラスタリングの解説と具体的なクラスタリングの活用方法の紹介
 
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
 
不均衡データのクラス分類
不均衡データのクラス分類不均衡データのクラス分類
不均衡データのクラス分類
 
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
 
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
 
5 クラスタリングと異常検出
5 クラスタリングと異常検出5 クラスタリングと異常検出
5 クラスタリングと異常検出
 
機械学習で嘘をつく話
機械学習で嘘をつく話機械学習で嘘をつく話
機械学習で嘘をつく話
 
ノンパラベイズ入門の入門
ノンパラベイズ入門の入門ノンパラベイズ入門の入門
ノンパラベイズ入門の入門
 

Viewers also liked

SVMについて
SVMについてSVMについて
SVMについてmknh1122
 
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-Naoki Yanai
 
パターン認識 第10章 決定木
パターン認識 第10章 決定木 パターン認識 第10章 決定木
パターン認識 第10章 決定木 Miyoshi Yuya
 
今日から使える! みんなのクラスタリング超入門
今日から使える! みんなのクラスタリング超入門今日から使える! みんなのクラスタリング超入門
今日から使える! みんなのクラスタリング超入門toilet_lunch
 
バンディットアルゴリズム入門と実践
バンディットアルゴリズム入門と実践バンディットアルゴリズム入門と実践
バンディットアルゴリズム入門と実践智之 村上
 
トピックモデルを用いた 潜在ファッション嗜好の推定
トピックモデルを用いた 潜在ファッション嗜好の推定トピックモデルを用いた 潜在ファッション嗜好の推定
トピックモデルを用いた 潜在ファッション嗜好の推定Takashi Kaneda
 
機会学習ハッカソン:ランダムフォレスト
機会学習ハッカソン:ランダムフォレスト機会学習ハッカソン:ランダムフォレスト
機会学習ハッカソン:ランダムフォレストTeppei Baba
 
Simple perceptron by TJO
Simple perceptron by TJOSimple perceptron by TJO
Simple perceptron by TJOTakashi J OZAKI
 
ロジスティック回帰の考え方・使い方 - TokyoR #33
ロジスティック回帰の考え方・使い方 - TokyoR #33ロジスティック回帰の考え方・使い方 - TokyoR #33
ロジスティック回帰の考え方・使い方 - TokyoR #33horihorio
 
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京Koichi Hamada
 
Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識Ken Morishita
 
機械学習概論 講義テキスト
機械学習概論 講義テキスト機械学習概論 講義テキスト
機械学習概論 講義テキストEtsuji Nakai
 
Chainerチュートリアル -v1.5向け- ViEW2015
Chainerチュートリアル -v1.5向け- ViEW2015Chainerチュートリアル -v1.5向け- ViEW2015
Chainerチュートリアル -v1.5向け- ViEW2015Ryosuke Okuta
 
TensorFlow を使った 機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った 機械学習ことはじめ (GDG京都 機械学習勉強会)徹 上野山
 
Deep Learningと画像認識   ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識   ~歴史・理論・実践~nlab_utokyo
 
Pythonで機械学習入門以前
Pythonで機械学習入門以前Pythonで機械学習入門以前
Pythonで機械学習入門以前Kimikazu Kato
 
ルールベースから機械学習への道 公開用
ルールベースから機械学習への道 公開用ルールベースから機械学習への道 公開用
ルールベースから機械学習への道 公開用nishio
 
Pythonを使った機械学習の学習
Pythonを使った機械学習の学習Pythonを使った機械学習の学習
Pythonを使った機械学習の学習Kimikazu Kato
 

Viewers also liked (20)

SVMについて
SVMについてSVMについて
SVMについて
 
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-
 
パターン認識 第10章 決定木
パターン認識 第10章 決定木 パターン認識 第10章 決定木
パターン認識 第10章 決定木
 
今日から使える! みんなのクラスタリング超入門
今日から使える! みんなのクラスタリング超入門今日から使える! みんなのクラスタリング超入門
今日から使える! みんなのクラスタリング超入門
 
バンディットアルゴリズム入門と実践
バンディットアルゴリズム入門と実践バンディットアルゴリズム入門と実践
バンディットアルゴリズム入門と実践
 
トピックモデルを用いた 潜在ファッション嗜好の推定
トピックモデルを用いた 潜在ファッション嗜好の推定トピックモデルを用いた 潜在ファッション嗜好の推定
トピックモデルを用いた 潜在ファッション嗜好の推定
 
決定木学習
決定木学習決定木学習
決定木学習
 
機会学習ハッカソン:ランダムフォレスト
機会学習ハッカソン:ランダムフォレスト機会学習ハッカソン:ランダムフォレスト
機会学習ハッカソン:ランダムフォレスト
 
Simple perceptron by TJO
Simple perceptron by TJOSimple perceptron by TJO
Simple perceptron by TJO
 
ロジスティック回帰の考え方・使い方 - TokyoR #33
ロジスティック回帰の考え方・使い方 - TokyoR #33ロジスティック回帰の考え方・使い方 - TokyoR #33
ロジスティック回帰の考え方・使い方 - TokyoR #33
 
一般向けのDeep Learning
一般向けのDeep Learning一般向けのDeep Learning
一般向けのDeep Learning
 
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
 
Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識
 
機械学習概論 講義テキスト
機械学習概論 講義テキスト機械学習概論 講義テキスト
機械学習概論 講義テキスト
 
Chainerチュートリアル -v1.5向け- ViEW2015
Chainerチュートリアル -v1.5向け- ViEW2015Chainerチュートリアル -v1.5向け- ViEW2015
Chainerチュートリアル -v1.5向け- ViEW2015
 
TensorFlow を使った 機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った 機械学習ことはじめ (GDG京都 機械学習勉強会)
 
Deep Learningと画像認識   ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識   ~歴史・理論・実践~
 
Pythonで機械学習入門以前
Pythonで機械学習入門以前Pythonで機械学習入門以前
Pythonで機械学習入門以前
 
ルールベースから機械学習への道 公開用
ルールベースから機械学習への道 公開用ルールベースから機械学習への道 公開用
ルールベースから機械学習への道 公開用
 
Pythonを使った機械学習の学習
Pythonを使った機械学習の学習Pythonを使った機械学習の学習
Pythonを使った機械学習の学習
 

Similar to Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築

明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」  佐野正太郎明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」  佐野正太郎
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎Preferred Networks
 
画像認識で物を見分ける
画像認識で物を見分ける画像認識で物を見分ける
画像認識で物を見分けるKazuaki Tanida
 
順序データでもベイズモデリング
順序データでもベイズモデリング順序データでもベイズモデリング
順序データでもベイズモデリング. .
 
Rブートキャンプ
RブートキャンプRブートキャンプ
RブートキャンプKosuke Sato
 
Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習Preferred Networks
 
Jubatusの特徴変換と線形分類器の仕組み
Jubatusの特徴変換と線形分類器の仕組みJubatusの特徴変換と線形分類器の仕組み
Jubatusの特徴変換と線形分類器の仕組みJubatusOfficial
 
第1回 Jubatusハンズオン
第1回 Jubatusハンズオン第1回 Jubatusハンズオン
第1回 JubatusハンズオンYuya Unno
 
第1回 Jubatusハンズオン
第1回 Jubatusハンズオン第1回 Jubatusハンズオン
第1回 JubatusハンズオンJubatusOfficial
 
時系列解析の使い方 - TokyoWebMining #17
時系列解析の使い方 - TokyoWebMining #17時系列解析の使い方 - TokyoWebMining #17
時系列解析の使い方 - TokyoWebMining #17horihorio
 
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for PredictionDeep Learning JP
 
Active learning with efficient feature weighting methods for improving data q...
Active learning with efficient feature weighting methods for improving data q...Active learning with efficient feature weighting methods for improving data q...
Active learning with efficient feature weighting methods for improving data q...Shunsuke Kozawa
 
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V7
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V7データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V7
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V7Shunsuke Nakamura
 
10分で分かるr言語入門ver2 upload用
10分で分かるr言語入門ver2 upload用10分で分かるr言語入門ver2 upload用
10分で分かるr言語入門ver2 upload用Nobuaki Oshiro
 
SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)sleepy_yoshi
 
みどりぼん読書会 第4章
みどりぼん読書会 第4章みどりぼん読書会 第4章
みどりぼん読書会 第4章Masanori Takano
 
12-11-30 Kashiwa.R #5 初めてのR Rを始める前に知っておきたい10のこと
12-11-30 Kashiwa.R #5 初めてのR Rを始める前に知っておきたい10のこと 12-11-30 Kashiwa.R #5 初めてのR Rを始める前に知っておきたい10のこと
12-11-30 Kashiwa.R #5 初めてのR Rを始める前に知っておきたい10のこと Haruka Ozaki
 
LET2011: Rによる教育データ分析入門
LET2011: Rによる教育データ分析入門LET2011: Rによる教育データ分析入門
LET2011: Rによる教育データ分析入門Yuichiro Kobayashi
 
PostgreSQLクエリ実行の基礎知識 ~Explainを読み解こう~
PostgreSQLクエリ実行の基礎知識 ~Explainを読み解こう~PostgreSQLクエリ実行の基礎知識 ~Explainを読み解こう~
PostgreSQLクエリ実行の基礎知識 ~Explainを読み解こう~Miki Shimogai
 

Similar to Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築 (20)

明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」  佐野正太郎明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」  佐野正太郎
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
 
画像認識で物を見分ける
画像認識で物を見分ける画像認識で物を見分ける
画像認識で物を見分ける
 
Machine Learning Fundamentals IEEE
Machine Learning Fundamentals IEEEMachine Learning Fundamentals IEEE
Machine Learning Fundamentals IEEE
 
順序データでもベイズモデリング
順序データでもベイズモデリング順序データでもベイズモデリング
順序データでもベイズモデリング
 
Rブートキャンプ
RブートキャンプRブートキャンプ
Rブートキャンプ
 
Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習
 
Jubatusの特徴変換と線形分類器の仕組み
Jubatusの特徴変換と線形分類器の仕組みJubatusの特徴変換と線形分類器の仕組み
Jubatusの特徴変換と線形分類器の仕組み
 
第1回 Jubatusハンズオン
第1回 Jubatusハンズオン第1回 Jubatusハンズオン
第1回 Jubatusハンズオン
 
第1回 Jubatusハンズオン
第1回 Jubatusハンズオン第1回 Jubatusハンズオン
第1回 Jubatusハンズオン
 
時系列解析の使い方 - TokyoWebMining #17
時系列解析の使い方 - TokyoWebMining #17時系列解析の使い方 - TokyoWebMining #17
時系列解析の使い方 - TokyoWebMining #17
 
実践データ分析基礎
実践データ分析基礎実践データ分析基礎
実践データ分析基礎
 
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
 
Active learning with efficient feature weighting methods for improving data q...
Active learning with efficient feature weighting methods for improving data q...Active learning with efficient feature weighting methods for improving data q...
Active learning with efficient feature weighting methods for improving data q...
 
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V7
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V7データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V7
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V7
 
10分で分かるr言語入門ver2 upload用
10分で分かるr言語入門ver2 upload用10分で分かるr言語入門ver2 upload用
10分で分かるr言語入門ver2 upload用
 
SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)
 
みどりぼん読書会 第4章
みどりぼん読書会 第4章みどりぼん読書会 第4章
みどりぼん読書会 第4章
 
12-11-30 Kashiwa.R #5 初めてのR Rを始める前に知っておきたい10のこと
12-11-30 Kashiwa.R #5 初めてのR Rを始める前に知っておきたい10のこと 12-11-30 Kashiwa.R #5 初めてのR Rを始める前に知っておきたい10のこと
12-11-30 Kashiwa.R #5 初めてのR Rを始める前に知っておきたい10のこと
 
LET2011: Rによる教育データ分析入門
LET2011: Rによる教育データ分析入門LET2011: Rによる教育データ分析入門
LET2011: Rによる教育データ分析入門
 
PostgreSQLクエリ実行の基礎知識 ~Explainを読み解こう~
PostgreSQLクエリ実行の基礎知識 ~Explainを読み解こう~PostgreSQLクエリ実行の基礎知識 ~Explainを読み解こう~
PostgreSQLクエリ実行の基礎知識 ~Explainを読み解こう~
 

Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築