SlideShare a Scribd company logo
1 of 46
Download to read offline
Random Forest
実装
馬場哲平
第3回機械学習ハッカソン 2014/07/19
目次
• 1. 自己紹介
• 2. 概要:Random Forestとは
• 3. 理論編
•  3-1. 決定木
•  3-1. Random Forest
• 4. 実践編(プログラミングの流れ)
•  4-1. 決定木
•  4-1. Random Forest
• 5. デモ
• 6. 参考文献
1. 自己紹介
• 馬場哲平(物理学博士:ニュートリノの研究してました)
• 職業:Webプログラマー
• 動機:MLの難しさをなんとかしたい
• 高精度の機会学習アルゴリズム
2. 概要:Random Forestとは?
• 決定木を用いた集団学習を行うモデル
• 識別関数に分類される
• 教師データを必要とする
2. 概要:Random Forestとは?
• そもそも決定木とは?
ツリー構造のグラフを作成し、予測/分類を行う機械学習のアルゴリズム。
弱学習器(精度の低い学習器)に分類される。
天気は何か
晴れ
休日、何して過ごす?
雨
天気は何か
気温が
15℃以下? YesNo
家でごろ寝
家でごろ寝散歩
時間は?
夜昼
家でごろ寝
2. 概要:Random Forestとは?
アンサンブル学習とは、個々に学習した識別器を複数個用意し、それらを、
単純には出力の平均を用いる等して、まとめ合わせて一つの識別器を構築
する学習法である。
山口暢彦(佐賀大学)
集団学習は、アンサンブル学習とも呼ぶ
• 集団学習とは?
2. 概要:Random Forestとは?
• Bagging
• Boosting
• Random Forest
全教師入力データからランダムにとったデータで、複数の学習器を作成、
多数決などで出力を決定する方法
説明変数の重要度を逐次的に変更し、複数の学習器を作成。多数決など
で出力を決定する方法
(Baggingと違い、常に全教師データを用いる場合が多い。)
決定木を学習器とする、集団学習アルゴリズム
Bagging同様、全教師データからランダムにとったデータで学習を行う。
説明変数もランダムにする点が、Baggingと異なる。
• 集団学習の種類
2. 概要:Random Forestとは?
ML界
※参考:@overlastさんのブログ, http://diary.overlasting.net/2011-06-01-1.html
識別関数
生成モデル
識別モデル
SVM
パーセプトロン
logistic regression
CRF
ベイズモデル
HMM
決定木
ランダムフォレスト
2. 概要:Random Forestとは?
• Random Forestとは?
教師データ
決定木 決定木
教師データ(一部)
ブートストラップサンプリング
教師データ(一部)
決定木 決定木
教師データ(一部) 教師データ(一部)
・・・
学習器
多数決/平均
予測結果
複数の決定木で集団学習させる事で、精度を高めた集団学習モデル。
2001年 Leo Breimanによって提案された。
3. 理論編
• 3-1. 決定木
• 3-2. ランダムフォレスト
3-1. 理論編:決定木
• 決定木ができていれば、予測は簡単そう
• では、どうやって決定木を作るの?
天気は何か
晴れ
休日、何して過ごす?
雨
お金は
あるか
気温が
15℃以下? YesNo
家でごろ寝
家でごろ寝散歩
今の
時刻は?
夜昼
家でごろ寝
No
• 質問はたくさん情報を引出せる順に並べる
3-1. 理論編:決定木
• どうやってたくさん情報を引出せる質問を
判断するのか?
• 引出せる情報量を数値化する
• 情報ゲインは次式で表される。
3-1. 理論編:決定木
ΔI = P Q( )I Q( )− P Ai( )I Ai( )
i
∑
• ある質問で得る情報量を情報ゲインと呼ぶ。
質問Q
答A1
QP Q( ):
I Q( ):
前のノードからノード にくる確率
Qノード におけるエントロピー(関数)
答A2
3-1. 理論編:決定木
•    のバリエーション
• ②Gini係数(系の不純度の指標)
• ①エントロピー(系の取りうる状態数の指標)
ΔI = P Q( )I Q( )− P Ai( )I Ai( )
i
∑
I A( )
I Q( )= 1− P A |Q( )( )
2
A
∑
高い:乱雑な状態
低い:整理整頓された状態
高い:純度が低い状態
低い:純度が高い状態
I Q( )= − P A |Q( )logP A |Q( )
A
∑
↑大きいと純度が高い(2回続けて同じ目がでるサイコロは純度が高い!)
P k | A( ):ノードAで選択肢kが選ばれる確率※
色んな目がごっちゃにでるサイコロ
ぬるい
冷 温
☝ ️
3-1. 理論編:決定木
• どちらにせよ、エントロピー関数   が低
い値を示すと、情報ゲインが増えます
ΔI = P Q( )I Q( )− P Ai( )I Ai( )
i
∑
I A( )
情報ゲインを最大にする質問を、
各ノードで見つけていく
3-1. 理論編:決定木
天気は何か
晴れ
休日、何して過ごす?
雨
お金は
あるか
気温が
15℃以下? YesNo
家でごろ寝
家でごろ寝散歩
今の
時刻は?
夜昼
家でごろ寝
No
ΔI = P Q( )I Q( )− P Ai( )I Ai( )
i
∑
情報ゲインを最大にする質問順に並べて木構造を作成する
3-1. 理論編:決定木(補足)
• 決定木には種類がある。
連続的な数値を求める
・Gini係数
属するカテゴリを求める
・エントロピー
・Gini係数
• ②回帰木
• ①分類木
車速と停止距離の関係
花びらの長さ、幅とアヤメの種類
3-2. 理論編:ランダムフォレスト
• なんで集団学習するの?
• 他の集団学習と違うの?
• 説明変数の重要度について
• 実行速度について(SVM vs RF)
3-2. 理論編:ランダムフォレスト
• なんで集団学習するの?
ランダムフォレストに限らず、弱学習器では集団
学習が有効な場合が多い
どういったケースで集団学習が有効に
なるのか?
3-2. 理論編:ランダムフォレスト
しましまさん:https://www.nescent.org/wg/cart/images/a/a6/Breiman_Arcing_classifiers.pdf
L.Breiman "Arcing Classifiers" The Annals of Statistics, vol.26, no.3, pp.801-849 (1998)
https://www.nescent.org/wg/cart/images/a/a6/Breiman_Arcing_classifiers.pdf
汎化誤差 = バイアス + バリアンス + σ
※バイアス (学習モデルの単純さに由来する誤差)
※バリアンス(学習データの違いに由来する誤差)
※σ(削除不能な誤差)
■線形の様な単純なモデルでは、バイアスが大きくバリアンスが小さい
■高次の複雑なモデルでは、バイアスは小さいがバリアンスは大きい
単純なモデルなので、ノイズに強いが複雑な表現はできない。
(例)SVM、最小二乗法など
複雑な表現が可能だが、過学習してしまいがち。ノイズも再現してしまう。
(例)ニューラルネット、決定木など
分類/回帰のいずれにおいても、汎化誤差(新たなデータに対する誤認識率)は
3-2. 理論編:ランダムフォレスト
汎化誤差 = バイアス + バリアンス + σ
※バイアス (学習モデルの単純さに由来する誤差)
※バリアンス(学習データの違いに由来する誤差)
※σ(削除不能な誤差)
Tibshirani, R. (1996). Bias, variance, and prediction error for classi fi cation rules. Technical Report, Statistics Department, University of Toronto
http://link.springer.com/chapter/10.1007%2F0-387-25465-X_34
高バイアス
低バリアンス
低バイアス
高バリアンス
3-2. 理論編:ランダムフォレスト
汎化誤差 = バイアス + バリアンス + σ
※バイアス (学習モデルの単純さに由来する誤差)
※バリアンス(学習データの違いに由来する誤差)
※σ(削除不能な誤差)
• なんで集団学習するの?
集団学習はバリアンスを下げる
Improving regression estimation: averaging methods for variance reduction with extensions to general convex measure optimization,
http://citeseerx.ist.psu.edu/viewdoc/download;jsessionid=5207764C9D12331E4F2A6336BD5E3842?doi=10.1.1.34.3566&rep=rep1&type=pdf
複雑な表現が可能だが、過学習してしまいがちなアルゴリズムに向いている
3-2. 理論編:ランダムフォレスト
• 他の集団学習と違うの?
学習の際、説明変数を
ランダムに選んで使う
x1 x2 x3
xn
・・・
全説明変数
実際に使用
する変数
x1 x3 x2 x3 x3 xn・・・
全変数
決定木1 決定木2 決定木n・・・
3-2. 理論編:ランダムフォレスト
• 他の集団学習と違うの?
説明変数同士に相関があると、弱学習器間の相関が生
まれる。
弱学習器間に相関があると、バリアンスが下がらない
説明変数をランダムに選ぶ事で、相関の低い決定木群を
作成し、バリアンスを下げられる。
3-2. 理論編:ランダムフォレスト
・説明変数の重要度について
Ai :
N : 決定木の本数
i番目の決定木にOOBデータを使用し、正しく予想を行った時の正解率
Im =
1
N
Ai − Bm( )i( )i=1
N
∑
Bm( )i
:
OOBデータの説明変数mとなるデータをランダムに並び替え
決定木iに使用し、本来正しくないはずの予想を行った時の正解率
説明変数mの重要度Im :
Out-Of-Bag(OOB:学習に使われなかった残りのデータ)
を使って、説明変数の重要度を計算できる
出典:holidayworkingさん http://www.slideshare.net/holidayworking/ss-11948523
3-2. 理論編:ランダムフォレスト
・Out-Of-Bagを用いた説明変数の重要度
Im =
1
N
Ai − Bm( )i( )i=1
N
∑
3-2. 理論編:ランダムフォレスト
• 実行速度について(SVM vs RF) データの数
SVM ~ O Dm2
( )
RF ~ O D2
m( )×
D :
m :
RのkernlabとRF(独自実装)で速度比較(データはiris)
SVM10回平均 1.2237[s]
RF(木10本)10回 1.1922[s]
説明変数の数
変数の数に強いが
データの多さに弱い
データの多さに強い
変数の数に弱い
木の本数
3-2. 理論編:ランダムフォレスト
✤ メリット
• ノイズに強い
• 高精度・表現力も高い
• データ量が多くても高速に動く
✤ デメリット
• パラメータが多い(木の数や使用する説明変数の数)
• 学習データ/説明変数をランダム抽出するので、データと変数
が少なすぎるとうまく学習できない。
3-2. 理論編:ランダムフォレスト
出典:中部大学工学部情報工学科 藤吉研究室
http://www.slideshare.net/hironobufujiyoshi/04-randomforests1116
4. 実装編(プログラミングの流れ)
• 4-1. 決定木
• 4-2. ランダムフォレスト
4-1. 実装編:決定木
①最初の状態におけるエントロピーを計算
②全ての説明変数に対し、各々の選択肢に遷移した場合のエントロピーと
遷移する確率を計算する。
 ただし、離散値であれば、各選択肢に対して計算する
 連続値であれば、説明変数の存在している範囲について
 幾つかに区切り、各区切りの範囲内で計算する。
③決定された最初の質問を質問リストから除き、次の質問を決める。
 残された各質問に対し、②と同じ要領で確率とエントロピーをそれぞれ
 求め、情報ゲインを計算。
④③を繰り返し行い、質問がなくなるまで到達させる。
⑤ある選択肢に当てはまるデータが0件なら、前ノードに戻り多数決する
⑥作成された決定木に対し、テストデータを投げて予測を行う。
次ページで例をもとに解説
4-1. 実装編:決定木
(例)動物の分類
動物名 食性(Q1) 繁殖形態(Q2) 体温(Q3) クラス
スズメ 肉食 卵生 恒温 鳥類
ライオン 肉食 胎生 恒温 ほ乳類
トカゲ 肉食 卵生 変温 は虫類
ダチョウ 草食 卵生 恒温 鳥類
ウシ 草食 胎生 恒温 ほ乳類
(例)動物の分類
①初期のエントロピーを計算
 (logの底は何でも良いが、今は2にする)
I Q( )= − P A |Q( )log2 P A |Q( )
A
∑
= −
2
5
log2
2
5
× 2 −
1
5
log2
1
5
=1.52
4-1. 実装編:決定木
動物名 食性(Q1) 繁殖携帯(Q2) 体温(Q3) クラス
スズメ 肉食 卵生 恒温 鳥類
ライオン 肉食 胎生 恒温 ほ乳類
トカゲ 肉食 卵生 変温 は虫類
ダチョウ 草食 卵生 恒温 鳥類
ウシ 草食 胎生 恒温 ほ乳類
P(ほ乳類)=P(鳥類)=2/5、P(は虫類)=1/5
ΔI = P Q( )I Q( )− P Ai( )I Ai( )
i
∑
4-1. 実装編:決定木
(例)動物の分類
動物名 食性(Q1) 繁殖携帯(Q2) 体温(Q3) クラス
スズメ 肉食 卵生 恒温 鳥類
ライオン 肉食 胎生 恒温 ほ乳類
トカゲ 肉食 卵生 変温 は虫類
ダチョウ 草食 卵生 恒温 鳥類
ウシ 草食 胎生 恒温 ほ乳類
②全ての説明変数に対し、各々の選択肢に遷移した
場合のエントロピーと遷移する確率を計算する。
質問Q3.
恒/変温?
変温
恒温
は虫類 1 P(変温¦Q3)=1/5
P(恒温¦Q3)=4/5ほ乳類 2
鳥類 2
ΔI = P Q( )I Q( )− P Ai( )I Ai( )
i
∑
4-1. 実装編:決定木
(例)動物の分類
②全ての説明変数に対し、各々の選択肢に遷移した
場合のエントロピーと遷移する確率を計算する。
質問Q3.
恒/変温?
は虫類 1
ほ乳類 2
鳥類 2
I A1( )= −1× log2 1= −1× 0 = 0
I A2( )= −
1
2
× log2
1
2
× 2 + 0 = log2 2 =1
変温(A1)
恒温(A2)
P(は虫類)=1
P(ほ乳類)=2/4=1/2
P(鳥類)=1/2
動物名 食性(Q1) 繁殖携帯(Q2) 体温(Q3) クラス
スズメ 肉食 卵生 恒温 鳥類
ライオン 肉食 胎生 恒温 ほ乳類
トカゲ 肉食 卵生 変温 は虫類
ダチョウ 草食 卵生 恒温 鳥類
ウシ 草食 胎生 恒温 ほ乳類
4-1. 実装編:決定木
(例)動物の分類
②全ての説明変数に対し、各々の選択肢に遷移した
場合のエントロピーと遷移する確率を計算する。
質問Q3.
恒/変温?
ΔI = I Q = Q3( )− P A1( )I A1( )− P A2( )I A2( )
= 1.52 − 0 −
4
5
×1= 0.72
変温
恒温
質問Q3の情報ゲイン
動物名 食性(Q1) 繁殖携帯(Q2) 体温(Q3) クラス
スズメ 肉食 卵生 恒温 鳥類
ライオン 肉食 胎生 恒温 ほ乳類
トカゲ 肉食 卵生 変温 は虫類
ダチョウ 草食 卵生 恒温 鳥類
ウシ 草食 胎生 恒温 ほ乳類
ΔI = P Q( )I Q( )− P Ai( )I Ai( )
i
∑
4-1. 実装編:決定木
(例)動物の分類
②全ての説明変数に対し、各々の選択肢に遷移した
場合のエントロピーと遷移する確率を計算する。
質問Q2.
繁殖形態は?
ΔI = I Q = Q2( )− P A1( )I A1( )− P A2( )I A2( )
= 1.52 −
3
5
× 0.92 −
2
5
× 0 =1.02
卵生
胎生
質問Q2の情報ゲイン
■では、Q2は最初の質問としてふさわしいか?
動物名 食性(Q1) 繁殖携帯(Q2) 体温(Q3) クラス
スズメ 肉食 卵生 恒温 鳥類
ライオン 肉食 胎生 恒温 ほ乳類
トカゲ 肉食 卵生 変温 は虫類
ダチョウ 草食 卵生 恒温 鳥類
ウシ 草食 胎生 恒温 ほ乳類
なかなか高得点ですね…
ΔI = P Q( )I Q( )− P Ai( )I Ai( )
i
∑
4-1. 実装編:決定木
(例)動物の分類
②全ての説明変数に対し、各々の選択肢に遷移した
場合のエントロピーと遷移する確率を計算する。
質問Q1.
食生は?
ΔI = I Q = Q1( )− P A1( )I A1( )− P A2( )I A2( )
= 1.52 −
3
5
×1.59 −
2
5
×1= 0.22
肉食
草食
質問Q1の情報ゲイン
■では、Q1は?
動物名 食性(Q1) 繁殖携帯(Q2) 体温(Q3) クラス
スズメ 肉食 卵生 恒温 鳥類
ライオン 肉食 胎生 恒温 ほ乳類
トカゲ 肉食 卵生 変温 は虫類
ダチョウ 草食 卵生 恒温 鳥類
ウシ 草食 胎生 恒温 ほ乳類
ほとんど得点ないです…
ΔI = P Q( )I Q( )− P Ai( )I Ai( )
i
∑
4-1. 実装編:決定木
(例)動物の分類
②全ての説明変数に対し、各々の選択肢に遷移した
場合のエントロピーと遷移する確率を計算する。
質問Q2.
繁殖形態は?
卵生
胎生
Q2がもっともたくさんの情報を得られる。最初の問題にふさわしい!
動物名 食性(Q1) 繁殖携帯(Q2) 体温(Q3) クラス
スズメ 肉食 卵生 恒温 鳥類
ライオン 肉食 胎生 恒温 ほ乳類
トカゲ 肉食 卵生 変温 は虫類
ダチョウ 草食 卵生 恒温 鳥類
ウシ 草食 胎生 恒温 ほ乳類
4-1. 実装編:決定木
(例)動物の分類
③決定された最初の質問を質問リストから除き、次の質問を決める。
 残された各質問に対し、②と同じ要領で確率とエントロピーをそれぞれ
 求め、情報ゲインを計算。
④③を繰り返し行い、質問がなくなるまで到達させる。
動物名 食性(Q1) 繁殖携帯(Q2) 体温(Q3) クラス
スズメ 肉食 卵生 恒温 鳥類
ライオン 肉食 胎生 恒温 ほ乳類
トカゲ 肉食 卵生 変温 は虫類
ダチョウ 草食 卵生 恒温 鳥類
ウシ 草食 胎生 恒温 ほ乳類
同様にして決定木を作成していく
4-2. 実装編:ランダムフォレスト
(1)学習データ/テストデータをブートストラップサンプリング 
 で抽出する。
(2)下記要領で、決定木をM本作る
  (2-1)全学習データの2/3を目安に、ランダムにデータ抽出する。
    但し、各データセットで重複は許す(行を抽出するイメージ)
  (2-2)抽出したデータから、一部の説明変数だけを残したデータ
    セットを抽出する(列を抽出するイメージ)
  (2-3)抽出したデータセットを元に決定木を作成する
    ただし使用した説明変数は、決定木と一緒に記録しておく。  
(3)テストデータを用いて予想を行う。作成したM本の決定木に対し
 使用した説明変数でそれぞれ予想し、結果は多数決/平均で決める。
5. サンプル実装
https://github.com/watanabetanaka/randomForest/
・rf.R :ランダムフォレストの実装(R単体で実装)
・iris.dat :ランダムフォレストで使用しているデータ
・decisionTree.php :決定木単体の実装(バグありです)
・animals.dat :決定木単体で使用しているデータ
時間があればデモします。
git使えない人向けDL用URL
http://watatana.com/rf.tar.gz
参考文献
• Breiman, L.: Random Forests,Machine Learning,Vol. 45, No. 1, pp. 5‒32 (2001).
(http://link.springer.com/article/10.1023%2FA%3A1010933404324)
• 濱田康一(http://www.slideshare.net/hamadakoichi/randomforest-web)
̶̶̶̶̶
おわり
̶̶̶̶̶
3-1. 理論編:決定木
数値を求める
• 回帰木

More Related Content

What's hot

グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知Yuya Takashina
 
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with TransformersDeep Learning JP
 
社会心理学者のための時系列分析入門_小森
社会心理学者のための時系列分析入門_小森社会心理学者のための時系列分析入門_小森
社会心理学者のための時系列分析入門_小森Masashi Komori
 
コピュラと金融工学の新展開(?)
コピュラと金融工学の新展開(?)コピュラと金融工学の新展開(?)
コピュラと金融工学の新展開(?)Nagi Teramo
 
クラシックな機械学習の入門  11.評価方法
クラシックな機械学習の入門  11.評価方法クラシックな機械学習の入門  11.評価方法
クラシックな機械学習の入門  11.評価方法Hiroshi Nakagawa
 
Transformerを雰囲気で理解する
Transformerを雰囲気で理解するTransformerを雰囲気で理解する
Transformerを雰囲気で理解するAtsukiYamaguchi1
 
機械学習を用いた異常検知入門
機械学習を用いた異常検知入門機械学習を用いた異常検知入門
機械学習を用いた異常検知入門michiaki ito
 
論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative Models論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative ModelsSeiya Tokui
 
パターン認識と機械学習入門
パターン認識と機械学習入門パターン認識と機械学習入門
パターン認識と機械学習入門Momoko Hayamizu
 
研究分野をサーベイする
研究分野をサーベイする研究分野をサーベイする
研究分野をサーベイするTakayuki Itoh
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!TransformerArithmer Inc.
 
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章Hakky St
 
多目的強凸最適化のパレート集合のトポロジー
多目的強凸最適化のパレート集合のトポロジー多目的強凸最適化のパレート集合のトポロジー
多目的強凸最適化のパレート集合のトポロジーKLab Inc. / Tech
 
機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)Satoshi Hara
 
Union find(素集合データ構造)
Union find(素集合データ構造)Union find(素集合データ構造)
Union find(素集合データ構造)AtCoder Inc.
 
ランダムフォレスト
ランダムフォレストランダムフォレスト
ランダムフォレストKinki University
 
グラフデータ分析 入門編
グラフデータ分析 入門編グラフデータ分析 入門編
グラフデータ分析 入門編順也 山口
 

What's hot (20)

グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知
 
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
 
社会心理学者のための時系列分析入門_小森
社会心理学者のための時系列分析入門_小森社会心理学者のための時系列分析入門_小森
社会心理学者のための時系列分析入門_小森
 
コピュラと金融工学の新展開(?)
コピュラと金融工学の新展開(?)コピュラと金融工学の新展開(?)
コピュラと金融工学の新展開(?)
 
正準相関分析
正準相関分析正準相関分析
正準相関分析
 
MICの解説
MICの解説MICの解説
MICの解説
 
研究効率化Tips Ver.2
研究効率化Tips Ver.2研究効率化Tips Ver.2
研究効率化Tips Ver.2
 
クラシックな機械学習の入門  11.評価方法
クラシックな機械学習の入門  11.評価方法クラシックな機械学習の入門  11.評価方法
クラシックな機械学習の入門  11.評価方法
 
Transformerを雰囲気で理解する
Transformerを雰囲気で理解するTransformerを雰囲気で理解する
Transformerを雰囲気で理解する
 
機械学習を用いた異常検知入門
機械学習を用いた異常検知入門機械学習を用いた異常検知入門
機械学習を用いた異常検知入門
 
論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative Models論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative Models
 
パターン認識と機械学習入門
パターン認識と機械学習入門パターン認識と機械学習入門
パターン認識と機械学習入門
 
研究分野をサーベイする
研究分野をサーベイする研究分野をサーベイする
研究分野をサーベイする
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
 
多目的強凸最適化のパレート集合のトポロジー
多目的強凸最適化のパレート集合のトポロジー多目的強凸最適化のパレート集合のトポロジー
多目的強凸最適化のパレート集合のトポロジー
 
機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)
 
Union find(素集合データ構造)
Union find(素集合データ構造)Union find(素集合データ構造)
Union find(素集合データ構造)
 
ランダムフォレスト
ランダムフォレストランダムフォレスト
ランダムフォレスト
 
グラフデータ分析 入門編
グラフデータ分析 入門編グラフデータ分析 入門編
グラフデータ分析 入門編
 

Viewers also liked

バンディットアルゴリズム入門と実践
バンディットアルゴリズム入門と実践バンディットアルゴリズム入門と実践
バンディットアルゴリズム入門と実践智之 村上
 
SVMについて
SVMについてSVMについて
SVMについてmknh1122
 
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京Koichi Hamada
 
今日から使える! みんなのクラスタリング超入門
今日から使える! みんなのクラスタリング超入門今日から使える! みんなのクラスタリング超入門
今日から使える! みんなのクラスタリング超入門toilet_lunch
 
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-Naoki Yanai
 
パターン認識 第10章 決定木
パターン認識 第10章 決定木 パターン認識 第10章 決定木
パターン認識 第10章 決定木 Miyoshi Yuya
 
トピックモデルを用いた 潜在ファッション嗜好の推定
トピックモデルを用いた 潜在ファッション嗜好の推定トピックモデルを用いた 潜在ファッション嗜好の推定
トピックモデルを用いた 潜在ファッション嗜好の推定Takashi Kaneda
 
ロジスティック回帰の考え方・使い方 - TokyoR #33
ロジスティック回帰の考え方・使い方 - TokyoR #33ロジスティック回帰の考え方・使い方 - TokyoR #33
ロジスティック回帰の考え方・使い方 - TokyoR #33horihorio
 
Simple perceptron by TJO
Simple perceptron by TJOSimple perceptron by TJO
Simple perceptron by TJOTakashi J OZAKI
 
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tatsuya Tojima
 
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual TalksYuya Unno
 
機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話Ryota Kamoshida
 
Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識Ken Morishita
 
scikit-learnを用いた機械学習チュートリアル
scikit-learnを用いた機械学習チュートリアルscikit-learnを用いた機械学習チュートリアル
scikit-learnを用いた機械学習チュートリアル敦志 金谷
 
Rによるデータサイエンス13「樹木モデル」
Rによるデータサイエンス13「樹木モデル」Rによるデータサイエンス13「樹木モデル」
Rによるデータサイエンス13「樹木モデル」Takeshi Mikami
 
Pythonで機械学習入門以前
Pythonで機械学習入門以前Pythonで機械学習入門以前
Pythonで機械学習入門以前Kimikazu Kato
 
ルールベースから機械学習への道 公開用
ルールベースから機械学習への道 公開用ルールベースから機械学習への道 公開用
ルールベースから機械学習への道 公開用nishio
 
30分でわかる『R』によるデータ分析|データアーティスト
30分でわかる『R』によるデータ分析|データアーティスト30分でわかる『R』によるデータ分析|データアーティスト
30分でわかる『R』によるデータ分析|データアーティストSatoru Yamamoto
 

Viewers also liked (20)

決定木学習
決定木学習決定木学習
決定木学習
 
バンディットアルゴリズム入門と実践
バンディットアルゴリズム入門と実践バンディットアルゴリズム入門と実践
バンディットアルゴリズム入門と実践
 
SVMについて
SVMについてSVMについて
SVMについて
 
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
 
今日から使える! みんなのクラスタリング超入門
今日から使える! みんなのクラスタリング超入門今日から使える! みんなのクラスタリング超入門
今日から使える! みんなのクラスタリング超入門
 
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-
 
パターン認識 第10章 決定木
パターン認識 第10章 決定木 パターン認識 第10章 決定木
パターン認識 第10章 決定木
 
トピックモデルを用いた 潜在ファッション嗜好の推定
トピックモデルを用いた 潜在ファッション嗜好の推定トピックモデルを用いた 潜在ファッション嗜好の推定
トピックモデルを用いた 潜在ファッション嗜好の推定
 
ロジスティック回帰の考え方・使い方 - TokyoR #33
ロジスティック回帰の考え方・使い方 - TokyoR #33ロジスティック回帰の考え方・使い方 - TokyoR #33
ロジスティック回帰の考え方・使い方 - TokyoR #33
 
Simple perceptron by TJO
Simple perceptron by TJOSimple perceptron by TJO
Simple perceptron by TJO
 
一般向けのDeep Learning
一般向けのDeep Learning一般向けのDeep Learning
一般向けのDeep Learning
 
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
 
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks
 
機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話
 
Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識
 
scikit-learnを用いた機械学習チュートリアル
scikit-learnを用いた機械学習チュートリアルscikit-learnを用いた機械学習チュートリアル
scikit-learnを用いた機械学習チュートリアル
 
Rによるデータサイエンス13「樹木モデル」
Rによるデータサイエンス13「樹木モデル」Rによるデータサイエンス13「樹木モデル」
Rによるデータサイエンス13「樹木モデル」
 
Pythonで機械学習入門以前
Pythonで機械学習入門以前Pythonで機械学習入門以前
Pythonで機械学習入門以前
 
ルールベースから機械学習への道 公開用
ルールベースから機械学習への道 公開用ルールベースから機械学習への道 公開用
ルールベースから機械学習への道 公開用
 
30分でわかる『R』によるデータ分析|データアーティスト
30分でわかる『R』によるデータ分析|データアーティスト30分でわかる『R』によるデータ分析|データアーティスト
30分でわかる『R』によるデータ分析|データアーティスト
 

Similar to 機会学習ハッカソン:ランダムフォレスト

forestFloorパッケージを使ったrandomForestの感度分析
forestFloorパッケージを使ったrandomForestの感度分析forestFloorパッケージを使ったrandomForestの感度分析
forestFloorパッケージを使ったrandomForestの感度分析Satoshi Kato
 
[NeurIPS2018論文読み会] Adversarial vulnerability for any classifier
[NeurIPS2018論文読み会] Adversarial vulnerability for any classifier[NeurIPS2018論文読み会] Adversarial vulnerability for any classifier
[NeurIPS2018論文読み会] Adversarial vulnerability for any classifierMasanari Kimura
 
2012-1110「マルチレベルモデルのはなし」(censored)
2012-1110「マルチレベルモデルのはなし」(censored)2012-1110「マルチレベルモデルのはなし」(censored)
2012-1110「マルチレベルモデルのはなし」(censored)Mizumoto Atsushi
 
Introduction of featuretweakR package
Introduction of featuretweakR packageIntroduction of featuretweakR package
Introduction of featuretweakR packageSatoshi Kato
 
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)Taiji Suzuki
 
Intoroduction & R implementation of "Interpretable predictions of tree-based ...
Intoroduction & R implementation of "Interpretable predictions of tree-based ...Intoroduction & R implementation of "Interpretable predictions of tree-based ...
Intoroduction & R implementation of "Interpretable predictions of tree-based ...Satoshi Kato
 
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores,  Clusters and Cloudsの解説LCCC2010:Learning on Cores,  Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説Preferred Networks
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門Shuyo Nakatani
 
[DL輪読会]Learning to Act by Predicting the Future
[DL輪読会]Learning to Act by Predicting the Future[DL輪読会]Learning to Act by Predicting the Future
[DL輪読会]Learning to Act by Predicting the FutureDeep Learning JP
 
ランダムフォレストとそのコンピュータビジョンへの応用
ランダムフォレストとそのコンピュータビジョンへの応用ランダムフォレストとそのコンピュータビジョンへの応用
ランダムフォレストとそのコンピュータビジョンへの応用Kinki University
 
Probabilistic Graphical Models 輪読会 #1
Probabilistic Graphical Models 輪読会 #1Probabilistic Graphical Models 輪読会 #1
Probabilistic Graphical Models 輪読会 #1Takuma Yagi
 
Imputation of Missing Values using Random Forest
Imputation of Missing Values using  Random ForestImputation of Missing Values using  Random Forest
Imputation of Missing Values using Random ForestSatoshi Kato
 
Deep forest (preliminary ver.)
Deep forest  (preliminary ver.)Deep forest  (preliminary ver.)
Deep forest (preliminary ver.)Satoshi Kato
 

Similar to 機会学習ハッカソン:ランダムフォレスト (17)

forestFloorパッケージを使ったrandomForestの感度分析
forestFloorパッケージを使ったrandomForestの感度分析forestFloorパッケージを使ったrandomForestの感度分析
forestFloorパッケージを使ったrandomForestの感度分析
 
[NeurIPS2018論文読み会] Adversarial vulnerability for any classifier
[NeurIPS2018論文読み会] Adversarial vulnerability for any classifier[NeurIPS2018論文読み会] Adversarial vulnerability for any classifier
[NeurIPS2018論文読み会] Adversarial vulnerability for any classifier
 
2012-1110「マルチレベルモデルのはなし」(censored)
2012-1110「マルチレベルモデルのはなし」(censored)2012-1110「マルチレベルモデルのはなし」(censored)
2012-1110「マルチレベルモデルのはなし」(censored)
 
T-sne
T-sneT-sne
T-sne
 
20160329.dnn講演
20160329.dnn講演20160329.dnn講演
20160329.dnn講演
 
Random Forests
Random ForestsRandom Forests
Random Forests
 
Introduction of featuretweakR package
Introduction of featuretweakR packageIntroduction of featuretweakR package
Introduction of featuretweakR package
 
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
 
Dive into XGBoost.pdf
Dive into XGBoost.pdfDive into XGBoost.pdf
Dive into XGBoost.pdf
 
Intoroduction & R implementation of "Interpretable predictions of tree-based ...
Intoroduction & R implementation of "Interpretable predictions of tree-based ...Intoroduction & R implementation of "Interpretable predictions of tree-based ...
Intoroduction & R implementation of "Interpretable predictions of tree-based ...
 
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores,  Clusters and Cloudsの解説LCCC2010:Learning on Cores,  Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門
 
[DL輪読会]Learning to Act by Predicting the Future
[DL輪読会]Learning to Act by Predicting the Future[DL輪読会]Learning to Act by Predicting the Future
[DL輪読会]Learning to Act by Predicting the Future
 
ランダムフォレストとそのコンピュータビジョンへの応用
ランダムフォレストとそのコンピュータビジョンへの応用ランダムフォレストとそのコンピュータビジョンへの応用
ランダムフォレストとそのコンピュータビジョンへの応用
 
Probabilistic Graphical Models 輪読会 #1
Probabilistic Graphical Models 輪読会 #1Probabilistic Graphical Models 輪読会 #1
Probabilistic Graphical Models 輪読会 #1
 
Imputation of Missing Values using Random Forest
Imputation of Missing Values using  Random ForestImputation of Missing Values using  Random Forest
Imputation of Missing Values using Random Forest
 
Deep forest (preliminary ver.)
Deep forest  (preliminary ver.)Deep forest  (preliminary ver.)
Deep forest (preliminary ver.)
 

機会学習ハッカソン:ランダムフォレスト