SlideShare a Scribd company logo
1 of 28
Download to read offline
による分類木 入門
による分類木 入門
※いろいろなサイト・本を
 自分なりにまとめてみました。
What’s classification tree?
•  結果を分類するためにそのほかの値を見比べ、
最もきれいに2分割できる条件を探していく手
法
•  分岐の過程を図示することができるため,  
分析結果の可読性が高い
•  分類木と回帰木がある
3
生成・生長 剪定
枝を伸ばす いらない枝を切り落とす
What’s classification tree?
生成・生長 剪定
枝を伸ばす いらない枝を切り落とす
What’s classification tree?
Example…
商品を サイズ 色 見た回数
買った M 普通 10
買った L 好き 5
買わない M 嫌い 3
買った M 好き 6
買わない L 好き 3
買わない M 普通 10
買わない M 嫌い 4
買った L 好き 6
目的変数がカテゴリカル(質的)な場合
6
Example…
生成・生長
7
・今回はCART(Classification And Regression Trees)という
 目的変数を2つの集合に分岐させる方法を紹介する
・具体的にはジニ係数(GI : Gini index)やエントロピー(entropy)
               という分類の不純度を計算する
How to classify.
8
Example…
商品を サイズ 色 見た回数
買った M 普通 10
買った L 好き 5
買わない M 嫌い 3
買った M 好き 6
買わない L 好き 3
買わない M 普通 10
買わない M 嫌い 4
買った L 好き 6
目的変数がカテゴリカル(質的)な場合
10
ex.)
M L 好き 普通・嫌い
色
4.5 <4.5
見た回数
ジニ係数(不純度)の一番低い分岐点を採用
データ
  買った
  買わない
説明変数
サイズ
ジニ係数
0.48 0.375 0.375 0.32 0.00.44
0.465 0.375 0.2
加重平均 加重平均 加重平均
11
生成・生長 剪定
枝を伸ばす いらない枝を切り落とす
What’s classification tree?
つまり
っていう枝を探すってこと
交差検証法(cross validation)
How to prune?
⑴データをテストデータと	
  
  トレーニングデータに分ける	
  
⑵トレーニングデータだけで	
  
  モデルをつくる	
  
⑶できたモデルとテストデータを比較し、
答え合わせをして、精度を求める	
  
⑷⑴〜⑶をn回繰り返し、平均する	
  
14
交差検証法(cross validation)
How to prune?
⑴データをテストデータと	
  
  トレーニングデータに分ける	
  
⑵トレーニングデータだけで	
  
  モデルをつくる	
  
⑶できたモデルとテストデータを比較し、
答え合わせをして、精度を求める	
  
⑷⑴〜⑶をn回繰り返し、平均する	
  
これを各ノードで行い、
制度の低いところを剪定する
15
Demonstration
with
16
①
③②
⑥ ⑦
⑫ ⑬
>	
  library(mvpart)	
  
>	
  #	
  決定木のplot	
  
>	
  iris.rp	
  <-­‐	
  rpart(Species~.,	
  data=iris)	
  
>	
  iris.rp	
  
n=	
  150	
  	
  
	
  
node),	
  split,	
  n,	
  loss,	
  yval,	
  (yprob)	
  
	
  	
  	
  	
  	
  	
  *	
  denotes	
  terminal	
  node	
  
	
  
	
  1)	
  root	
  150	
  100	
  setosa	
  (0.33333333	
  0.33333333	
  0.33333333)	
  	
  	
  
	
  	
  	
  2)	
  Petal.Length<	
  2.45	
  50	
  	
  	
  0	
  setosa	
  (1.00000000	
  0.00000000	
  0.00000000)	
  *	
  
	
  	
  	
  3)	
  Petal.Length>=2.45	
  100	
  	
  50	
  versicolor	
  (0.00000000	
  0.50000000	
  0.50000000)	
  	
  	
  
	
  	
  	
  	
  	
  6)	
  Petal.Width<	
  1.75	
  54	
  	
  	
  5	
  versicolor	
  (0.00000000	
  0.90740741	
  0.09259259)	
  	
  	
  
	
  	
  	
  	
  	
  	
  12)	
  Petal.Length<	
  4.95	
  48	
  	
  	
  1	
  versicolor	
  (0.00000000	
  0.97916667	
  0.02083333)	
  *	
  
	
  	
  	
  	
  	
  	
  13)	
  Petal.Length>=4.95	
  6	
  	
  	
  2	
  virginica	
  (0.00000000	
  0.33333333	
  0.66666667)	
  *	
  
	
  	
  	
  	
  	
  7)	
  Petal.Width>=1.75	
  46	
  	
  	
  1	
  virginica	
  (0.00000000	
  0.02173913	
  0.97826087)	
  *	
  
>	
  plot(iris.rp,uniform=T,branch=0.6,margin=0)	
  
>	
  text(iris.rp,uniform=T,use.n=T,all=T)	
  
	
  
剪定前
17
もう少しシンプルにきれいにしたかったら・・・
>	
  library(partykit)	
  
>	
  plot(as.party(iris.rp),uniform=T,branch=0.6,margin=0.5)
18
過学習してないか調べる
>	
  printcp(iris.rp)	
  
	
  
Classification	
  tree:	
  
rpart(formula	
  =	
  Species	
  ~	
  .,	
  data	
  =	
  
iris)	
  
	
  
Variables	
  actually	
  used	
  in	
  tree	
  
construction:	
  
[1]	
  Petal.Length	
  Petal.Width	
  	
  
	
  
Root	
  node	
  error:	
  100/150	
  =	
  0.66667	
  
	
  
n=	
  150	
  	
  
	
  
	
  	
  	
  	
  CP	
  nsplit	
  rel	
  error	
  xerror	
  	
  	
  	
  	
  xstd	
  
1	
  0.50	
  	
  	
  	
  	
  	
  0	
  	
  	
  	
  	
  	
  1.00	
  	
  	
  1.21	
  0.048367	
  
2	
  0.44	
  	
  	
  	
  	
  	
  1	
  	
  	
  	
  	
  	
  0.50	
  	
  	
  0.74	
  0.061232	
  
3	
  0.02	
  	
  	
  	
  	
  	
  2	
  	
  	
  	
  	
  	
  0.06	
  	
  	
  0.11	
  0.031927	
  
4	
  0.01	
  	
  	
  	
  	
  	
  3	
  	
  	
  	
  	
  	
  0.04	
  	
  	
  0.11	
  0.031927
>	
  plotcp(iris.rp)
19
過学習してないか調べる
>	
  printcp(iris.rp)	
  
	
  
Classification	
  tree:	
  
rpart(formula	
  =	
  Species	
  ~	
  .,	
  data	
  =	
  
iris)	
  
	
  
Variables	
  actually	
  used	
  in	
  tree	
  
construction:	
  
[1]	
  Petal.Length	
  Petal.Width	
  	
  
	
  
Root	
  node	
  error:	
  100/150	
  =	
  0.66667	
  
	
  
n=	
  150	
  	
  
	
  
	
  	
  	
  	
  CP	
  nsplit	
  rel	
  error	
  xerror	
  	
  	
  	
  	
  xstd	
  
1	
  0.50	
  	
  	
  	
  	
  	
  0	
  	
  	
  	
  	
  	
  1.00	
  	
  	
  1.21	
  0.048367	
  
2	
  0.44	
  	
  	
  	
  	
  	
  1	
  	
  	
  	
  	
  	
  0.50	
  	
  	
  0.74	
  0.061232	
  
3	
  0.02	
  	
  	
  	
  	
  	
  2	
  	
  	
  	
  	
  	
  0.06	
  	
  	
  0.11	
  0.031927	
  
4	
  0.01	
  	
  	
  	
  	
  	
  3	
  	
  	
  	
  	
  	
  0.04	
  	
  	
  0.11	
  0.031927
>	
  plotcp(iris.rp)
20
 CP	
  nsplit	
  rel	
  error	
  xerror	
  	
  	
  	
  	
  xstd	
  
1	
  0.50	
  	
  	
  	
  	
  	
  0	
  	
  	
  	
  	
  	
  1.00	
  	
  	
  1.21	
  0.048367	
  
2	
  0.44	
  	
  	
  	
  	
  	
  1	
  	
  	
  	
  	
  	
  0.50	
  	
  	
  0.74	
  0.061232	
  
3	
  0.02	
  	
  	
  	
  	
  	
  2	
  	
  	
  	
  	
  	
  0.06	
  	
  	
  0.11	
  0.031927	
  
4	
  0.01	
  	
  	
  	
  	
  	
  3	
  	
  	
  	
  	
  	
  0.04	
  	
  	
  0.11	
  0.031927
21
 CP	
  nsplit	
  rel	
  error	
  xerror	
  	
  	
  	
  	
  xstd	
  
1	
  0.50	
  	
  	
  	
  	
  	
  0	
  	
  	
  	
  	
  	
  1.00	
  	
  	
  1.21	
  0.048367	
  
2	
  0.44	
  	
  	
  	
  	
  	
  1	
  	
  	
  	
  	
  	
  0.50	
  	
  	
  0.74	
  0.061232	
  
3	
  0.02	
  	
  	
  	
  	
  	
  2	
  	
  	
  	
  	
  	
  0.06	
  	
  	
  0.11	
  0.031927	
  
4	
  0.01	
  	
  	
  	
  	
  	
  3	
  	
  	
  	
  	
  	
  0.04	
  	
  	
  0.11	
  0.031927
22
 CP	
  nsplit	
  rel	
  error	
  xerror	
  	
  	
  	
  	
  xstd	
  
1	
  0.50	
  	
  	
  	
  	
  	
  0	
  	
  	
  	
  	
  	
  1.00	
  	
  	
  1.21	
  0.048367	
  
2	
  0.44	
  	
  	
  	
  	
  	
  1	
  	
  	
  	
  	
  	
  0.50	
  	
  	
  0.74	
  0.061232	
  
3	
  0.02	
  	
  	
  	
  	
  	
  2	
  	
  	
  	
  	
  	
  0.06	
  	
  	
  0.11	
  0.031927	
  
4	
  0.01	
  	
  	
  	
  	
  	
  3	
  	
  	
  	
  	
  	
  0.04	
  	
  	
  0.11	
  0.031927
23
 CP	
  nsplit	
  rel	
  error	
  xerror	
  	
  	
  	
  	
  xstd	
  
1	
  0.50	
  	
  	
  	
  	
  	
  0	
  	
  	
  	
  	
  	
  1.00	
  	
  	
  1.21	
  0.048367	
  
2	
  0.44	
  	
  	
  	
  	
  	
  1	
  	
  	
  	
  	
  	
  0.50	
  	
  	
  0.74	
  0.061232	
  
3	
  0.02	
  	
  	
  	
  	
  	
  2	
  	
  	
  	
  	
  	
  0.06	
  	
  	
  0.11	
  0.031927	
  
4	
  0.01	
  	
  	
  	
  	
  	
  3	
  	
  	
  	
  	
  	
  0.04	
  	
  	
  0.11	
  0.031927
どちらかの
値で剪定
24
①
③②
⑥ ⑦>	
  iris.rp2_1	
  <-­‐	
  prune(iris.rp,cp=0.02)	
  
>	
  iris.rp2_1	
  
n=	
  150	
  	
  
	
  
node),	
  split,	
  n,	
  loss,	
  yval,	
  (yprob)	
  
	
  	
  	
  	
  	
  	
  *	
  denotes	
  terminal	
  node	
  
	
  
1)	
  root	
  150	
  100	
  setosa	
  (0.33333333	
  0.33333333	
  0.33333333)	
  	
  	
  
	
  	
  2)	
  Petal.Length<	
  2.45	
  50	
  	
  	
  0	
  setosa	
  (1.00000000	
  0.00000000	
  0.00000000)	
  *	
  
	
  	
  3)	
  Petal.Length>=2.45	
  100	
  	
  50	
  versicolor	
  (0.00000000	
  0.50000000	
  0.50000000)	
  	
  	
  
	
  	
  	
  	
  6)	
  Petal.Width<	
  1.75	
  54	
  	
  	
  5	
  versicolor	
  (0.00000000	
  0.90740741	
  0.09259259)	
  *	
  
	
  	
  	
  	
  7)	
  Petal.Width>=1.75	
  46	
  	
  	
  1	
  virginica	
  (0.00000000	
  0.02173913	
  0.97826087)	
  *	
  
>	
  plot(iris.rp2_1,uniform=T,branch=0.6,margin=0)	
  
>	
  text(iris.rp2_1,uniform=T,use.n=T,all=T)	
  
剪定後
25
①
③②
⑥ ⑦>	
  iris.rp2_2	
  <-­‐	
  prune(iris.rp,cp=0.094)	
  
>	
  iris.rp2_2	
  
n=	
  150	
  	
  
	
  
node),	
  split,	
  n,	
  loss,	
  yval,	
  (yprob)	
  
	
  	
  	
  	
  	
  	
  *	
  denotes	
  terminal	
  node	
  
	
  
1)	
  root	
  150	
  100	
  setosa	
  (0.33333333	
  0.33333333	
  0.33333333)	
  	
  	
  
	
  	
  2)	
  Petal.Length<	
  2.45	
  50	
  	
  	
  0	
  setosa	
  (1.00000000	
  0.00000000	
  0.00000000)	
  *	
  
	
  	
  3)	
  Petal.Length>=2.45	
  100	
  	
  50	
  versicolor	
  (0.00000000	
  0.50000000	
  0.50000000)	
  	
  	
  
	
  	
  	
  	
  6)	
  Petal.Width<	
  1.75	
  54	
  	
  	
  5	
  versicolor	
  (0.00000000	
  0.90740741	
  0.09259259)	
  *	
  
	
  	
  	
  	
  7)	
  Petal.Width>=1.75	
  46	
  	
  	
  1	
  virginica	
  (0.00000000	
  0.02173913	
  0.97826087)	
  *	
  
>	
  plot(iris.rp2_2,uniform=T,branch=0.6,margin=0)	
  
>	
  text(iris.rp2_2,uniform=T,use.n=T,all=T)	
  
剪定後
26
上と下の剪定基準値の間に両方あるから
結局、結果は同じ・・・
27※詳細はよくわかりません m(_ _)m
分類木の精度を測りたいなら・・・
28
最後に
>	
  iris.tre	
  <-­‐	
  iris[2*(1:75)-­‐1,]	
  #	
  奇数行	
  
>	
  iris.test	
  <-­‐	
  iris[-­‐(2*(1:75)-­‐1),]	
  #	
  偶数行	
  
#	
  奇数行だけで分類木の生成	
  
>	
  iris.tre	
  <-­‐	
  rpart(Species~.,	
  data=iris.tre,method="class")	
  
>	
  pred	
  <-­‐	
  predict(iris.tre,	
  iris.test,	
  type="class")	
  
#	
  偶数行でテストしてみる	
  
>	
  table(pred,	
  iris.test$Species)	
  
	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  
pred	
  	
  	
  	
  	
  	
  	
  	
  	
  setosa	
  versicolor	
  virginica	
  
	
  	
  setosa	
  	
  	
  	
  	
  	
  	
  	
  	
  25	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  0	
  	
  	
  	
  	
  	
  	
  	
  	
  0	
  
	
  	
  versicolor	
  	
  	
  	
  	
  	
  0	
  	
  	
  	
  	
  	
  	
  	
  	
  24	
  	
  	
  	
  	
  	
  	
  	
  	
  3	
  
	
  	
  virginica	
  	
  	
  	
  	
  	
  	
  0	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  1	
  	
  	
  	
  	
  	
  	
  	
  22	
  

More Related Content

What's hot

アンサンブル学習
アンサンブル学習アンサンブル学習
アンサンブル学習Hidekazu Tanaka
 
Rによるやさしい統計学第20章「検定力分析によるサンプルサイズの決定」
Rによるやさしい統計学第20章「検定力分析によるサンプルサイズの決定」Rによるやさしい統計学第20章「検定力分析によるサンプルサイズの決定」
Rによるやさしい統計学第20章「検定力分析によるサンプルサイズの決定」Takashi J OZAKI
 
異常検知と変化検知で復習するPRML
異常検知と変化検知で復習するPRML異常検知と変化検知で復習するPRML
異常検知と変化検知で復習するPRMLKatsuya Ito
 
因果推論の奥へ: "What works" meets "why it works"
因果推論の奥へ: "What works" meets "why it works"因果推論の奥へ: "What works" meets "why it works"
因果推論の奥へ: "What works" meets "why it works"takehikoihayashi
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知Yuya Takashina
 
ベイズファクターとモデル選択
ベイズファクターとモデル選択ベイズファクターとモデル選択
ベイズファクターとモデル選択kazutantan
 
ベイズ統計モデリングと心理学
ベイズ統計モデリングと心理学ベイズ統計モデリングと心理学
ベイズ統計モデリングと心理学Shushi Namba
 
21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)Toru Imai
 
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学Ken'ichi Matsui
 
社会心理学者のための時系列分析入門_小森
社会心理学者のための時系列分析入門_小森社会心理学者のための時系列分析入門_小森
社会心理学者のための時系列分析入門_小森Masashi Komori
 
論文の図表レイアウト例
論文の図表レイアウト例論文の図表レイアウト例
論文の図表レイアウト例Sunao Hara
 
わかりやすいパターン認識_2章
わかりやすいパターン認識_2章わかりやすいパターン認識_2章
わかりやすいパターン認識_2章weda654
 
Visual Studio CodeでRを使う
Visual Studio CodeでRを使うVisual Studio CodeでRを使う
Visual Studio CodeでRを使うAtsushi Hayakawa
 
クラスタリングとレコメンデーション資料
クラスタリングとレコメンデーション資料クラスタリングとレコメンデーション資料
クラスタリングとレコメンデーション資料洋資 堅田
 
距離とクラスタリング
距離とクラスタリング距離とクラスタリング
距離とクラスタリング大貴 末廣
 
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
トピックモデルの評価指標 Coherence 研究まとめ #トピ本トピックモデルの評価指標 Coherence 研究まとめ #トピ本
トピックモデルの評価指標 Coherence 研究まとめ #トピ本hoxo_m
 
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリングmlm_kansai
 

What's hot (20)

アンサンブル学習
アンサンブル学習アンサンブル学習
アンサンブル学習
 
Rによるやさしい統計学第20章「検定力分析によるサンプルサイズの決定」
Rによるやさしい統計学第20章「検定力分析によるサンプルサイズの決定」Rによるやさしい統計学第20章「検定力分析によるサンプルサイズの決定」
Rによるやさしい統計学第20章「検定力分析によるサンプルサイズの決定」
 
異常検知と変化検知で復習するPRML
異常検知と変化検知で復習するPRML異常検知と変化検知で復習するPRML
異常検知と変化検知で復習するPRML
 
因果推論の奥へ: "What works" meets "why it works"
因果推論の奥へ: "What works" meets "why it works"因果推論の奥へ: "What works" meets "why it works"
因果推論の奥へ: "What works" meets "why it works"
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知
 
ベイズファクターとモデル選択
ベイズファクターとモデル選択ベイズファクターとモデル選択
ベイズファクターとモデル選択
 
ベイズ統計モデリングと心理学
ベイズ統計モデリングと心理学ベイズ統計モデリングと心理学
ベイズ統計モデリングと心理学
 
21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)
 
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学
 
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
一般化線形モデル (GLM) & 一般化加法モデル(GAM) 一般化線形モデル (GLM) & 一般化加法モデル(GAM)
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
 
社会心理学者のための時系列分析入門_小森
社会心理学者のための時系列分析入門_小森社会心理学者のための時系列分析入門_小森
社会心理学者のための時系列分析入門_小森
 
論文の図表レイアウト例
論文の図表レイアウト例論文の図表レイアウト例
論文の図表レイアウト例
 
わかりやすいパターン認識_2章
わかりやすいパターン認識_2章わかりやすいパターン認識_2章
わかりやすいパターン認識_2章
 
潜在クラス分析
潜在クラス分析潜在クラス分析
潜在クラス分析
 
Visual Studio CodeでRを使う
Visual Studio CodeでRを使うVisual Studio CodeでRを使う
Visual Studio CodeでRを使う
 
WAICとWBICのご紹介
WAICとWBICのご紹介WAICとWBICのご紹介
WAICとWBICのご紹介
 
クラスタリングとレコメンデーション資料
クラスタリングとレコメンデーション資料クラスタリングとレコメンデーション資料
クラスタリングとレコメンデーション資料
 
距離とクラスタリング
距離とクラスタリング距離とクラスタリング
距離とクラスタリング
 
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
トピックモデルの評価指標 Coherence 研究まとめ #トピ本トピックモデルの評価指標 Coherence 研究まとめ #トピ本
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
 
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
 

Similar to Rによる分類木 入門

【Unity道場】ゲーム制作に使う数学を学習しよう
【Unity道場】ゲーム制作に使う数学を学習しよう【Unity道場】ゲーム制作に使う数学を学習しよう
【Unity道場】ゲーム制作に使う数学を学習しようUnity Technologies Japan K.K.
 
[TL06] 日本の第一人者が C# の現状と今後を徹底解説! 「この素晴らしい C# に祝福を!」
[TL06] 日本の第一人者が C# の現状と今後を徹底解説! 「この素晴らしい C# に祝福を!」[TL06] 日本の第一人者が C# の現状と今後を徹底解説! 「この素晴らしい C# に祝福を!」
[TL06] 日本の第一人者が C# の現状と今後を徹底解説! 「この素晴らしい C# に祝福を!」de:code 2017
 
東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1hirokazutanaka
 
CRC-32
CRC-32CRC-32
CRC-327shi
 
一般化線形混合モデル isseing333
一般化線形混合モデル isseing333一般化線形混合モデル isseing333
一般化線形混合モデル isseing333Issei Kurahashi
 
K060 中心極限定理clt
K060 中心極限定理cltK060 中心極限定理clt
K060 中心極限定理cltt2tarumi
 
条件分岐とcmovとmaxps
条件分岐とcmovとmaxps条件分岐とcmovとmaxps
条件分岐とcmovとmaxpsMITSUNARI Shigeo
 
Casual learning machine learning with_excel_no5
Casual learning machine learning with_excel_no5Casual learning machine learning with_excel_no5
Casual learning machine learning with_excel_no5KazuhiroSato8
 
Rで学ぶ逆変換(逆関数)法
Rで学ぶ逆変換(逆関数)法Rで学ぶ逆変換(逆関数)法
Rで学ぶ逆変換(逆関数)法Nagi Teramo
 
「ランダムフォレスト回帰」のハイパーパラメーター
「ランダムフォレスト回帰」のハイパーパラメーター「ランダムフォレスト回帰」のハイパーパラメーター
「ランダムフォレスト回帰」のハイパーパラメーターJun Umezawa
 
Lotus DEvCon 2000 - LotusScript Tips and Techniques
Lotus DEvCon 2000 - LotusScript Tips and TechniquesLotus DEvCon 2000 - LotusScript Tips and Techniques
Lotus DEvCon 2000 - LotusScript Tips and TechniquesHiroaki Komine
 
入門機械学習読書会9章
入門機械学習読書会9章入門機械学習読書会9章
入門機械学習読書会9章Kazufumi Ohkawa
 
テーマ「最適化」
テーマ「最適化」テーマ「最適化」
テーマ「最適化」technocat
 
東京都市大学 データ解析入門 5 スパース性と圧縮センシング 2
東京都市大学 データ解析入門 5 スパース性と圧縮センシング 2東京都市大学 データ解析入門 5 スパース性と圧縮センシング 2
東京都市大学 データ解析入門 5 スパース性と圧縮センシング 2hirokazutanaka
 

Similar to Rによる分類木 入門 (20)

Listを串刺し
Listを串刺しListを串刺し
Listを串刺し
 
【Unity道場】ゲーム制作に使う数学を学習しよう
【Unity道場】ゲーム制作に使う数学を学習しよう【Unity道場】ゲーム制作に使う数学を学習しよう
【Unity道場】ゲーム制作に使う数学を学習しよう
 
[TL06] 日本の第一人者が C# の現状と今後を徹底解説! 「この素晴らしい C# に祝福を!」
[TL06] 日本の第一人者が C# の現状と今後を徹底解説! 「この素晴らしい C# に祝福を!」[TL06] 日本の第一人者が C# の現状と今後を徹底解説! 「この素晴らしい C# に祝福を!」
[TL06] 日本の第一人者が C# の現状と今後を徹底解説! 「この素晴らしい C# に祝福を!」
 
20140920 tokyo r43
20140920 tokyo r4320140920 tokyo r43
20140920 tokyo r43
 
東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1
 
CRC-32
CRC-32CRC-32
CRC-32
 
一般化線形混合モデル isseing333
一般化線形混合モデル isseing333一般化線形混合モデル isseing333
一般化線形混合モデル isseing333
 
R_note_02_ver1.0
R_note_02_ver1.0R_note_02_ver1.0
R_note_02_ver1.0
 
K060 中心極限定理clt
K060 中心極限定理cltK060 中心極限定理clt
K060 中心極限定理clt
 
Bee Style:vol.039
Bee Style:vol.039Bee Style:vol.039
Bee Style:vol.039
 
条件分岐とcmovとmaxps
条件分岐とcmovとmaxps条件分岐とcmovとmaxps
条件分岐とcmovとmaxps
 
LLVM最適化のこつ
LLVM最適化のこつLLVM最適化のこつ
LLVM最適化のこつ
 
Casual learning machine learning with_excel_no5
Casual learning machine learning with_excel_no5Casual learning machine learning with_excel_no5
Casual learning machine learning with_excel_no5
 
CheckMATE 実習
CheckMATE 実習CheckMATE 実習
CheckMATE 実習
 
Rで学ぶ逆変換(逆関数)法
Rで学ぶ逆変換(逆関数)法Rで学ぶ逆変換(逆関数)法
Rで学ぶ逆変換(逆関数)法
 
「ランダムフォレスト回帰」のハイパーパラメーター
「ランダムフォレスト回帰」のハイパーパラメーター「ランダムフォレスト回帰」のハイパーパラメーター
「ランダムフォレスト回帰」のハイパーパラメーター
 
Lotus DEvCon 2000 - LotusScript Tips and Techniques
Lotus DEvCon 2000 - LotusScript Tips and TechniquesLotus DEvCon 2000 - LotusScript Tips and Techniques
Lotus DEvCon 2000 - LotusScript Tips and Techniques
 
入門機械学習読書会9章
入門機械学習読書会9章入門機械学習読書会9章
入門機械学習読書会9章
 
テーマ「最適化」
テーマ「最適化」テーマ「最適化」
テーマ「最適化」
 
東京都市大学 データ解析入門 5 スパース性と圧縮センシング 2
東京都市大学 データ解析入門 5 スパース性と圧縮センシング 2東京都市大学 データ解析入門 5 スパース性と圧縮センシング 2
東京都市大学 データ解析入門 5 スパース性と圧縮センシング 2
 

Rによる分類木 入門

  • 3. What’s classification tree? •  結果を分類するためにそのほかの値を見比べ、 最もきれいに2分割できる条件を探していく手 法 •  分岐の過程を図示することができるため,   分析結果の可読性が高い •  分類木と回帰木がある 3
  • 6. Example… 商品を サイズ 色 見た回数 買った M 普通 10 買った L 好き 5 買わない M 嫌い 3 買った M 好き 6 買わない L 好き 3 買わない M 普通 10 買わない M 嫌い 4 買った L 好き 6 目的変数がカテゴリカル(質的)な場合 6
  • 8. ・今回はCART(Classification And Regression Trees)という  目的変数を2つの集合に分岐させる方法を紹介する ・具体的にはジニ係数(GI : Gini index)やエントロピー(entropy)                という分類の不純度を計算する How to classify. 8
  • 9.
  • 10. Example… 商品を サイズ 色 見た回数 買った M 普通 10 買った L 好き 5 買わない M 嫌い 3 買った M 好き 6 買わない L 好き 3 買わない M 普通 10 買わない M 嫌い 4 買った L 好き 6 目的変数がカテゴリカル(質的)な場合 10
  • 11. ex.) M L 好き 普通・嫌い 色 4.5 <4.5 見た回数 ジニ係数(不純度)の一番低い分岐点を採用 データ   買った   買わない 説明変数 サイズ ジニ係数 0.48 0.375 0.375 0.32 0.00.44 0.465 0.375 0.2 加重平均 加重平均 加重平均 11
  • 14. 交差検証法(cross validation) How to prune? ⑴データをテストデータと     トレーニングデータに分ける   ⑵トレーニングデータだけで     モデルをつくる   ⑶できたモデルとテストデータを比較し、 答え合わせをして、精度を求める   ⑷⑴〜⑶をn回繰り返し、平均する   14
  • 15. 交差検証法(cross validation) How to prune? ⑴データをテストデータと     トレーニングデータに分ける   ⑵トレーニングデータだけで     モデルをつくる   ⑶できたモデルとテストデータを比較し、 答え合わせをして、精度を求める   ⑷⑴〜⑶をn回繰り返し、平均する   これを各ノードで行い、 制度の低いところを剪定する 15
  • 17. ① ③② ⑥ ⑦ ⑫ ⑬ >  library(mvpart)   >  #  決定木のplot   >  iris.rp  <-­‐  rpart(Species~.,  data=iris)   >  iris.rp   n=  150       node),  split,  n,  loss,  yval,  (yprob)              *  denotes  terminal  node      1)  root  150  100  setosa  (0.33333333  0.33333333  0.33333333)            2)  Petal.Length<  2.45  50      0  setosa  (1.00000000  0.00000000  0.00000000)  *        3)  Petal.Length>=2.45  100    50  versicolor  (0.00000000  0.50000000  0.50000000)                6)  Petal.Width<  1.75  54      5  versicolor  (0.00000000  0.90740741  0.09259259)                  12)  Petal.Length<  4.95  48      1  versicolor  (0.00000000  0.97916667  0.02083333)  *              13)  Petal.Length>=4.95  6      2  virginica  (0.00000000  0.33333333  0.66666667)  *            7)  Petal.Width>=1.75  46      1  virginica  (0.00000000  0.02173913  0.97826087)  *   >  plot(iris.rp,uniform=T,branch=0.6,margin=0)   >  text(iris.rp,uniform=T,use.n=T,all=T)     剪定前 17
  • 18. もう少しシンプルにきれいにしたかったら・・・ >  library(partykit)   >  plot(as.party(iris.rp),uniform=T,branch=0.6,margin=0.5) 18
  • 19. 過学習してないか調べる >  printcp(iris.rp)     Classification  tree:   rpart(formula  =  Species  ~  .,  data  =   iris)     Variables  actually  used  in  tree   construction:   [1]  Petal.Length  Petal.Width       Root  node  error:  100/150  =  0.66667     n=  150              CP  nsplit  rel  error  xerror          xstd   1  0.50            0            1.00      1.21  0.048367   2  0.44            1            0.50      0.74  0.061232   3  0.02            2            0.06      0.11  0.031927   4  0.01            3            0.04      0.11  0.031927 >  plotcp(iris.rp) 19
  • 20. 過学習してないか調べる >  printcp(iris.rp)     Classification  tree:   rpart(formula  =  Species  ~  .,  data  =   iris)     Variables  actually  used  in  tree   construction:   [1]  Petal.Length  Petal.Width       Root  node  error:  100/150  =  0.66667     n=  150              CP  nsplit  rel  error  xerror          xstd   1  0.50            0            1.00      1.21  0.048367   2  0.44            1            0.50      0.74  0.061232   3  0.02            2            0.06      0.11  0.031927   4  0.01            3            0.04      0.11  0.031927 >  plotcp(iris.rp) 20
  • 21.  CP  nsplit  rel  error  xerror          xstd   1  0.50            0            1.00      1.21  0.048367   2  0.44            1            0.50      0.74  0.061232   3  0.02            2            0.06      0.11  0.031927   4  0.01            3            0.04      0.11  0.031927 21
  • 22.  CP  nsplit  rel  error  xerror          xstd   1  0.50            0            1.00      1.21  0.048367   2  0.44            1            0.50      0.74  0.061232   3  0.02            2            0.06      0.11  0.031927   4  0.01            3            0.04      0.11  0.031927 22
  • 23.  CP  nsplit  rel  error  xerror          xstd   1  0.50            0            1.00      1.21  0.048367   2  0.44            1            0.50      0.74  0.061232   3  0.02            2            0.06      0.11  0.031927   4  0.01            3            0.04      0.11  0.031927 23
  • 24.  CP  nsplit  rel  error  xerror          xstd   1  0.50            0            1.00      1.21  0.048367   2  0.44            1            0.50      0.74  0.061232   3  0.02            2            0.06      0.11  0.031927   4  0.01            3            0.04      0.11  0.031927 どちらかの 値で剪定 24
  • 25. ① ③② ⑥ ⑦>  iris.rp2_1  <-­‐  prune(iris.rp,cp=0.02)   >  iris.rp2_1   n=  150       node),  split,  n,  loss,  yval,  (yprob)              *  denotes  terminal  node     1)  root  150  100  setosa  (0.33333333  0.33333333  0.33333333)          2)  Petal.Length<  2.45  50      0  setosa  (1.00000000  0.00000000  0.00000000)  *      3)  Petal.Length>=2.45  100    50  versicolor  (0.00000000  0.50000000  0.50000000)              6)  Petal.Width<  1.75  54      5  versicolor  (0.00000000  0.90740741  0.09259259)  *          7)  Petal.Width>=1.75  46      1  virginica  (0.00000000  0.02173913  0.97826087)  *   >  plot(iris.rp2_1,uniform=T,branch=0.6,margin=0)   >  text(iris.rp2_1,uniform=T,use.n=T,all=T)   剪定後 25
  • 26. ① ③② ⑥ ⑦>  iris.rp2_2  <-­‐  prune(iris.rp,cp=0.094)   >  iris.rp2_2   n=  150       node),  split,  n,  loss,  yval,  (yprob)              *  denotes  terminal  node     1)  root  150  100  setosa  (0.33333333  0.33333333  0.33333333)          2)  Petal.Length<  2.45  50      0  setosa  (1.00000000  0.00000000  0.00000000)  *      3)  Petal.Length>=2.45  100    50  versicolor  (0.00000000  0.50000000  0.50000000)              6)  Petal.Width<  1.75  54      5  versicolor  (0.00000000  0.90740741  0.09259259)  *          7)  Petal.Width>=1.75  46      1  virginica  (0.00000000  0.02173913  0.97826087)  *   >  plot(iris.rp2_2,uniform=T,branch=0.6,margin=0)   >  text(iris.rp2_2,uniform=T,use.n=T,all=T)   剪定後 26
  • 28. 分類木の精度を測りたいなら・・・ 28 最後に >  iris.tre  <-­‐  iris[2*(1:75)-­‐1,]  #  奇数行   >  iris.test  <-­‐  iris[-­‐(2*(1:75)-­‐1),]  #  偶数行   #  奇数行だけで分類木の生成   >  iris.tre  <-­‐  rpart(Species~.,  data=iris.tre,method="class")   >  pred  <-­‐  predict(iris.tre,  iris.test,  type="class")   #  偶数行でテストしてみる   >  table(pred,  iris.test$Species)                             pred                  setosa  versicolor  virginica      setosa                  25                    0                  0      versicolor            0                  24                  3      virginica              0                    1                22