Submit Search
Upload
はじパタLT2
•
4 likes
•
5,190 views
Tadayuki Onishi
Follow
Rで学ぶデータサイエンス 5 「パターン認識」 第2章 k-平均法
Read less
Read more
Technology
Slideshow view
Report
Share
Slideshow view
Report
Share
1 of 75
Download now
Download to read offline
Recommended
はじパタLT3
はじパタLT3
Tadayuki Onishi
パターン認識02 k平均法ver2.0
パターン認識02 k平均法ver2.0
sleipnir002
パターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvq
sleipnir002
Paper: seq2seq 20190320
Paper: seq2seq 20190320
Yusuke Fujimoto
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
Deep Learning JP
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
Motoya Wakiyama
入門パターン認識と機械学習15章
入門パターン認識と機械学習15章
hiro5585
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半
koba cky
Recommended
はじパタLT3
はじパタLT3
Tadayuki Onishi
パターン認識02 k平均法ver2.0
パターン認識02 k平均法ver2.0
sleipnir002
パターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvq
sleipnir002
Paper: seq2seq 20190320
Paper: seq2seq 20190320
Yusuke Fujimoto
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
Deep Learning JP
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
Motoya Wakiyama
入門パターン認識と機械学習15章
入門パターン認識と機械学習15章
hiro5585
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半
koba cky
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
Nguyen Tuan
Approximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLP
Koji Matsuda
Recurrent Neural Networks
Recurrent Neural Networks
Seiya Tokui
第七回統計学勉強会@東大駒場
第七回統計学勉強会@東大駒場
Daisuke Yoneoka
深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習
Masahiro Suzuki
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について
Deep Learning JP
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用
Seiya Tokui
NIPS2019 Amazon「think globally, act locally : a deep neural network approach...
NIPS2019 Amazon「think globally, act locally : a deep neural network approach...
SaeruYamamuro
Pythonで体験する深層学習 5章
Pythonで体験する深層学習 5章
孝好 飯塚
DLLab 異常検知ナイト 資料 20180214
DLLab 異常検知ナイト 資料 20180214
Kosuke Nakago
【Topotal輪読会】JavaScript で学ぶ関数型プログラミング 1 章
【Topotal輪読会】JavaScript で学ぶ関数型プログラミング 1 章
Narimichi Takamura
関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCA
Akisato Kimura
単純パーセプトロン
単純パーセプトロン
T2C_
論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative Models
Seiya Tokui
Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)
Kenta Oono
ディープラーニングフレームワーク とChainerの実装
ディープラーニングフレームワーク とChainerの実装
Ryosuke Okuta
関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)
Akisato Kimura
Learning to forget continual prediction with lstm
Learning to forget continual prediction with lstm
Fujimoto Keisuke
GPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装について
Yuya Unno
PythonによるDeep Learningの実装
PythonによるDeep Learningの実装
Shinya Akiba
機械学習
機械学習
Hikaru Takemura
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
Naoki Hayashi
More Related Content
What's hot
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
Nguyen Tuan
Approximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLP
Koji Matsuda
Recurrent Neural Networks
Recurrent Neural Networks
Seiya Tokui
第七回統計学勉強会@東大駒場
第七回統計学勉強会@東大駒場
Daisuke Yoneoka
深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習
Masahiro Suzuki
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について
Deep Learning JP
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用
Seiya Tokui
NIPS2019 Amazon「think globally, act locally : a deep neural network approach...
NIPS2019 Amazon「think globally, act locally : a deep neural network approach...
SaeruYamamuro
Pythonで体験する深層学習 5章
Pythonで体験する深層学習 5章
孝好 飯塚
DLLab 異常検知ナイト 資料 20180214
DLLab 異常検知ナイト 資料 20180214
Kosuke Nakago
【Topotal輪読会】JavaScript で学ぶ関数型プログラミング 1 章
【Topotal輪読会】JavaScript で学ぶ関数型プログラミング 1 章
Narimichi Takamura
関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCA
Akisato Kimura
単純パーセプトロン
単純パーセプトロン
T2C_
論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative Models
Seiya Tokui
Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)
Kenta Oono
ディープラーニングフレームワーク とChainerの実装
ディープラーニングフレームワーク とChainerの実装
Ryosuke Okuta
関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)
Akisato Kimura
Learning to forget continual prediction with lstm
Learning to forget continual prediction with lstm
Fujimoto Keisuke
GPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装について
Yuya Unno
PythonによるDeep Learningの実装
PythonによるDeep Learningの実装
Shinya Akiba
What's hot
(20)
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
Approximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLP
Recurrent Neural Networks
Recurrent Neural Networks
第七回統計学勉強会@東大駒場
第七回統計学勉強会@東大駒場
深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用
NIPS2019 Amazon「think globally, act locally : a deep neural network approach...
NIPS2019 Amazon「think globally, act locally : a deep neural network approach...
Pythonで体験する深層学習 5章
Pythonで体験する深層学習 5章
DLLab 異常検知ナイト 資料 20180214
DLLab 異常検知ナイト 資料 20180214
【Topotal輪読会】JavaScript で学ぶ関数型プログラミング 1 章
【Topotal輪読会】JavaScript で学ぶ関数型プログラミング 1 章
関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCA
単純パーセプトロン
単純パーセプトロン
論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative Models
Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)
ディープラーニングフレームワーク とChainerの実装
ディープラーニングフレームワーク とChainerの実装
関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)
Learning to forget continual prediction with lstm
Learning to forget continual prediction with lstm
GPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装について
PythonによるDeep Learningの実装
PythonによるDeep Learningの実装
Similar to はじパタLT2
機械学習
機械学習
Hikaru Takemura
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
Naoki Hayashi
Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習
Preferred Networks
集合知プログラミング 第6章 ドキュメントとフィルタリング~draft
集合知プログラミング 第6章 ドキュメントとフィルタリング~draft
Kenji Koshikawa
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
Naoki Hayashi
深層学習による自然言語処理の研究動向
深層学習による自然言語処理の研究動向
STAIR Lab, Chiba Institute of Technology
Anomaly detection survey
Anomaly detection survey
ぱんいち すみもと
[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)
[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)
Deep Learning JP
エンジニアのための機械学習の基礎
エンジニアのための機械学習の基礎
Daiyu Hatakeyama
農業AIハッカソンマイクロソフト様発表資料
農業AIハッカソンマイクロソフト様発表資料
Kohei Mochida
Locally Optimized Product Quantization for Approximate Nearest Neighbor Searc...
Locally Optimized Product Quantization for Approximate Nearest Neighbor Searc...
Gou Koutaki
文献紹介:EfficientDet: Scalable and Efficient Object Detection
文献紹介:EfficientDet: Scalable and Efficient Object Detection
Toru Tamaki
Generative adversarial nets
Generative adversarial nets
Keisuke Hosaka
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Toru Fujino
Eccv2018 report day3
Eccv2018 report day3
Atsushi Hashimoto
Anomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめた
ぱんいち すみもと
Partial least squares回帰と画像認識への応用
Partial least squares回帰と画像認識への応用
Shohei Kumagai
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks
Yuya Unno
When NAS Meets Robustness:In Search of Robust Architectures againstAdversar...
When NAS Meets Robustness:In Search of Robust Architectures againstAdversar...
MasanoriSuganuma
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochi
Ohsawa Goodfellow
Similar to はじパタLT2
(20)
機械学習
機械学習
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習
集合知プログラミング 第6章 ドキュメントとフィルタリング~draft
集合知プログラミング 第6章 ドキュメントとフィルタリング~draft
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
深層学習による自然言語処理の研究動向
深層学習による自然言語処理の研究動向
Anomaly detection survey
Anomaly detection survey
[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)
[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)
エンジニアのための機械学習の基礎
エンジニアのための機械学習の基礎
農業AIハッカソンマイクロソフト様発表資料
農業AIハッカソンマイクロソフト様発表資料
Locally Optimized Product Quantization for Approximate Nearest Neighbor Searc...
Locally Optimized Product Quantization for Approximate Nearest Neighbor Searc...
文献紹介:EfficientDet: Scalable and Efficient Object Detection
文献紹介:EfficientDet: Scalable and Efficient Object Detection
Generative adversarial nets
Generative adversarial nets
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Eccv2018 report day3
Eccv2018 report day3
Anomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめた
Partial least squares回帰と画像認識への応用
Partial least squares回帰と画像認識への応用
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks
When NAS Meets Robustness:In Search of Robust Architectures againstAdversar...
When NAS Meets Robustness:In Search of Robust Architectures againstAdversar...
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochi
More from Tadayuki Onishi
そろそろSublime Text 2を熱く語ろうと思う
そろそろSublime Text 2を熱く語ろうと思う
Tadayuki Onishi
はじパタLT Section1
はじパタLT Section1
Tadayuki Onishi
アド部6回発表
アド部6回発表
Tadayuki Onishi
アド部5回発表
アド部5回発表
Tadayuki Onishi
garchfit
garchfit
Tadayuki Onishi
Data Mining with R algae bloom case
Data Mining with R algae bloom case
Tadayuki Onishi
Tokyo r 10_12
Tokyo r 10_12
Tadayuki Onishi
More from Tadayuki Onishi
(7)
そろそろSublime Text 2を熱く語ろうと思う
そろそろSublime Text 2を熱く語ろうと思う
はじパタLT Section1
はじパタLT Section1
アド部6回発表
アド部6回発表
アド部5回発表
アド部5回発表
garchfit
garchfit
Data Mining with R algae bloom case
Data Mining with R algae bloom case
Tokyo r 10_12
Tokyo r 10_12
Recently uploaded
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdf
taisei2219
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet
Toru Tamaki
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
Hiroki Ichikura
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey
Toru Tamaki
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システム
sugiuralab
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
iPride Co., Ltd.
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
Toru Tamaki
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Yuma Ohgami
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
Ryo Sasaki
Recently uploaded
(9)
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdf
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システム
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
はじパタLT2
1.
パターン認識 Rで学ぶデータサイエンス 第2章 2013/07/02 at リクルート(CodeIQ)
2.
@kenchan0130_aki 学生ニート 働いたら負け 自然言語処理 得意になりたい言語:Ruby 自己紹介
3.
@kenchan0130_aki 学生ニート 働いたら負け 自然言語処理 得意になりたい言語:Ruby 女の子と仲良くなれそう 自己紹介
4.
@kenchan0130_aki 学生ニート 働いたら負け 自然言語処理 得意になりたい言語:Ruby 女の子と仲良くなれそう 自己紹介 とりあえずsinatraでwebアプリは作れるようになった
5.
6.
7.
パターン認識 第2章 k-平均法 第1章 判別能力の評価 第3章
階層的クラスタリング 第4章 混合正規分布モデル 第5章 判別分析 第6章 ロジスティック回帰 第7章 密度推定 第8章 k-近傍法 第9章 学習ベクトル量子化 第10章 決定木 第11章 サポートベクターマシン 第12章 正規化とパス追跡 アルゴリズム 第13章 ミニマックス確率マシン 第14章 集団学習 第15章 2値判別から多値判別へ
8.
パターン認識 第2章 k-平均法 第1章 判別能力の評価 第3章
階層的クラスタリング 第4章 混合正規分布モデル 第5章 判別分析 第6章 ロジスティック回帰 第7章 密度推定 第8章 k-近傍法 第9章 学習ベクトル量子化 第10章 決定木 第11章 サポートベクターマシン 第12章 正規化とパス追跡 アルゴリズム 第13章 ミニマックス確率マシン 第14章 集団学習 第15章 2値判別から多値判別へ
9.
クラスタリングのお話 by : DGtal
Plus Art & Photo
10.
• データをいくつかの『まとまり』に分け, これをクラ スタと呼びます. クラスタリング
11.
• データをいくつかの『まとまり』に分け, これをクラ スタと呼びます. •
クラスタリングは, データのまとまり具合を捉えて, そこから何かしらの情報を引き出す方法です. クラスタリング
12.
• クラスタリングを実行するときに以下の2つを決める 必要があります. クラスタリング
13.
• クラスタリングを実行するときに以下の2つを決める 必要があります. クラスタリング 1) データ間の類似度をどう測るか? →
例えばユークリッド距離
14.
• クラスタリングを実行するときに以下の2つを決める 必要があります. クラスタリング 1) データ間の類似度をどう測るか? →
例えばユークリッド距離 2) 何個のクラスタに分類するか? クラスタリングの結果からクラスタ数を調整して, 様々なパターンを 試行錯誤する必要も出てきます.
15.
k-平均法のお話
16.
• 俗にいう「k-means」のことです. k-平均法
17.
• 俗にいう「k-means」のことです. • クラスタリング手法の一つとして広く使われてい ます.
(巷では定番らしい) k-平均法
18.
• 俗にいう「k-means」のことです. • クラスタリング手法の一つとして広く使われてい ます.
(巷では定番らしい) • 割りと確からしい結果を返してきてくれます. k-平均法
19.
• 俗にいう「k-means」のことです. • クラスタリング手法の一つとして広く使われてい ます.
(巷では定番らしい) • 割りと確からしい結果を返してきてくれます. • 初期値の取り方で結果が変わります. k-平均法
20.
k-平均法 k-meansのアルゴリズム
21.
k-平均法 k-meansのアルゴリズム
22.
• k-meansは, 評価関数
を最小化することで代表ベクト ルを求めています. k-平均法
23.
• k-meansは, 評価関数
を最小化することで代表ベクト ルを求めています. k-平均法 • データに対応する代表ベクトルの間の距離の2乗和です. • クラスタの代表ベクトルの周りに, そのクラスタに属する データが集まっていれば, の値は小さくなります.
24.
そんなこと言われてもワカンネ (しかも英語で書いてあるし...) by:hapal
25.
k-平均法 試しにk=2でk-meansを行ってみましょう
26.
1 2 3
4 5 0.01.02.03.0 x y k-平均法 試しにk=2でk-meansを行ってみましょう
27.
k-平均法 1 2 3
4 5 0.01.02.03.0 x y 試しにk=2でk-meansを行ってみましょう
28.
k-平均法 1 2 3
4 5 0.01.02.03.0 x y 試しにk=2でk-meansを行ってみましょう
29.
k-平均法 1 2 3
4 5 0.01.02.03.0 x y 試しにk=2でk-meansを行ってみましょう
30.
1 2 3
4 5 0.01.02.03.0 x y k-平均法 試しにk=2でk-meansを行ってみましょう
31.
1 2 3
4 5 0.01.02.03.0 x y k-平均法 試しにk=2でk-meansを行ってみましょう
32.
1 2 3
4 5 0.01.02.03.0 x y k-平均法 試しにk=2でk-meansを行ってみましょう
33.
1 2 3
4 5 0.01.02.03.0 x y k-平均法 試しにk=2でk-meansを行ってみましょう
34.
1 2 3
4 5 0.01.02.03.0 x y k-平均法 試しにk=2でk-meansを行ってみましょう
35.
1 2 3
4 5 0.01.02.03.0 x y k-平均法 試しにk=2でk-meansを行ってみましょう
36.
1 2 3
4 5 0.01.02.03.0 x y k-平均法 試しにk=2でk-meansを行ってみましょう
37.
1 2 3
4 5 0.01.02.03.0 x y k-平均法 試しにk=2でk-meansを行ってみましょう
38.
k-平均法 試しにk=2でk-meansを行ってみましょう 1 2 3
4 5 0.01.02.03.0 x y
39.
k-平均法 試しにk=2でk-meansを行ってみましょう 1 2 3
4 5 0.01.02.03.0 x y
40.
k-平均法 試しにk=2でk-meansを行ってみましょう 1 2 3
4 5 0.01.02.03.0 x y こんな感じです。
41.
で、codeはー? by : DGtal
Plus Art & Photo
42.
• みんな大好きirisデータ Rでの実装例
43.
• みんな大好きirisデータ • Fisherの研究で使われた,
あやめ150サンプルです. Rでの実装例
44.
• みんな大好きirisデータ • Fisherの研究で使われた,
あやめ150サンプルです. Rでの実装例 - Sepal.Length : がく片の長さ - Sepal.Width : がく片の幅 - Petal.Length : 花びらの長さ - Petal.Width : 花びらの幅 - Species : 品種(setosa, versicolor, viginica)
45.
• みんな大好きirisデータ • Fisherの研究で使われた,
あやめ150サンプルです. Rでの実装例 - Sepal.Length : がく片の長さ - Sepal.Width : がく片の幅 - Petal.Length : 花びらの長さ - Petal.Width : 花びらの幅 - Species : 品種(setosa, versicolor, viginica)
46.
• statsパッケージ(デフォルトで入ってます)に 「kmeans」関数が用意されています. Rでの実装例
47.
• statsパッケージ(デフォルトで入ってます)に 「kmeans」関数が用意されています. • nstartオプションは複数の初期値を試せるが,
増やすと その分計算時間がかかります. Rでの実装例
48.
• statsパッケージ(デフォルトで入ってます)に 「kmeans」関数が用意されています. • nstartオプションは複数の初期値を試せるが,
増やすと その分計算時間がかかります. Rでの実装例
49.
Rでの実装例 Sepal.Length 2.0 3.0 4.0
0.5 1.5 2.5 4.56.07.5 2.03.04.0 Sepal.Width Petal.Length 1357 4.5 6.0 7.5 0.51.52.5 1 3 5 7 Petal.Width k=3におけるk-meansによる, irisデータのクラスタリング
50.
by :Kr. B. で、どうやって クラスタ数きめればいいの?
51.
• 高次元のデータも視覚化すればクラスタ判断できるのでは? 次元削減による視覚化
52.
• 高次元のデータも視覚化すればクラスタ判断できるのでは? • よく使われるのが,
皆さんご存知「主成分分析」です. 次元削減による視覚化
53.
• 高次元のデータも視覚化すればクラスタ判断できるのでは? • よく使われるのが,
皆さんご存知「主成分分析」です. • ここでは, 主成分分析を非線形化した 『カーネル主成分分析』を使ってみます. 次元削減による視覚化
54.
• 高次元のデータも視覚化すればクラスタ判断できるのでは? • よく使われるのが,
皆さんご存知「主成分分析」です. • ここでは, 主成分分析を非線形化した 『カーネル主成分分析』を使ってみます. • kernlabパッケージに「kpca」関数が用意されています. 次元削減による視覚化
55.
• ガウスカーネルの の選び方は,
データ間の距離の中 央値を とするとき, 付近の値を用いると 良い結果が得られるそうです. • 「pcv」関数で, 固有ベクトル空間へ射影した結果が得 られます. 次元削減による視覚化
56.
次元削減による視覚化 X1 -0.8 -0.4 0.0
0.4 -0.20.00.1 -0.8-0.40.00.4 X2 -0.2 0.0 0.1 -2 -1 0 1 2 -2-1012 X3 カーネル主成分分析の第3主成分までのプロット
57.
次元削減による視覚化 X1 -0.8 -0.4 0.0
0.4 -0.20.00.1 -0.8-0.40.00.4 X2 -0.2 0.0 0.1 -2 -1 0 1 2 -2-1012 X3 カーネル主成分分析の第3主成分までのプロット • 第1, 2主成分より, データが大 きく2つのクラスタに分かれて いることがわかります.
58.
次元削減による視覚化 X1 -0.8 -0.4 0.0
0.4 -0.20.00.1 -0.8-0.40.00.4 X2 -0.2 0.0 0.1 -2 -1 0 1 2 -2-1012 X3 カーネル主成分分析の第3主成分までのプロット • 第1, 2主成分より, データが大 きく2つのクラスタに分かれて いることがわかります. • 第2, 3主成分より, 3つくらいの クラスタに分かれそうであるこ とがわかります.
59.
次元削減による視覚化 X1 -0.8 -0.4 0.0
0.4 -0.20.00.1 -0.8-0.40.00.4 X2 -0.2 0.0 0.1 -2 -1 0 1 2 -2-1012 X3 カーネル主成分分析の第3主成分までのプロット PC1 -1.0 0.0 1.0 -3-113 -1.00.01.0 PC2 -3 -1 1 2 3 4 -0.5 0.0 0.5 -0.50.00.5 PC3 主成分分析の第3主成分までのプロット • 第1, 2主成分より, データが大 きく2つのクラスタに分かれて いることがわかります. • 第2, 3主成分より, 3つくらいの クラスタに分かれそうであるこ とがわかります.
60.
次元削減による視覚化 X1 -0.8 -0.4 0.0
0.4 -0.20.00.1 -0.8-0.40.00.4 X2 -0.2 0.0 0.1 -2 -1 0 1 2 -2-1012 X3 カーネル主成分分析の第3主成分までのプロット PC1 -1.0 0.0 1.0 -3-113 -1.00.01.0 PC2 -3 -1 1 2 3 4 -0.5 0.0 0.5 -0.50.00.5 PC3 主成分分析の第3主成分までのプロット • 第1, 2主成分より, データが大 きく2つのクラスタに分かれて いることがわかります. • 第2, 3主成分より, 3つくらいの クラスタに分かれそうであるこ とがわかります.
61.
次元削減による視覚化 X1 -0.8 -0.4 0.0
0.4 -0.20.00.1 -0.8-0.40.00.4 X2 -0.2 0.0 0.1 -2 -1 0 1 2 -2-1012 X3 カーネル主成分分析の第3主成分までのプロット PC1 -1.0 0.0 1.0 -3-113 -1.00.01.0 PC2 -3 -1 1 2 3 4 -0.5 0.0 0.5 -0.50.00.5 PC3 主成分分析の第3主成分までのプロット • 第1, 2主成分より, データが大 きく2つのクラスタに分かれて いることがわかります. • 第2, 3主成分より, 3つくらいの クラスタに分かれそうであるこ とがわかります. カーネル主成分分析の方は 特徴が捉えられています.
62.
で、どうやって クラスタ数きめればいいの? by :chaysbc part2
63.
クラスタ数の推定 • 主成分分析でも, ある程度のクラスタ数は予測できました.
64.
クラスタ数の推定 • 主成分分析でも, ある程度のクラスタ数は予測できました. •
データに適当な分布を仮定して, 情報量規準などで推定す るのもありです.
65.
クラスタ数の推定 • 主成分分析でも, ある程度のクラスタ数は予測できました. •
データに適当な分布を仮定して, 情報量規準などで推定す るのもありです. • 今回は, データに分布を仮定しない, ギャップ統計量を使い ます.
66.
クラスタ数の推定 • 主成分分析でも, ある程度のクラスタ数は予測できました. •
データに適当な分布を仮定して, 情報量規準などで推定す るのもありです. • 今回は, データに分布を仮定しない, ギャップ統計量を使い ます. • SLmiscパッケージに「kmeansGap」関数が用意されてい ます.
67.
クラスタ数の推定 • 評価関数 は
について単調に減少するので, を基準とす ると, 以下のようになります. • データ とほぼ同じ範囲の一様乱数から生成 されたデータ集合 とします. • クラスタ数を とするとき, データ と のそれぞれをク ラスタリングして得られる評価関数の値を とします. 最適なクラスタ数 = データ数
68.
クラスタ数の推定 • ギャップ統計量は以下の式で求めることができます. • が最大となるような
を推定値とする方法です.
69.
クラスタ数の推定
70.
クラスタ数の推定 0510152025 k : number
of clusters frequency 2 3 4 5 6 7 8 9
71.
まとめ • k-meansは, 事前にクラスタ数を
と決めてクラスタリ ングを行う手法でした.
72.
まとめ • k-meansは, 事前にクラスタ数を
と決めてクラスタリ ングを行う手法でした. • クラスタ数によってやりたいようにできてしまいます.
73.
まとめ • k-meansは, 事前にクラスタ数を
と決めてクラスタリ ングを行う手法でした. • クラスタ数によってやりたいようにできてしまいます. • クラスタ数の決定が鍵となります.
74.
まとめ • k-meansは, 事前にクラスタ数を
と決めてクラスタリ ングを行う手法でした. • クラスタ数によってやりたいようにできてしまいます. • クラスタ数の決定が鍵となります. • クラスタに分けたあとのクラスタ毎の意味付け頑張って 下さい^^ (←これが一番大変だと思います. )
75.
Have a nice
clustering!!
Download now