SlideShare a Scribd company logo
1 of 75
Download to read offline
パターン認識
Rで学ぶデータサイエンス
第2章
2013/07/02
at リクルート(CodeIQ)
@kenchan0130_aki
学生ニート
働いたら負け
自然言語処理
得意になりたい言語:Ruby
自己紹介
@kenchan0130_aki
学生ニート
働いたら負け
自然言語処理
得意になりたい言語:Ruby 女の子と仲良くなれそう
自己紹介
@kenchan0130_aki
学生ニート
働いたら負け
自然言語処理
得意になりたい言語:Ruby 女の子と仲良くなれそう
自己紹介
とりあえずsinatraでwebアプリは作れるようになった
パターン認識
第2章 k-平均法
第1章 判別能力の評価
第3章 階層的クラスタリング
第4章 混合正規分布モデル
第5章 判別分析
第6章 ロジスティック回帰
第7章 密度推定
第8章 k-近傍法
第9章 学習ベクトル量子化
第10章 決定木
第11章 サポートベクターマシン
第12章 正規化とパス追跡
アルゴリズム
第13章 ミニマックス確率マシン
第14章 集団学習
第15章 2値判別から多値判別へ
パターン認識
第2章 k-平均法
第1章 判別能力の評価
第3章 階層的クラスタリング
第4章 混合正規分布モデル
第5章 判別分析
第6章 ロジスティック回帰
第7章 密度推定
第8章 k-近傍法
第9章 学習ベクトル量子化
第10章 決定木
第11章 サポートベクターマシン
第12章 正規化とパス追跡
アルゴリズム
第13章 ミニマックス確率マシン
第14章 集団学習
第15章 2値判別から多値判別へ
クラスタリングのお話
by : DGtal Plus Art & Photo
• データをいくつかの『まとまり』に分け, これをクラ
スタと呼びます.
クラスタリング
• データをいくつかの『まとまり』に分け, これをクラ
スタと呼びます.
• クラスタリングは, データのまとまり具合を捉えて,
そこから何かしらの情報を引き出す方法です.
クラスタリング
• クラスタリングを実行するときに以下の2つを決める
必要があります.
クラスタリング
• クラスタリングを実行するときに以下の2つを決める
必要があります.
クラスタリング
1) データ間の類似度をどう測るか?
→ 例えばユークリッド距離
• クラスタリングを実行するときに以下の2つを決める
必要があります.
クラスタリング
1) データ間の類似度をどう測るか?
→ 例えばユークリッド距離
2) 何個のクラスタに分類するか?
クラスタリングの結果からクラスタ数を調整して, 様々なパターンを
試行錯誤する必要も出てきます.
k-平均法のお話
• 俗にいう「k-means」のことです.
k-平均法
• 俗にいう「k-means」のことです.
• クラスタリング手法の一つとして広く使われてい
ます. (巷では定番らしい)
k-平均法
• 俗にいう「k-means」のことです.
• クラスタリング手法の一つとして広く使われてい
ます. (巷では定番らしい)
• 割りと確からしい結果を返してきてくれます.
k-平均法
• 俗にいう「k-means」のことです.
• クラスタリング手法の一つとして広く使われてい
ます. (巷では定番らしい)
• 割りと確からしい結果を返してきてくれます.
• 初期値の取り方で結果が変わります.
k-平均法
k-平均法
k-meansのアルゴリズム
k-平均法
k-meansのアルゴリズム
• k-meansは, 評価関数 を最小化することで代表ベクト
ルを求めています.
k-平均法
• k-meansは, 評価関数 を最小化することで代表ベクト
ルを求めています.
k-平均法
• データに対応する代表ベクトルの間の距離の2乗和です.
• クラスタの代表ベクトルの周りに, そのクラスタに属する
データが集まっていれば, の値は小さくなります.
そんなこと言われてもワカンネ
(しかも英語で書いてあるし...)
by:hapal
k-平均法
試しにk=2でk-meansを行ってみましょう
1 2 3 4 5
0.01.02.03.0
x
y
k-平均法
試しにk=2でk-meansを行ってみましょう
k-平均法
1 2 3 4 5
0.01.02.03.0
x
y
試しにk=2でk-meansを行ってみましょう
k-平均法
1 2 3 4 5
0.01.02.03.0
x
y
試しにk=2でk-meansを行ってみましょう
k-平均法
1 2 3 4 5
0.01.02.03.0
x
y
試しにk=2でk-meansを行ってみましょう
1 2 3 4 5
0.01.02.03.0
x
y
k-平均法
試しにk=2でk-meansを行ってみましょう
1 2 3 4 5
0.01.02.03.0
x
y
k-平均法
試しにk=2でk-meansを行ってみましょう
1 2 3 4 5
0.01.02.03.0
x
y
k-平均法
試しにk=2でk-meansを行ってみましょう
1 2 3 4 5
0.01.02.03.0
x
y
k-平均法
試しにk=2でk-meansを行ってみましょう
1 2 3 4 5
0.01.02.03.0
x
y
k-平均法
試しにk=2でk-meansを行ってみましょう
1 2 3 4 5
0.01.02.03.0
x
y
k-平均法
試しにk=2でk-meansを行ってみましょう
1 2 3 4 5
0.01.02.03.0
x
y
k-平均法
試しにk=2でk-meansを行ってみましょう
1 2 3 4 5
0.01.02.03.0
x
y
k-平均法
試しにk=2でk-meansを行ってみましょう
k-平均法
試しにk=2でk-meansを行ってみましょう
1 2 3 4 5
0.01.02.03.0
x
y
k-平均法
試しにk=2でk-meansを行ってみましょう
1 2 3 4 5
0.01.02.03.0
x
y
k-平均法
試しにk=2でk-meansを行ってみましょう
1 2 3 4 5
0.01.02.03.0
x
y
こんな感じです。
で、codeはー?
by : DGtal Plus Art & Photo
• みんな大好きirisデータ
Rでの実装例
• みんな大好きirisデータ
• Fisherの研究で使われた, あやめ150サンプルです.
Rでの実装例
• みんな大好きirisデータ
• Fisherの研究で使われた, あやめ150サンプルです.
Rでの実装例
- Sepal.Length : がく片の長さ
- Sepal.Width : がく片の幅
- Petal.Length : 花びらの長さ
- Petal.Width : 花びらの幅
- Species : 品種(setosa, versicolor, viginica)
• みんな大好きirisデータ
• Fisherの研究で使われた, あやめ150サンプルです.
Rでの実装例
- Sepal.Length : がく片の長さ
- Sepal.Width : がく片の幅
- Petal.Length : 花びらの長さ
- Petal.Width : 花びらの幅
- Species : 品種(setosa, versicolor, viginica)
• statsパッケージ(デフォルトで入ってます)に
「kmeans」関数が用意されています.
Rでの実装例
• statsパッケージ(デフォルトで入ってます)に
「kmeans」関数が用意されています.
• nstartオプションは複数の初期値を試せるが, 増やすと
その分計算時間がかかります.
Rでの実装例
• statsパッケージ(デフォルトで入ってます)に
「kmeans」関数が用意されています.
• nstartオプションは複数の初期値を試せるが, 増やすと
その分計算時間がかかります.
Rでの実装例
Rでの実装例
Sepal.Length
2.0 3.0 4.0 0.5 1.5 2.5
4.56.07.5
2.03.04.0
Sepal.Width
Petal.Length
1357
4.5 6.0 7.5
0.51.52.5
1 3 5 7
Petal.Width
k=3におけるk-meansによる, irisデータのクラスタリング
by :Kr. B.
で、どうやって
クラスタ数きめればいいの?
• 高次元のデータも視覚化すればクラスタ判断できるのでは?
次元削減による視覚化
• 高次元のデータも視覚化すればクラスタ判断できるのでは?
• よく使われるのが, 皆さんご存知「主成分分析」です.
次元削減による視覚化
• 高次元のデータも視覚化すればクラスタ判断できるのでは?
• よく使われるのが, 皆さんご存知「主成分分析」です.
• ここでは, 主成分分析を非線形化した
『カーネル主成分分析』を使ってみます.
次元削減による視覚化
• 高次元のデータも視覚化すればクラスタ判断できるのでは?
• よく使われるのが, 皆さんご存知「主成分分析」です.
• ここでは, 主成分分析を非線形化した
『カーネル主成分分析』を使ってみます.
• kernlabパッケージに「kpca」関数が用意されています.
次元削減による視覚化
• ガウスカーネルの の選び方は, データ間の距離の中
央値を とするとき, 付近の値を用いると
良い結果が得られるそうです.
• 「pcv」関数で, 固有ベクトル空間へ射影した結果が得
られます.
次元削減による視覚化
次元削減による視覚化
X1
-0.8 -0.4 0.0 0.4
-0.20.00.1
-0.8-0.40.00.4
X2
-0.2 0.0 0.1 -2 -1 0 1 2
-2-1012
X3
カーネル主成分分析の第3主成分までのプロット
次元削減による視覚化
X1
-0.8 -0.4 0.0 0.4
-0.20.00.1
-0.8-0.40.00.4
X2
-0.2 0.0 0.1 -2 -1 0 1 2
-2-1012
X3
カーネル主成分分析の第3主成分までのプロット
• 第1, 2主成分より, データが大
きく2つのクラスタに分かれて
いることがわかります.
次元削減による視覚化
X1
-0.8 -0.4 0.0 0.4
-0.20.00.1
-0.8-0.40.00.4
X2
-0.2 0.0 0.1 -2 -1 0 1 2
-2-1012
X3
カーネル主成分分析の第3主成分までのプロット
• 第1, 2主成分より, データが大
きく2つのクラスタに分かれて
いることがわかります.
• 第2, 3主成分より, 3つくらいの
クラスタに分かれそうであるこ
とがわかります.
次元削減による視覚化
X1
-0.8 -0.4 0.0 0.4
-0.20.00.1
-0.8-0.40.00.4
X2
-0.2 0.0 0.1 -2 -1 0 1 2
-2-1012
X3
カーネル主成分分析の第3主成分までのプロット
PC1
-1.0 0.0 1.0
-3-113
-1.00.01.0
PC2
-3 -1 1 2 3 4 -0.5 0.0 0.5
-0.50.00.5
PC3
主成分分析の第3主成分までのプロット
• 第1, 2主成分より, データが大
きく2つのクラスタに分かれて
いることがわかります.
• 第2, 3主成分より, 3つくらいの
クラスタに分かれそうであるこ
とがわかります.
次元削減による視覚化
X1
-0.8 -0.4 0.0 0.4
-0.20.00.1
-0.8-0.40.00.4
X2
-0.2 0.0 0.1 -2 -1 0 1 2
-2-1012
X3
カーネル主成分分析の第3主成分までのプロット
PC1
-1.0 0.0 1.0
-3-113
-1.00.01.0
PC2
-3 -1 1 2 3 4 -0.5 0.0 0.5
-0.50.00.5
PC3
主成分分析の第3主成分までのプロット
• 第1, 2主成分より, データが大
きく2つのクラスタに分かれて
いることがわかります.
• 第2, 3主成分より, 3つくらいの
クラスタに分かれそうであるこ
とがわかります.
次元削減による視覚化
X1
-0.8 -0.4 0.0 0.4
-0.20.00.1
-0.8-0.40.00.4
X2
-0.2 0.0 0.1 -2 -1 0 1 2
-2-1012
X3
カーネル主成分分析の第3主成分までのプロット
PC1
-1.0 0.0 1.0
-3-113
-1.00.01.0
PC2
-3 -1 1 2 3 4 -0.5 0.0 0.5
-0.50.00.5
PC3
主成分分析の第3主成分までのプロット
• 第1, 2主成分より, データが大
きく2つのクラスタに分かれて
いることがわかります.
• 第2, 3主成分より, 3つくらいの
クラスタに分かれそうであるこ
とがわかります.
カーネル主成分分析の方は
特徴が捉えられています.
で、どうやって
クラスタ数きめればいいの?
by :chaysbc
part2
クラスタ数の推定
• 主成分分析でも, ある程度のクラスタ数は予測できました.
クラスタ数の推定
• 主成分分析でも, ある程度のクラスタ数は予測できました.
• データに適当な分布を仮定して, 情報量規準などで推定す
るのもありです.
クラスタ数の推定
• 主成分分析でも, ある程度のクラスタ数は予測できました.
• データに適当な分布を仮定して, 情報量規準などで推定す
るのもありです.
• 今回は, データに分布を仮定しない, ギャップ統計量を使い
ます.
クラスタ数の推定
• 主成分分析でも, ある程度のクラスタ数は予測できました.
• データに適当な分布を仮定して, 情報量規準などで推定す
るのもありです.
• 今回は, データに分布を仮定しない, ギャップ統計量を使い
ます.
• SLmiscパッケージに「kmeansGap」関数が用意されてい
ます.
クラスタ数の推定
• 評価関数 は について単調に減少するので, を基準とす
ると, 以下のようになります.
• データ とほぼ同じ範囲の一様乱数から生成
されたデータ集合 とします.
• クラスタ数を とするとき, データ と のそれぞれをク
ラスタリングして得られる評価関数の値を とします.
最適なクラスタ数 = データ数
クラスタ数の推定
• ギャップ統計量は以下の式で求めることができます.
• が最大となるような を推定値とする方法です.
クラスタ数の推定
クラスタ数の推定
0510152025
k : number of clusters
frequency
2 3 4 5 6 7 8 9
まとめ
• k-meansは, 事前にクラスタ数を と決めてクラスタリ
ングを行う手法でした.
まとめ
• k-meansは, 事前にクラスタ数を と決めてクラスタリ
ングを行う手法でした.
• クラスタ数によってやりたいようにできてしまいます.
まとめ
• k-meansは, 事前にクラスタ数を と決めてクラスタリ
ングを行う手法でした.
• クラスタ数によってやりたいようにできてしまいます.
• クラスタ数の決定が鍵となります.
まとめ
• k-meansは, 事前にクラスタ数を と決めてクラスタリ
ングを行う手法でした.
• クラスタ数によってやりたいようにできてしまいます.
• クラスタ数の決定が鍵となります.
• クラスタに分けたあとのクラスタ毎の意味付け頑張って
下さい^^ (←これが一番大変だと思います. )
Have a nice clustering!!

More Related Content

What's hot

最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)Nguyen Tuan
 
Approximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLPApproximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLPKoji Matsuda
 
Recurrent Neural Networks
Recurrent Neural NetworksRecurrent Neural Networks
Recurrent Neural NetworksSeiya Tokui
 
第七回統計学勉強会@東大駒場
第七回統計学勉強会@東大駒場第七回統計学勉強会@東大駒場
第七回統計学勉強会@東大駒場Daisuke Yoneoka
 
深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習Masahiro Suzuki
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係についてDeep Learning JP
 
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Seiya Tokui
 
NIPS2019 Amazon「think globally, act locally : a deep neural network approach...
NIPS2019  Amazon「think globally, act locally : a deep neural network approach...NIPS2019  Amazon「think globally, act locally : a deep neural network approach...
NIPS2019 Amazon「think globally, act locally : a deep neural network approach...SaeruYamamuro
 
Pythonで体験する深層学習 5章
Pythonで体験する深層学習 5章Pythonで体験する深層学習 5章
Pythonで体験する深層学習 5章孝好 飯塚
 
DLLab 異常検知ナイト 資料 20180214
DLLab 異常検知ナイト 資料 20180214DLLab 異常検知ナイト 資料 20180214
DLLab 異常検知ナイト 資料 20180214Kosuke Nakago
 
【Topotal輪読会】JavaScript で学ぶ関数型プログラミング 1 章
【Topotal輪読会】JavaScript で学ぶ関数型プログラミング 1 章【Topotal輪読会】JavaScript で学ぶ関数型プログラミング 1 章
【Topotal輪読会】JavaScript で学ぶ関数型プログラミング 1 章Narimichi Takamura
 
関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCA関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCAAkisato Kimura
 
単純パーセプトロン
単純パーセプトロン単純パーセプトロン
単純パーセプトロンT2C_
 
論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative Models論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative ModelsSeiya Tokui
 
Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)Kenta Oono
 
ディープラーニングフレームワーク とChainerの実装
ディープラーニングフレームワーク とChainerの実装ディープラーニングフレームワーク とChainerの実装
ディープラーニングフレームワーク とChainerの実装Ryosuke Okuta
 
関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)Akisato Kimura
 
Learning to forget continual prediction with lstm
Learning to forget continual prediction with lstmLearning to forget continual prediction with lstm
Learning to forget continual prediction with lstmFujimoto Keisuke
 
GPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装についてGPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装についてYuya Unno
 
PythonによるDeep Learningの実装
PythonによるDeep Learningの実装PythonによるDeep Learningの実装
PythonによるDeep Learningの実装Shinya Akiba
 

What's hot (20)

最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
 
Approximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLPApproximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLP
 
Recurrent Neural Networks
Recurrent Neural NetworksRecurrent Neural Networks
Recurrent Neural Networks
 
第七回統計学勉強会@東大駒場
第七回統計学勉強会@東大駒場第七回統計学勉強会@東大駒場
第七回統計学勉強会@東大駒場
 
深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について
 
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用
 
NIPS2019 Amazon「think globally, act locally : a deep neural network approach...
NIPS2019  Amazon「think globally, act locally : a deep neural network approach...NIPS2019  Amazon「think globally, act locally : a deep neural network approach...
NIPS2019 Amazon「think globally, act locally : a deep neural network approach...
 
Pythonで体験する深層学習 5章
Pythonで体験する深層学習 5章Pythonで体験する深層学習 5章
Pythonで体験する深層学習 5章
 
DLLab 異常検知ナイト 資料 20180214
DLLab 異常検知ナイト 資料 20180214DLLab 異常検知ナイト 資料 20180214
DLLab 異常検知ナイト 資料 20180214
 
【Topotal輪読会】JavaScript で学ぶ関数型プログラミング 1 章
【Topotal輪読会】JavaScript で学ぶ関数型プログラミング 1 章【Topotal輪読会】JavaScript で学ぶ関数型プログラミング 1 章
【Topotal輪読会】JavaScript で学ぶ関数型プログラミング 1 章
 
関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCA関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCA
 
単純パーセプトロン
単純パーセプトロン単純パーセプトロン
単純パーセプトロン
 
論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative Models論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative Models
 
Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)
 
ディープラーニングフレームワーク とChainerの実装
ディープラーニングフレームワーク とChainerの実装ディープラーニングフレームワーク とChainerの実装
ディープラーニングフレームワーク とChainerの実装
 
関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)
 
Learning to forget continual prediction with lstm
Learning to forget continual prediction with lstmLearning to forget continual prediction with lstm
Learning to forget continual prediction with lstm
 
GPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装についてGPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装について
 
PythonによるDeep Learningの実装
PythonによるDeep Learningの実装PythonによるDeep Learningの実装
PythonによるDeep Learningの実装
 

Similar to はじパタLT2

【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】Naoki Hayashi
 
Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習Preferred Networks
 
集合知プログラミング 第6章 ドキュメントとフィルタリング~draft
集合知プログラミング 第6章 ドキュメントとフィルタリング~draft集合知プログラミング 第6章 ドキュメントとフィルタリング~draft
集合知プログラミング 第6章 ドキュメントとフィルタリング~draftKenji Koshikawa
 
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」Naoki Hayashi
 
[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)
[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)
[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)Deep Learning JP
 
エンジニアのための機械学習の基礎
エンジニアのための機械学習の基礎エンジニアのための機械学習の基礎
エンジニアのための機械学習の基礎Daiyu Hatakeyama
 
農業AIハッカソンマイクロソフト様発表資料
農業AIハッカソンマイクロソフト様発表資料農業AIハッカソンマイクロソフト様発表資料
農業AIハッカソンマイクロソフト様発表資料Kohei Mochida
 
Locally Optimized Product Quantization for Approximate Nearest Neighbor Searc...
Locally Optimized Product Quantization for Approximate Nearest Neighbor Searc...Locally Optimized Product Quantization for Approximate Nearest Neighbor Searc...
Locally Optimized Product Quantization for Approximate Nearest Neighbor Searc...Gou Koutaki
 
文献紹介:EfficientDet: Scalable and Efficient Object Detection
文献紹介:EfficientDet: Scalable and Efficient Object Detection文献紹介:EfficientDet: Scalable and Efficient Object Detection
文献紹介:EfficientDet: Scalable and Efficient Object DetectionToru Tamaki
 
Generative adversarial nets
Generative adversarial netsGenerative adversarial nets
Generative adversarial netsKeisuke Hosaka
 
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)Toru Fujino
 
Anomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめたAnomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめたぱんいち すみもと
 
Partial least squares回帰と画像認識への応用
Partial least squares回帰と画像認識への応用Partial least squares回帰と画像認識への応用
Partial least squares回帰と画像認識への応用Shohei Kumagai
 
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual TalksYuya Unno
 
When NAS Meets Robustness: In Search of Robust Architectures against Adversar...
When NAS Meets Robustness:In Search of Robust Architectures againstAdversar...When NAS Meets Robustness:In Search of Robust Architectures againstAdversar...
When NAS Meets Robustness: In Search of Robust Architectures against Adversar...MasanoriSuganuma
 
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochiDeep learning勉強会20121214ochi
Deep learning勉強会20121214ochiOhsawa Goodfellow
 

Similar to はじパタLT2 (20)

機械学習
機械学習機械学習
機械学習
 
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
 
Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習
 
集合知プログラミング 第6章 ドキュメントとフィルタリング~draft
集合知プログラミング 第6章 ドキュメントとフィルタリング~draft集合知プログラミング 第6章 ドキュメントとフィルタリング~draft
集合知プログラミング 第6章 ドキュメントとフィルタリング~draft
 
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
 
深層学習による自然言語処理の研究動向
深層学習による自然言語処理の研究動向深層学習による自然言語処理の研究動向
深層学習による自然言語処理の研究動向
 
Anomaly detection survey
Anomaly detection surveyAnomaly detection survey
Anomaly detection survey
 
[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)
[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)
[DL輪読会]10分で10本の論⽂をざっくりと理解する (ICML2020)
 
エンジニアのための機械学習の基礎
エンジニアのための機械学習の基礎エンジニアのための機械学習の基礎
エンジニアのための機械学習の基礎
 
農業AIハッカソンマイクロソフト様発表資料
農業AIハッカソンマイクロソフト様発表資料農業AIハッカソンマイクロソフト様発表資料
農業AIハッカソンマイクロソフト様発表資料
 
Locally Optimized Product Quantization for Approximate Nearest Neighbor Searc...
Locally Optimized Product Quantization for Approximate Nearest Neighbor Searc...Locally Optimized Product Quantization for Approximate Nearest Neighbor Searc...
Locally Optimized Product Quantization for Approximate Nearest Neighbor Searc...
 
文献紹介:EfficientDet: Scalable and Efficient Object Detection
文献紹介:EfficientDet: Scalable and Efficient Object Detection文献紹介:EfficientDet: Scalable and Efficient Object Detection
文献紹介:EfficientDet: Scalable and Efficient Object Detection
 
Generative adversarial nets
Generative adversarial netsGenerative adversarial nets
Generative adversarial nets
 
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
 
Eccv2018 report day3
Eccv2018 report day3Eccv2018 report day3
Eccv2018 report day3
 
Anomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめたAnomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめた
 
Partial least squares回帰と画像認識への応用
Partial least squares回帰と画像認識への応用Partial least squares回帰と画像認識への応用
Partial least squares回帰と画像認識への応用
 
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks
 
When NAS Meets Robustness: In Search of Robust Architectures against Adversar...
When NAS Meets Robustness:In Search of Robust Architectures againstAdversar...When NAS Meets Robustness:In Search of Robust Architectures againstAdversar...
When NAS Meets Robustness: In Search of Robust Architectures against Adversar...
 
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochiDeep learning勉強会20121214ochi
Deep learning勉強会20121214ochi
 

More from Tadayuki Onishi

そろそろSublime Text 2を熱く語ろうと思う
そろそろSublime Text 2を熱く語ろうと思うそろそろSublime Text 2を熱く語ろうと思う
そろそろSublime Text 2を熱く語ろうと思うTadayuki Onishi
 
はじパタLT Section1
はじパタLT Section1はじパタLT Section1
はじパタLT Section1Tadayuki Onishi
 
Data Mining with R algae bloom case
Data Mining with R algae bloom caseData Mining with R algae bloom case
Data Mining with R algae bloom caseTadayuki Onishi
 

More from Tadayuki Onishi (7)

そろそろSublime Text 2を熱く語ろうと思う
そろそろSublime Text 2を熱く語ろうと思うそろそろSublime Text 2を熱く語ろうと思う
そろそろSublime Text 2を熱く語ろうと思う
 
はじパタLT Section1
はじパタLT Section1はじパタLT Section1
はじパタLT Section1
 
アド部6回発表
アド部6回発表アド部6回発表
アド部6回発表
 
アド部5回発表
アド部5回発表アド部5回発表
アド部5回発表
 
garchfit
garchfitgarchfit
garchfit
 
Data Mining with R algae bloom case
Data Mining with R algae bloom caseData Mining with R algae bloom case
Data Mining with R algae bloom case
 
Tokyo r 10_12
Tokyo r 10_12Tokyo r 10_12
Tokyo r 10_12
 

Recently uploaded

TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdftaisei2219
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNetToru Tamaki
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)Hiroki Ichikura
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A surveyToru Tamaki
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムsugiuralab
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものですiPride Co., Ltd.
 
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...Toru Tamaki
 
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Yuma Ohgami
 
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略Ryo Sasaki
 

Recently uploaded (9)

TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdf
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システム
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
 
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
 
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
 
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
 

はじパタLT2