SlideShare a Scribd company logo
1 of 29
Download to read offline
Tokyo.R #14




     Rでisomap
  (多様体学習のはなし)	

     2011年5月28日
      Tokyo.R #14
Kohta Ishikawa (@_kohta)


                                         1
Tokyo.R #14



                アウトライン	
l  多様体学習って?
l  線形と非線形
l  isomap
l  実装してみた
l  実務的な難しさ	




                                         2
Tokyo.R #14



  多様体学習(manifold learning)?	
l  非線形な多様体(manifold)上に分布するような
 データの構造を学習する一連の手法
 l  例えば、高次元空間に埋め込まれた実質的に低次
  元な多様体を学習することで、非線形データの低次
  元表現が可能になる
l  データの分布構造が線形なら…
 l  主成分分析 (線形変換によって低次元でデータをよ
     く説明しようと試みる)
 l  因子分析
 l  etc…

                                         3
Tokyo.R #14



                 多様体?	
l  定義	
               松本幸夫「多様体の基礎」 (東京大学出版会)より	

     位相空間Mが次の条件(1),(2)をみたすとき、Mをm次元位相多様体
     (topological manifold)という。

     (1) Mはハウスドルフ空間である
     (2) Mの任意の点pについて、pを含むm次元座標近傍(U,φ)が
        存在する。

     座標近傍:
     位相空間Xの開集合Uから、m次元数空間Rmのある開集合U’への
     同相写像
                    Φ: U → U’
     があるとき、Uとφの対(U,φ)をm次元座標近傍といい、φをU上の
     局所座標系という。
     	

                                                       4
Tokyo.R #14



むり	




                     5
Tokyo.R #14



       なんということはない	
l  一見高次元に見えるデータが、実はもっと低次元の
 構造しか持っていない場合がある
 l  そういうデータを適切に学習したい(多様体学習)	




                       Sam T. Roweis and Lawrence K. Saul
                       “Nonlinear Dimensionality Reduction
                       by Locally Linear Embedding”
                       SCIENCE (2000)

    スイスロール → 3次元とみせかけて2次元
               (ただし曲面上に分布している)	
         曲面の構造 ∈ 多様体	
                                       6
Tokyo.R #14



            線形な次元削減	
                       東京大学大学院 情報理工学研究科
l  主成分分析              数理情報学専攻 中川研
                       公開資料より図表抜粋
 l  次元削減と言えばこれ        http://bit.ly/hhSlyB


 l  非線形データに対してはうまくいかない	



             主成分分析	




       どうやって(線形な)座標変換をしても
       低次元で上手くデータを説明できない	
                     7
Tokyo.R #14



                非線形な次元削減	
l  Isomap
l  LaplacianEigenmap
l  Kernel PCA etc…




     うまい座標変換を施して、低次元でデータを説明したい	

                                            8
Tokyo.R #14



           isomap
l  非線形次元削減手法のひとつ
l  K近傍グラフを用いて多様体上の測地線距離を(近
 似的に)求め、多次元尺度構成法を用いて近似的に
 ユークリッドな低次元空間に射影する	




                                     9
Tokyo.R #14



                  測地線?	
l  定義	
                              Wikipediaより	

           リーマン多様体上の微分可能な曲線x(τ)が




           を満たすとき、x(τ)を測地線という。
           ここで    はアフィン接続である。	




                                                    10
Tokyo.R #14



しつこい	




                   11
Tokyo.R #14



            難しいのは単語だけ	
                  測地線距離が欲しいので、各点について近場の点だけは
2点間のユークリッド距離は     ユークリッド距離でつなぐことにする。
データの構造(本当の「遠さ」)   そうしてできたグラフ(ネットワーク)を辿って最短距離を見出せば
を反映していない	
        測地線距離に近いものが計算できると期待する。	




                                    グラフの2次元表現	

2点間の本当の「遠さ」を表しているのは    各点の近場のk点を直線距離でつないだグラフ	
データが分布する面(多様体!)に沿った
距離	
     測地線距離	
                  K近傍グラフ	
                                                    12
Tokyo.R #14



      ようするに	




    いやがる多様体を
わざわざユークリッド空間に埋め込む	




                           13
Tokyo.R #14



           他に何が必要?	
                  点データ	


                K近傍グラフの作成	


               測地線距離行列の作成	


点間の距離データから
適切な座標値を計算!	
    多次元尺度構成法	



          点データの低次元マップ表現	
                                        14
Tokyo.R #14



                  多次元尺度構成法	
l  点間の距離データのみが与えられた場合に、点を
    上手く座標空間に表示する(座標値を求める)方法
l  Tokyo.R #09
      l  http://www.slideshare.net/yokkuns/tokyor09




l    私のブログ
      l  http://d.hatena.ne.jp/koh_ta/20110514
	

                                                            15
Tokyo.R #14



              多次元尺度構成法	
距離行列(の成分2乗)       ダブル・センタリング変換	
   Dij=dij2          K = -1/2 HDH
                    Hij = δij – (1/n)1ij




   ・Kの固有値が正(正定値)でなければならない
   ・距離がユークリッドでないときは一般に負の固有値が現れる
   ・isomapでは負の固有値は無視して固有値の大きい順に
    いくつか(2,3次元)を採用する
    ⇒ 低次元表現!
   ・測地線距離のユークリッド性が弱いときは近似が悪くなる	
                                                     16
Tokyo.R #14



            Rにisomapがない	
l  たぶんない
l  Pure
       Rで実装すると重くてむり
l  データ1000個 → 20分くらい…
	




                                      17
Tokyo.R #14



        あらためて探したらあった	
l  veganパッケージ
 l  植生関連の人向けのパッケージ	




       dist(d) : dist形式(ユークリッド距離)データ
       ndim : 出力する次元
       k       : k近傍グラフの近傍数	




                                                 18
Tokyo.R #14

         C++で書くかRcppとかあるし
       とか言って大体書いたあとに見つけた	
l  Rcpp
   l  RとC++の連携を便利にしたRパッケージ
   l  先人達のとてもすばらしい資料群
      l  @sfchaos
           l  http://www.slideshare.net/sfchaos/tokyor7rcc

      l  @mickey24
           l  http://www.slideshare.net/mickey24/extend-r-with-
            rcpp

l  Pure   Rに比べてだいたい10~100倍くらいは速い	


                                                                    19
Tokyo.R #14



              書いた	
l  CPPLapackというすばらしいLapackのクラスラッ
    パーがある
l  LapackはFortran臭がきつい
l  CPPLapackは行列クラスも定義しているので、和
    や積などの行列演算も簡単
l  ただしLapackのフル機能が使えるとは限らない…
 l  実際Rのcmdscale関数(Fortran実装)が使ってい
  る_dsysvxルーチンは使えないっぽい	



                                         20
Tokyo.R #14



Rcppの返り値形式	
                  書いた	
                       SEXPはRのデータ形式	




               最後にC++オブジェクトをラップしてRに返す	
             21
Tokyo.R #14



             実行結果	
l  まだ微妙にバグがあります…
 l  でもほぼあってます	




   元データ	
             2次元マップ	
                                           22
Tokyo.R #14



           で、実際使えるの?	
l  実務的に使える手法の条件(例)
 l  手法が理解しやすいこと
 l  結果の解釈が容易であること
 l  直感と外れない結果が出ること
 l  etc




                                   23
Tokyo.R #14



     非線形の(実務的)むずかしさ	
l  手法が複雑になりがち
l  結果の解釈が難しくなりがち
 l  なんでそういう結果が出たのか?
 l  次元削減に使った非線形変換の性質を元の座標系
  (=実務的に意味がある量)で説明できるのか?
   l  主成分分析等は簡単(性質=主成分寄与率、因子付加量
    など)
l  結果を直感で解釈できるかどうかは問題による
l  構造に興味を持たない範囲(単純な分類など)では
 使えるんじゃないか	

                                      24
Tokyo.R #14



     Isomapの実用的むずかしさ	
l  K近傍グラフのKをいくつにするべきか?
 l  Kが小さすぎると全体が正しく連結されない
 l  Kが大きすぎると多様体の構造が正しく反映されない
   l  多分色々研究があると思いますがぶっちゃけあまり調べて
   ないです…


l  マッピングルールの解釈が不可能
 l  元の点⇒測地線距離⇒多次元尺度法	




                                      25
Tokyo.R #14



              kの値による変化	
l  少なすぎても多すぎてもだめ
    l  具体的なkの値はバグもあるので「だいたい」と思ってください	




  k=4(少なすぎ)     k=8(丁度良い)        k=20(多すぎ)
                多分バグがとれるとk=5,6
                あたりで丁度良くなります	


                                                26
Tokyo.R #14



          kの値による変化	
l  kが少ないとグラフが分断してしまう
l  kが多いと多様体の構造を無視して繋がってしまう	




   k=4           k=8             k=20

         snaパッケージのgplot関数を利用	
                                             27
Tokyo.R #14



               今後	
l  Isomapはあったから他の多様体学習を実装して
    差別化したい… (with @sfchaos)
l  パッケージ周りの細かいことを色々調べないと…
 l  winとlinuxの動的ライブラリの違いとか




                                        28
Tokyo.R #14




ありがとうございました	




                          29

More Related Content

What's hot

PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門tmtm otm
 
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展Shiga University, RIKEN
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)Masahiro Suzuki
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII
 
機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)Satoshi Hara
 
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報Deep Learning JP
 
ベータ分布の謎に迫る
ベータ分布の謎に迫るベータ分布の謎に迫る
ベータ分布の謎に迫るKen'ichi Matsui
 
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...joisino
 
POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用Yasunori Ozaki
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習cvpaper. challenge
 
Transformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてTransformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてSho Takase
 
強化学習における好奇心
強化学習における好奇心強化学習における好奇心
強化学習における好奇心Shota Imai
 
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
深層学習による自然言語処理入門: word2vecからBERT, GPT-3までYahoo!デベロッパーネットワーク
 
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?Fumihiko Takahashi
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方joisino
 
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured PredictionDeep Learning JP
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデルMasahiro Suzuki
 
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習Deep Learning JP
 
SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​
SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​
SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​SSII
 
cvpaper.challenge 研究効率化 Tips
cvpaper.challenge 研究効率化 Tipscvpaper.challenge 研究効率化 Tips
cvpaper.challenge 研究効率化 Tipscvpaper. challenge
 

What's hot (20)

PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
 
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
 
機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)
 
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報
 
ベータ分布の謎に迫る
ベータ分布の謎に迫るベータ分布の謎に迫る
ベータ分布の謎に迫る
 
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
 
POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
 
Transformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてTransformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法について
 
強化学習における好奇心
強化学習における好奇心強化学習における好奇心
強化学習における好奇心
 
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
 
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方
 
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
 
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習
 
SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​
SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​
SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​
 
cvpaper.challenge 研究効率化 Tips
cvpaper.challenge 研究効率化 Tipscvpaper.challenge 研究効率化 Tips
cvpaper.challenge 研究効率化 Tips
 

Viewers also liked

Model Transport: Towards Scalable Transfer Learning on Manifolds 論文紹介
Model Transport: Towards Scalable Transfer Learning on Manifolds 論文紹介Model Transport: Towards Scalable Transfer Learning on Manifolds 論文紹介
Model Transport: Towards Scalable Transfer Learning on Manifolds 論文紹介Kohta Ishikawa
 
【やってみた】リーマン多様体へのグラフ描画アルゴリズムの実装【実装してみた】
【やってみた】リーマン多様体へのグラフ描画アルゴリズムの実装【実装してみた】【やってみた】リーマン多様体へのグラフ描画アルゴリズムの実装【実装してみた】
【やってみた】リーマン多様体へのグラフ描画アルゴリズムの実装【実装してみた】Yuuki Takano
 
CVPR2016読み会 Sparsifying Neural Network Connections for Face Recognition
CVPR2016読み会 Sparsifying Neural Network Connections for Face RecognitionCVPR2016読み会 Sparsifying Neural Network Connections for Face Recognition
CVPR2016読み会 Sparsifying Neural Network Connections for Face RecognitionKoichi Takahashi
 
ICCV2015勉強会 顔関連論文のまとめ
ICCV2015勉強会 顔関連論文のまとめICCV2015勉強会 顔関連論文のまとめ
ICCV2015勉強会 顔関連論文のまとめKoichi Takahashi
 
CVPR2017勉強会 Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
CVPR2017勉強会 Realtime Multi-Person 2D Pose Estimation using Part Affinity FieldsCVPR2017勉強会 Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
CVPR2017勉強会 Realtime Multi-Person 2D Pose Estimation using Part Affinity FieldsKoichi Takahashi
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説弘毅 露崎
 

Viewers also liked (6)

Model Transport: Towards Scalable Transfer Learning on Manifolds 論文紹介
Model Transport: Towards Scalable Transfer Learning on Manifolds 論文紹介Model Transport: Towards Scalable Transfer Learning on Manifolds 論文紹介
Model Transport: Towards Scalable Transfer Learning on Manifolds 論文紹介
 
【やってみた】リーマン多様体へのグラフ描画アルゴリズムの実装【実装してみた】
【やってみた】リーマン多様体へのグラフ描画アルゴリズムの実装【実装してみた】【やってみた】リーマン多様体へのグラフ描画アルゴリズムの実装【実装してみた】
【やってみた】リーマン多様体へのグラフ描画アルゴリズムの実装【実装してみた】
 
CVPR2016読み会 Sparsifying Neural Network Connections for Face Recognition
CVPR2016読み会 Sparsifying Neural Network Connections for Face RecognitionCVPR2016読み会 Sparsifying Neural Network Connections for Face Recognition
CVPR2016読み会 Sparsifying Neural Network Connections for Face Recognition
 
ICCV2015勉強会 顔関連論文のまとめ
ICCV2015勉強会 顔関連論文のまとめICCV2015勉強会 顔関連論文のまとめ
ICCV2015勉強会 顔関連論文のまとめ
 
CVPR2017勉強会 Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
CVPR2017勉強会 Realtime Multi-Person 2D Pose Estimation using Part Affinity FieldsCVPR2017勉強会 Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
CVPR2017勉強会 Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
 

Similar to Rでisomap(多様体学習のはなし)

Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17Yuya Unno
 
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9Yuya Unno
 
Angle-Based Outlier Detection周辺の論文紹介
Angle-Based Outlier Detection周辺の論文紹介Angle-Based Outlier Detection周辺の論文紹介
Angle-Based Outlier Detection周辺の論文紹介Naotaka Yamada
 
数式をnumpyに落としこむコツ
数式をnumpyに落としこむコツ数式をnumpyに落としこむコツ
数式をnumpyに落としこむコツShuyo Nakatani
 
Deep Learningの基礎と応用
Deep Learningの基礎と応用Deep Learningの基礎と応用
Deep Learningの基礎と応用Seiya Tokui
 
文字列曖昧検索によるマルウェアバイナリ解析
文字列曖昧検索によるマルウェアバイナリ解析文字列曖昧検索によるマルウェアバイナリ解析
文字列曖昧検索によるマルウェアバイナリ解析Preferred Networks
 
関数型都市忘年会『はじめての函数型プログラミング』
関数型都市忘年会『はじめての函数型プログラミング』関数型都市忘年会『はじめての函数型プログラミング』
関数型都市忘年会『はじめての函数型プログラミング』Kenta USAMI
 
形態素解析の過去・現在・未来
形態素解析の過去・現在・未来形態素解析の過去・現在・未来
形態素解析の過去・現在・未来Preferred Networks
 
ウェーブレット木の世界
ウェーブレット木の世界ウェーブレット木の世界
ウェーブレット木の世界Preferred Networks
 
論文紹介「PointNetLK: Robust & Efficient Point Cloud Registration Using PointNet」
論文紹介「PointNetLK: Robust & Efficient Point Cloud Registration Using PointNet」論文紹介「PointNetLK: Robust & Efficient Point Cloud Registration Using PointNet」
論文紹介「PointNetLK: Robust & Efficient Point Cloud Registration Using PointNet」Naoya Chiba
 
第一回ゆるふわーる
第一回ゆるふわーる第一回ゆるふわーる
第一回ゆるふわーるSachiko Hirata
 
Tokyo.R 白熱教室「これからのRcppの話をしよう」
Tokyo.R 白熱教室「これからのRcppの話をしよう」Tokyo.R 白熱教室「これからのRcppの話をしよう」
Tokyo.R 白熱教室「これからのRcppの話をしよう」Nagi Teramo
 
~knitr+pandocではじめる~『R MarkdownでReproducible Research』
~knitr+pandocではじめる~『R MarkdownでReproducible Research』~knitr+pandocではじめる~『R MarkdownでReproducible Research』
~knitr+pandocではじめる~『R MarkdownでReproducible Research』Nagi Teramo
 
Tokyo webmining 複雑ネットワークとデータマイニング
Tokyo webmining 複雑ネットワークとデータマイニングTokyo webmining 複雑ネットワークとデータマイニング
Tokyo webmining 複雑ネットワークとデータマイニングHiroko Onari
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)Masahiro Suzuki
 
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについてMasahiro Suzuki
 
Learning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for GraphsLearning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for GraphsTakuya Akiba
 
Learning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for GraphsLearning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for GraphsTakuya Akiba
 

Similar to Rでisomap(多様体学習のはなし) (20)

Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
 
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
 
Angle-Based Outlier Detection周辺の論文紹介
Angle-Based Outlier Detection周辺の論文紹介Angle-Based Outlier Detection周辺の論文紹介
Angle-Based Outlier Detection周辺の論文紹介
 
数式をnumpyに落としこむコツ
数式をnumpyに落としこむコツ数式をnumpyに落としこむコツ
数式をnumpyに落としこむコツ
 
Deep Learningの基礎と応用
Deep Learningの基礎と応用Deep Learningの基礎と応用
Deep Learningの基礎と応用
 
文字列曖昧検索によるマルウェアバイナリ解析
文字列曖昧検索によるマルウェアバイナリ解析文字列曖昧検索によるマルウェアバイナリ解析
文字列曖昧検索によるマルウェアバイナリ解析
 
関数型都市忘年会『はじめての函数型プログラミング』
関数型都市忘年会『はじめての函数型プログラミング』関数型都市忘年会『はじめての函数型プログラミング』
関数型都市忘年会『はじめての函数型プログラミング』
 
形態素解析の過去・現在・未来
形態素解析の過去・現在・未来形態素解析の過去・現在・未来
形態素解析の過去・現在・未来
 
Lispでやる記号微分
Lispでやる記号微分Lispでやる記号微分
Lispでやる記号微分
 
ウェーブレット木の世界
ウェーブレット木の世界ウェーブレット木の世界
ウェーブレット木の世界
 
論文紹介「PointNetLK: Robust & Efficient Point Cloud Registration Using PointNet」
論文紹介「PointNetLK: Robust & Efficient Point Cloud Registration Using PointNet」論文紹介「PointNetLK: Robust & Efficient Point Cloud Registration Using PointNet」
論文紹介「PointNetLK: Robust & Efficient Point Cloud Registration Using PointNet」
 
第一回ゆるふわーる
第一回ゆるふわーる第一回ゆるふわーる
第一回ゆるふわーる
 
Tokyo.R 白熱教室「これからのRcppの話をしよう」
Tokyo.R 白熱教室「これからのRcppの話をしよう」Tokyo.R 白熱教室「これからのRcppの話をしよう」
Tokyo.R 白熱教室「これからのRcppの話をしよう」
 
~knitr+pandocではじめる~『R MarkdownでReproducible Research』
~knitr+pandocではじめる~『R MarkdownでReproducible Research』~knitr+pandocではじめる~『R MarkdownでReproducible Research』
~knitr+pandocではじめる~『R MarkdownでReproducible Research』
 
Tokyo webmining 複雑ネットワークとデータマイニング
Tokyo webmining 複雑ネットワークとデータマイニングTokyo webmining 複雑ネットワークとデータマイニング
Tokyo webmining 複雑ネットワークとデータマイニング
 
comp_pfiseminar
comp_pfiseminarcomp_pfiseminar
comp_pfiseminar
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
 
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
 
Learning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for GraphsLearning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for Graphs
 
Learning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for GraphsLearning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for Graphs
 

More from Kohta Ishikawa

[Paper reading] Hamiltonian Neural Networks
 [Paper reading] Hamiltonian Neural Networks [Paper reading] Hamiltonian Neural Networks
[Paper reading] Hamiltonian Neural NetworksKohta Ishikawa
 
Spherical CNNs paper reading
Spherical CNNs paper readingSpherical CNNs paper reading
Spherical CNNs paper readingKohta Ishikawa
 
A brief explanation of Causal Entropic Forces
A brief explanation of Causal Entropic ForcesA brief explanation of Causal Entropic Forces
A brief explanation of Causal Entropic ForcesKohta Ishikawa
 
量子アニーリング解説 1
量子アニーリング解説 1量子アニーリング解説 1
量子アニーリング解説 1Kohta Ishikawa
 
R Language Definition 2.2 to 2.3
R Language Definition 2.2 to 2.3R Language Definition 2.2 to 2.3
R Language Definition 2.2 to 2.3Kohta Ishikawa
 
Nonlinear Filtering and Path Integral Method (Paper Review)
Nonlinear Filtering and Path Integral Method (Paper Review)Nonlinear Filtering and Path Integral Method (Paper Review)
Nonlinear Filtering and Path Integral Method (Paper Review)Kohta Ishikawa
 
Introduction to pairtrading
Introduction to pairtradingIntroduction to pairtrading
Introduction to pairtradingKohta Ishikawa
 
Particle Filter Tracking in Python
Particle Filter Tracking in PythonParticle Filter Tracking in Python
Particle Filter Tracking in PythonKohta Ishikawa
 
Introduction to statistics
Introduction to statisticsIntroduction to statistics
Introduction to statisticsKohta Ishikawa
 

More from Kohta Ishikawa (10)

[Paper reading] Hamiltonian Neural Networks
 [Paper reading] Hamiltonian Neural Networks [Paper reading] Hamiltonian Neural Networks
[Paper reading] Hamiltonian Neural Networks
 
Spherical CNNs paper reading
Spherical CNNs paper readingSpherical CNNs paper reading
Spherical CNNs paper reading
 
A brief explanation of Causal Entropic Forces
A brief explanation of Causal Entropic ForcesA brief explanation of Causal Entropic Forces
A brief explanation of Causal Entropic Forces
 
量子アニーリング解説 1
量子アニーリング解説 1量子アニーリング解説 1
量子アニーリング解説 1
 
R Language Definition 2.2 to 2.3
R Language Definition 2.2 to 2.3R Language Definition 2.2 to 2.3
R Language Definition 2.2 to 2.3
 
Nonlinear Filtering and Path Integral Method (Paper Review)
Nonlinear Filtering and Path Integral Method (Paper Review)Nonlinear Filtering and Path Integral Method (Paper Review)
Nonlinear Filtering and Path Integral Method (Paper Review)
 
Introduction to pairtrading
Introduction to pairtradingIntroduction to pairtrading
Introduction to pairtrading
 
Particle Filter Tracking in Python
Particle Filter Tracking in PythonParticle Filter Tracking in Python
Particle Filter Tracking in Python
 
Introduction to statistics
Introduction to statisticsIntroduction to statistics
Introduction to statistics
 
PRML_2.3.1~2.3.3
PRML_2.3.1~2.3.3PRML_2.3.1~2.3.3
PRML_2.3.1~2.3.3
 

Recently uploaded

論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Gamesatsushi061452
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NTT DATA Technology & Innovation
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルCRI Japan, Inc.
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...Toru Tamaki
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video UnderstandingToru Tamaki
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイスCRI Japan, Inc.
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Hiroshi Tomioka
 

Recently uploaded (11)

論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
 

Rでisomap(多様体学習のはなし)

  • 1. Tokyo.R #14 Rでisomap (多様体学習のはなし) 2011年5月28日 Tokyo.R #14 Kohta Ishikawa (@_kohta) 1
  • 2. Tokyo.R #14 アウトライン l  多様体学習って? l  線形と非線形 l  isomap l  実装してみた l  実務的な難しさ 2
  • 3. Tokyo.R #14 多様体学習(manifold learning)? l  非線形な多様体(manifold)上に分布するような データの構造を学習する一連の手法 l  例えば、高次元空間に埋め込まれた実質的に低次 元な多様体を学習することで、非線形データの低次 元表現が可能になる l  データの分布構造が線形なら… l  主成分分析 (線形変換によって低次元でデータをよ く説明しようと試みる) l  因子分析 l  etc… 3
  • 4. Tokyo.R #14 多様体? l  定義 松本幸夫「多様体の基礎」 (東京大学出版会)より 位相空間Mが次の条件(1),(2)をみたすとき、Mをm次元位相多様体 (topological manifold)という。 (1) Mはハウスドルフ空間である (2) Mの任意の点pについて、pを含むm次元座標近傍(U,φ)が 存在する。 座標近傍: 位相空間Xの開集合Uから、m次元数空間Rmのある開集合U’への 同相写像 Φ: U → U’ があるとき、Uとφの対(U,φ)をm次元座標近傍といい、φをU上の 局所座標系という。 4
  • 6. Tokyo.R #14 なんということはない l  一見高次元に見えるデータが、実はもっと低次元の 構造しか持っていない場合がある l  そういうデータを適切に学習したい(多様体学習) Sam T. Roweis and Lawrence K. Saul “Nonlinear Dimensionality Reduction by Locally Linear Embedding” SCIENCE (2000) スイスロール → 3次元とみせかけて2次元            (ただし曲面上に分布している) 曲面の構造 ∈ 多様体 6
  • 7. Tokyo.R #14 線形な次元削減 東京大学大学院 情報理工学研究科 l  主成分分析 数理情報学専攻 中川研 公開資料より図表抜粋 l  次元削減と言えばこれ http://bit.ly/hhSlyB l  非線形データに対してはうまくいかない 主成分分析 どうやって(線形な)座標変換をしても 低次元で上手くデータを説明できない 7
  • 8. Tokyo.R #14 非線形な次元削減 l  Isomap l  LaplacianEigenmap l  Kernel PCA etc… うまい座標変換を施して、低次元でデータを説明したい 8
  • 9. Tokyo.R #14 isomap l  非線形次元削減手法のひとつ l  K近傍グラフを用いて多様体上の測地線距離を(近 似的に)求め、多次元尺度構成法を用いて近似的に ユークリッドな低次元空間に射影する 9
  • 10. Tokyo.R #14 測地線? l  定義 Wikipediaより リーマン多様体上の微分可能な曲線x(τ)が を満たすとき、x(τ)を測地線という。 ここで    はアフィン接続である。 10
  • 12. Tokyo.R #14 難しいのは単語だけ 測地線距離が欲しいので、各点について近場の点だけは 2点間のユークリッド距離は ユークリッド距離でつなぐことにする。 データの構造(本当の「遠さ」) そうしてできたグラフ(ネットワーク)を辿って最短距離を見出せば を反映していない 測地線距離に近いものが計算できると期待する。 グラフの2次元表現 2点間の本当の「遠さ」を表しているのは 各点の近場のk点を直線距離でつないだグラフ データが分布する面(多様体!)に沿った 距離 測地線距離 K近傍グラフ 12
  • 13. Tokyo.R #14 ようするに いやがる多様体を わざわざユークリッド空間に埋め込む 13
  • 14. Tokyo.R #14 他に何が必要? 点データ K近傍グラフの作成 測地線距離行列の作成 点間の距離データから 適切な座標値を計算! 多次元尺度構成法 点データの低次元マップ表現 14
  • 15. Tokyo.R #14 多次元尺度構成法 l  点間の距離データのみが与えられた場合に、点を 上手く座標空間に表示する(座標値を求める)方法 l  Tokyo.R #09 l  http://www.slideshare.net/yokkuns/tokyor09 l  私のブログ l  http://d.hatena.ne.jp/koh_ta/20110514 15
  • 16. Tokyo.R #14 多次元尺度構成法 距離行列(の成分2乗) ダブル・センタリング変換 Dij=dij2 K = -1/2 HDH Hij = δij – (1/n)1ij ・Kの固有値が正(正定値)でなければならない ・距離がユークリッドでないときは一般に負の固有値が現れる ・isomapでは負の固有値は無視して固有値の大きい順に いくつか(2,3次元)を採用する  ⇒ 低次元表現! ・測地線距離のユークリッド性が弱いときは近似が悪くなる 16
  • 17. Tokyo.R #14 Rにisomapがない l  たぶんない l  Pure Rで実装すると重くてむり l  データ1000個 → 20分くらい… 17
  • 18. Tokyo.R #14 あらためて探したらあった l  veganパッケージ l  植生関連の人向けのパッケージ dist(d) : dist形式(ユークリッド距離)データ ndim : 出力する次元 k : k近傍グラフの近傍数 18
  • 19. Tokyo.R #14 C++で書くかRcppとかあるし とか言って大体書いたあとに見つけた l  Rcpp l  RとC++の連携を便利にしたRパッケージ l  先人達のとてもすばらしい資料群 l  @sfchaos l  http://www.slideshare.net/sfchaos/tokyor7rcc l  @mickey24 l  http://www.slideshare.net/mickey24/extend-r-with- rcpp l  Pure Rに比べてだいたい10~100倍くらいは速い 19
  • 20. Tokyo.R #14 書いた l  CPPLapackというすばらしいLapackのクラスラッ パーがある l  LapackはFortran臭がきつい l  CPPLapackは行列クラスも定義しているので、和 や積などの行列演算も簡単 l  ただしLapackのフル機能が使えるとは限らない… l  実際Rのcmdscale関数(Fortran実装)が使ってい る_dsysvxルーチンは使えないっぽい 20
  • 21. Tokyo.R #14 Rcppの返り値形式 書いた SEXPはRのデータ形式 最後にC++オブジェクトをラップしてRに返す 21
  • 22. Tokyo.R #14 実行結果 l  まだ微妙にバグがあります… l  でもほぼあってます 元データ 2次元マップ 22
  • 23. Tokyo.R #14 で、実際使えるの? l  実務的に使える手法の条件(例) l  手法が理解しやすいこと l  結果の解釈が容易であること l  直感と外れない結果が出ること l  etc 23
  • 24. Tokyo.R #14 非線形の(実務的)むずかしさ l  手法が複雑になりがち l  結果の解釈が難しくなりがち l  なんでそういう結果が出たのか? l  次元削減に使った非線形変換の性質を元の座標系 (=実務的に意味がある量)で説明できるのか? l  主成分分析等は簡単(性質=主成分寄与率、因子付加量 など) l  結果を直感で解釈できるかどうかは問題による l  構造に興味を持たない範囲(単純な分類など)では 使えるんじゃないか 24
  • 25. Tokyo.R #14 Isomapの実用的むずかしさ l  K近傍グラフのKをいくつにするべきか? l  Kが小さすぎると全体が正しく連結されない l  Kが大きすぎると多様体の構造が正しく反映されない l  多分色々研究があると思いますがぶっちゃけあまり調べて ないです… l  マッピングルールの解釈が不可能 l  元の点⇒測地線距離⇒多次元尺度法 25
  • 26. Tokyo.R #14 kの値による変化 l  少なすぎても多すぎてもだめ l  具体的なkの値はバグもあるので「だいたい」と思ってください k=4(少なすぎ) k=8(丁度良い) k=20(多すぎ) 多分バグがとれるとk=5,6 あたりで丁度良くなります 26
  • 27. Tokyo.R #14 kの値による変化 l  kが少ないとグラフが分断してしまう l  kが多いと多様体の構造を無視して繋がってしまう k=4 k=8 k=20 snaパッケージのgplot関数を利用 27
  • 28. Tokyo.R #14 今後 l  Isomapはあったから他の多様体学習を実装して 差別化したい… (with @sfchaos) l  パッケージ周りの細かいことを色々調べないと… l  winとlinuxの動的ライブラリの違いとか 28