SlideShare a Scribd company logo
1 of 55
Download to read offline
Copyright©2014  NTT corp. All Rights Reserved.
多変量解析の一般化と
そのメディア認識への応用
木村 昭悟 (きむら あきさと)
日本電信電話(株) コミュニケーション科学基礎研究所
E‐mail: akisato@ieee.org,         @_akisato
今日のtalk の あらまし
2
 数多くの多変量解析を俯瞰する
シンプル かつ コンパクトな表現を示します
 【標準的手法】 PCA,判別分析,線形回帰,CCA etc.
 【局所性導入】 MDS,局所性保存射影 etc.
 【正則化】 L2ノルム正則化,graph Laplacian etc.
 【カーネル導入】 カーネルPCA,normalized cuts etc.
 【半教師化】 SELF,SemiCCA etc.
 Designing various analysis at will !!
 データマイニングの実施者が,それぞれの目的に
応じたテーラーメードな解析手法を設計できる.
もくじ
3
1. 多変量解析とは?
2. 多変量解析の一般化
3. 新しい解析手法の作り方
4. 画像/音楽/映像認識への応用
5. まとめ 大規模固有値問題・深層学習との関係?
Akisato Kimura, Masashi Sugiyama, Hitoshi Sakano, Hirokazu Kameoka
"Designing various component analysis at will via generalized pairwise expression,"
IPSJ Transactions on Mathematical Modeling and its Applications (TOM), 2013.
http://www.kecl.ntt.co.jp/people/kimura.akisato/pdf/tom2013gpe.pdf
もくじ
4
1. 多変量解析とは?
 簡単な導入
 本発表で取り扱う多変量解析の範囲
2. 多変量解析の一般化
3. 新しい解析手法の作り方
4. 画像/音楽/映像認識への応用
5. まとめ
多変量解析とは? in www.macromill.com
5
代表的な多変量解析手法
6
 「予測」型
 回帰分析 (MLR):
複数の数量から別の数量を予測
 判別分析 (FDA):
複数の変量から変量の分類を予測
 「要約」型
 主成分分析 (PCA):
多量の数量を要約した数量を導出
 多次元尺度構成法 (MDS):
個体間距離を要約した数量群を導出
パターン認識で多変量解析を使う
7
 多次元尺度構成法(の拡張)で低次元埋め込み
パターン認識で多変量解析を使う
8
 判別分析で文字認識
 筋電データから実際に筆記した文字を認識
Linderman+ “Recognition of Handwriting from Electromyography,” PLoS One, 2009
Computer visionで多変量解析を使う
9
 奥行きの推定に回帰分析
 画像特徴量と奥行きとの関係を回帰分析で推定
Saxena+ “Learning Depth from Single Monocular Images,” Proc. NIPS2005
主成分分析 (PCA)
10
 多次元ベクトルとして表現される多数のサンプルから,
それらの分散が大きくなる正規直交軸を見つける手法.
 サンプルが多次元ガウス分布に従うときは非常に有効
 そうでないときも、サンプル表現に寄与しない成分を捨てる
目的で使用されることが多い.
PCAの定式化 1
11
 多次元ベクトルのサンプル
 簡単のため,以降はサンプル平均=0を仮定.
 射影後の分散が最大になる基底 を求める
共分散行列
射影後の分散
PCAの定式化 2
12
 各基底が単位ベクトルとなるように正規化
 Lagrange未定定数法で問題を書き直す
 基底での微分 = 0 とすると
 共分散行列の固有値問題を解けば良い!
判別分析 (FDA)
13
 多次元ベクトルとそのカテゴリで表現される
多数のサンプルから,カテゴリをよりよく分類する
(正規直交ではないかもしれない)軸を見つける方法
各カテゴリのサンプルの平均を結ぶ軸 判別分析で見つけた軸
FDAの定式化 1
14
 カテゴリ内分散を小さく,
カテゴリ間分散を大きくする基底を求めたい
カテゴリ間共分散行列
カテゴリ内共分散行列
FDAの定式化 2
15
 カテゴリ内共分散を単位化するように正規化
 要するに,目的関数の分母を1にしたい.
 Lagrange未定乗数法で問題を書き直す.
 基底での微分 = 0 とすると
 一般化固有値問題を解けば良い!
 一般化レイリー商で表現される多変量解析
 一般化固有値問題で表現される多変量解析
本発表で扱う多変量解析 の定式化
16
ラグランジュ
未定乗数法
強調したい
抑制したい
この枠組に含まれる多変量解析 1
17
 標準的な手法
 主成分分析 (PCA)
 線形判別分析 (FDA)
 線形回帰分析 (MLR)
 正準相関分析 (CCA)
 局所性を重視した手法
 局所性保存射影 (LPP) [He+ NIPS2003]
 局所線形判別分析 (LFDA) [Sugiyama JMLR2007]
(後で説明します)
この枠組に含まれる多変量解析 2
18
 カーネル化すると…
 カーネルhogehoge (hogehoge=標準的手法)
 クラスタリング系
 Kernel k-means [Zha+ NIPS2011]
 Normalized cuts [Shi+ PAMI2001]
 Spectral clustering [Yu+ NIPS2002]
 低次元埋め込み系
 ISOMAP [Tenenbaum+ Science 2000]
 Locally linear embedding [Saul+ Science 2000]
 Laplacian eigenmap [Belkin+ NIPS2002]
もくじ
19
1. 多変量解析とは?
2. 多変量解析の一般化
 一般化の必要性: 新しい解析を簡単に作りたい
 どうやって一般化するの?
3. 新しい解析手法の作り方
4. 画像/音楽/映像認識への応用
5. まとめ
これまで述べたこと
20
 行列 を使うことで,
多変量解析が以下の形式で記述できます.
一般化固有値問題
これまで述べたこと
21
 行列 を使うことで,
多変量解析が以下の形式で記述できます.
 射影軸が2本の場合には,以下のようになります.
例えば
22
 主成分分析 (PCA)
 線形回帰分析 (MLR)
 正準相関分析 (CCA)
これから述べたいこと
23
 行列 を 拡張ペアワイズ表現 で書くと,
多変量解析の一般的枠組が作れます.
データ依存項 データ独立項拡張ペアワイズ表現
一般化すると何がうれしいの?
24
 新しい手法がざくざく作れる
 行列を足すだけで良い.楽ちん.
 特殊な場合には,行列のかけ算もできる.
 各項の果たす役割が明確になる
 サンプル間の類似性をどのように考慮するか?
 どのような正則化を行うか?
 相互共分散行列 (平均=0 を仮定)
 共分散行列は相互共分散行列の特殊例
 サンプル間類似性を考慮した2次統計量
 : 相互共分散行列と一致
共分散行列とその拡張
25
 サンプル間類似性を考慮した2次統計量
 2次統計量のペアワイズ表現 [Sugiyama+ 2010]
ペアワイズ表現 (PE)
26
和の中の積を展開
 ペアワイズ表現の自然な拡張
 形式上は類似度行列を意識する必要はない
 上記の表現を,
2次統計量の拡張ペアワイズ表現 と呼ぶ.
拡張ペアワイズ表現 (GPE)
27
Qに独立な項を導入
データ依存項 データ独立項
標準的手法の拡張ペアワイズ表現
28
 主成分分析 (PCA)
 線形回帰分析 (MLR)
 正準相関分析 (CCA)
データ依存項の典型例
データ独立項の典型例
データ依存項が持つ意味
29
 サンプル間類似性をどう評価するか? を決定
 類似度行列を明示的に設定する必要はない
 既存手法では,類似度行列を明示的に設定
 例: 局所性保存射影 (LPP) [He,Niyogi 2004]
類似度: 近くはより近くに,遠くはより遠くに
データ独立項が持つ意味
30
 正則化を取り込むことが主要な目的
 例: リッジ回帰 (MLR with L2ノルム正則化)
MLRと異なるのは
ここだけ!
もくじ
31
1. 多変量解析とは?
2. 多変量解析の一般化
3. 新しい解析手法の作り方
 簡単です.行列を足したり掛けたりするだけ.
 半教師付き解析も簡単にできます.
 試しに,今までになかった解析を作ってみます.
4. 画像/音楽/映像認識への応用
5. まとめ
拡張ペアワイズ表現の性質
32
非負対称行列半正定値行列
GPEは和積演算に閉じている.
→ 複数のGPEの和や積で新しいGPEが作れる.
注: 2種類のサンプル集合を扱う際には , とすれば良い.
新しい解析手法の作り方
33
 既存の2次統計量を和・積・定数倍するだけ,
所望の性質を持つ多変量解析を作れる!
 例: SELF (半教師付局所線形判別分析) [Sugiyama+2010]
LFDA PCA
半教師付き学習への拡張
34
 各統計量を計算する母集団を操作することで
半教師付き学習への拡張が容易に!
 例: SELF ラベル付きデータだけから計算
ラベルなしデータも含めて計算
ラベルなしデータに対応する要素が全て0
非線形多変量解析への拡張
35
 カーネル正準相関分析 (kCCA)
正則化
(ランク落ち回避)
ラプラシアン正則化
(多様体平滑化)
新しい非線形解析手法を作る
36
グラム行列についてのGPEは和演算に閉じていない!
新しい非線形解析手法を作る
37
通常のGPE-based 多変量解析
上と等価な多変量解析
(形式的には)データ行列 をグラム行列 で置き換える.
新しい解析手法を作る のまとめ
 線形解析
 対象の二次統計量を和・積・正定数倍するだけ.
 明示的に GPE を意識・導出する必要はない.
 非線形解析
 明示的に GPE を導出し,ラプラシアン項で
和・積・正定数倍をする.
例えば,で作ってみた手法 1
39
 半教師付き正準相関分析 SemiCCA [ICPR2010]
 SELFではできなかった
マルチラベル分類への半教師付き学習を実現
 XだけあってYがない,という場合だけでなく,
YだけあってXがない,という場合も同様に扱える
↑CCA
(supervised)
↑PCA
(unsupervised)
例えば,で作ってみた手法 2
40
 正準相関分析 + 線形判別分析
 クラスラベル付きの多次元ベクトル対(x, y)を対象
 例: 画像 = x, 音声 = y, ラベル = c ⇒ 映像認識・検索
 クラスごとに異なる相関関係も抽出可能
↑CCA
(unsupervised)
↑FDA
(supervised)
実験
41
 MIT-CBCL顔データの低次元埋め込み
下照明
(6方向:
0,15,…,90)
横照明
(6方向
0,15,…90)
顔向き
(9方向: 0,4,…,24)
人物(10人)
・ サンプル数 = 3240枚
(10人×6下方向×6横方向×9顔向き)
・ クラス = 人物
・ 特徴 X = 画像 (32×32 pixs)
・ 補助情報 Y =
照明情報・顔向き(3次元)
実験結果: FDA
42
実験結果: CCA
43
実験結果: CCA+FDA
44
CCA/FDA両者の特性を併せ持つ
解析を簡易に実現!
クラス分離
暗い
明るい
暗い
明るい
もくじ
45
1. 多変量解析とは?
2. 多変量解析の一般化
3. 新しい解析手法の作り方
4. 大規模固有値問題・深層学習との関係
5. まとめ
46Copyright©2014  NTT corp. All Rights Reserved.
Paper to read
(NIPS2016 accepted)
47Copyright©2014  NTT corp. All Rights Reserved.
1‐page summary
CNN on arbitrary graphs
• With the help of spectral graph theory
(or graph signal processing)
• The key point is how to obtain locality and 
hierarchical structures.
Standard CNNs can handle only 
regular grids, e.g. raw image pixels.
The proposed method can be 
applied to any graphs with any 
types of topology, e.g. superpixel
graphs.
48Copyright©2014  NTT corp. All Rights Reserved.
Graph Fourier transform
(undirected & connected) graph 
: vertices (| | ),  : edges,
: weighted adjacency matrix.
A signal  defined on the  ‐th node
e.g.  is a pixel value on the  ‐th (super)pixel.
Graph Laplacian 
diag ⋅ : diagonal degree matrix  ∑ .
A normalized one can be used.  / /
49Copyright©2014  NTT corp. All Rights Reserved.
Graph Fourier transform (cont.)
The Laplacian is diagonalized as 
: “Fourier” bases,
: “frequencies”.
Graph Fourier transform (GFT) of a signal 
(inverse:   )
50Copyright©2014  NTT corp. All Rights Reserved.
Spectral filtering
The convolutional operator  on graph 
: a filter,  ⊙ : element‐wise Hadamard product
Learning filters  on a graph  thus amount to learning 
spectral multipliers 
diag :  a filter
‐‐ Not localized,  parameters should be trained.
51Copyright©2014  NTT corp. All Rights Reserved.
Main ideas (1)
Laplacian‐based polynomial spectral filters
:  a filter
: filtering
‐‐ #parameters =K
‐‐ This filter is exactly  ‐localized, since  ,
if the shortest path distance b.w.  &  is larger than  .
‐‐ still requires  operations for filtering
52Copyright©2014  NTT corp. All Rights Reserved.
Summarizing the points so far
a
• Spectral filters are  ‐localized
• The number of filter parameters = 
• The computational cost is  | |
	 ∗ 	 ̅ , ̅ , … , ̅ 	
, ,
2
2 /
もくじ
53
1. 多変量解析とは?
2. 多変量解析の一般化
3. 新しい解析手法の作り方
4. 画像/音楽/映像認識への応用
5. まとめ
まとめ
54
 2次統計量を拡張ペアワイズ表現を用いて
表現することで,多変量解析を俯瞰できます.
 簡単に所望の性質を持つ多変量解析を実現
 2次統計量の重み付き加算
 統計量計算のための母集団の操作
 (それ以外の方法でももちろんOKです)
データ依存項 データ独立項拡張ペアワイズ表現
Thank you for your kind attention.
55
 スライドの一部をslideshareにアップします
http://www.slideshare.net/akisatokimura
Akisato Kimura, Ph.D @ NTT CS Labs.
[E-mail] akisato <at> ieee.org [Twitter] _akisato

More Related Content

What's hot

深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -tmtm otm
 
PRML輪読#10
PRML輪読#10PRML輪読#10
PRML輪読#10matsuolab
 
転移学習ランキング・ドメイン適応
転移学習ランキング・ドメイン適応転移学習ランキング・ドメイン適応
転移学習ランキング・ドメイン適応Elpo González Valbuena
 
データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度Seiichi Uchida
 
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布パターン認識 04 混合正規分布
パターン認識 04 混合正規分布sleipnir002
 
階層ベイズと自由エネルギー
階層ベイズと自由エネルギー階層ベイズと自由エネルギー
階層ベイズと自由エネルギーHiroshi Shimizu
 
研究室内PRML勉強会 8章1節
研究室内PRML勉強会 8章1節研究室内PRML勉強会 8章1節
研究室内PRML勉強会 8章1節Koji Matsuda
 
2 6.ゼロ切断・過剰モデル
2 6.ゼロ切断・過剰モデル2 6.ゼロ切断・過剰モデル
2 6.ゼロ切断・過剰モデルlogics-of-blue
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介Naoki Hayashi
 
PRML 8.2 条件付き独立性
PRML 8.2 条件付き独立性PRML 8.2 条件付き独立性
PRML 8.2 条件付き独立性sleepy_yoshi
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説弘毅 露崎
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)Takao Yamanaka
 
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs	(gMLP)[DL輪読会]Pay Attention to MLPs	(gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)Deep Learning JP
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門tmtm otm
 
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)Morpho, Inc.
 
[DL輪読会]Relational inductive biases, deep learning, and graph networks
[DL輪読会]Relational inductive biases, deep learning, and graph networks[DL輪読会]Relational inductive biases, deep learning, and graph networks
[DL輪読会]Relational inductive biases, deep learning, and graph networksDeep Learning JP
 

What's hot (20)

深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
 
PRML輪読#10
PRML輪読#10PRML輪読#10
PRML輪読#10
 
Iclr2016 vaeまとめ
Iclr2016 vaeまとめIclr2016 vaeまとめ
Iclr2016 vaeまとめ
 
転移学習ランキング・ドメイン適応
転移学習ランキング・ドメイン適応転移学習ランキング・ドメイン適応
転移学習ランキング・ドメイン適応
 
データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度
 
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布パターン認識 04 混合正規分布
パターン認識 04 混合正規分布
 
階層ベイズと自由エネルギー
階層ベイズと自由エネルギー階層ベイズと自由エネルギー
階層ベイズと自由エネルギー
 
研究室内PRML勉強会 8章1節
研究室内PRML勉強会 8章1節研究室内PRML勉強会 8章1節
研究室内PRML勉強会 8章1節
 
2 6.ゼロ切断・過剰モデル
2 6.ゼロ切断・過剰モデル2 6.ゼロ切断・過剰モデル
2 6.ゼロ切断・過剰モデル
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
一般化線形モデル (GLM) & 一般化加法モデル(GAM) 一般化線形モデル (GLM) & 一般化加法モデル(GAM)
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
 
ELBO型VAEのダメなところ
ELBO型VAEのダメなところELBO型VAEのダメなところ
ELBO型VAEのダメなところ
 
PRML 8.2 条件付き独立性
PRML 8.2 条件付き独立性PRML 8.2 条件付き独立性
PRML 8.2 条件付き独立性
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
 
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs	(gMLP)[DL輪読会]Pay Attention to MLPs	(gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)
 
階層ベイズとWAIC
階層ベイズとWAIC階層ベイズとWAIC
階層ベイズとWAIC
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
 
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
 
[DL輪読会]Relational inductive biases, deep learning, and graph networks
[DL輪読会]Relational inductive biases, deep learning, and graph networks[DL輪読会]Relational inductive biases, deep learning, and graph networks
[DL輪読会]Relational inductive biases, deep learning, and graph networks
 

Similar to 多変量解析の一般化

MIRU2011 OS1-2 拡張ペアワイズ表現を用いた一般化多変量解析
MIRU2011 OS1-2 拡張ペアワイズ表現を用いた一般化多変量解析MIRU2011 OS1-2 拡張ペアワイズ表現を用いた一般化多変量解析
MIRU2011 OS1-2 拡張ペアワイズ表現を用いた一般化多変量解析Akisato Kimura
 
広島画像情報学セミナ 2011.9.16
広島画像情報学セミナ 2011.9.16広島画像情報学セミナ 2011.9.16
広島画像情報学セミナ 2011.9.16Akisato Kimura
 
Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習Preferred Networks
 
Jubatusの特徴変換と線形分類器の仕組み
Jubatusの特徴変換と線形分類器の仕組みJubatusの特徴変換と線形分類器の仕組み
Jubatusの特徴変換と線形分類器の仕組みJubatusOfficial
 
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】Naoki Hayashi
 
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについてMasahiro Suzuki
 
幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなしToru Imai
 
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for PredictionDeep Learning JP
 
Semantic_Matching_AAAI16_論文紹介
Semantic_Matching_AAAI16_論文紹介Semantic_Matching_AAAI16_論文紹介
Semantic_Matching_AAAI16_論文紹介Masayoshi Kondo
 
時系列解析の使い方 - TokyoWebMining #17
時系列解析の使い方 - TokyoWebMining #17時系列解析の使い方 - TokyoWebMining #17
時系列解析の使い方 - TokyoWebMining #17horihorio
 
MapReduceによる大規模データを利用した機械学習
MapReduceによる大規模データを利用した機械学習MapReduceによる大規模データを利用した機械学習
MapReduceによる大規模データを利用した機械学習Preferred Networks
 
ネットワークメタ分析入門
ネットワークメタ分析入門ネットワークメタ分析入門
ネットワークメタ分析入門Senshu University
 
TensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vecTensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vecShin Asakawa
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!TransformerArithmer Inc.
 
関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCA関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCAAkisato Kimura
 

Similar to 多変量解析の一般化 (20)

MIRU2011 OS1-2 拡張ペアワイズ表現を用いた一般化多変量解析
MIRU2011 OS1-2 拡張ペアワイズ表現を用いた一般化多変量解析MIRU2011 OS1-2 拡張ペアワイズ表現を用いた一般化多変量解析
MIRU2011 OS1-2 拡張ペアワイズ表現を用いた一般化多変量解析
 
Jokyokai
JokyokaiJokyokai
Jokyokai
 
EMNLP 2011 reading
EMNLP 2011 readingEMNLP 2011 reading
EMNLP 2011 reading
 
広島画像情報学セミナ 2011.9.16
広島画像情報学セミナ 2011.9.16広島画像情報学セミナ 2011.9.16
広島画像情報学セミナ 2011.9.16
 
Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習
 
Jubatusの特徴変換と線形分類器の仕組み
Jubatusの特徴変換と線形分類器の仕組みJubatusの特徴変換と線形分類器の仕組み
Jubatusの特徴変換と線形分類器の仕組み
 
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
 
2016word embbed
2016word embbed2016word embbed
2016word embbed
 
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
 
Maeshori missing
Maeshori missingMaeshori missing
Maeshori missing
 
幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなし
 
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
 
Semantic_Matching_AAAI16_論文紹介
Semantic_Matching_AAAI16_論文紹介Semantic_Matching_AAAI16_論文紹介
Semantic_Matching_AAAI16_論文紹介
 
時系列解析の使い方 - TokyoWebMining #17
時系列解析の使い方 - TokyoWebMining #17時系列解析の使い方 - TokyoWebMining #17
時系列解析の使い方 - TokyoWebMining #17
 
Overview and Roadmap
Overview and RoadmapOverview and Roadmap
Overview and Roadmap
 
MapReduceによる大規模データを利用した機械学習
MapReduceによる大規模データを利用した機械学習MapReduceによる大規模データを利用した機械学習
MapReduceによる大規模データを利用した機械学習
 
ネットワークメタ分析入門
ネットワークメタ分析入門ネットワークメタ分析入門
ネットワークメタ分析入門
 
TensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vecTensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vec
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCA関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCA
 

More from Akisato Kimura

Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Akisato Kimura
 
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Akisato Kimura
 
CVPR2016 reading - 特徴量学習とクロスモーダル転移について
CVPR2016 reading - 特徴量学習とクロスモーダル転移についてCVPR2016 reading - 特徴量学習とクロスモーダル転移について
CVPR2016 reading - 特徴量学習とクロスモーダル転移についてAkisato Kimura
 
NIPS2015 reading - Learning visual biases from human imagination
NIPS2015 reading - Learning visual biases from human imaginationNIPS2015 reading - Learning visual biases from human imagination
NIPS2015 reading - Learning visual biases from human imaginationAkisato Kimura
 
CVPR2015 reading "Global refinement of random forest"
CVPR2015 reading "Global refinement of random forest"CVPR2015 reading "Global refinement of random forest"
CVPR2015 reading "Global refinement of random forest"Akisato Kimura
 
CVPR2015 reading "Understainding image virality" (in Japanese)
CVPR2015 reading "Understainding image virality" (in Japanese)CVPR2015 reading "Understainding image virality" (in Japanese)
CVPR2015 reading "Understainding image virality" (in Japanese)Akisato Kimura
 
Computational models of human visual attention driven by auditory cues
Computational models of human visual attention driven by auditory cuesComputational models of human visual attention driven by auditory cues
Computational models of human visual attention driven by auditory cuesAkisato Kimura
 
NIPS2014 reading - Top rank optimization in linear time
NIPS2014 reading - Top rank optimization in linear timeNIPS2014 reading - Top rank optimization in linear time
NIPS2014 reading - Top rank optimization in linear timeAkisato Kimura
 
CVPR2014 reading "Reconstructing storyline graphs for image recommendation fr...
CVPR2014 reading "Reconstructing storyline graphs for image recommendation fr...CVPR2014 reading "Reconstructing storyline graphs for image recommendation fr...
CVPR2014 reading "Reconstructing storyline graphs for image recommendation fr...Akisato Kimura
 
ICCV2013 reading: Learning to rank using privileged information
ICCV2013 reading: Learning to rank using privileged informationICCV2013 reading: Learning to rank using privileged information
ICCV2013 reading: Learning to rank using privileged informationAkisato Kimura
 
ACMMM 2013 reading: Large-scale visual sentiment ontology and detectors using...
ACMMM 2013 reading: Large-scale visual sentiment ontology and detectors using...ACMMM 2013 reading: Large-scale visual sentiment ontology and detectors using...
ACMMM 2013 reading: Large-scale visual sentiment ontology and detectors using...Akisato Kimura
 
IJCAI13 Paper review: Large-scale spectral clustering on graphs
IJCAI13 Paper review: Large-scale spectral clustering on graphsIJCAI13 Paper review: Large-scale spectral clustering on graphs
IJCAI13 Paper review: Large-scale spectral clustering on graphsAkisato Kimura
 
関西CVPR勉強会 2012.10.28
関西CVPR勉強会 2012.10.28関西CVPR勉強会 2012.10.28
関西CVPR勉強会 2012.10.28Akisato Kimura
 
関西CVPR勉強会 2012.7.29
関西CVPR勉強会 2012.7.29関西CVPR勉強会 2012.7.29
関西CVPR勉強会 2012.7.29Akisato Kimura
 
関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)
関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)
関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)Akisato Kimura
 
関西CVPRML勉強会(特定物体認識) 2012.1.14
関西CVPRML勉強会(特定物体認識) 2012.1.14関西CVPRML勉強会(特定物体認識) 2012.1.14
関西CVPRML勉強会(特定物体認識) 2012.1.14Akisato Kimura
 
人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -
人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -
人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -Akisato Kimura
 
IBIS2011 企画セッション「CV/PRで独自の進化を遂げる学習・最適化技術」 趣旨説明
IBIS2011 企画セッション「CV/PRで独自の進化を遂げる学習・最適化技術」 趣旨説明IBIS2011 企画セッション「CV/PRで独自の進化を遂げる学習・最適化技術」 趣旨説明
IBIS2011 企画セッション「CV/PRで独自の進化を遂げる学習・最適化技術」 趣旨説明Akisato Kimura
 
立命館大学 AMLコロキウム 2011.10.20
立命館大学 AMLコロキウム 2011.10.20立命館大学 AMLコロキウム 2011.10.20
立命館大学 AMLコロキウム 2011.10.20Akisato Kimura
 

More from Akisato Kimura (20)

Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
 
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
 
CVPR2016 reading - 特徴量学習とクロスモーダル転移について
CVPR2016 reading - 特徴量学習とクロスモーダル転移についてCVPR2016 reading - 特徴量学習とクロスモーダル転移について
CVPR2016 reading - 特徴量学習とクロスモーダル転移について
 
NIPS2015 reading - Learning visual biases from human imagination
NIPS2015 reading - Learning visual biases from human imaginationNIPS2015 reading - Learning visual biases from human imagination
NIPS2015 reading - Learning visual biases from human imagination
 
CVPR2015 reading "Global refinement of random forest"
CVPR2015 reading "Global refinement of random forest"CVPR2015 reading "Global refinement of random forest"
CVPR2015 reading "Global refinement of random forest"
 
CVPR2015 reading "Understainding image virality" (in Japanese)
CVPR2015 reading "Understainding image virality" (in Japanese)CVPR2015 reading "Understainding image virality" (in Japanese)
CVPR2015 reading "Understainding image virality" (in Japanese)
 
Computational models of human visual attention driven by auditory cues
Computational models of human visual attention driven by auditory cuesComputational models of human visual attention driven by auditory cues
Computational models of human visual attention driven by auditory cues
 
NIPS2014 reading - Top rank optimization in linear time
NIPS2014 reading - Top rank optimization in linear timeNIPS2014 reading - Top rank optimization in linear time
NIPS2014 reading - Top rank optimization in linear time
 
CVPR2014 reading "Reconstructing storyline graphs for image recommendation fr...
CVPR2014 reading "Reconstructing storyline graphs for image recommendation fr...CVPR2014 reading "Reconstructing storyline graphs for image recommendation fr...
CVPR2014 reading "Reconstructing storyline graphs for image recommendation fr...
 
ICCV2013 reading: Learning to rank using privileged information
ICCV2013 reading: Learning to rank using privileged informationICCV2013 reading: Learning to rank using privileged information
ICCV2013 reading: Learning to rank using privileged information
 
ACMMM 2013 reading: Large-scale visual sentiment ontology and detectors using...
ACMMM 2013 reading: Large-scale visual sentiment ontology and detectors using...ACMMM 2013 reading: Large-scale visual sentiment ontology and detectors using...
ACMMM 2013 reading: Large-scale visual sentiment ontology and detectors using...
 
IJCAI13 Paper review: Large-scale spectral clustering on graphs
IJCAI13 Paper review: Large-scale spectral clustering on graphsIJCAI13 Paper review: Large-scale spectral clustering on graphs
IJCAI13 Paper review: Large-scale spectral clustering on graphs
 
関西CVPR勉強会 2012.10.28
関西CVPR勉強会 2012.10.28関西CVPR勉強会 2012.10.28
関西CVPR勉強会 2012.10.28
 
関西CVPR勉強会 2012.7.29
関西CVPR勉強会 2012.7.29関西CVPR勉強会 2012.7.29
関西CVPR勉強会 2012.7.29
 
ICWSM12 Brief Review
ICWSM12 Brief ReviewICWSM12 Brief Review
ICWSM12 Brief Review
 
関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)
関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)
関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)
 
関西CVPRML勉強会(特定物体認識) 2012.1.14
関西CVPRML勉強会(特定物体認識) 2012.1.14関西CVPRML勉強会(特定物体認識) 2012.1.14
関西CVPRML勉強会(特定物体認識) 2012.1.14
 
人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -
人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -
人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -
 
IBIS2011 企画セッション「CV/PRで独自の進化を遂げる学習・最適化技術」 趣旨説明
IBIS2011 企画セッション「CV/PRで独自の進化を遂げる学習・最適化技術」 趣旨説明IBIS2011 企画セッション「CV/PRで独自の進化を遂げる学習・最適化技術」 趣旨説明
IBIS2011 企画セッション「CV/PRで独自の進化を遂げる学習・最適化技術」 趣旨説明
 
立命館大学 AMLコロキウム 2011.10.20
立命館大学 AMLコロキウム 2011.10.20立命館大学 AMLコロキウム 2011.10.20
立命館大学 AMLコロキウム 2011.10.20
 

Recently uploaded

Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Yuma Ohgami
 
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Danieldanielhu54
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムsugiuralab
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものですiPride Co., Ltd.
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdftaisei2219
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNetToru Tamaki
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A surveyToru Tamaki
 
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...Toru Tamaki
 
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略Ryo Sasaki
 

Recently uploaded (9)

Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
 
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Daniel
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システム
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdf
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey
 
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
 
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
 

多変量解析の一般化