Submit Search
Upload
MIRU2011 OS1-2 拡張ペアワイズ表現を用いた一般化多変量解析
•
5 likes
•
2,172 views
Akisato Kimura
Follow
MIRU2011で用いた発表資料を公開致します.
Read less
Read more
Technology
Education
Report
Share
Report
Share
1 of 15
Download now
Download to read offline
Recommended
多変量解析の一般化
多変量解析の一般化
Akisato Kimura
広島画像情報学セミナ 2011.9.16
広島画像情報学セミナ 2011.9.16
Akisato Kimura
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
Naoki Hayashi
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
Naoki Hayashi
ベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-old
Naoki Hayashi
201803NC
201803NC
Naoki Hayashi
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
Naoki Hayashi
文献紹介:Bidirectional Inter-dependencies of Subjective Expressions and Targets a...
文献紹介:Bidirectional Inter-dependencies of Subjective Expressions and Targets a...
Shohei Okada
Recommended
多変量解析の一般化
多変量解析の一般化
Akisato Kimura
広島画像情報学セミナ 2011.9.16
広島画像情報学セミナ 2011.9.16
Akisato Kimura
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
Naoki Hayashi
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
Naoki Hayashi
ベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-old
Naoki Hayashi
201803NC
201803NC
Naoki Hayashi
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
Naoki Hayashi
文献紹介:Bidirectional Inter-dependencies of Subjective Expressions and Targets a...
文献紹介:Bidirectional Inter-dependencies of Subjective Expressions and Targets a...
Shohei Okada
クエリと説明文の関係を表す記述要素辞書の構築
クエリと説明文の関係を表す記述要素辞書の構築
長岡技術科学大学 自然言語処理研究室
PRML輪読#8
PRML輪読#8
matsuolab
文献紹介:Extracting Opinion Expression with semi-Markov Conditional Random Fields
文献紹介:Extracting Opinion Expression with semi-Markov Conditional Random Fields
Shohei Okada
EMNLP 2011 reading
EMNLP 2011 reading
正志 坪坂
オブジェクト指向ワークショップ 201507版
オブジェクト指向ワークショップ 201507版
Mao Ohnishi
t-SNE
t-SNE
貴之 八木
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP
PRML輪読#10
PRML輪読#10
matsuolab
クラシックな機械学習の入門 4. 学習データと予測性能
クラシックな機械学習の入門 4. 学習データと予測性能
Hiroshi Nakagawa
PRML輪読#11
PRML輪読#11
matsuolab
PRML読み会第一章
PRML読み会第一章
Takushi Miki
トピックモデル勉強会: 第2章 Latent Dirichlet Allocation
トピックモデル勉強会: 第2章 Latent Dirichlet Allocation
Haruka Ozaki
関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)
Akisato Kimura
PRML輪読#1
PRML輪読#1
matsuolab
201703NC
201703NC
Naoki Hayashi
PRML8章
PRML8章
弘毅 露崎
PRML輪読#5
PRML輪読#5
matsuolab
Introduction to "Facial Landmark Detection by Deep Multi-task Learning"
Introduction to "Facial Landmark Detection by Deep Multi-task Learning"
Yukiyoshi Sasao
Maximum Entropy IRL(最大エントロピー逆強化学習)とその発展系について
Maximum Entropy IRL(最大エントロピー逆強化学習)とその発展系について
Yusuke Nakata
テキストデータの理論的サンプリング
テキストデータの理論的サンプリング
Naohiro Matsumura
Jokyokai
Jokyokai
Taiji Suzuki
ISMB読み会 2nd graph kernel
ISMB読み会 2nd graph kernel
弘毅 露崎
More Related Content
What's hot
クエリと説明文の関係を表す記述要素辞書の構築
クエリと説明文の関係を表す記述要素辞書の構築
長岡技術科学大学 自然言語処理研究室
PRML輪読#8
PRML輪読#8
matsuolab
文献紹介:Extracting Opinion Expression with semi-Markov Conditional Random Fields
文献紹介:Extracting Opinion Expression with semi-Markov Conditional Random Fields
Shohei Okada
EMNLP 2011 reading
EMNLP 2011 reading
正志 坪坂
オブジェクト指向ワークショップ 201507版
オブジェクト指向ワークショップ 201507版
Mao Ohnishi
t-SNE
t-SNE
貴之 八木
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP
PRML輪読#10
PRML輪読#10
matsuolab
クラシックな機械学習の入門 4. 学習データと予測性能
クラシックな機械学習の入門 4. 学習データと予測性能
Hiroshi Nakagawa
PRML輪読#11
PRML輪読#11
matsuolab
PRML読み会第一章
PRML読み会第一章
Takushi Miki
トピックモデル勉強会: 第2章 Latent Dirichlet Allocation
トピックモデル勉強会: 第2章 Latent Dirichlet Allocation
Haruka Ozaki
関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)
Akisato Kimura
PRML輪読#1
PRML輪読#1
matsuolab
201703NC
201703NC
Naoki Hayashi
PRML8章
PRML8章
弘毅 露崎
PRML輪読#5
PRML輪読#5
matsuolab
Introduction to "Facial Landmark Detection by Deep Multi-task Learning"
Introduction to "Facial Landmark Detection by Deep Multi-task Learning"
Yukiyoshi Sasao
Maximum Entropy IRL(最大エントロピー逆強化学習)とその発展系について
Maximum Entropy IRL(最大エントロピー逆強化学習)とその発展系について
Yusuke Nakata
テキストデータの理論的サンプリング
テキストデータの理論的サンプリング
Naohiro Matsumura
What's hot
(20)
クエリと説明文の関係を表す記述要素辞書の構築
クエリと説明文の関係を表す記述要素辞書の構築
PRML輪読#8
PRML輪読#8
文献紹介:Extracting Opinion Expression with semi-Markov Conditional Random Fields
文献紹介:Extracting Opinion Expression with semi-Markov Conditional Random Fields
EMNLP 2011 reading
EMNLP 2011 reading
オブジェクト指向ワークショップ 201507版
オブジェクト指向ワークショップ 201507版
t-SNE
t-SNE
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
PRML輪読#10
PRML輪読#10
クラシックな機械学習の入門 4. 学習データと予測性能
クラシックな機械学習の入門 4. 学習データと予測性能
PRML輪読#11
PRML輪読#11
PRML読み会第一章
PRML読み会第一章
トピックモデル勉強会: 第2章 Latent Dirichlet Allocation
トピックモデル勉強会: 第2章 Latent Dirichlet Allocation
関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)
PRML輪読#1
PRML輪読#1
201703NC
201703NC
PRML8章
PRML8章
PRML輪読#5
PRML輪読#5
Introduction to "Facial Landmark Detection by Deep Multi-task Learning"
Introduction to "Facial Landmark Detection by Deep Multi-task Learning"
Maximum Entropy IRL(最大エントロピー逆強化学習)とその発展系について
Maximum Entropy IRL(最大エントロピー逆強化学習)とその発展系について
テキストデータの理論的サンプリング
テキストデータの理論的サンプリング
Similar to MIRU2011 OS1-2 拡張ペアワイズ表現を用いた一般化多変量解析
Jokyokai
Jokyokai
Taiji Suzuki
ISMB読み会 2nd graph kernel
ISMB読み会 2nd graph kernel
弘毅 露崎
Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習
Preferred Networks
Protein-Protein Interaction Prediction
Protein-Protein Interaction Prediction
Masahito Ohue
Jubatusの特徴変換と線形分類器の仕組み
Jubatusの特徴変換と線形分類器の仕組み
JubatusOfficial
ベイズ主義による研究の報告方法
ベイズ主義による研究の報告方法
Masaru Tokuoka
Overview and Roadmap
Overview and Roadmap
JubatusOfficial
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
Deep Learning JP
全力解説!Transformer
全力解説!Transformer
Arithmer Inc.
[Tokyor08] Rによるデータサイエンス第2部 第3章 対応分析
[Tokyor08] Rによるデータサイエンス第2部 第3章 対応分析
Yohei Sato
深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて
Masahiro Suzuki
TensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vec
Shin Asakawa
2016word embbed
2016word embbed
Shin Asakawa
ロジスティック回帰分析の書き方
ロジスティック回帰分析の書き方
Sayuri Shimizu
Gasshuku98
Gasshuku98
隆浩 安
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
Masahiro Suzuki
関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCA
Akisato Kimura
Data assim r
Data assim r
Xiangze
4thNLPDL
4thNLPDL
Sho Takase
Paper: seq2seq 20190320
Paper: seq2seq 20190320
Yusuke Fujimoto
Similar to MIRU2011 OS1-2 拡張ペアワイズ表現を用いた一般化多変量解析
(20)
Jokyokai
Jokyokai
ISMB読み会 2nd graph kernel
ISMB読み会 2nd graph kernel
Jubatusにおける大規模分散オンライン機械学習
Jubatusにおける大規模分散オンライン機械学習
Protein-Protein Interaction Prediction
Protein-Protein Interaction Prediction
Jubatusの特徴変換と線形分類器の仕組み
Jubatusの特徴変換と線形分類器の仕組み
ベイズ主義による研究の報告方法
ベイズ主義による研究の報告方法
Overview and Roadmap
Overview and Roadmap
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
全力解説!Transformer
全力解説!Transformer
[Tokyor08] Rによるデータサイエンス第2部 第3章 対応分析
[Tokyor08] Rによるデータサイエンス第2部 第3章 対応分析
深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて
TensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vec
2016word embbed
2016word embbed
ロジスティック回帰分析の書き方
ロジスティック回帰分析の書き方
Gasshuku98
Gasshuku98
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
関西CVPRML勉強会 kernel PCA
関西CVPRML勉強会 kernel PCA
Data assim r
Data assim r
4thNLPDL
4thNLPDL
Paper: seq2seq 20190320
Paper: seq2seq 20190320
More from Akisato Kimura
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Akisato Kimura
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Akisato Kimura
CVPR2016 reading - 特徴量学習とクロスモーダル転移について
CVPR2016 reading - 特徴量学習とクロスモーダル転移について
Akisato Kimura
NIPS2015 reading - Learning visual biases from human imagination
NIPS2015 reading - Learning visual biases from human imagination
Akisato Kimura
CVPR2015 reading "Global refinement of random forest"
CVPR2015 reading "Global refinement of random forest"
Akisato Kimura
CVPR2015 reading "Understainding image virality" (in Japanese)
CVPR2015 reading "Understainding image virality" (in Japanese)
Akisato Kimura
Computational models of human visual attention driven by auditory cues
Computational models of human visual attention driven by auditory cues
Akisato Kimura
NIPS2014 reading - Top rank optimization in linear time
NIPS2014 reading - Top rank optimization in linear time
Akisato Kimura
CVPR2014 reading "Reconstructing storyline graphs for image recommendation fr...
CVPR2014 reading "Reconstructing storyline graphs for image recommendation fr...
Akisato Kimura
ICCV2013 reading: Learning to rank using privileged information
ICCV2013 reading: Learning to rank using privileged information
Akisato Kimura
ACMMM 2013 reading: Large-scale visual sentiment ontology and detectors using...
ACMMM 2013 reading: Large-scale visual sentiment ontology and detectors using...
Akisato Kimura
IJCAI13 Paper review: Large-scale spectral clustering on graphs
IJCAI13 Paper review: Large-scale spectral clustering on graphs
Akisato Kimura
関西CVPR勉強会 2012.10.28
関西CVPR勉強会 2012.10.28
Akisato Kimura
関西CVPR勉強会 2012.7.29
関西CVPR勉強会 2012.7.29
Akisato Kimura
ICWSM12 Brief Review
ICWSM12 Brief Review
Akisato Kimura
関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)
関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)
Akisato Kimura
関西CVPRML勉強会(特定物体認識) 2012.1.14
関西CVPRML勉強会(特定物体認識) 2012.1.14
Akisato Kimura
人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -
人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -
Akisato Kimura
IBIS2011 企画セッション「CV/PRで独自の進化を遂げる学習・最適化技術」 趣旨説明
IBIS2011 企画セッション「CV/PRで独自の進化を遂げる学習・最適化技術」 趣旨説明
Akisato Kimura
立命館大学 AMLコロキウム 2011.10.20
立命館大学 AMLコロキウム 2011.10.20
Akisato Kimura
More from Akisato Kimura
(20)
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
Paper reading - Dropout as a Bayesian Approximation: Representing Model Uncer...
CVPR2016 reading - 特徴量学習とクロスモーダル転移について
CVPR2016 reading - 特徴量学習とクロスモーダル転移について
NIPS2015 reading - Learning visual biases from human imagination
NIPS2015 reading - Learning visual biases from human imagination
CVPR2015 reading "Global refinement of random forest"
CVPR2015 reading "Global refinement of random forest"
CVPR2015 reading "Understainding image virality" (in Japanese)
CVPR2015 reading "Understainding image virality" (in Japanese)
Computational models of human visual attention driven by auditory cues
Computational models of human visual attention driven by auditory cues
NIPS2014 reading - Top rank optimization in linear time
NIPS2014 reading - Top rank optimization in linear time
CVPR2014 reading "Reconstructing storyline graphs for image recommendation fr...
CVPR2014 reading "Reconstructing storyline graphs for image recommendation fr...
ICCV2013 reading: Learning to rank using privileged information
ICCV2013 reading: Learning to rank using privileged information
ACMMM 2013 reading: Large-scale visual sentiment ontology and detectors using...
ACMMM 2013 reading: Large-scale visual sentiment ontology and detectors using...
IJCAI13 Paper review: Large-scale spectral clustering on graphs
IJCAI13 Paper review: Large-scale spectral clustering on graphs
関西CVPR勉強会 2012.10.28
関西CVPR勉強会 2012.10.28
関西CVPR勉強会 2012.7.29
関西CVPR勉強会 2012.7.29
ICWSM12 Brief Review
ICWSM12 Brief Review
関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)
関西CVPRML勉強会 2012.2.18 (一般物体認識 - データセット)
関西CVPRML勉強会(特定物体認識) 2012.1.14
関西CVPRML勉強会(特定物体認識) 2012.1.14
人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -
人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -
IBIS2011 企画セッション「CV/PRで独自の進化を遂げる学習・最適化技術」 趣旨説明
IBIS2011 企画セッション「CV/PRで独自の進化を遂げる学習・最適化技術」 趣旨説明
立命館大学 AMLコロキウム 2011.10.20
立命館大学 AMLコロキウム 2011.10.20
Recently uploaded
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
Hiroshi Tomioka
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
UEHARA, Tetsutaro
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
akihisamiyanaga1
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
Yuki Kikuchi
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
sugiuralab
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
FumieNakayama
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
FumieNakayama
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
博三 太田
Recently uploaded
(8)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
MIRU2011 OS1-2 拡張ペアワイズ表現を用いた一般化多変量解析
1.
拡張ペアワイズ表現を用いた
一般化多変量解析 木村昭悟(1), 杉山将(2),亀岡弘和(1,3), 坂野鋭(1) (1) 日本電信電話(株) コミュニケーション科学基礎研究所 (2) 東京工業大学 大学院情報理工学研究科 (3) 東京大学 大学院情報理工学系研究科
2.
あらまし
数多くの多変量解析を俯瞰する シンプル かつ コンパクトな表現を示します 【標準的手法】 PCA,判別分析,線形回帰,CCA etc. 【局所性導入】 多次元尺度法,局所性保存射影 etc. 【正則化】 L2ノルム正則化,graph Laplacian etc. 【カーネル】 カーネルPCA,カーネルFDA etc. 【半教師化】 SELF,SemiCCA etc. 2 NTT Communication Science Laboratories
3.
もくじ 1.
拡張ペアワイズ表現とは? 2. 拡張ペアワイズ表現が持つ意味 既存手法との対応関係を見ながら説明します 3. まとめ 3 NTT Communication Science Laboratories
4.
もくじ 1.
拡張ペアワイズ表現とは? 2. 拡張ペアワイズ表現が持つ意味 既存手法との対応関係を見ながら説明します 3. まとめ 4 NTT Communication Science Laboratories
5.
多変量解析の定式化
一般化レイリー商で表現される多変量解析 強調したい 抑制したい 一般化固有値問題で表現される多変量解析 ラグランジュ 未定乗数法 【注】 詳細な導出は「 slideshare _akisato kernel PCA 」 で検索! 5 NTT Communication Science Laboratories
6.
これから述べたいこと
行列 を 拡張ペアワイズ表現 で書くと, 多変量解析を俯瞰できる枠組が作れます. 拡張ペアワイズ表現 データ依存項 データ独立項 6 NTT Communication Science Laboratories
7.
拡張ペアワイズ表現 3つの「うまみ」
PCA,FDA,MLR,CCA 等を統一した形式で記述できる 様々な2次統計量を重ね合わせて用いることができる → 半教師付き解析への拡張 正則化を導入することができる 7 NTT Communication Science Laboratories
8.
共分散行列とその拡張
相互共分散行列 (平均=0 を仮定) 共分散行列は相互共分散行列の特殊例 サンプル間類似性を考慮した2次統計量 : 相互共分散行列と一致 8 NTT Communication Science Laboratories
9.
ペアワイズ表現 (PE)
サンプル間類似性を考慮した2次統計量 和の中の積を展開 2次統計量のペアワイズ表現 [Sugiyama+ 2010] 【注】 詳細な導出は 「Masashi Sugiyama SELF」 で検索! 9 NTT Communication Science Laboratories
10.
拡張ペアワイズ表現 (EPE)
ペアワイズ表現の自然な拡張 Qに独立な項を導入 形式上は類似度行列を意識する必要はない データ依存項 データ独立項 上記の表現を, 2次統計量の拡張ペアワイズ表現 と呼ぶ. 10 NTT Communication Science Laboratories
11.
もくじ 1.
拡張ペアワイズ表現とは? 2. 拡張ペアワイズ表現が持つ意味 既存手法との対応関係を見ながら説明します 3. まとめ 11 NTT Communication Science Laboratories
12.
標準的手法の拡張ペアワイズ表現
主成分分析 (PCA) データ依存項の典型例 データ独立項の典型例 線形回帰分析 (MLR) 正準相関分析 (CCA) 12 Presented by Akisato Kimura in MIRU2011
13.
データ依存項が持つ意味
サンプル間類似性をどう評価するか? を決定 類似度行列を明示的に設定する必要はない 既存手法では,類似度行列を明示的に設定 例: 局所性保存射影 (LPP) [He,Niyogi 2004] 類似度: 近くはより近くに,遠くはより遠くに 13 NTT Communication Science Laboratories
14.
データ独立項が持つ意味
正則化を取り込むことが主要な目的 例: リッジ回帰 (MLR with L2ノルム正則化) MLRと異なるのは ここだけ! 14 NTT Communication Science Laboratories
15.
まとめ
2次統計量を拡張ペアワイズ表現を用いて 表現することで,多変量解析を俯瞰できます. 拡張ペアワイズ表現 データ依存項 データ独立項 15 NTT Communication Science Laboratories
Download now