SlideShare a Scribd company logo
1 of 44
テンソル分解の基礎と
画像・信号処理への応用
横田 達也
2014年3月 13日
1
高校時代
~魚ロボット~
大学時代
情報工学科 (計算機システム・プログラミングなど)
大学院
機械学習(パターン認識・データ解析)を研究
卒業後  理研の研究員
学歴 研究
2005年3月 東京工業大学工学部附属
工業高等学校機械科卒業
↓ 特別推薦で合格
(10/200)
2009年3月 東京工業大学 卒業 杉山研究室
2011年3月 東京工業大学大学院
修士課程修了
山下研究室
2011年4月
~現在
東京工業大学大学院
博士後期課程在学
大学:山下研
理研:チホツキ研
2
自己紹介
テンソルについて
テンソルとは
テンソルの計算則
テンソル分解のモデル
CPモデル
Tuckerモデル
テンソル分解のアルゴリズム
テンソル分解へのいろいろな拡張の研究
テンソル分解の応用技術の紹介
3
目次
添え字のついた変数(配列)
スカラー、ベクトル、行列の一般名
例
添え字の数:階数
スカラー:0階のテンソル
ベクトル:1階のテンソル
行列 :2階のテンソル
・・・
4
テンソルとは?
多次元配列としてイメージしてみる
0階テンソル:
1階テンソル:
2階テンソル:
3階テンソル:
5
テンソルデータ
ベクトル
-スカラーを並べたもの
行列
-ベクトルを並べたもの
-行列を並べたもの
3階のテンソルを直方体で表す
4階のテンソルは、
3階のテンソルを並べたものなので、
5階のテンソルは、
4階のテンソルを並べたものなので、
n階のテンソルは、
(n-1)階のテンソルを並べたもの。
6
高階のテンソル
・
・
・
・
・
・
・
・
・
・
・
・
・・・
・・・
・・・
7
テンソルデータの例
時系列データ
 1階のテンソル (ベクトル)
多チャンネルの時系列データ
 2階のテンソル (行列)
濃淡画像
カラー画像
 2階のテンソル (行列)
 3階のテンソル
(RGB×濃淡画像)
カラー動画
 4階のテンソル
(フレーム×カラー画像)
N階のテンソルを で表し、
その 成分を
または
で表す。
足し算(引き算)
同じ大きさの二つのテンソルの和は、
定数cに対するテンソルXの定数倍 cX は、
8
テンソルの計算(1)
アダマール積(Hadamard product)
同じ大きさの二つのテンソルのアダマール積は、
成分ごとの商(elementwise division)
同じ大きさの二つのテンソルの成分ごとの商は、
クロネッカー積(Kronecker product)
9
テンソルの計算(2)
内積とノルム
同じ大きさの二つのテンソルの内積は、
X = Y のとき、フロベニウスノルムになる
10
テンソルの計算(3)
テンソルの展開(Unforlding)
ベクトル化(vectorization)
11
テンソルの計算(4)
n方向の行列化(n-way matricization)
12
テンソルの計算(5)
-行列化の手順-
① テンソルをn方向へ
スライスする。
(In 個のスライス)
② 各スライスを行ベク
トルへ展開する。
(In 個のベクトル)
③ 各行ベクトルを上から
下に縦に並べる。
行列と行列の積
(I×J)行列 ・(J×K)行列 = (I×K)行列
テンソルと行列の積
(I×J×K)テンソル ×1 (L×I)行列 = (L×J×K)テンソル
(I×J×K)テンソル ×2 (L×J)行列 = (I×L×K)テンソル
(I×J×K)テンソル ×3 (L×K)行列 = (I×J×L)テンソル
13
テンソルの計算(6)
=・
I
J
J
K K
I
I
J
K
×1
I
L = L
JK
I
L I
=
JK
L
JK
行列化
行列化
・
3階テンソルと3つの行列との積
14
テンソルの計算(7)
I
J
K
×1
L = L
MN
×2
M
×3
N
I J K
I
L I
=
JK
L
MN
・ ・
MN
JK
行列化で表記すると
=IJK LMN・
ベクトル化で表記すると
IJK
LMN
いろいろなテンソル同士の積
外積 (s階テンソルとt階テンソルでs+t階テンソルになる)
15
テンソルの計算(8)
I
J
K
L
JK
I
L
=
JK
L
JK
I I
L
=
テンソルの概念について紹介
テンソルの計算
足し算(引き算)
定数倍
アダマール積
成分ごとの商
クロネッカー積
内積、ノルム
展開:ベクトル化
展開:行列化
テンソルと行列の積
テンソル同士の積
外積
16
途中まとめ
行列の因子分解、特徴抽出
テンソルの因子分解と次元削減
行列分解をテンソルに拡張したもの
17
テンソル分解
ベクトルベースのデータ解析
・・・ 
主成分分析
(PCA)
独立成分分析(ICA)
スパース成分分析
(SCA)
非負行列分解
(NMF)
W
・・・
18
テンソルデータの解析
MRI画像
脳波(時間・周波数)
3階テンソルの特徴抽出
A
C
B T

高階テンソルデータ
CPモデル Tuckerモデル
gr
ar
cr
br
GA
C
B
T
テンソル分解
全部同じモデルを指す
CP: canonical polyadic decomposition
PARAFAC: pararell factor analysis
CANDECOMP: canonical decomposition
ここでは、CPモデルとよびます。
1ランクテンソル
N個のベクトルの外積で表せるN階テンソル
CPモデル(3階テンソル)
Rランクへの近似モデルになっている
19
CPモデル
CPモデル(3階テンソル)
カトリ・ラオ積
20
CPモデルの行列化
CPモデル
行列化された
CPモデル
評価基準
a,b,c のノルムは一意に決まらない
任意の実数dに対して, a a/d, bb*d としてもよい
a,b,c のノルムを正規化
21
CP分解のための評価基準
特異値の
テンソル版
問題
導出 (λ,B,Cを固定して, Aについて解く)
最小化条件
更新式
22
CP分解のアルゴリズムの導出
この目的関数を
関数L とおく

入力: X, R
初期化:B, C (各列のノルムは1)
収束するまで繰り返し
(r=1,…,R)
(r=1,…,R)
(r=1,…,R)
(r=1,…,R)
出力: A, B, C, Λ
23
CP分解のアルゴリズムまとめ
Tucker3モデル(3階テンソル)
Gが対角の時、Tuckerモデル=CPモデル
24
Tuckerモデル
=
Tuckerモデルの行列化(3階テンソル)
Tuckerモデルのベクトル化
25
Tuckerモデルの展開
I
R1
I =
JK
R2R3
JK
A
R1
R2R3
(C × B)〇 T
G(1)
[Tuck](1)
(C × B × A)〇 〇
=IJK IJK
R1R2R3
R1R2R3・
評価基準
G,A,B,C は一意に決まらない
A, B, C に正規直交制約を加える(これでも一意にはならない…)
目的関数Lについて見ていく
26
Tucker分解のための評価基準
この目的関数を
関数L とおく

目的関数LにGを代入する
目的関数の最小化は、 G のノルムの最大化となる(PCAと同じ)
27
Tucker分解のための評価基準(2)
問題
導出 (λ,B,Cを固定して, Aについて解く)
更新則
28
Tucker分解のアルゴリズムの導出
または
入力: X, R1, R2, R3
初期化ステップ
Repeat(収束まで)
End
出力: G, A, B, C
29
Tucker分解のアルゴリズムまとめ
HOSVD
HOOI
一般的な評価基準
モデル + 制約
という組み合わせから、いくつもの手法とアルゴリズ
ムが提案されている。
制約項
最適化アルゴリズム
30
制約付きのCP・Tucker分解
与えられたテンソルデータ
モデル(CP・Tucker)
制約
・直交制約
・スパース制約
・スムース制約
・非負制約
解の一意性の向上
目的にあった特徴を抽出したい
例: Textデータ(ヒストグラム)、確率密度関数は必ず非負であり、
それらを構成する基底(特徴)ベクトルもまた非負であるはず。
例: 物理的要因でスパース性、スムース性を仮定して良い場合、(
スムースな自然画像、一般に疎なスペクトルなど)
例: それぞれが独立な特徴ベクトルを抽出したい
ノイズや、無駄な因子をできるだけ取り除きたい
制約によっては、ノイズに対する頑健性を向上できる
31
なぜ、制約が必要なのか?
解の領域
解の領域制約
特徴ベクトルをそれぞれが直交するベクトルの組に限定
線形独立性が保障される
特徴ベクトルのノルムが正規化される
他の制約(疎、非負など)との親和性が低い
適用例:SVD、PCA、ICA、HOSVDなど
32
直交制約
スパースとは、
ベクトルの成分のほとんどの値が 0 のような状態をいう
例: a = [0 0 0 0 5 0 0 0 -1 4 0 0 0 0 0 0 -9 0 0 0 0]
スパース性を得るための制約
l1-ノルムの最小化が良く用いられる
l1-ノルム
評価基準: LASSO と呼ばれる
二次の目的関数+L1ノルムの最小化
λ:正則化パラメータ
弱い成分をつぶして、主要な成分のみを残す
33
スパース制約
l1ノルムの等高線
目的関数の等高線
スムース性
ベクトルの隣り合う成分の値の差が小さい
例: a = [0 -3 9 0 5 15 0 0 0 0 1 1 0 -1 -1 1 2]
良く用いられる評価基準(fused lasso, total variation)
他にも、Aをスムースな基底関数の線形結合としてモデル
化する方法が提案されている
A=ΦW
ノイズに対する頑健性が得られる
34
スムース制約
スムースでない スムース
非負制約とは、
特徴ベクトルの成分の値がすべて非負という制約
非負制約は、特徴ベクトルの非負性だけではあまり意味がなく、
係数の非負性があってはじめて効果を発揮する。
なぜなら非負制約は和算のみでモデル化するための制約だから
和算のみの制約によって相殺が不可能となるため、構成要素としての
パーツを抽出することができる。
35
非負制約


+
+
+
+
+
+
+ + +

 +-
- +
スパース・スムース・非負制約などを付加したさまざまな
拡張が提案されている。
スパースCP分解[Allen, 2012]
スパースTucker分解
非負CP分解
非負Tucker分解[Kim&Choi, 2007][Phan&Cichoki, 2008,2009,2011]
スムース非負CP分解[Yokota et al, 2015]
スムース非負Tucker分解[Tokota et al, 2015]
行列分解の多様な技術をテンソル分解に拡張したい
主成分分析(PCA)、スパースPCA、スパース&スムースPCA
非負行列分解(NMF)、スパースNMF、スムースNMF
独立成分分析(ICA)
共通個別因子分析など
36
CP・Tucker分解のさまざまな拡張
複数の濃淡画像を重ねた3階のテンソルデータ
特徴行列=基底行列であり、コアテンソルはその係数と考えて良い
。
37
テンソル分解の画像処理への応用
A B
T
タッカー分解
Tucker2モデル
特徴行列
特徴行列 コアテンソル
= + + + +・・・
= + + + +・・・
38
Tucker2モデルで得られた直交基底
39
二次元DCT と Tucker2分解 の違い
A B
T
Tucker2モデル
基底行列
基底行列 コアテンソル
C1
C2
T
コサイン
関数行列
コサイン
関数行列
コアテンソル
DCT
基底行列が決まっていて、
コアテンソルだけを最適化して
フィッティングしている
基底行列と
コアテンソル両方最適化する
フィッティングする
DCT基底 Tucker2
基底
もし、NMF/NTFによって顔画像のパーツが的確に学習さ
れていれば、パーツの組み合わせによって顔画像を構成で
きる。
ノイズを付加された顔画像を、構成モデルで再構成する事を考え
る。再構成された画像は基底行列が張る空間に限定されるため、
ノイズ除去に利用できる。
張る空間の次元が小さいとまったく別の(平均的な)顔になる…
40
非負テンソル分解による顔画像の再構成
ノイズ付加 NMF Smooth NMF NTF Smooth NTF
PSNR(peak signal to noise ratio)
41
再構成誤差の評価
11枚
33 pixels
26 pixels
GA
C
B T
・・・
15人
・・・
・・・・・・・・・
11枚
858
pixels
R1×10×10
・画像にはノイズ(10dB)が付加されている
・R1個のパーツで各顔画像を再構成する
・再構成した画像とノイズのない原画像をPSNRで比較
42
応用例2: 3階テンソルデータのノイズ除去
7.21 dB
非負CP分解
(19.8 dB)
非負Tucker分解
(13.5 dB)
スムース非負
CP分解(26.8 dB)
スムース非負Tu-
cker分解(23.9 dB)
Gaussian
noise
GA
C
B T
GU
W
V T T
非負Tucker分解
非負CP分解
スムース非負Tucker分解
スムース非負CP分解
テンソルの概念とさまざまな計算則を紹介
2つのテンソル分解モデルを紹介
CPモデル
Tuckerモデル
最も基本的な分解アルゴリズムを紹介
CP-ALS アルゴリズム
HOOI アルゴリズム
制約付きテンソル分解について紹介
直交制約
スパース制約
スムース制約
非負制約
簡単な応用例を紹介
Tucker2モデルによる直交基底の学習
CP・Tucker分解によるノイズ除去
43
まとめ
最後まで聞いてくださってありがとうございました。
44
おわり

More Related Content

What's hot

最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門joisino
 
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)ryotat
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門ryosuke-kojima
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習Eiji Uchibe
 
三次元点群を取り扱うニューラルネットワークのサーベイ
三次元点群を取り扱うニューラルネットワークのサーベイ三次元点群を取り扱うニューラルネットワークのサーベイ
三次元点群を取り扱うニューラルネットワークのサーベイNaoya Chiba
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門tmtm otm
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習cvpaper. challenge
 
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks? 【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks? Deep Learning JP
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!TransformerArithmer Inc.
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)Takao Yamanaka
 
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...Deep Learning JP
 
機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化gree_tech
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説弘毅 露崎
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方joisino
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係についてDeep Learning JP
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)Kota Matsui
 
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State SpacesDeep Learning JP
 
[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめ[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめDeep Learning JP
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理Taiji Suzuki
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAGIRobots
 

What's hot (20)

最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門
 
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
 
三次元点群を取り扱うニューラルネットワークのサーベイ
三次元点群を取り扱うニューラルネットワークのサーベイ三次元点群を取り扱うニューラルネットワークのサーベイ
三次元点群を取り扱うニューラルネットワークのサーベイ
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
 
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks? 【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
 
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
 
機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
 
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
 
[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめ[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめ
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
 

Similar to 2014 3 13(テンソル分解の基礎)

[Track2-1] ディープラーニングのロボット応用事例 ーデータからエクスペリエンスへー
[Track2-1] ディープラーニングのロボット応用事例 ーデータからエクスペリエンスへー[Track2-1] ディープラーニングのロボット応用事例 ーデータからエクスペリエンスへー
[Track2-1] ディープラーニングのロボット応用事例 ーデータからエクスペリエンスへーDeep Learning Lab(ディープラーニング・ラボ)
 
Service Design Roundtable on 2/15/2014, Y. Sawatani
Service Design Roundtable on 2/15/2014, Y. SawataniService Design Roundtable on 2/15/2014, Y. Sawatani
Service Design Roundtable on 2/15/2014, Y. SawataniYuriko Sawatani
 
今後のPRMU研究会を考える
今後のPRMU研究会を考える今後のPRMU研究会を考える
今後のPRMU研究会を考えるYoshitaka Ushiku
 
ビジネスのコアを創り出すゼロイチ発想法
ビジネスのコアを創り出すゼロイチ発想法ビジネスのコアを創り出すゼロイチ発想法
ビジネスのコアを創り出すゼロイチ発想法Yoshitaka Naka
 
ESS2015 10周年記念企画パネル1: これからの10年 ~岐路に立つ日本の学会活動~
ESS2015 10周年記念企画パネル1: これからの10年 ~岐路に立つ日本の学会活動~ESS2015 10周年記念企画パネル1: これからの10年 ~岐路に立つ日本の学会活動~
ESS2015 10周年記念企画パネル1: これからの10年 ~岐路に立つ日本の学会活動~Hideki Takase
 
第6回理系Ao入試フォーラムスライド(竹松)
第6回理系Ao入試フォーラムスライド(竹松)第6回理系Ao入試フォーラムスライド(竹松)
第6回理系Ao入試フォーラムスライド(竹松)Kazutomo Takematsu
 
進学準備&大学生活について
進学準備&大学生活について進学準備&大学生活について
進学準備&大学生活についてShotaSatuma
 
研究紹介
研究紹介研究紹介
研究紹介satokazu
 
Self introduction for Career select
Self introduction for Career selectSelf introduction for Career select
Self introduction for Career selectssuser165ef9
 
第34回CV勉強会「コンピュテーショナルフォトグラフィ」発表資料
第34回CV勉強会「コンピュテーショナルフォトグラフィ」発表資料第34回CV勉強会「コンピュテーショナルフォトグラフィ」発表資料
第34回CV勉強会「コンピュテーショナルフォトグラフィ」発表資料Takuya Minagawa
 

Similar to 2014 3 13(テンソル分解の基礎) (13)

[Track2-1] ディープラーニングのロボット応用事例 ーデータからエクスペリエンスへー
[Track2-1] ディープラーニングのロボット応用事例 ーデータからエクスペリエンスへー[Track2-1] ディープラーニングのロボット応用事例 ーデータからエクスペリエンスへー
[Track2-1] ディープラーニングのロボット応用事例 ーデータからエクスペリエンスへー
 
Service Design Roundtable on 2/15/2014, Y. Sawatani
Service Design Roundtable on 2/15/2014, Y. SawataniService Design Roundtable on 2/15/2014, Y. Sawatani
Service Design Roundtable on 2/15/2014, Y. Sawatani
 
タイルの話
タイルの話タイルの話
タイルの話
 
今後のPRMU研究会を考える
今後のPRMU研究会を考える今後のPRMU研究会を考える
今後のPRMU研究会を考える
 
ビジネスのコアを創り出すゼロイチ発想法
ビジネスのコアを創り出すゼロイチ発想法ビジネスのコアを創り出すゼロイチ発想法
ビジネスのコアを創り出すゼロイチ発想法
 
ESS2015 10周年記念企画パネル1: これからの10年 ~岐路に立つ日本の学会活動~
ESS2015 10周年記念企画パネル1: これからの10年 ~岐路に立つ日本の学会活動~ESS2015 10周年記念企画パネル1: これからの10年 ~岐路に立つ日本の学会活動~
ESS2015 10周年記念企画パネル1: これからの10年 ~岐路に立つ日本の学会活動~
 
Deep dive into DeepLens
Deep dive into DeepLensDeep dive into DeepLens
Deep dive into DeepLens
 
第6回理系Ao入試フォーラムスライド(竹松)
第6回理系Ao入試フォーラムスライド(竹松)第6回理系Ao入試フォーラムスライド(竹松)
第6回理系Ao入試フォーラムスライド(竹松)
 
進学準備&大学生活について
進学準備&大学生活について進学準備&大学生活について
進学準備&大学生活について
 
研究紹介
研究紹介研究紹介
研究紹介
 
研究室紹介
研究室紹介研究室紹介
研究室紹介
 
Self introduction for Career select
Self introduction for Career selectSelf introduction for Career select
Self introduction for Career select
 
第34回CV勉強会「コンピュテーショナルフォトグラフィ」発表資料
第34回CV勉強会「コンピュテーショナルフォトグラフィ」発表資料第34回CV勉強会「コンピュテーショナルフォトグラフィ」発表資料
第34回CV勉強会「コンピュテーショナルフォトグラフィ」発表資料
 

More from Tatsuya Yokota

Tensor representations in signal processing and machine learning (tutorial ta...
Tensor representations in signal processing and machine learning (tutorial ta...Tensor representations in signal processing and machine learning (tutorial ta...
Tensor representations in signal processing and machine learning (tutorial ta...Tatsuya Yokota
 
テンソル多重線形ランクの推定法について(Estimation of Multi-linear Tensor Rank)
テンソル多重線形ランクの推定法について(Estimation of Multi-linear Tensor Rank)テンソル多重線形ランクの推定法について(Estimation of Multi-linear Tensor Rank)
テンソル多重線形ランクの推定法について(Estimation of Multi-linear Tensor Rank)Tatsuya Yokota
 
自己相似な情報モデリング
自己相似な情報モデリング自己相似な情報モデリング
自己相似な情報モデリングTatsuya Yokota
 
低ランク性および平滑性を用いたテンソル補完 (Tensor Completion based on Low-rank and Smooth Structu...
低ランク性および平滑性を用いたテンソル補完 (Tensor Completion based on Low-rank and Smooth Structu...低ランク性および平滑性を用いたテンソル補完 (Tensor Completion based on Low-rank and Smooth Structu...
低ランク性および平滑性を用いたテンソル補完 (Tensor Completion based on Low-rank and Smooth Structu...Tatsuya Yokota
 
2013 11 01(fast_grbf-nmf)_for_share
2013 11 01(fast_grbf-nmf)_for_share2013 11 01(fast_grbf-nmf)_for_share
2013 11 01(fast_grbf-nmf)_for_shareTatsuya Yokota
 
Linked CP Tensor Decomposition (presented by ICONIP2012)
Linked CP Tensor Decomposition (presented by ICONIP2012)Linked CP Tensor Decomposition (presented by ICONIP2012)
Linked CP Tensor Decomposition (presented by ICONIP2012)Tatsuya Yokota
 
Introduction to Common Spatial Pattern Filters for EEG Motor Imagery Classifi...
Introduction to Common Spatial Pattern Filters for EEG Motor Imagery Classifi...Introduction to Common Spatial Pattern Filters for EEG Motor Imagery Classifi...
Introduction to Common Spatial Pattern Filters for EEG Motor Imagery Classifi...Tatsuya Yokota
 
Principal Component Analysis for Tensor Analysis and EEG classification
Principal Component Analysis for Tensor Analysis and EEG classificationPrincipal Component Analysis for Tensor Analysis and EEG classification
Principal Component Analysis for Tensor Analysis and EEG classificationTatsuya Yokota
 
Nonnegative Matrix Factorization
Nonnegative Matrix FactorizationNonnegative Matrix Factorization
Nonnegative Matrix FactorizationTatsuya Yokota
 
Independent Component Analysis
Independent Component AnalysisIndependent Component Analysis
Independent Component AnalysisTatsuya Yokota
 

More from Tatsuya Yokota (10)

Tensor representations in signal processing and machine learning (tutorial ta...
Tensor representations in signal processing and machine learning (tutorial ta...Tensor representations in signal processing and machine learning (tutorial ta...
Tensor representations in signal processing and machine learning (tutorial ta...
 
テンソル多重線形ランクの推定法について(Estimation of Multi-linear Tensor Rank)
テンソル多重線形ランクの推定法について(Estimation of Multi-linear Tensor Rank)テンソル多重線形ランクの推定法について(Estimation of Multi-linear Tensor Rank)
テンソル多重線形ランクの推定法について(Estimation of Multi-linear Tensor Rank)
 
自己相似な情報モデリング
自己相似な情報モデリング自己相似な情報モデリング
自己相似な情報モデリング
 
低ランク性および平滑性を用いたテンソル補完 (Tensor Completion based on Low-rank and Smooth Structu...
低ランク性および平滑性を用いたテンソル補完 (Tensor Completion based on Low-rank and Smooth Structu...低ランク性および平滑性を用いたテンソル補完 (Tensor Completion based on Low-rank and Smooth Structu...
低ランク性および平滑性を用いたテンソル補完 (Tensor Completion based on Low-rank and Smooth Structu...
 
2013 11 01(fast_grbf-nmf)_for_share
2013 11 01(fast_grbf-nmf)_for_share2013 11 01(fast_grbf-nmf)_for_share
2013 11 01(fast_grbf-nmf)_for_share
 
Linked CP Tensor Decomposition (presented by ICONIP2012)
Linked CP Tensor Decomposition (presented by ICONIP2012)Linked CP Tensor Decomposition (presented by ICONIP2012)
Linked CP Tensor Decomposition (presented by ICONIP2012)
 
Introduction to Common Spatial Pattern Filters for EEG Motor Imagery Classifi...
Introduction to Common Spatial Pattern Filters for EEG Motor Imagery Classifi...Introduction to Common Spatial Pattern Filters for EEG Motor Imagery Classifi...
Introduction to Common Spatial Pattern Filters for EEG Motor Imagery Classifi...
 
Principal Component Analysis for Tensor Analysis and EEG classification
Principal Component Analysis for Tensor Analysis and EEG classificationPrincipal Component Analysis for Tensor Analysis and EEG classification
Principal Component Analysis for Tensor Analysis and EEG classification
 
Nonnegative Matrix Factorization
Nonnegative Matrix FactorizationNonnegative Matrix Factorization
Nonnegative Matrix Factorization
 
Independent Component Analysis
Independent Component AnalysisIndependent Component Analysis
Independent Component Analysis
 

2014 3 13(テンソル分解の基礎)