SlideShare a Scribd company logo
1 of 85
多次元信号処理の基礎
と画像処理のための
二次元変換技術
平成23年9月30日(金)
新潟大学工学部 電気電子工学科
准教授 村松 正吾
自己紹介
(むらまつ しょうご)
 所属
 新潟大学 工学部 電気電子工学科
 画像・映像信号処理の教育研究に従事
 学部:「プログラミング」,「画像情報工学」
 修士:「画像処理特論」,博士:「多次元信号処理論」
 学会:IEEE,電子情報通信学会,映像情報メディア学会
 著書など
 「マルチメディア技術の基礎DCT入門」
(CQ出版社, 1997年)
 「MATLABによる画像&映像信号処理 」
(CQ出版社, 2007年)
講演内容
 一次元信号の分析と合成
 画像変換の基礎
 重複変換とウェーブレット変換
 非分離変換処理
 応用と今後の発展
信号処理とは?
 音や光等の物理的変量を伝送・記録・解析・加工する技術
電気信号(電波・光信号)
センシング
音・光・超音波・地震・X線など
再生
(必要に応じて)
一次元信号処理
 例:音(モノラル)
 一変量の関数とみなせる
𝑥(𝑡)
 音の標本化
 数列(サンプル列)が得られる
𝑥[𝑛]
 音の解析
 「どのような成分から構成されているか?」
フーリエ解析など
1秒間に440回振動
多次元信号処理
 複数の変量を持つ信号
 画像・映像
 多チャンネル信号
 画像の標本化(モノクロ)
 連続分布 → 配列
𝑥 𝑝0, 𝑝1 → 𝑥[𝑛0, 𝑛1]
 画像の解析
 「どのような成分から構成されているか?」
多次元フーリエ解析など
高
高
準備:遅延器
 𝑧−𝑘
:𝑘サンプル分時間シフト
3
1
3
1
5
3
3
1
3
1
5
3
3
1
3
1
5
3
3
1
3
1
5
3
1
1
𝑧−1 𝑧−1 𝑧−2
0 0 0
1 1 2
信号の解析(一次元)
 近似成分と詳細成分に分解
3
1
3
1
5
3
2 2
4
2
3
1 1 1
-1 -2
3
1
×1/2
×1/2
+
4 4 4 6 8
+
隣同士を足す
右隣を引く
近似成分
詳細成分
2 -2 2 -4 2
-1
4
-
信号の合成
 分解した信号を足し合わせると…
+
元に戻る!
2 2
4
2
3
1 1 1
-1
-2
近似成分
詳細成分
3
1
3
1
5
3
-1
4
足し算、引き算は
信号の情報を逃さない
立派な成分分析法!
低周波成分
高周波成分
フィルタバンク表現
𝑧−1
+
1/2
1/2
遅延器
𝑧−1
+
-1/2
1/2
+
入力 出力
近似成分
詳細成分
分析器 合成器
群(集まり)の意
𝐻0 𝑧 =
1
2
1 + 𝑧−1
𝐻1 𝑧 =
1
2
−1 + 𝑧−1
𝑇 𝑧 = 𝐻0 𝑧 + 𝐻1 𝑧 = 𝑧−1
全体の伝達関数𝑇(𝑧)が単なる遅延
分析と合成の交換
入力
分析器
+
出力
合成器
𝑧−1
+
1/2
1/2
+
-1/2
1/2
各処理を合成器に移動しても元に戻る
𝑧−1
𝐹0 𝑧 =
1
2
1 + 𝑧−1
𝐹1 𝑧 =
1
2
−1 + 𝑧−1
𝑇 𝑧 = 𝐹0 𝑧 + 𝐹1 𝑧 = 𝑧−1
全体の伝達関数𝑇(𝑧)が単なる遅延
その他の構成
𝑧−1
+
1/2
1/2
𝑧−1
+
-1/2
1/2
入力
近似成分
詳細成分
分析器
+
出力
合成器
同じ分析器に対し異なる合成器も有り得る
(合成器) (分析器)
𝑧−1
+
1/2
1/2
+
1/2 𝑧−1
-1/2
𝐻0 𝑧 =
1
2
1 + 𝑧−1
𝐻1 𝑧 = ±
1
2
−1 + 𝑧−1
𝐹0 𝑧 =
1
2
1 + 𝑧−1
𝐹1 𝑧 = ∓
1
2
−1 + 𝑧−1
𝑇 𝑧 = 𝐻0 𝑧 𝐹0 𝑧 + 𝐻1 𝑧 𝐹1 𝑧
=
1
4
1 + 2𝑧−1 + 𝑧−2
±1 ∓1
遅延!
信号の分析と合成
入力 出力
遅延𝑧−𝑛
になればよい!
分析器 合成器
絵の具に例えると…
サンプリング密度が増加する(冗長となる)
量が増える!?
無駄のない信号の解析
 無駄を省くための間引きも構成も可能
3
1
3
1
5
3
2 2
4
1 1 1
3
1
×1/2
×1/2
+
4 4 4 6 8
-
縮小近似成分
縮小詳細成分
2 -2 2 -4 2
絵の具に例えると…
2点に1点棄却
右隣を引く
隣同士を足す
無駄のない信号の合成
 分解した信号を補間して足し合わせると…
+
元に戻る!
2 2
4
1 1 1
縮小近似成分
縮小詳細成分
3
1
3
1
5
3
低周波成分
高周波成分
2 2
4
2 2
4
1 1 1
そのまま補間
符号反転して補間 -1 -1 -1
最大間引きフィルタバンク表現
𝑧−1
+
1/2
1/2
𝑧−1
+
-1/2
1/2
+
入力 出力
縮小近似成分
縮小詳細成分
分析器 合成器
↓2
↓2
↑2
↑2
無駄がない(非冗長)
ダウンサンプラー アップサンプラー
𝑧−1
+
1
1
+
1
-1 𝑧−1
 定義
 例
ダウンサンプラ-の定義
↓𝑀
 nx  my    Mmxmy 
𝑀サンプル毎に1サンプルを出力
𝑀 − 1個のサンプルを棄却
↓2
2 2
4
2
3
4
2 2
4
×
×
×
アップサンプラ-の定義
 定義
 例
↑𝑀
 nx  my
   



 

その他0
2,,0 MMm
M
mx
my
各サンプル間に
𝑀 − 1個の零値を挿入
↑2
2 2
4
2 2
4
0 0 0
補間処理の例
 繰り返し補間(ゼロ次ホールド)
 符号反転補間
2 2
4
1 1 1
2 2
4
2 2
4
1 1 1
-1 -1 -1
↑2
𝑧−1
+
1
+
1
-1 𝑧−1
2 2
4
1
↑2
1 1 1 左隣を引く
隣同士を足す
分析と合成の行列表現
(等価変換)
𝑧−1
+
1/2
1/2
𝑧−1
+
-1/2
1/2
+
入力 出力
分析器 合成器
↓2
↓2
↑2
↑2
𝑧−1
+
1
1
+
1
-1 𝑧−1
本当に単なる遅延になるのか?
(完全再構成できるのか?)
分析と合成の行列表現
(等価変換)
𝑧−1
+
1/2
1/2
𝑧−1
+
-1/2
1/2
+
入力
出力
分析器 合成器
↓2
↓2
↑2
↑2
𝑧−1
+
1
1
+
1
-1 𝑧−1
分析と合成の行列表現
(等価変換)
𝑧−1
+
1/2
1/2
𝑧−1
+
-1/2
1/2
+
入力
出力
分析器 合成器
↓2
↓2
↑2
↑2
𝑧−1
+
1
1
+
-1
1 𝑧−1
遅延器を一つにまとめられる 遅延器を一つにまとめられる
分析と合成の行列表現
(等価変換)
+
1/2
1/2
𝑧−1
+
-1/2
1/2
+
入力
出力
分析器 合成器
↓2
↓2
↑2
↑2
𝑧−1
+
1
1
+
-1
1
二つの内積演算→行列演算 二つの内積演算→行列演算
分析と合成の行列表現
(等価変換)
𝑧−1
+
入力
出力
分析器 合成器
↓2
↓2
↑2
↑2
𝑧−11
2
1 1
1 −1
1 1
1 −1
捨てる値の計算は不要 零値の計算も不要
1
3
2
-1
0
0
0
0
分析と合成の行列表現
(等価変換)
𝑧−1
+
入力
出力
分析器 合成器
↓2
↓2
↑2
↑2
𝑧−1
𝐄 =
1
2
1 1
1 −1
𝐑 =
1 1
1 −1
𝑥0
𝑥1
𝑦0
𝑦1
𝑥0
𝑥1
𝑥0
𝑥1
= 𝐑
𝑦0
𝑦1
= 𝐑𝐄
𝑥0
𝑥1
=
1 0
0 1
𝑥0
𝑥1
=
𝑥0
𝑥1
予め
捨てる
後で零値
挿入
等しい
ブロック化とデブロック化
𝑧−1
+
入力
出力
↓2
↓2
↑2
↑2
𝑧−1
3
1
3
1
5
3
本当に単なる遅延になるのか?
(完全再構成できるのか?)
↑
0
3
1
3
1
5
3
↑
0
1 1 3
3 3
5
1 1 3
3 3
5
1 1 3
3 3
1 1 3
5
↑
0
単なる遅延!
分析処理のブロック処理表現
(最大間引きフィルタバンク)
 2点ブロック毎の行列演算に帰着
3
1
3
1
5
3
2 2
4
1 1 1
縮小近似成分
縮小詳細成分
2
1
=
1
2
1 1
1 −1
3
1
2
1
=
1
2
1 1
1 −1
3
1
4
1
=
1
2
1 1
1 −1
5
1
・
・
・
・
・
・
間引き構成のブロック処理表現
(合成処理)
 係数ブロック毎の逆行列演算に帰着
元に戻る!
2 2
4
1 1 1
縮小近似成分
縮小詳細成分
3
1
3
1
5
33
1
=
1 1
1 −1
2
1
3
1
=
1 1
1 −1
2
1
5
3
=
1 1
1 −1
4
1
・
・
・
・
・
・
信号変換の応用例
(冗長系も非冗長系も)
 圧縮符号化
JPEG, JPEG2000
MPEG, H.264/AVC
 ノイズ除去
ウェーブレット縮退法
 特徴抽出
Viola-Jonesの顔検出
分析 合成
: :
縮退
分析 合成
: :
量子化 出力入力
入力 出力
音声圧縮符号化
 ATRAC3(MD)
 MP3/AAC(iPod)
1. 人の耳に聞こえにくい音を分析
2. 音の成分を分別して捨てる!
約1/10など
CD MD
※http://www.sony.co.jp/Products/ATRAC3/wa.htmより引用
周波数
大
き
さ
約1,400kbps 132kbpsなど
画像圧縮符号化
 JPEG/JPEG2000(静止画)
 MPEG2, H.264/AVC(動画)
1. 人の目に見えにくい成分を分析
2. 画像の成分を分別して捨てる!
信号解析
1
2
3
4
5
6
7
8
0
2
4
6
8
-200
0
200
400
600
800
1000
1200
放送カメラ DVD/Blu-ray
1秒辺りのビット数R(bps) =
画素数×画面数/秒×ビット数/画素
 ハイビジョン品質(HDTV)
R = (1920×1080)×30×24 ≒ 1.5 Gbps
 アナログ放送品質(SDTV)
R = (720×480)×30×24 ≒ 248 Mbps
地デジ
1.5Gbps
248Mbps
約14Mbps
圧縮前
地デジ
圧縮前
約4Mbps
自然画像の性質







1
0
x
x
x
1x
隣接画素の散布図
信号変換の効果
 隣接値との相関を減らすことができる
 スパース表現が得られる







1
0
x
x
x
0x 1x
0x
1x 1y
0y



















1
0
1
0
11
11
2
1
x
x
y
y
1y
0y
広がり広がり広がり
相関が減る
スパース化される
変換行列の例
 ハール変換(π/4回転)行列








11
11
2
1
A 




 

11
11
2
11
A
IAA 1
信号変換の基礎
 基底ベクトル
 110
1
,,, 

 MbbbA 
111100  MMyyy bbbx 
信号xは基底ベクトルの線形結合として表現できる
逆行列の各列ベクトルを基底ベクトルと呼ぶ
信号変換の基礎
 基底ベクトルの例
 係数は順変換により求められる




























0
2
2
2
11
11
2
1
1
0
y
y
y
2 2 2 2
22
  






























 







2
2
1
1
2
1
0
1
1
2
1
2
11
11
2
1
101
0
1
0
yyy
y
x
x
x
0b 1b
基底ベクトルの線形結合である
22
信号変換の基礎
 座標上での関係
1x
0x
0y
1y
2
2
22
2
3
0
-1




















1
1
2
1
1
1
1
2
1
3
22
2
  



















1
1
2
1
1
1
1
2
1
3
2
22
0b1b
1




















1
1
2
1
0
1
1
2
1
2
2
2
変換係数は新たな軸上での座標
基底ベクトルの調べ方
 変換係数を一つのみ1、残りを0として逆変換
 ハール変換の例
,
0
0
1
1
0














 

Ab ,
0
1
0
1
1














 

Ab














 

1
0
0
, 1
1

 AbM
,
1
1
2
1
0
1
11
11
2
1
0 
















 
b 
















 

1
1
2
1
1
0
11
11
2
1
1b
基底ベクトルの調べ方
+↑2
↑2
𝑧−1
A−1 =
1
2
1 −1
1 1
+↑2
↑2
等価
𝑧−1
+
1 2
𝑧−1
+
1 2
−1 2
1 2
1
2
1
2
1
2
1
21
0
1
0
1
2
1
2
𝐹0 𝑧
𝐹1 𝑧
合成フィルタ𝐹𝑘(𝑧)のインパルス応答は,𝑘番目基底ベクトルの要素である
インパルス応答
画像変換の基礎
 基底画像(ベクトルから画像へ)
画像Xは基底画像の線形結合として表現できる
1,11,11,01,00,00,0 1010  MMMMyyy BBBX 
基底画像
画像変換の基礎
 基底画像の例
1/2 1/2
1/2 1/2
0 2
4 6
-1/2 1/2
-1/2 1/2
-1/2 -1/2
1/2 1/2
1/2 -1/2
-1/2 1/2
=
6 × 2×
4× 0×
1,01,0 By0,00,0 By
X
0,10,1 By 1,11,1 By
変換係数 基底画像
画像変換の基礎
 分離処理
 順変換・逆変換の分離処理の行列表現
T
AXAY 
T
 YAAX 1
順
逆
yn
xn
変換係数を求める
元の配列に戻す
yk
xn
𝐔 = 𝐀𝐗
𝐘 = 𝐀𝐔 𝑇 𝑇
= 𝐔𝐀 𝑇
※画像処理では
直軸を下向きにとる
画像変換の基礎
 の2次元ハール変換
 逆変換は以下のとおり











 




















04
26
11
11
64
20
11
11
2
1
64
20 TT
AAAXAY

1,10,11,00,0
10
00
0
01
00
4
00
10
2
00
01
6
04
26
BBBB
AAAAAAAA
AAYAA
































TTTT
TT
0 2
4 6
基底画像の調べ方
 変換係数を一つのみ1、残りを0として逆変換

























 












 

















 
































 






























 







11
11
2
1
11
11
10
00
11
11
2
1
10
00
11
11
2
1
11
11
01
00
11
11
2
1
01
00
11
11
2
1
11
11
00
10
11
11
2
1
00
10
11
11
2
1
11
11
00
01
11
11
2
1
00
01
1,1
0,1
1,0
0,0
AAB
AAB
AAB
AAB
T
T
T
T
水平シフタ・垂直シフタ
 𝑧y
−𝑘:𝑘画素分下シフト
 𝑧y
+𝑘:𝑘画素分上シフト
 𝑧x
−𝑘: 𝑘画素分右シフト
 𝑧x
+𝑘: 𝑘画素分左シフト
𝑧y
−1
𝑧y
+1
𝑧x
−1
𝑧x
+1
画像変換のフィルタバンク表現
𝑧y
−1
+
𝑧y
−1
+
入力
↓2×1
1 2
1 2
−1 2
1 2
↓2×1
𝑧x
−1
+
𝑧x
−1
+
↓1×2
1 2
1 2
−1 2
1 2
↓1×2
𝑧x
−1
+
𝑧x
−1
+
↓1×2
1 2
1 2
−1 2
1 2
↓1×2
垂直ダウン
サンプラー 水平ダウン
サンプラー
画像逆変換のフィルタバンク表現
+
出力
𝑧y
−1
+
1 2
1 2
+
−1 2
1 2 𝑧y
−1
↑2×1
↑2×1+
𝑧x
−1
+
1 2
1 2
+
−1 2
1 2 𝑧 𝑥
−1
↑1×2
↑1×2
+
𝑧x
−1
+
1 2
1 2
+
−1 2
1 2 𝑧x
−1
↑1×2
↑1×2
水平アップ
サンプラー
垂直アップ
サンプラー
基底画像の調べ方
↑2×1+
↑1×2 𝐹0 𝑧x
↑1×2 𝐹1 𝑧x
↑1×2 𝐹0 𝑧x
↑1×2 𝐹1 𝑧x
+ ↑2×1
𝐹0 𝑧y
𝐹1 𝑧 𝑦
+
合成フィルタ𝐹𝑘(𝑧 𝑦) 𝐹𝑙(𝑧x)のインパルス応答は,𝑘, 𝑙番目基底画像の要素である
1
2
1
1
2
1
2
1
2 1
2
1
2
𝑀 × 𝑀行列ブロック変換処理
(一次元)
𝑧−1
+
入力
出力
分析器 合成器
↓𝑀
𝐑
𝑦0
𝑦1
𝑥0
𝑥1
完全再構成条件:𝐑𝐄=𝐈
↓𝑀
↓𝑀
・
・
・
𝑧−1
・
・
・ ・
・
・
𝑥 𝑀−1
𝑦 𝑀−1
𝑧−1
𝑧−1
・
・
・
↑𝑀
↑𝑀
↑𝑀
・
・
・
𝐄
𝑥0
𝑥1
𝑥 𝑀−1
+
ブロック変換のイメージ
 ブロック処理手順(4×4行列の例)
 nx  nxˆ
E
E
E
R
R
R
離散コサイン変換(DCT)
 DCT(Type-II)の特徴
変換核が余弦(コサイン)関数で与えられる
直交変換である
基底ベクトルが対称性をもつ
フーリエ解析と密接な関係がある
高速アルゴリズムが存在する
準最適変換である
JPEG,MPEG-1/2, H.264/AVCに採用されている
離散コサイン変換(DCT)
 DCT-IIの定義(一次元)
      1,,1,0,
2
12
cos
2 1
0





 
 


Mm
M
mn
nxk
M
my
N
n
m 

      1,,1,0,
2
12
cos
2 1
0





 
 


Mn
M
mn
myk
M
nx
N
m
m 

順変換
逆変換 






1,,2,11
0
2
1
Mm
m
km

離散コサイン変換(DCT)
 基底ベクトルと基底画像(8点DCT)
0 2 4 6 8
-0.5
0
0.5
p0
0 2 4 6 8
-0.5
0
0.5
p2
0 2 4 6 8
-0.5
0
0.5
p4
0 2 4 6 8
-0.5
0
0.5
p6
0 2 4 6 8
-0.5
0
0.5
p1
0 2 4 6 8
-0.5
0
0.5
p3
0 2 4 6 8
-0.5
0
0.5
p5
0 2 4 6 8
-0.5
0
0.5
p7
離散コサイン変換(DCT)
 画像の離散コサイン変換
サイズ8×8のブロック処理例
JPEGの概要
 ベースライン方式の符号化手順
RGB→YUV
ブロック化
2D-DCT
量子化
可逆
DPCM
ジグザグ
スキャン
ハフマン符号化
二次元
ハフマン符号化
多重化
DC
AC
前処理 変換符号化 エントロピー符号化 ビット列生成
量子化テーブル ハフマンテーブル
入
力 出
力
符
号
 正方行列(DCTなど)の問題点
ブロックノイズ モスキートノイズ
離散コサイン変換(DCT)
変換係数を棄却・量子化したときの問題
より一般的な𝑀等分割最大間引き
フィルタバンク(一次元)
+
入力
出力
分析器 合成器
𝑦0
𝑦1
↓𝑀
↓𝑀
↓𝑀
・
・
・
・
・
・
・
・
・
𝑦 𝑀−1
・
・
・
+
↑𝑀
↑𝑀
↑𝑀
・
・
・
𝐹0 𝑧
𝐹1 𝑧
𝐹 𝑀−1 𝑧
𝐻0 𝑧
𝐻1 𝑧
𝐻 𝑀−1 𝑧
インパルス応答の長さは𝑀点を超えてもよい
4タップ2等分割最大間引き
フィルタバンク
 30h
 10h
 00h
 20h
2
 31h
 11h
 01h
 21h
 00f
 01f
 20f
 30f
 10f
 21f
 31f
 11f
2
2
2 2
2
2
2
     
     
     
     

135
024
113
202
xxx
xxx
xxx
xxx


      012 xxx
     
     

101
101
111
000


yyy
yyy
2x4行列演算 4x2行列演算  
 1
1
3
2


u
u

 
 
 
 0
0
0
0
3
2
1
0
u
u
u
u
 
 

1
1
1
0
u
u
      012 xxx


重複保持 重複加算
 
 
 
 3
2
1
0
x
x
x
x


1
z
1
z
1
z
1
z
1
z
1
z
隣の隣の隣まで計算
重複ブロック変換のイメージ
 重複ブロック処理手順
 nx  nxˆ
P
P
P
Q
Q
Q
重複ブロック処理の例
(一次元,4タップ2分割)
𝑧−1
+
入力
出力
分析器 合成器
↓2
𝑦0
𝑦1
𝑢0
𝑢1
完全再構成は可能か?
↓2
↓2
𝑧−1
𝑢3
𝑧−1
↑2
↑2
↑2
𝑥0
𝑥1
𝑥3
𝑧−1
↓2
𝑥2
𝐏 𝐐 𝑧−1
+
↑2 +
𝑧−1
𝑢2
2x4行列演算 4x2行列演算
重複ブロック処理の例
(一次元,4タップ2分割)
𝑧−1
入力
分析器 合成器
↓2
𝑦0
𝑦1
↓2
↓2
𝑧−1
𝑥0
𝑥1
𝑥3
𝑧−1
↓2
𝑥2
𝐄0
𝐄1
+
出力
𝑢0
𝑢1
𝑢3
𝑧−1
↑2
↑2
↑2
𝑧−1
+
↑2 +
𝑧−1
𝑢2
𝑹0
𝐑1
+
+
𝐏 = 𝐄0 𝐄1 𝐐 =
𝑹1
𝐑0
2x4行列演算 4x2行列演算
重複ブロック処理の例
(一次元,4タップ2分割)
𝑧−1
入力
↓2
𝑧−1
𝑥0
𝑥1
𝑧−1
↓2
𝐄0
𝐄1
+
出力
𝑥0
𝑥1
𝑧−1
↑2
↑2
𝑧−1
𝑧−1
𝑹0
𝐑1
𝑦0
𝑦1
+
+
+
+
分析器 合成器
2x2行列演算 2x2行列演算
重複ブロック処理の例
(一次元,4タップ2分割)
𝑧−1
入力
↓2
𝑥0
𝑥1
↓2
E 𝑧
=𝐄0+𝐄1 𝑧−1
+
出力
𝑥0
𝑥1
𝑧−1
↑2
↑2
R 𝑧
=𝐑0+𝐑1 𝑧−1
𝑦0
𝑦1
分析器 合成器
2x2行列演算 2x2行列演算
記憶をもった行列演算となっている
𝐑 𝑧 𝐄 𝑧 = 𝐑0+𝐑1 𝑧−1
𝐄0+𝐄1 𝑧−1
= 𝑧−𝑁
𝐈完全再構成条件:
4タップ2分割フィルタバンクの例
 2次Daubechies直交フィルタバンク(DB2)
1 1.5 2 2.5 3 3.5 4
-0.2
0
0.2
0.4
0.6
0.8
1
1.2
Reconstruction low-pass filter
1 1.5 2 2.5 3 3.5 4
-0.5
0
0.5
1
Reconstruction high-pass filter
The synthesis filters for db2
基底ベクトル
P =
0.4830 0.8365 0.2241 -0.1294
-0.1294 -0.2241 0.8365 -0.4830
Q =
0.4830 -0.1294
0.8365 -0.2241
0.2241 0.8365
-0.1294 -0.4830
𝑀 × 𝑀行列重複ブロック変換処理
(一次元)
𝑧−1
+
入力
出力
分析器 合成器
↓𝑀
𝐑(𝑧)
𝑦0
𝑦1
𝑥0
𝑥1
完全再構成条件:𝐑 𝑧 𝐄 𝑧 =𝑧−𝑁 𝐈
↓𝑀
↓𝑀
・
・
・
𝑧−1
・
・
・ ・
・
・
𝑥 𝑀−1
𝑦 𝑀−1
𝑧−1
𝑧−1
・
・
・
↑𝑀
↑𝑀
↑𝑀
・
・
・
𝐄(𝑧)
𝑥0
𝑥1
𝑥 𝑀−1
+
重複直交変換(LOT/GenLOT)
 16タップ8等分割LOT
0 5 10 15
-0.5
0
0.5
n (samples)
振幅
Impulse 応答
0 5 10 15
-0.5
0
0.5
n (samples)
振幅
Impulse 応答
0 5 10 15
-0.5
0
0.5
n (samples)
振幅
Impulse 応答
0 5 10 15
-0.5
0
0.5
n (samples)
振幅
Impulse 応答
0 5 10 15
-0.5
0
0.5
n (samples)
振幅
Impulse 応答
0 5 10 15
-0.5
0
0.5
n (samples)
振幅
Impulse 応答
0 5 10 15
-0.5
0
0.5
n (samples)
振幅
Impulse 応答
0 5 10 15
-0.5
0
0.5
n (samples)
振幅
Impulse 応答
基底ベクトル 基底画像
離散ウェーブレット変換(DWT)
 ツリー構成(不等分割最大間引きフィルタバンク)
 
   
   
 42
1
21
0
0
0 zHzHzH
 
 zH 0
1
 
 zF 0
1
8
8
2
8
8
2
 
   
 21
1
0
0 zHzH 4 4
 
   
   
 42
0
21
0
0
0 zHzHzH
 
   
   
 zFzFzF 0
0
21
0
42
1
 
   
 zFzF 0
0
21
1
 
   
   
 zFzFzF 0
0
21
0
42
0
等価
 
 zH 0
0
 
 zH 0
1
2
2
 
 zH 1
0
 
 zH 1
1
2
2
 
 zH 2
0
 
 zH 2
1
2
2
 
 zF 0
0
 
 zF 0
1
2
2
 
 zF 1
0
 
 zF 1
1
2
2
 
 zF 2
0
 
 zF 2
1
2
2
DCTとDWTの比較
 多重解像度解析
DCT(JPEGなど) DWT(JPEG2000など)
垂直周波数
水平周波数
低
低
高
高
DCTとDWTの比較
 DWTがノイズに強い理由
周
波
数
低
高
DCT ウェーブレット(DWT)
周波数に応じて
ブロックサイズが異なる
ブロックサイズが
互いに重複している
耐ブロックノイズ
耐モスキートノイズ
JPEG(約16kB)
JPEG2000(約16kB)
多次元信号処理の基礎と応用
非分離
自由度
大
簡便性大 小
小
可分離
可分離では直交性、対称性、重複性を同時に満たす2x2等分割は存在しない
可分離システムでは斜め方向の指向性は可分離では実現できない
LOT DirLOT
フーリエ解析の復習
 信号は(複素)正弦波の足し合わせ
 tx
t
t
t
t
t
どの様な正弦波で構成されているか?
 jX

MAX
(複素)正弦波の周波数分布
最大角周波数
周波数スペクトル
 標本化(連続時間)
一次元標本化とスペクトル
t
 tx txT
t t
= ×
 



n
nTt
TT
t t
 jXT

 jX 標本化  
T
jX 
0 tt
:大T
エイリアジング
 標本化(連続時空間)
二次元標本化とスペクトル
1
0
 10 , jΩjΩXV
0
2


1
2


スペクトルは周期的となる
1
0
 10 , jΩjΩX
0
2


1
2


寛容な多次元標本化
 ΩjX
0
2
P

1
2
P

1
0
2
P

1
2
P

1
0
 ΩU jX
0
標本化前 標本化後







1
0
0
0
P
P
V













1
0
2
0
0
2
P
P


U
各次元独立に標本化定理を
適用してはならない!
単純な
直交標本化
エッジ画像のスペクトル例
画像
振幅特性
フィルタリングには周波数サポートの考慮が欠かせない
局所的方向に適した基底画像の必要性がいえる
0P

1P

可分離システムと非分離システム
↑2×1+
↑1×2 𝐹0 𝑧x
↑1×2 𝐹1 𝑧x
↑1×2 𝐹0 𝑧x
↑1×2 𝐹1 𝑧x
+ ↑2×1
𝐹0 𝑧y
𝐹1 𝑧 𝑦
+
+
↑2×2 𝐹0 𝑧y, 𝑧x
↑2×2 𝐹1 𝑧y, 𝑧x
↑2×2 𝐹0 𝑧y, 𝑧x
↑2×2 𝐹1 𝑧y, 𝑧x
+
+非分離
可分離
直接2x2分割を行う
指向性非分離変換
 非分離指向性フィルタの導入
水平
DCT
垂直
DCT
垂直
DCT
垂直
DCT
垂直
DCT
垂直
IDCT
垂直
IDCT
垂直
IDCT
垂直
IDCT
水平
IDCT
帯域形状
水平
垂直
変換
水平
垂直
逆変換
帯域形状
可分離基底
非分離基底
非分離/指向性GenLOT
入力
出力
分析器 合成器
↓𝐌
𝐑(𝑧y, 𝑧x)
𝑦0
𝑦1
𝑥0
𝑥1
完全再構成条件:𝐑 𝑧y, 𝑧x 𝐄 𝑧y, 𝑧x =𝐳−𝐍
𝐈
↓𝐌
↓𝐌
・
・
・
・
・
・
𝑥 𝑀−1
𝑦 𝑀−1
↑𝐌
↑𝐌
↑𝐌
・
・
・
𝐄(𝑧y, 𝑧x)
𝑥0
𝑥1
𝑥 𝑀−1
ノイズ除去応用
 ウェーブレット縮退法
分析 合成
: :
縮退入力 出力
原画像 ノイズ画像 可分離DWT 指向性ODWT
冗長系とスパース表現
 アトムと辞書
合成
:
出力
原画像 ノイズ画像 可分離DWT 指向性DWT
合成
:
合成
:
画像処理のための冗長系の例
 無指向性変換の例
非間引き(シフト不変)ハール変換/DCT
 指向性変換の例
Curvelet
非間引きContorlet(NSCT)
混成DirLOT
まとめ
 一次元信号の分析と合成
 画像変換の基礎
 重複変換とウェーブレット変換
 非分離変換処理
 応用と今後の発展
冗長系
局所的適応制御

More Related Content

What's hot

全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!TransformerArithmer Inc.
 
深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点Taiji Suzuki
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門Kawamoto_Kazuhiko
 
音響メディア信号処理における独立成分分析の発展と応用, History of independent component analysis for sou...
音響メディア信号処理における独立成分分析の発展と応用, History of independent component analysis for sou...音響メディア信号処理における独立成分分析の発展と応用, History of independent component analysis for sou...
音響メディア信号処理における独立成分分析の発展と応用, History of independent component analysis for sou...Daichi Kitamura
 
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)Morpho, Inc.
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)Takao Yamanaka
 
[DL輪読会]Wavenet a generative model for raw audio
[DL輪読会]Wavenet a generative model for raw audio[DL輪読会]Wavenet a generative model for raw audio
[DL輪読会]Wavenet a generative model for raw audioDeep Learning JP
 
機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化gree_tech
 
Transformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてTransformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてSho Takase
 
音情報処理における特徴表現
音情報処理における特徴表現音情報処理における特徴表現
音情報処理における特徴表現NU_I_TODALAB
 
NLPにおけるAttention~Seq2Seq から BERTまで~
NLPにおけるAttention~Seq2Seq から BERTまで~NLPにおけるAttention~Seq2Seq から BERTまで~
NLPにおけるAttention~Seq2Seq から BERTまで~Takuya Ono
 
やさしく音声分析法を学ぶ: ケプストラム分析とLPC分析
やさしく音声分析法を学ぶ: ケプストラム分析とLPC分析やさしく音声分析法を学ぶ: ケプストラム分析とLPC分析
やさしく音声分析法を学ぶ: ケプストラム分析とLPC分析Shinnosuke Takamichi
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門tmtm otm
 
猫でも分かりたい線形回帰の自由度
猫でも分かりたい線形回帰の自由度猫でも分かりたい線形回帰の自由度
猫でも分かりたい線形回帰の自由度YukinoriKambe
 
Sequence Level Training with Recurrent Neural Networks (関東CV勉強会 強化学習論文読み会)
Sequence Level Training with Recurrent Neural Networks (関東CV勉強会 強化学習論文読み会)Sequence Level Training with Recurrent Neural Networks (関東CV勉強会 強化学習論文読み会)
Sequence Level Training with Recurrent Neural Networks (関東CV勉強会 強化学習論文読み会)Yoshitaka Ushiku
 
Deep Learningと画像認識   ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識   ~歴史・理論・実践~nlab_utokyo
 
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習SSII
 
機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論Taiji Suzuki
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAGIRobots
 

What's hot (20)

全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
 
音響メディア信号処理における独立成分分析の発展と応用, History of independent component analysis for sou...
音響メディア信号処理における独立成分分析の発展と応用, History of independent component analysis for sou...音響メディア信号処理における独立成分分析の発展と応用, History of independent component analysis for sou...
音響メディア信号処理における独立成分分析の発展と応用, History of independent component analysis for sou...
 
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
 
coordinate descent 法について
coordinate descent 法についてcoordinate descent 法について
coordinate descent 法について
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
 
[DL輪読会]Wavenet a generative model for raw audio
[DL輪読会]Wavenet a generative model for raw audio[DL輪読会]Wavenet a generative model for raw audio
[DL輪読会]Wavenet a generative model for raw audio
 
機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化
 
Transformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてTransformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法について
 
音情報処理における特徴表現
音情報処理における特徴表現音情報処理における特徴表現
音情報処理における特徴表現
 
NLPにおけるAttention~Seq2Seq から BERTまで~
NLPにおけるAttention~Seq2Seq から BERTまで~NLPにおけるAttention~Seq2Seq から BERTまで~
NLPにおけるAttention~Seq2Seq から BERTまで~
 
やさしく音声分析法を学ぶ: ケプストラム分析とLPC分析
やさしく音声分析法を学ぶ: ケプストラム分析とLPC分析やさしく音声分析法を学ぶ: ケプストラム分析とLPC分析
やさしく音声分析法を学ぶ: ケプストラム分析とLPC分析
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
 
猫でも分かりたい線形回帰の自由度
猫でも分かりたい線形回帰の自由度猫でも分かりたい線形回帰の自由度
猫でも分かりたい線形回帰の自由度
 
Sequence Level Training with Recurrent Neural Networks (関東CV勉強会 強化学習論文読み会)
Sequence Level Training with Recurrent Neural Networks (関東CV勉強会 強化学習論文読み会)Sequence Level Training with Recurrent Neural Networks (関東CV勉強会 強化学習論文読み会)
Sequence Level Training with Recurrent Neural Networks (関東CV勉強会 強化学習論文読み会)
 
Deep Learningと画像認識   ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識   ~歴史・理論・実践~
 
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
 
機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
 

Similar to 多次元信号処理の基礎と画像処理のための二次元変換技術

2021年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2021. 11. 26)
2021年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2021. 11. 26)2021年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2021. 11. 26)
2021年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2021. 11. 26)Akira Asano
 
NN, CNN, and Image Analysis
NN, CNN, and Image AnalysisNN, CNN, and Image Analysis
NN, CNN, and Image AnalysisYuki Shimada
 
2020年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2020. 11. 20)
2020年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2020. 11. 20)2020年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2020. 11. 20)
2020年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2020. 11. 20)Akira Asano
 
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...Akihiro Nitta
 
2022年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2022. 11. 25)
2022年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2022. 11. 25) 2022年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2022. 11. 25)
2022年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2022. 11. 25) Akira Asano
 
2021年度秋学期 画像情報処理 第6回 ベクトルと行列について (2021. 10. 29)
2021年度秋学期 画像情報処理 第6回 ベクトルと行列について (2021. 10. 29)2021年度秋学期 画像情報処理 第6回 ベクトルと行列について (2021. 10. 29)
2021年度秋学期 画像情報処理 第6回 ベクトルと行列について (2021. 10. 29)Akira Asano
 
2020年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2020. 11. 6)
2020年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2020. 11. 6)2020年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2020. 11. 6)
2020年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2020. 11. 6)Akira Asano
 
2018年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2018. 11. 30)
2018年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2018. 11. 30)2018年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2018. 11. 30)
2018年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2018. 11. 30)Akira Asano
 
ロボット家電と制御 Domestic robotics: mechanisms and control
ロボット家電と制御 Domestic robotics: mechanisms and controlロボット家電と制御 Domestic robotics: mechanisms and control
ロボット家電と制御 Domestic robotics: mechanisms and controlYoichi Yamazaki
 
2022年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2022. 11. 11)
2022年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2022. 11. 11) 2022年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2022. 11. 11)
2022年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2022. 11. 11) Akira Asano
 
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1hirokazutanaka
 
20170408cvsaisentan6 2 4.3-4.5
20170408cvsaisentan6 2 4.3-4.520170408cvsaisentan6 2 4.3-4.5
20170408cvsaisentan6 2 4.3-4.5Takuya Minagawa
 
2022年度秋学期 画像情報処理 第6回 ベクトルと行列について(講義前配付用) (2022. 10. 28)
2022年度秋学期 画像情報処理 第6回 ベクトルと行列について(講義前配付用) (2022. 10. 28) 2022年度秋学期 画像情報処理 第6回 ベクトルと行列について(講義前配付用) (2022. 10. 28)
2022年度秋学期 画像情報処理 第6回 ベクトルと行列について(講義前配付用) (2022. 10. 28) Akira Asano
 
2021年度秋学期 画像情報処理 第6回 ベクトルと行列について (2021. 10. 29)
2021年度秋学期 画像情報処理 第6回 ベクトルと行列について (2021. 10. 29)2021年度秋学期 画像情報処理 第6回 ベクトルと行列について (2021. 10. 29)
2021年度秋学期 画像情報処理 第6回 ベクトルと行列について (2021. 10. 29)Akira Asano
 
2021年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2021. 11. 5)
2021年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2021. 11. 5)2021年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2021. 11. 5)
2021年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2021. 11. 5)Akira Asano
 
2020年度秋学期 画像情報処理 第6回 「行列」に慣れていない人のために (2020. 10. 30)
2020年度秋学期 画像情報処理 第6回 「行列」に慣れていない人のために (2020. 10. 30)2020年度秋学期 画像情報処理 第6回 「行列」に慣れていない人のために (2020. 10. 30)
2020年度秋学期 画像情報処理 第6回 「行列」に慣れていない人のために (2020. 10. 30)Akira Asano
 
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜Yuki Matsubara
 
Digital Image Processing Chapter 5 – Image Restoration and Reconstruction- Fr...
Digital Image Processing Chapter 5 – Image Restoration and Reconstruction- Fr...Digital Image Processing Chapter 5 – Image Restoration and Reconstruction- Fr...
Digital Image Processing Chapter 5 – Image Restoration and Reconstruction- Fr...Shunsuke KITADA
 

Similar to 多次元信号処理の基礎と画像処理のための二次元変換技術 (20)

2021年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2021. 11. 26)
2021年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2021. 11. 26)2021年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2021. 11. 26)
2021年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2021. 11. 26)
 
NN, CNN, and Image Analysis
NN, CNN, and Image AnalysisNN, CNN, and Image Analysis
NN, CNN, and Image Analysis
 
2020年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2020. 11. 20)
2020年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2020. 11. 20)2020年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2020. 11. 20)
2020年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2020. 11. 20)
 
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
 
2022年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2022. 11. 25)
2022年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2022. 11. 25) 2022年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2022. 11. 25)
2022年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2022. 11. 25)
 
Nn bp formula
Nn bp formulaNn bp formula
Nn bp formula
 
2021年度秋学期 画像情報処理 第6回 ベクトルと行列について (2021. 10. 29)
2021年度秋学期 画像情報処理 第6回 ベクトルと行列について (2021. 10. 29)2021年度秋学期 画像情報処理 第6回 ベクトルと行列について (2021. 10. 29)
2021年度秋学期 画像情報処理 第6回 ベクトルと行列について (2021. 10. 29)
 
2020年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2020. 11. 6)
2020年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2020. 11. 6)2020年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2020. 11. 6)
2020年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2020. 11. 6)
 
2018年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2018. 11. 30)
2018年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2018. 11. 30)2018年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2018. 11. 30)
2018年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2018. 11. 30)
 
ロボット家電と制御 Domestic robotics: mechanisms and control
ロボット家電と制御 Domestic robotics: mechanisms and controlロボット家電と制御 Domestic robotics: mechanisms and control
ロボット家電と制御 Domestic robotics: mechanisms and control
 
2022年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2022. 11. 11)
2022年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2022. 11. 11) 2022年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2022. 11. 11)
2022年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2022. 11. 11)
 
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
 
20170408cvsaisentan6 2 4.3-4.5
20170408cvsaisentan6 2 4.3-4.520170408cvsaisentan6 2 4.3-4.5
20170408cvsaisentan6 2 4.3-4.5
 
2022年度秋学期 画像情報処理 第6回 ベクトルと行列について(講義前配付用) (2022. 10. 28)
2022年度秋学期 画像情報処理 第6回 ベクトルと行列について(講義前配付用) (2022. 10. 28) 2022年度秋学期 画像情報処理 第6回 ベクトルと行列について(講義前配付用) (2022. 10. 28)
2022年度秋学期 画像情報処理 第6回 ベクトルと行列について(講義前配付用) (2022. 10. 28)
 
2021年度秋学期 画像情報処理 第6回 ベクトルと行列について (2021. 10. 29)
2021年度秋学期 画像情報処理 第6回 ベクトルと行列について (2021. 10. 29)2021年度秋学期 画像情報処理 第6回 ベクトルと行列について (2021. 10. 29)
2021年度秋学期 画像情報処理 第6回 ベクトルと行列について (2021. 10. 29)
 
C02
C02C02
C02
 
2021年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2021. 11. 5)
2021年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2021. 11. 5)2021年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2021. 11. 5)
2021年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2021. 11. 5)
 
2020年度秋学期 画像情報処理 第6回 「行列」に慣れていない人のために (2020. 10. 30)
2020年度秋学期 画像情報処理 第6回 「行列」に慣れていない人のために (2020. 10. 30)2020年度秋学期 画像情報処理 第6回 「行列」に慣れていない人のために (2020. 10. 30)
2020年度秋学期 画像情報処理 第6回 「行列」に慣れていない人のために (2020. 10. 30)
 
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜
 
Digital Image Processing Chapter 5 – Image Restoration and Reconstruction- Fr...
Digital Image Processing Chapter 5 – Image Restoration and Reconstruction- Fr...Digital Image Processing Chapter 5 – Image Restoration and Reconstruction- Fr...
Digital Image Processing Chapter 5 – Image Restoration and Reconstruction- Fr...
 

More from Shogo Muramatsu

伝統的工芸品の世界販売戦略を支援するためのバーチャルショウケース~テクスチャ・ツール~
伝統的工芸品の世界販売戦略を支援するためのバーチャルショウケース~テクスチャ・ツール~伝統的工芸品の世界販売戦略を支援するためのバーチャルショウケース~テクスチャ・ツール~
伝統的工芸品の世界販売戦略を支援するためのバーチャルショウケース~テクスチャ・ツール~Shogo Muramatsu
 
Image Restoration with Union of Directional Orthonormal DWTs
Image Restoration with Union of Directional Orthonormal DWTsImage Restoration with Union of Directional Orthonormal DWTs
Image Restoration with Union of Directional Orthonormal DWTsShogo Muramatsu
 
Design Method of Directional GenLOT with Trend Vanishing Moments
Design Method of Directional GenLOT with Trend Vanishing MomentsDesign Method of Directional GenLOT with Trend Vanishing Moments
Design Method of Directional GenLOT with Trend Vanishing MomentsShogo Muramatsu
 
Developing Video Signal Processing Algorithms for Embedded Vision Systems
Developing Video Signal Processing Algorithms for Embedded Vision SystemsDeveloping Video Signal Processing Algorithms for Embedded Vision Systems
Developing Video Signal Processing Algorithms for Embedded Vision SystemsShogo Muramatsu
 
非分離冗長重複変換の事例学習設計における効果的辞書更新
非分離冗長重複変換の事例学習設計における効果的辞書更新非分離冗長重複変換の事例学習設計における効果的辞書更新
非分離冗長重複変換の事例学習設計における効果的辞書更新Shogo Muramatsu
 
ボリュームデータスパース表現のための三次元非分離冗長重複変換
ボリュームデータスパース表現のための三次元非分離冗長重複変換ボリュームデータスパース表現のための三次元非分離冗長重複変換
ボリュームデータスパース表現のための三次元非分離冗長重複変換Shogo Muramatsu
 

More from Shogo Muramatsu (6)

伝統的工芸品の世界販売戦略を支援するためのバーチャルショウケース~テクスチャ・ツール~
伝統的工芸品の世界販売戦略を支援するためのバーチャルショウケース~テクスチャ・ツール~伝統的工芸品の世界販売戦略を支援するためのバーチャルショウケース~テクスチャ・ツール~
伝統的工芸品の世界販売戦略を支援するためのバーチャルショウケース~テクスチャ・ツール~
 
Image Restoration with Union of Directional Orthonormal DWTs
Image Restoration with Union of Directional Orthonormal DWTsImage Restoration with Union of Directional Orthonormal DWTs
Image Restoration with Union of Directional Orthonormal DWTs
 
Design Method of Directional GenLOT with Trend Vanishing Moments
Design Method of Directional GenLOT with Trend Vanishing MomentsDesign Method of Directional GenLOT with Trend Vanishing Moments
Design Method of Directional GenLOT with Trend Vanishing Moments
 
Developing Video Signal Processing Algorithms for Embedded Vision Systems
Developing Video Signal Processing Algorithms for Embedded Vision SystemsDeveloping Video Signal Processing Algorithms for Embedded Vision Systems
Developing Video Signal Processing Algorithms for Embedded Vision Systems
 
非分離冗長重複変換の事例学習設計における効果的辞書更新
非分離冗長重複変換の事例学習設計における効果的辞書更新非分離冗長重複変換の事例学習設計における効果的辞書更新
非分離冗長重複変換の事例学習設計における効果的辞書更新
 
ボリュームデータスパース表現のための三次元非分離冗長重複変換
ボリュームデータスパース表現のための三次元非分離冗長重複変換ボリュームデータスパース表現のための三次元非分離冗長重複変換
ボリュームデータスパース表現のための三次元非分離冗長重複変換
 

多次元信号処理の基礎と画像処理のための二次元変換技術