SlideShare a Scribd company logo
1 of 33
Download to read offline
PRML 上巻勉強会
第九回
4.3 - 4.5

Beenos株式会社(予定)
技術戦略室 室長
加藤寛之
目次
4.3. 確率的識別モデル
1.
2.
3.
4.
5.
6.

!
!
!

固定基底関数
ロジスティック回帰
反復再重み付け最小二乗
多クラスロジスティック回帰
プロビット回帰
正準連結関数


4.4. ラプラス近似
1. モデルの比較とBIC




4.5. ベイズロジスティック回帰
1. ラプラス近似
2. 予測分布
目次
4.3. 確率的識別モデル
1.
2.
3.
4.
5.
6.

!
!
!

固定基底関数
ロジスティック回帰
反復再重み付け最小二乗
多クラスロジスティック回帰
プロビット回帰
正準連結関数


4.4. ラプラス近似
1. モデルの比較とBIC




4.5. ベイズロジスティック回帰
1. ラプラス近似
2. 予測分布

後半はサックリと。
メインは4.3ですよ。
生成モデルと識別モデル(復習)
定義(p.42)等のおさらい
!

生成モデル : 出力/入力の分布をモデル化する
クラスの条件付き密度
と事前クラス確率
を求めて
ベイズの定理を使って事後確率
を求める。
解析的に解け(ることが多い)、データのサンプリングが可能
!

識別モデル : 事後確率
を直接モデル化する
入力パラメータが少なく、入力のモデル化も不要だが解析的に
解けないので反復再重み付け最小二乗(IRLS)等で解く。
目次
4.3. 確率的識別モデル
1. 固定基底関数
2. ロジスティック回帰
3. 反復再重み付け最小二乗
4. 多クラスロジスティック回帰
5. プロビット回帰
6. 正準連結関数


!
!
!

4.4. ラプラス近似
1. モデルの比較とBIC




4.5. ベイズロジスティック回帰
1. ラプラス近似
2. 予測分布
固定基底関数
これまでの議論では入力 を直接扱ってきたが、p136で
登場した基底関数
を使うと4章に出てきたアルゴリズムを
同じように適用できる(左: 元の入力空間、右: 特徴空間)。
!
!
!
!
!
!
!
固定基底関数
実際の問題だと下図のようにクラスの条件付き確率密度
が著しく重なり合っている(= 特定のクラスだと断定できない)。
事後確率をモデル化すれば最適解を求めることができる。
適切な非線形性(をもつ基底関数)を選択するとモデル化が楽。
!
!
!
!
!
!
※注意: 固定基底関数モデルにはp172の通り重要な限界がある。
後で基底関数をデータに適応させる手法が出てきます。
目次
4.3. 確率的識別モデル
1. 固定基底関数
2. ロジスティック回帰
3. 反復再重み付け最小二乗
4. 多クラスロジスティック回帰
5. プロビット回帰
6. 正準連結関数


!
!
!

4.4. ラプラス近似
1. モデルの比較とBIC




4.5. ベイズロジスティック回帰
1. ラプラス近似
2. 予測分布
ロジスティック回帰
一般化線形モデルのクラス

の事後確率 :

※2クラス分類のとき。4.2節(p195∼197)の議論を参照

=> ロジスティック回帰
!

は右のように定義され、その微分は
を使って右のように書ける。
!

特徴空間 がM次元の場合のパラメータ数の違い
!
- 生成パターン(クラスの条件付き確率密度 + 最尤法)=>
- 識別パターンの場合(ロジスティック回帰)=>
!
という訳で、特徴空間の次元数が大きい場合にはロジスティック回帰のほうがbetter

※生成パターンについてはp200を参照?
交差エントロピー誤差関数
前提条件 { n , tn },
!
このときの尤度関数 :
!

tn 2 {0, 1},

n

= (xn ), 1  n  N
t = (t1 , .., tN )T , yn = P (C1 |

※p66,67の議論と似てます。参考までに。

!
これまで通り負の対数尤度から誤関数を定義すると、
N
!
X
{tn ln yn + (1 tn ) ln (1 yn )}
!E(w) = ln p(t|w) =
n=1
!
=> 交差エントロピー誤差関数
!
これまで通り尤度関数について、微分して0(勾配が0)のときを考えたいので
N
X
rE(w) =
(yn tn ) n
n=1

n)
rE(w) に関する考察
N
X

rE(w) =
(yn tn ) n
!
n=1
!
・(nの目的値
と予測値
の誤差)x(基底関数ベクトル
)
=> 基底関数を固定して考えた場合、誤差が小さい程データnは誤差関数の勾配に
影響を与えない。
!
T
= 0, |w| = 1 となるが、これは過学習の結果。

・最尤解は = 0.5 、つまり w
(各クラスkのすべての学習データが
に割り当てられる)
これは従来までの議論のように、誤差関数に正則化項を追加することで解決可能。
(p9, p142「正則化最小二乗法」等を参照)
!
!
@二番目について次ページで補足
最尤法が過学習を起こす補足
w
!
!

T

= 0 なので、y = (w

T

1
1
) = (0) =
=
1 + exp( 0)
2

つまり、このモデルは全ての入力に対して
0.5という値を返す残念なものになる(上図)。
!
特徴空間上だと、下図のような
ヘヴィサイドステップ関数になるので
全ての p(Ck |x)に対して p(Ck |x) = 1
となってしまう(下図)。

!
=> 全くモデルとして機能していない。。
目次
4.3. 確率的識別モデル
1. 固定基底関数
2. ロジスティック回帰
3. 反復再重み付け最小二乗
4. 多クラスロジスティック回帰
5. プロビット回帰
6. 正準連結関数


!
!
!

4.4. ラプラス近似
1. モデルの比較とBIC




4.5. ベイズロジスティック回帰
1. ラプラス近似
2. 予測分布
反復再重み付け最小二乗
誤差関数
の最小解を求めたいが、解析的には求めることができないとき。
=> ニュートン・ラフソン法(所謂ニュートン法)を使って数値的に求める。
2 @E
3
!
@E
· · · @w1 @wM
@w1 @w1
!
7
6
.
.
..
.
.
w(new) = w(old) H 1 rE(w), H = 4
5
.
.
.
!
@E
@E
· · · @wM @wM
@wM @w1
!
【ケース1】p139(3.1)の二乗和誤差関数で試してみる。
N
1X
誤差関数 ED (w) =
{tn wT (xn )}2 について
2 n=1
!
N
N
X
X
T
T
T
rE(w) =
(wT n tn ) n = T w
t, H = rrE(w) =
n n =
!
n=1

n=1

!
これを更新式に当てはめると、p139の(3.15)と同じ結果が得られる。
(反復回数 = 1回と見ることができる)
w(new) = w(old)
= w(old)
=(

T

1

H
(
)

T

1

T

rE(w)
)

t

1

T

w(old)

T

t
反復再重み付け最小二乗
【ケース2】交差エントロピー誤差関数に適用してみる。
!
N
X
{tn ln yn + (1 tn ) ln (1 yn )} について
誤差関数 E(w) =

n=1
!
N
N
X
X
! rE(w) =
(yn tn ) n = T (y t), H = rrE(w) =
yn (yn tn ) n T = T R
n
n=1
n=1
!
但し、 は Rnn = yn (1 yn ) を対角要素とする対角行列。
R
yn = (wT n ) なので、ヘッセ行列もwに依存している(= 誤差関数が2次でない)。
ヘッセ行列が正定値行列なので誤差関数は凸関数となり、唯一の最小解を持つ。
!
上式を更新式に当てはめると w(new) = w(old) H 1 rE(w)
!
= w(old) ( T R ) 1 T (y t)
!
T
= ( T R ) 1 T R w(old)
(y t)
!
= ( T R ) 1 T Rz
!
(old)
R 1 (y t)
但し、z = w
R と z に対する考察
ここで、tに関する平均 E[t]と分散 var[t]は以下の式で与えられる。
!
E[t] = (x) = y
!
2
2
2

var[t] = E[t ]

E[t] = (x)

(x) = y(1

!
従って、重み付け対角行列 R の要素 = 分散
!
また、z は w (old) の周りで局所線形近似して得られる
空間上の目的変数値と解釈できる。
dan
!
(old)
an (w) ' an (w
)+
|w(old) (tn
dyn
(yn tn )
T (old)
= nw
yn (1 yn )
= zn

yn )

y)
目次
4.3. 確率的識別モデル
1. 固定基底関数
2. ロジスティック回帰
3. 反復再重み付け最小二乗
4. 多クラスロジスティック回帰
5. プロビット回帰
6. 正準連結関数


!
!
!

4.4. ラプラス近似
1. モデルの比較とBIC




4.5. ベイズロジスティック回帰
1. ラプラス近似
2. 予測分布
多クラスロジスティック回帰
これまでの議論を多クラス分類へ拡張する。p196からkクラスの事後確率 p(Ck | ) は
!
exp(ak )
T
p(Ck | ) = yk ( ) = P
, a k = wk
( ak は活性)
exp(aj )
j

!
ここから最尤法を用いて、直接パラメータ {wk } を決定する。
1-of-K符号化法( tnk : k番目の要素が1で、それ以外は0)を使えば、尤度関数は
3
2
t11 · · · t1k
!
N K
N K
YY
YY t
6 .
. 7
..
nk
. 5
p(T |w1 , ..., wK ) =
p(Ck | n )tnk =
ynk , ynk = yk ( n ), T = 4 .
!
.
.
.
n=1 k=1
n=1 k=1
tn1 · · · tnk
!
この式の負の対数を取れば、誤差関数 E(w1 , · · · , wK ) を得る。
N K
XX
!
E(w1 , · · · , wK ) = ln p(T |w1 , · · · , wK ) =
tnk ln ynk
!
n=1 k=1
!
2クラスの場合と同様に、これを多クラス分類問題に対する交差エントロピー誤差関数
という。
多クラスロジスティック回帰
E
2クラスの時と同じように、 の勾配を計算すると
!
N
X
rwj E(w1 , · · · , wK ) =
(ynj
!

tnj )

n

n=1
!
(目的値 tnk と予測値 ynk の誤差)x(基底関数ベクトル n )の形が再び登場。
!
反復重み付け最小二乗法で利用するヘッセ行列 H は以下のように計算できる。
!
N
X
H = rwk rwj E(w1 , · · · , wK ) =
ynk (Ikj ynj ) n T
!
n
n=1
!
2クラス問題の時と同様、これも正定値行列なので誤差関数は唯一の最小解を持つ。
(演習4.15, 演習4.20)
目次
4.3. 確率的識別モデル
1. 固定基底関数
2. ロジスティック回帰
3. 反復再重み付け最小二乗
4. 多クラスロジスティック回帰
5. プロビット回帰
6. 正準連結関数


!
!
!

4.4. ラプラス近似
1. モデルの比較とBIC




4.5. ベイズロジスティック回帰
1. ラプラス近似
2. 予測分布
プロビット回帰
クラスの条件付き確率密度の事後確率が簡単な形式にならない場合を考慮し、
別のタイプの識別確率モデルを考える。
f (·) : 活性化関数
p(t = 1|a) = f (a), a = wT

!
!
雑音閾値モデル
T
各入力 n に対して an = w n を評価し、
右の式に従って目的変数値 tnを設定する。
✓ の値がある確率密度 p(✓)で与えられる場合の活性化関数は以下の式で書ける。
Z a
!
f (a) =
p(✓)d✓
!
1
!
✓ が平均 = 0、分散 = 1のガウス分布で与えられるとき
Z a
!
(a) =
N (✓|0, 1)d✓ => プロビット関数の逆関数
1
プロビット回帰
!
プロビット関数の逆関数はロジスティックシグモイド関数
と似てる(右図参照)。
!
erf関数(誤差関数)
Z a
!
2
erf (a) = p
exp( ✓2 )d✓ で定義され、プロビット関数の逆関数と
⇡ 0
!
1
a
(a) =
1 + erf p
の関係がある。
2
2
!
プロビット活性化関数に基づく一般化線形モデルはプロビット回帰と呼ばれる。
ロジスティックモデルと同様、最尤法を使ってパラメータを決定できるが、
ロジスティックモデルよりも外れ値に対して敏感。
プロビット回帰
外れ値がある場合を考慮すると…
!
目的変数値 t を確率 ✏ で誤ったラベル付けがされると仮定。
(x) を入力 x での活性化関数とすると、確率分布 p(t|x) は以下のように計算できる
目次
4.3. 確率的識別モデル
1. 固定基底関数
2. ロジスティック回帰
3. 反復再重み付け最小二乗
4. 多クラスロジスティック回帰
5. プロビット回帰
6. 正準連結関数


!
!
!

4.4. ラプラス近似
1. モデルの比較とBIC




4.5. ベイズロジスティック回帰
1. ラプラス近似
2. 予測分布
正準連結関数
これまで出てきた3つのモデルについて、誤差関数 E(w)について
そのパラメータ wに対する誤差関数の微分を並べてみる。
!
N
ガウス分布する雑音を持つ線形回帰モデル
!
!
       ロジスティック回帰モデル
!
!
   多クラスロジスティック回帰モデル

rE(w) =

rE(w) =

X

n=1
N
X

{tn

(yn

yn } (xn )T

tn )

n

n=1

rwj E(w1 , · · · , wK ) =

N
X

(ynj

tnj )

n=1
!
!
すべて目的値と予測値の「誤差」に、基底関数を掛けあわせた形になっている!
!
正準連結関数として知られている関数を活性化関数に選び、指数分布族の中から
目的変数に対する条件付き確率分布を選択するため(次ページで解説)。

n
正準連結関数
目的変数 t の分布が指数型分布族だと仮定して、p201(4.84)の指数型分布族の制限形
式を利用すると t の条件付き確率分布は、以下の式になる。
!
1 t
⌘t

p(t|⌘, s) = h
g(⌘) exp
!
s s
s
!
d
ln g(⌘) が得られる。
p113(2.226)と同様の計算をすれば y ⌘ E[t|⌘] = s
d⌘
y と ⌘ の関係を ⌘ = (y) とする。
この
T
また、一般化線形モデルを y = f (w ) と定義する。
!
N
N
X
X
⌘ n tn
ln p(tn |⌘, s) =
+C
ln g(⌘n ) +
p(t|⌘, s) の対数尤度関数は ln p(t|⌘, s) =
s
n=1
n=1
!
T
上記式をパラメータ w について微分すると an = w n とおけば
r ln p(t|⌘, s) =

N
X

n=1

d
tn d⌘n dyn
ln g(⌘n ) +
ran
d⌘n
s dyn dan

N
X1
=
{tn
s
n=1

yn } 0 (yn )f 0 (an )

n
正準連結関数
1
前ページの式を簡略化するために f (y) = (y) を定義すると、以下の式が成り立つ
!
f ( (y)) = y, f 0 ( ) 0 (y) = 1, a = f 1 (y) ! a = , f 0 (a) 0 (y) = 1
!

!
これを用いれば、次式のようになる。
N
!
1X
rE(w) =
{yn
s n=1
!

tn }

n

!
1
ガウス分布の場合は s =
、ロジスティックモデルの場合は s = 1 を代入すれば
2ページ前の式と等しくなる。
目次
4.3. 確率的識別モデル
1.
2.
3.
4.
5.
6.

!
!
!

固定基底関数
ロジスティック回帰
反復再重み付け最小二乗
多クラスロジスティック回帰
プロビット回帰
正準連結関数


4.4. ラプラス近似
1. モデルの比較とBIC




4.5. ベイズロジスティック回帰
1. ラプラス近似
2. 予測分布
ラプラス近似
確率分布が複雑(パラメータ wで積分できない)なときに、連続変数の集合上に定義
される確率密度分布に対しガウス分布による近似を見つける手法の一つ。
!
Z
1
Z
まず、p(z) = f (z) で定義される分布を仮定する。但し、 = f (z)dz は正規化係数
Z
!
p(z) のモードを中心とするガウス分布による近似を見つけるのが目的。
!
df (z)
=> dz z=z0 = 0 となる z0 を見つける。z0 を中心とした ln f (z)のテイラー展開は
!
1
d2
2
ln f (z) ' ln f (z0 )
A(z z0 ) , A =
ln f (z) z=z0
2
2
dz
!
A
f (z) ' f (z0 ) exp
(z z0 )2 となるので、正規化分布 q(z) は
両辺の指数を取ると
2

!

A
q(z) =
2⇡

1
2

exp

A
(z
2

z0 )

2
ラプラス近似
前ページの内容を多次元に拡張(M次元空間z上で分布pを定義)すると
!
|A|1/2
1
p(z) = f (z)/Z に対して q(z) =
exp
(z z0 )T A(z z0 ) = N (z|z0 , A 1 ) を得る
2
(2⇡)M/2

!
正規化係数Zの近似も、以下の形で求められる。
Z=

Z

f (z)dz
Z
' f (z0 ) exp

(2⇡)M/2
= f (z0 )
|A|1/2

1
(z
2

z0 )T A(z

z0 ) dz
目次
4.3. 確率的識別モデル
1.
2.
3.
4.
5.
6.

!
!
!

固定基底関数
ロジスティック回帰
反復再重み付け最小二乗
多クラスロジスティック回帰
プロビット回帰
正準連結関数


4.4. ラプラス近似
1. モデルの比較とBIC




4.5. ベイズロジスティック回帰
1. ラプラス近似
2. 予測分布
力尽きました
演習問題4.13
E(w) =

N
X

tn ln yn + (1

rE(w) =
yn ) に対して、

tn ) ln(1

n=1

N
X

n=1

(yn

tn )

n

を示す。

!
d
w に依存する項は yn だけなので、 nを求める。 = (1
ry
) より、
パラメータ
da
!
dyn
d (wT n )
dwT n
= (1
)
= (1
) n = yn (1 yn ) n
!ryn = dw =
dw
dw
!
N
X
tn r ln yn + (1 tn )r ln(1 yn )
従って、 rE(w) =
n=1
!
N
X
⇤
⇥ d
⇤
⇥ d
!
=
ln yn ryn + (1 tn )
ln(1 yn ) r(1 yn )
tn
dyn
dyn
n=1
!
N
X
⇥
⇤
1
1
!
=
tn yn (1 yn ) n + (1 tn )
yn (1 yn ) n
yn
(1 yn )
n=1
!
N
X
!
=
tn (1 yn ) (1 tn )yn n
!
n=1
=

N
X

n=1

(yn

tn )

n

More Related Content

What's hot

PRML輪読#5
PRML輪読#5PRML輪読#5
PRML輪読#5matsuolab
 
PRML 2.3節 - ガウス分布
PRML 2.3節 - ガウス分布PRML 2.3節 - ガウス分布
PRML 2.3節 - ガウス分布Yuki Soma
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」Keisuke Sugawara
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)Yukara Ikemiya
 
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)Kota Mori
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)Yasunori Ozaki
 
PRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワーク
PRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワークPRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワーク
PRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワークKokiTakamiya
 
指数分布とポアソン分布のいけない関係
指数分布とポアソン分布のいけない関係指数分布とポアソン分布のいけない関係
指数分布とポアソン分布のいけない関係Nagi Teramo
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3matsuolab
 
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜Yuki Matsubara
 
PRML エビデンス近似 3.5 3.6.1
PRML エビデンス近似  3.5 3.6.1PRML エビデンス近似  3.5 3.6.1
PRML エビデンス近似 3.5 3.6.1tmtm otm
 
PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現hagino 3000
 

What's hot (20)

PRML輪読#5
PRML輪読#5PRML輪読#5
PRML輪読#5
 
PRML chapter5
PRML chapter5PRML chapter5
PRML chapter5
 
PRML 2.3節 - ガウス分布
PRML 2.3節 - ガウス分布PRML 2.3節 - ガウス分布
PRML 2.3節 - ガウス分布
 
PRML chapter7
PRML chapter7PRML chapter7
PRML chapter7
 
PRML Chapter 5
PRML Chapter 5PRML Chapter 5
PRML Chapter 5
 
PRML2.1 2.2
PRML2.1 2.2PRML2.1 2.2
PRML2.1 2.2
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)
 
PRML 5.3-5.4
PRML 5.3-5.4PRML 5.3-5.4
PRML 5.3-5.4
 
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
 
PRML4.3.3
PRML4.3.3PRML4.3.3
PRML4.3.3
 
Prml2.1 2.2,2.4-2.5
Prml2.1 2.2,2.4-2.5Prml2.1 2.2,2.4-2.5
Prml2.1 2.2,2.4-2.5
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
 
PRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワーク
PRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワークPRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワーク
PRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワーク
 
指数分布とポアソン分布のいけない関係
指数分布とポアソン分布のいけない関係指数分布とポアソン分布のいけない関係
指数分布とポアソン分布のいけない関係
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3
 
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜
 
PRML エビデンス近似 3.5 3.6.1
PRML エビデンス近似  3.5 3.6.1PRML エビデンス近似  3.5 3.6.1
PRML エビデンス近似 3.5 3.6.1
 
PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現
 
Prml 2.3
Prml 2.3Prml 2.3
Prml 2.3
 

Viewers also liked

ICLR読み会 奥村純 20170617
ICLR読み会 奥村純 20170617ICLR読み会 奥村純 20170617
ICLR読み会 奥村純 20170617Jun Okumura
 
Semi-Supervised Classification with Graph Convolutional Networks @ICLR2017読み会
Semi-Supervised Classification with Graph Convolutional Networks @ICLR2017読み会Semi-Supervised Classification with Graph Convolutional Networks @ICLR2017読み会
Semi-Supervised Classification with Graph Convolutional Networks @ICLR2017読み会Eiji Sekiya
 
[ICLR2017読み会 @ DeNA] ICLR2017紹介
[ICLR2017読み会 @ DeNA] ICLR2017紹介[ICLR2017読み会 @ DeNA] ICLR2017紹介
[ICLR2017読み会 @ DeNA] ICLR2017紹介Takeru Miyato
 
ICLR2017読み会 Data Noising as Smoothing in Neural Network Language Models @Dena
ICLR2017読み会 Data Noising as Smoothing in Neural Network Language Models @DenaICLR2017読み会 Data Noising as Smoothing in Neural Network Language Models @Dena
ICLR2017読み会 Data Noising as Smoothing in Neural Network Language Models @DenaTakanori Nakai
 
言葉のもつ広がりを、モデルの学習に活かそう -one-hot to distribution in language modeling-
言葉のもつ広がりを、モデルの学習に活かそう -one-hot to distribution in language modeling-言葉のもつ広がりを、モデルの学習に活かそう -one-hot to distribution in language modeling-
言葉のもつ広がりを、モデルの学習に活かそう -one-hot to distribution in language modeling-Takahiro Kubo
 

Viewers also liked (9)

Prml 4.3
Prml 4.3Prml 4.3
Prml 4.3
 
ICLR読み会 奥村純 20170617
ICLR読み会 奥村純 20170617ICLR読み会 奥村純 20170617
ICLR読み会 奥村純 20170617
 
Semi-Supervised Classification with Graph Convolutional Networks @ICLR2017読み会
Semi-Supervised Classification with Graph Convolutional Networks @ICLR2017読み会Semi-Supervised Classification with Graph Convolutional Networks @ICLR2017読み会
Semi-Supervised Classification with Graph Convolutional Networks @ICLR2017読み会
 
[ICLR2017読み会 @ DeNA] ICLR2017紹介
[ICLR2017読み会 @ DeNA] ICLR2017紹介[ICLR2017読み会 @ DeNA] ICLR2017紹介
[ICLR2017読み会 @ DeNA] ICLR2017紹介
 
医療データ解析界隈から見たICLR2017
医療データ解析界隈から見たICLR2017医療データ解析界隈から見たICLR2017
医療データ解析界隈から見たICLR2017
 
ICLR2017読み会 Data Noising as Smoothing in Neural Network Language Models @Dena
ICLR2017読み会 Data Noising as Smoothing in Neural Network Language Models @DenaICLR2017読み会 Data Noising as Smoothing in Neural Network Language Models @Dena
ICLR2017読み会 Data Noising as Smoothing in Neural Network Language Models @Dena
 
言葉のもつ広がりを、モデルの学習に活かそう -one-hot to distribution in language modeling-
言葉のもつ広がりを、モデルの学習に活かそう -one-hot to distribution in language modeling-言葉のもつ広がりを、モデルの学習に活かそう -one-hot to distribution in language modeling-
言葉のもつ広がりを、モデルの学習に活かそう -one-hot to distribution in language modeling-
 
170614 iclr reading-public
170614 iclr reading-public170614 iclr reading-public
170614 iclr reading-public
 
Q prop
Q propQ prop
Q prop
 

Similar to PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2

Rのoptim関数でロバスト回帰(LMSとLAV)
Rのoptim関数でロバスト回帰(LMSとLAV)Rのoptim関数でロバスト回帰(LMSとLAV)
Rのoptim関数でロバスト回帰(LMSとLAV)wada, kazumi
 
機械学習と深層学習の数理
機械学習と深層学習の数理機械学習と深層学習の数理
機械学習と深層学習の数理Ryo Nakamura
 
情報幾何の基礎輪読会 #1
情報幾何の基礎輪読会 #1情報幾何の基礎輪読会 #1
情報幾何の基礎輪読会 #1Tatsuki SHIMIZU
 
ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習ssuserf4860b
 
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...Akihiro Nitta
 
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1hirokazutanaka
 
2次元可解量子系のエンタングルメント特性
2次元可解量子系のエンタングルメント特性2次元可解量子系のエンタングルメント特性
2次元可解量子系のエンタングルメント特性Shu Tanaka
 
さくっと線形代数
さくっと線形代数さくっと線形代数
さくっと線形代数Kota Mori
 
第9回スキル養成講座講義資料
第9回スキル養成講座講義資料第9回スキル養成講座講義資料
第9回スキル養成講座講義資料keiodig
 
ディジタル信号処理 課題解説(その1) 2014年度版
ディジタル信号処理 課題解説(その1) 2014年度版ディジタル信号処理 課題解説(その1) 2014年度版
ディジタル信号処理 課題解説(その1) 2014年度版dsp_kyoto_2014
 
Deep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationDeep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationtakutori
 
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011Preferred Networks
 
Fourier analysis on symmetric group
Fourier analysis on symmetric groupFourier analysis on symmetric group
Fourier analysis on symmetric groupHanpenRobot
 

Similar to PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2 (20)

Rのoptim関数でロバスト回帰(LMSとLAV)
Rのoptim関数でロバスト回帰(LMSとLAV)Rのoptim関数でロバスト回帰(LMSとLAV)
Rのoptim関数でロバスト回帰(LMSとLAV)
 
PRML4.3
PRML4.3PRML4.3
PRML4.3
 
機械学習と深層学習の数理
機械学習と深層学習の数理機械学習と深層学習の数理
機械学習と深層学習の数理
 
情報幾何の基礎輪読会 #1
情報幾何の基礎輪読会 #1情報幾何の基礎輪読会 #1
情報幾何の基礎輪読会 #1
 
ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習
 
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
 
PRML セミナー
PRML セミナーPRML セミナー
PRML セミナー
 
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
 
2次元可解量子系のエンタングルメント特性
2次元可解量子系のエンタングルメント特性2次元可解量子系のエンタングルメント特性
2次元可解量子系のエンタングルメント特性
 
回帰
回帰回帰
回帰
 
さくっと線形代数
さくっと線形代数さくっと線形代数
さくっと線形代数
 
第9回スキル養成講座講義資料
第9回スキル養成講座講義資料第9回スキル養成講座講義資料
第9回スキル養成講座講義資料
 
Sparse models
Sparse modelsSparse models
Sparse models
 
ディジタル信号処理 課題解説(その1) 2014年度版
ディジタル信号処理 課題解説(その1) 2014年度版ディジタル信号処理 課題解説(その1) 2014年度版
ディジタル信号処理 課題解説(その1) 2014年度版
 
領域分割法
領域分割法領域分割法
領域分割法
 
Deep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationDeep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___information
 
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
 
Fourier analysis on symmetric group
Fourier analysis on symmetric groupFourier analysis on symmetric group
Fourier analysis on symmetric group
 
Prml9
Prml9Prml9
Prml9
 
Draftall
DraftallDraftall
Draftall
 

Recently uploaded

UniProject Workshop Make a Discord Bot with JavaScript
UniProject Workshop Make a Discord Bot with JavaScriptUniProject Workshop Make a Discord Bot with JavaScript
UniProject Workshop Make a Discord Bot with JavaScriptyuitoakatsukijp
 
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料Takayuki Itoh
 
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2Tokyo Institute of Technology
 
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学ssusere0a682
 
The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024koheioishi1
 
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学ssusere0a682
 
TokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentationTokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentationYukiTerazawa
 

Recently uploaded (7)

UniProject Workshop Make a Discord Bot with JavaScript
UniProject Workshop Make a Discord Bot with JavaScriptUniProject Workshop Make a Discord Bot with JavaScript
UniProject Workshop Make a Discord Bot with JavaScript
 
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
 
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
 
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
 
The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024
 
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
 
TokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentationTokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentation
 

PRML上巻勉強会 at 東京大学 資料 第4章4.3.1 〜 4.5.2