Submit Search
Upload
BRNNとは
•
1 like
•
3,597 views
S
Shannon Lab
Follow
最近流行の機械学習!! RNNを両方から学習させる仕組み
Read less
Read more
Software
Report
Share
Report
Share
1 of 12
Download now
Download to read offline
Recommended
深層強化学習入門 2020年度Deep Learning基礎講座「強化学習」
深層強化学習入門 2020年度Deep Learning基礎講座「強化学習」
Tatsuya Matsushima
Tokyo.R #46 Cox比例ハザードモデルとその周辺
Tokyo.R #46 Cox比例ハザードモデルとその周辺
kikurage1001
Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)
Yamato OKAMOTO
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
弘毅 露崎
深層ガウス過程とアクセントの潜在変数表現に基づく音声合成の検討
深層ガウス過程とアクセントの潜在変数表現に基づく音声合成の検討
Tomoki Koriyama
基底変換、固有値・固有ベクトル、そしてその先
基底変換、固有値・固有ベクトル、そしてその先
Taketo Sano
階層ベイズとWAIC
階層ベイズとWAIC
Hiroshi Shimizu
Sparse estimation tutorial 2014
Sparse estimation tutorial 2014
Taiji Suzuki
Recommended
深層強化学習入門 2020年度Deep Learning基礎講座「強化学習」
深層強化学習入門 2020年度Deep Learning基礎講座「強化学習」
Tatsuya Matsushima
Tokyo.R #46 Cox比例ハザードモデルとその周辺
Tokyo.R #46 Cox比例ハザードモデルとその周辺
kikurage1001
Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)
Yamato OKAMOTO
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
弘毅 露崎
深層ガウス過程とアクセントの潜在変数表現に基づく音声合成の検討
深層ガウス過程とアクセントの潜在変数表現に基づく音声合成の検討
Tomoki Koriyama
基底変換、固有値・固有ベクトル、そしてその先
基底変換、固有値・固有ベクトル、そしてその先
Taketo Sano
階層ベイズとWAIC
階層ベイズとWAIC
Hiroshi Shimizu
Sparse estimation tutorial 2014
Sparse estimation tutorial 2014
Taiji Suzuki
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰
sleipnir002
MCMCによるベイズ因子分析法について
MCMCによるベイズ因子分析法について
考司 小杉
スパース推定法による統計モデリング(入門)
スパース推定法による統計モデリング(入門)
Hidetoshi Matsui
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介
Taku Yoshioka
クラシックな機械学習の入門 8. クラスタリング
クラシックな機械学習の入門 8. クラスタリング
Hiroshi Nakagawa
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
Shuyo Nakatani
Rによるベイジアンネットワーク入門
Rによるベイジアンネットワーク入門
Okamoto Laboratory, The University of Electro-Communications
Prml6
Prml6
Arata Honda
【解説】 一般逆行列
【解説】 一般逆行列
Kenjiro Sugimoto
Counterfaual Machine Learning(CFML)のサーベイ
Counterfaual Machine Learning(CFML)のサーベイ
ARISE analytics
Bayes Independence Test - HSIC と性能を比較する-
Bayes Independence Test - HSIC と性能を比較する-
Joe Suzuki
有向グラフに対する 非線形ラプラシアンと ネットワーク解析
有向グラフに対する 非線形ラプラシアンと ネットワーク解析
Yuichi Yoshida
「これからの強化学習」勉強会#1
「これからの強化学習」勉強会#1
Chihiro Kusunoki
Chapter2.3.6
Chapter2.3.6
Takuya Minagawa
機会学習ハッカソン:ランダムフォレスト
機会学習ハッカソン:ランダムフォレスト
Teppei Baba
StanとRでベイズ統計モデリング読書会 導入編(1章~3章)
StanとRでベイズ統計モデリング読書会 導入編(1章~3章)
Hiroshi Shimizu
FDRの使い方 (Kashiwa.R #3)
FDRの使い方 (Kashiwa.R #3)
Haruka Ozaki
クラシックな機械学習の入門 3. 線形回帰および識別
クラシックな機械学習の入門 3. 線形回帰および識別
Hiroshi Nakagawa
不均衡データのクラス分類
不均衡データのクラス分類
Shintaro Fukushima
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
nocchi_airport
Deep learning を用いた画像から説明文の自動生成に関する研究の紹介
Deep learning を用いた画像から説明文の自動生成に関する研究の紹介
株式会社メタップスホールディングス
Agreement for rnn
Agreement for rnn
Aizhan Imankulova
More Related Content
What's hot
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰
sleipnir002
MCMCによるベイズ因子分析法について
MCMCによるベイズ因子分析法について
考司 小杉
スパース推定法による統計モデリング(入門)
スパース推定法による統計モデリング(入門)
Hidetoshi Matsui
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介
Taku Yoshioka
クラシックな機械学習の入門 8. クラスタリング
クラシックな機械学習の入門 8. クラスタリング
Hiroshi Nakagawa
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
Shuyo Nakatani
Rによるベイジアンネットワーク入門
Rによるベイジアンネットワーク入門
Okamoto Laboratory, The University of Electro-Communications
Prml6
Prml6
Arata Honda
【解説】 一般逆行列
【解説】 一般逆行列
Kenjiro Sugimoto
Counterfaual Machine Learning(CFML)のサーベイ
Counterfaual Machine Learning(CFML)のサーベイ
ARISE analytics
Bayes Independence Test - HSIC と性能を比較する-
Bayes Independence Test - HSIC と性能を比較する-
Joe Suzuki
有向グラフに対する 非線形ラプラシアンと ネットワーク解析
有向グラフに対する 非線形ラプラシアンと ネットワーク解析
Yuichi Yoshida
「これからの強化学習」勉強会#1
「これからの強化学習」勉強会#1
Chihiro Kusunoki
Chapter2.3.6
Chapter2.3.6
Takuya Minagawa
機会学習ハッカソン:ランダムフォレスト
機会学習ハッカソン:ランダムフォレスト
Teppei Baba
StanとRでベイズ統計モデリング読書会 導入編(1章~3章)
StanとRでベイズ統計モデリング読書会 導入編(1章~3章)
Hiroshi Shimizu
FDRの使い方 (Kashiwa.R #3)
FDRの使い方 (Kashiwa.R #3)
Haruka Ozaki
クラシックな機械学習の入門 3. 線形回帰および識別
クラシックな機械学習の入門 3. 線形回帰および識別
Hiroshi Nakagawa
不均衡データのクラス分類
不均衡データのクラス分類
Shintaro Fukushima
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
nocchi_airport
What's hot
(20)
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰
MCMCによるベイズ因子分析法について
MCMCによるベイズ因子分析法について
スパース推定法による統計モデリング(入門)
スパース推定法による統計モデリング(入門)
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介
クラシックな機械学習の入門 8. クラスタリング
クラシックな機械学習の入門 8. クラスタリング
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
Rによるベイジアンネットワーク入門
Rによるベイジアンネットワーク入門
Prml6
Prml6
【解説】 一般逆行列
【解説】 一般逆行列
Counterfaual Machine Learning(CFML)のサーベイ
Counterfaual Machine Learning(CFML)のサーベイ
Bayes Independence Test - HSIC と性能を比較する-
Bayes Independence Test - HSIC と性能を比較する-
有向グラフに対する 非線形ラプラシアンと ネットワーク解析
有向グラフに対する 非線形ラプラシアンと ネットワーク解析
「これからの強化学習」勉強会#1
「これからの強化学習」勉強会#1
Chapter2.3.6
Chapter2.3.6
機会学習ハッカソン:ランダムフォレスト
機会学習ハッカソン:ランダムフォレスト
StanとRでベイズ統計モデリング読書会 導入編(1章~3章)
StanとRでベイズ統計モデリング読書会 導入編(1章~3章)
FDRの使い方 (Kashiwa.R #3)
FDRの使い方 (Kashiwa.R #3)
クラシックな機械学習の入門 3. 線形回帰および識別
クラシックな機械学習の入門 3. 線形回帰および識別
不均衡データのクラス分類
不均衡データのクラス分類
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
Viewers also liked
Deep learning を用いた画像から説明文の自動生成に関する研究の紹介
Deep learning を用いた画像から説明文の自動生成に関する研究の紹介
株式会社メタップスホールディングス
Agreement for rnn
Agreement for rnn
Aizhan Imankulova
Attention-based NMT description
Attention-based NMT description
Toshiaki Nakazawa
Chainer v2 alpha
Chainer v2 alpha
Seiya Tokui
ECCV 2016 速報
ECCV 2016 速報
Hirokatsu Kataoka
CVPR 2016 速報
CVPR 2016 速報
Hirokatsu Kataoka
捗るリコメンドシステムの裏事情(ハッカドール)
捗るリコメンドシステムの裏事情(ハッカドール)
mosa siru
Pythonによる機械学習の最前線
Pythonによる機械学習の最前線
Kimikazu Kato
ディープラーニングでおそ松さんの6つ子は見分けられるのか? FIT2016
ディープラーニングでおそ松さんの6つ子は見分けられるのか? FIT2016
Yota Ishida
リクルートにおける画像解析事例紹介
リクルートにおける画像解析事例紹介
Recruit Technologies
Viewers also liked
(10)
Deep learning を用いた画像から説明文の自動生成に関する研究の紹介
Deep learning を用いた画像から説明文の自動生成に関する研究の紹介
Agreement for rnn
Agreement for rnn
Attention-based NMT description
Attention-based NMT description
Chainer v2 alpha
Chainer v2 alpha
ECCV 2016 速報
ECCV 2016 速報
CVPR 2016 速報
CVPR 2016 速報
捗るリコメンドシステムの裏事情(ハッカドール)
捗るリコメンドシステムの裏事情(ハッカドール)
Pythonによる機械学習の最前線
Pythonによる機械学習の最前線
ディープラーニングでおそ松さんの6つ子は見分けられるのか? FIT2016
ディープラーニングでおそ松さんの6つ子は見分けられるのか? FIT2016
リクルートにおける画像解析事例紹介
リクルートにおける画像解析事例紹介
BRNNとは
1.
BRNNとは RNNを双方向に拡張した仕組み
2.
BRNNとは? • Bi-directional RNN(双方向性RNN)のこと。 •
そもそもRNNは順伝播において過去から未来へと一方向のみ。BRNNは過去から未来への順伝 播と、未来から過去への逆伝播を組み合わせたもの。 • 通常のRNNより性能がいいと言われている。 それってどういうこと?通常のRNNとどう違うの?
3.
まずは通常のRNNのしくみ • 画像 を入力する場合を考える。 •
通常のRNNはこのようになる。 t=1, 2 出力層 入力層中間層 4 2 3 6 t=1, 2 0.2 0.9 0.8 0.1 過去から未来へと続く順方向データのみが入力される 入力順→ 4 2 3 6 é ë ê ù û ú
4.
BRNNのしくみ • 画像 を入力する場合を考える。 •
BRNNは逆向きの入力データが入る部分が加わる。 t=1, 2 出力層 入力層中間層 4 2 3 6 t=1, 2 0.3 0.6 0.7 0.4 入力層および中間層では、順方向(過去から未来)の部分と 逆方向(未来から過去)の部分が独立している 入力順→ 4 2 3 6 é ë ê ù û ú 2 4 6 3 ひっくり返る
5.
BRNNにおける順伝播の計算はどうな る?• 入力層、中間層においては、順方向(過去から未来)の部分は通常のRNNと 同じ。出力層においては逆方向(未来から過去)の部分と統合される。 t=1, 2 出力層
入力層中間層 4 2 3 6 t=1, 2 0.3 0.6 0.7 0.4 入力順→ uk t = wkj f zj f ,t + j å wkj' b zj' b,t j' å u0 t u1 t z1 b,t 0 1 0 1 z0 b,t z0 f ,t z1 f ,t
6.
逆方向部分の順伝播計算はどうな る?• 入力層、中間層においては、逆方向(未来から過去)の部分は通常のRNNと 同じく計算する。出力層において順方向(過去から未来)の部分と統合される。 t=1, 2 出力層
入力層中間層 t=1, 2 0.3 0.6 0.7 0.4 入力順→ uk out,t = wkj f zj f ,t + j å wkj' b zj' b,t j' å u0 out,t u1 out,t 0 1 z1 f ,t z0 f ,t z1 b,t z0 b,t 0 1 2 4 6 3
7.
BRNNにおける逆伝播の計算はどうな る?• もっともシンプルなモデルで考える。 • t=1,2の2時刻で考える。 出力層
入力層中間層 順方向 逆方向
8.
出力層のδは? • まず出力層のδが求まる。 出力層 入力層中間層 順方向 逆方向 t=2 順方向 逆方向 t=1 dout,2 dout,1 uout,2 uout,1
9.
t=2における中間層のδは? • 次にt=2における中間層のδが求まる。 • 例えば、
は以下。 出力層 入力層中間層 順方向 逆方向 t=2 順方向 逆方向 t=1 dout,2 d fmid,2 dbmid,2 ufmid,2 ubmid,2 d fmid,2 uout,2
10.
t=1における中間層のδは? • 次にt=1における中間層のδが求まる。 • 例えば、
は以下のように、t=2の順方向中間層の およびt=1の出力層 の から求まる。 順方向 逆方向 t=2 順方向 逆方向 t=1 dout,1 d fmid,1 = ¶E ¶ufmid,1 = ¶E ¶ufmid,2 ¶ufmid,2 ¶ufmid,1 + ¶E ¶uout,1 ¶uout,1 ¶ufmid,1 d fmid,2 ufmid,1 ubmid,1 d fmid,1 uout,1 dbmid,1 d fmid,1 dbmid,2 d fmid,2 dout,1 ufmid,2
11.
t=1における中間層のδは? 順方向 逆方向 t=2 順方向 逆方向 t=1 dout,1 d fmid,2 ufmid,1 ubmid,1 uout,1 dbmid,1 =d fmid,2 wfmidR f
' ufmid,1 ( )+dout,1 wfout f ' ufmid,1 ( ) d fmid,1 dbmid,2 ufmid,2
12.
入力層のδは? 順方向 逆方向 t=2 順方向 逆方向 t=1 d fmid,2 dbmid,1 d fmid,1 dbmid,2
入力層のδは中間層のδからそれぞれ求まる。 d fin,2 dbin,2 dbin,1 d fin,1 これで全てのδが求まる。よって全ての重みの更新量も求まる。
Download now