Submit Search
Upload
Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation
•
22 likes
•
11,011 views
Yuta Kikuchi
Follow
EMNLP2014読み会の資料です. おまけはNeural Machine Translationについて.
Read less
Read more
Technology
Report
Share
Report
Share
1 of 52
Download now
Download to read offline
Recommended
ChainerによるRNN翻訳モデルの実装+@
ChainerによるRNN翻訳モデルの実装+@
Yusuke Oda
Encoder-decoder 翻訳 (TISハンズオン資料)
Encoder-decoder 翻訳 (TISハンズオン資料)
Yusuke Oda
ACL Reading @NAIST: Fast and Robust Neural Network Joint Model for Statistica...
ACL Reading @NAIST: Fast and Robust Neural Network Joint Model for Statistica...
Yusuke Oda
音声認識と深層学習
音声認識と深層学習
Preferred Networks
Deep Learning技術の今
Deep Learning技術の今
Seiya Tokui
Deep Learningと自然言語処理
Deep Learningと自然言語処理
Preferred Networks
Tf勉強会(5)
Tf勉強会(5)
tak9029
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用
Yuya Unno
Recommended
ChainerによるRNN翻訳モデルの実装+@
ChainerによるRNN翻訳モデルの実装+@
Yusuke Oda
Encoder-decoder 翻訳 (TISハンズオン資料)
Encoder-decoder 翻訳 (TISハンズオン資料)
Yusuke Oda
ACL Reading @NAIST: Fast and Robust Neural Network Joint Model for Statistica...
ACL Reading @NAIST: Fast and Robust Neural Network Joint Model for Statistica...
Yusuke Oda
音声認識と深層学習
音声認識と深層学習
Preferred Networks
Deep Learning技術の今
Deep Learning技術の今
Seiya Tokui
Deep Learningと自然言語処理
Deep Learningと自然言語処理
Preferred Networks
Tf勉強会(5)
Tf勉強会(5)
tak9029
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用
Yuya Unno
Deep Learningの基礎と応用
Deep Learningの基礎と応用
Seiya Tokui
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
Seiya Tokui
畳み込みLstm
畳み込みLstm
tak9029
Chainer meetup20151014
Chainer meetup20151014
Jiro Nishitoba
文法圧縮入門:超高速テキスト処理のためのデータ圧縮(NLP2014チュートリアル)
文法圧縮入門:超高速テキスト処理のためのデータ圧縮(NLP2014チュートリアル)
Shirou Maruyama
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Ohsawa Goodfellow
Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介
Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介
Masayoshi Kondo
PCFG構文解析法
PCFG構文解析法
Yusuke Oda
GRU-Prednetを実装してみた(途中経過)
GRU-Prednetを実装してみた(途中経過)
Taichi Iki
NIPS2013読み会: Distributed Representations of Words and Phrases and their Compo...
NIPS2013読み会: Distributed Representations of Words and Phrases and their Compo...
Yuya Unno
Deep Learning 勉強会 (Chapter 7-12)
Deep Learning 勉強会 (Chapter 7-12)
Ohsawa Goodfellow
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会
Shotaro Sano
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Yuya Unno
第3回アジア翻訳ワークショップの人手評価結果の分析
第3回アジア翻訳ワークショップの人手評価結果の分析
Toshiaki Nakazawa
Chainer Meetup LT (Alpaca)
Chainer Meetup LT (Alpaca)
Jun-ya Norimatsu
Deep Learning基本理論とTensorFlow
Deep Learning基本理論とTensorFlow
Tadaichiro Nakano
深層学習時代の自然言語処理
深層学習時代の自然言語処理
Yuya Unno
Convolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をする
Daiki Shimada
NLP2017 NMT Tutorial
NLP2017 NMT Tutorial
Toshiaki Nakazawa
Learning to forget continual prediction with lstm
Learning to forget continual prediction with lstm
Fujimoto Keisuke
Icml読み会 deep speech2
Icml読み会 deep speech2
Jiro Nishitoba
[DLHacks]Fast and Accurate Entity Recognition with Iterated Dilated Convoluti...
[DLHacks]Fast and Accurate Entity Recognition with Iterated Dilated Convoluti...
Deep Learning JP
More Related Content
What's hot
Deep Learningの基礎と応用
Deep Learningの基礎と応用
Seiya Tokui
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
Seiya Tokui
畳み込みLstm
畳み込みLstm
tak9029
Chainer meetup20151014
Chainer meetup20151014
Jiro Nishitoba
文法圧縮入門:超高速テキスト処理のためのデータ圧縮(NLP2014チュートリアル)
文法圧縮入門:超高速テキスト処理のためのデータ圧縮(NLP2014チュートリアル)
Shirou Maruyama
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Ohsawa Goodfellow
Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介
Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介
Masayoshi Kondo
PCFG構文解析法
PCFG構文解析法
Yusuke Oda
GRU-Prednetを実装してみた(途中経過)
GRU-Prednetを実装してみた(途中経過)
Taichi Iki
NIPS2013読み会: Distributed Representations of Words and Phrases and their Compo...
NIPS2013読み会: Distributed Representations of Words and Phrases and their Compo...
Yuya Unno
Deep Learning 勉強会 (Chapter 7-12)
Deep Learning 勉強会 (Chapter 7-12)
Ohsawa Goodfellow
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会
Shotaro Sano
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Yuya Unno
第3回アジア翻訳ワークショップの人手評価結果の分析
第3回アジア翻訳ワークショップの人手評価結果の分析
Toshiaki Nakazawa
Chainer Meetup LT (Alpaca)
Chainer Meetup LT (Alpaca)
Jun-ya Norimatsu
Deep Learning基本理論とTensorFlow
Deep Learning基本理論とTensorFlow
Tadaichiro Nakano
深層学習時代の自然言語処理
深層学習時代の自然言語処理
Yuya Unno
Convolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をする
Daiki Shimada
NLP2017 NMT Tutorial
NLP2017 NMT Tutorial
Toshiaki Nakazawa
Learning to forget continual prediction with lstm
Learning to forget continual prediction with lstm
Fujimoto Keisuke
What's hot
(20)
Deep Learningの基礎と応用
Deep Learningの基礎と応用
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
畳み込みLstm
畳み込みLstm
Chainer meetup20151014
Chainer meetup20151014
文法圧縮入門:超高速テキスト処理のためのデータ圧縮(NLP2014チュートリアル)
文法圧縮入門:超高速テキスト処理のためのデータ圧縮(NLP2014チュートリアル)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介
Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介
PCFG構文解析法
PCFG構文解析法
GRU-Prednetを実装してみた(途中経過)
GRU-Prednetを実装してみた(途中経過)
NIPS2013読み会: Distributed Representations of Words and Phrases and their Compo...
NIPS2013読み会: Distributed Representations of Words and Phrases and their Compo...
Deep Learning 勉強会 (Chapter 7-12)
Deep Learning 勉強会 (Chapter 7-12)
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
第3回アジア翻訳ワークショップの人手評価結果の分析
第3回アジア翻訳ワークショップの人手評価結果の分析
Chainer Meetup LT (Alpaca)
Chainer Meetup LT (Alpaca)
Deep Learning基本理論とTensorFlow
Deep Learning基本理論とTensorFlow
深層学習時代の自然言語処理
深層学習時代の自然言語処理
Convolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をする
NLP2017 NMT Tutorial
NLP2017 NMT Tutorial
Learning to forget continual prediction with lstm
Learning to forget continual prediction with lstm
Similar to Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation
Icml読み会 deep speech2
Icml読み会 deep speech2
Jiro Nishitoba
[DLHacks]Fast and Accurate Entity Recognition with Iterated Dilated Convoluti...
[DLHacks]Fast and Accurate Entity Recognition with Iterated Dilated Convoluti...
Deep Learning JP
Paper: seq2seq 20190320
Paper: seq2seq 20190320
Yusuke Fujimoto
【文献紹介】Abstractive Text Summarization Using Sequence-to-Sequence RNNs and Beyond
【文献紹介】Abstractive Text Summarization Using Sequence-to-Sequence RNNs and Beyond
Takashi YAMAMURA
全力解説!Transformer
全力解説!Transformer
Arithmer Inc.
ICASSP2019音声&音響論文読み会 論文紹介(認識系)
ICASSP2019音声&音響論文読み会 論文紹介(認識系)
貴史 益子
Extract and edit
Extract and edit
禎晃 山崎
20180613 [TensorFlow分散学習] Horovodによる分散学習の実装方法と解説
20180613 [TensorFlow分散学習] Horovodによる分散学習の実装方法と解説
LeapMind Inc
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
LeapMind Inc
TensorFlowによるCNNアーキテクチャ構築
TensorFlowによるCNNアーキテクチャ構築
Hirokatsu Kataoka
End-to-End音声認識ためのMulti-Head Decoderネットワーク
End-to-End音声認識ためのMulti-Head Decoderネットワーク
NU_I_TODALAB
2018/02/27 Recurrent Neural Networks starting with Neural Network Console
2018/02/27 Recurrent Neural Networks starting with Neural Network Console
Sony Network Communications Inc.
Rubyとプログラミング言語の潮流
Rubyとプログラミング言語の潮流
Kazuhiko Kato
デブサミ2013【15-E-2】Ruby開発者のみなさん、mrubyで楽しく快適な組み込みアプリ開発を始めませんか?
デブサミ2013【15-E-2】Ruby開発者のみなさん、mrubyで楽しく快適な組み込みアプリ開発を始めませんか?
Developers Summit
極大部分文字列を使った twitter 言語判定
極大部分文字列を使った twitter 言語判定
Shuyo Nakatani
Debian emdebian 20100817
Debian emdebian 20100817
Toshihisa Tanaka
ADVENTUREの他のモジュール・関連プロジェクトの紹介
ADVENTUREの他のモジュール・関連プロジェクトの紹介
ADVENTURE Project
機械学習 / Deep Learning 大全 (6) Library編
機械学習 / Deep Learning 大全 (6) Library編
Daiyu Hatakeyama
Pyconjp2014_implementations
Pyconjp2014_implementations
masahitojp
LPICレベル1技術解説セミナー(2012/11/11)
LPICレベル1技術解説セミナー(2012/11/11)
Kazuko Itoda
Similar to Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation
(20)
Icml読み会 deep speech2
Icml読み会 deep speech2
[DLHacks]Fast and Accurate Entity Recognition with Iterated Dilated Convoluti...
[DLHacks]Fast and Accurate Entity Recognition with Iterated Dilated Convoluti...
Paper: seq2seq 20190320
Paper: seq2seq 20190320
【文献紹介】Abstractive Text Summarization Using Sequence-to-Sequence RNNs and Beyond
【文献紹介】Abstractive Text Summarization Using Sequence-to-Sequence RNNs and Beyond
全力解説!Transformer
全力解説!Transformer
ICASSP2019音声&音響論文読み会 論文紹介(認識系)
ICASSP2019音声&音響論文読み会 論文紹介(認識系)
Extract and edit
Extract and edit
20180613 [TensorFlow分散学習] Horovodによる分散学習の実装方法と解説
20180613 [TensorFlow分散学習] Horovodによる分散学習の実装方法と解説
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
TensorFlowによるCNNアーキテクチャ構築
TensorFlowによるCNNアーキテクチャ構築
End-to-End音声認識ためのMulti-Head Decoderネットワーク
End-to-End音声認識ためのMulti-Head Decoderネットワーク
2018/02/27 Recurrent Neural Networks starting with Neural Network Console
2018/02/27 Recurrent Neural Networks starting with Neural Network Console
Rubyとプログラミング言語の潮流
Rubyとプログラミング言語の潮流
デブサミ2013【15-E-2】Ruby開発者のみなさん、mrubyで楽しく快適な組み込みアプリ開発を始めませんか?
デブサミ2013【15-E-2】Ruby開発者のみなさん、mrubyで楽しく快適な組み込みアプリ開発を始めませんか?
極大部分文字列を使った twitter 言語判定
極大部分文字列を使った twitter 言語判定
Debian emdebian 20100817
Debian emdebian 20100817
ADVENTUREの他のモジュール・関連プロジェクトの紹介
ADVENTUREの他のモジュール・関連プロジェクトの紹介
機械学習 / Deep Learning 大全 (6) Library編
機械学習 / Deep Learning 大全 (6) Library編
Pyconjp2014_implementations
Pyconjp2014_implementations
LPICレベル1技術解説セミナー(2012/11/11)
LPICレベル1技術解説セミナー(2012/11/11)
Recently uploaded
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NTT DATA Technology & Innovation
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
Yuki Kikuchi
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
UEHARA, Tetsutaro
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
akihisamiyanaga1
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
FumieNakayama
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
Hiroshi Tomioka
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
FumieNakayama
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
博三 太田
Recently uploaded
(8)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation
1.
2014/11/22 EMNLP2014読み会@PFI Learning
Phrase Representations using RNN Encoder-‐‑‒Decoder for Statistical Machine Translation 菊池 悠太
2.
はじめに Neural Network系技術を統計的機械翻訳(SMT)に
活かす研究は流行っている,ACL2014も多かった (best paperもそうだった) 多くはphrase-based SMTの枠組みのどこかに活かす形 今回は 翻訳の枠組みがNeural Networkだけで完結する Neural Machine Translation ....の(Bengio先生達にとっての)序章的論文 ! 本稿ではまだphrase-based SMTの素性として使った時の報告 時間があれば触れる用におまけを用意したが絶対時間足りない
3.
Agenda - はじめに
- RNN Encoder-Decoder ! ! 出てくる技術 - RNN - LSTM(のシンプル版) - Maxout ! - 実験・結果 ! 出てくる技術 - phrase-based SMT - Feed Forward Neural Network Language Model (FFNNLM) - おまけたち (Neural Machine Translation系の話題)
4.
Agenda - はじめに
- RNN Encoder-Decoder ! ! 出てくる技術 - RNN - LSTM(のシンプル版) - Maxout ! - 実験・結果 ! 出てくる技術 - phrase-based SMT - Feed Forward Neural Network Language Model (FFNNLM) - おまけたち (Neural Machine Translation系の話題)
5.
RNN Encoder-Decoder 2種類のRNN
6.
RNN Encoder-Decoder 1.
Encoder 現言語列の単語をひと つずつ受け取り,隠れ 状態ベクトルcを作る RNN
7.
RNN Encoder-Decoder 2.
Decoder cから目的言語列を生 成するRNN
8.
よく見るシンプルな RNNの図 今回の図
ちなみに
9.
よく見るシンプルな RNNの図 つまり
- ◯は連続値ベクトル - xはone-hotベクトル 今回の図 ちなみに
10.
RNN Encoder-DecoderのEncoder
11.
Encoder (LSTM-likeな活性化関数)
12.
Encoder (LSTM-likeな活性化関数) ?
13.
X1 X2 target!!
14.
実際は… X1 X2
reset gate: どのくらい前回の 隠れ層が影響する か r
15.
X1 X2 resetを考慮した
仮のhidden unit r
16.
z X1 X2
update gate r
17.
z X1 X2
今回の入力単語を どのくらい使うか? をupdate gate が決定 r
18.
z r X1
X2 実際には隠れ層(1000次元)の各ユニットが独立した↑になってる - reset gateが1になりやすいユニットは短い時間依存を担当 - update gateが1になりやすいユニットは長い時間依存を担当
19.
RNN Encoder-DecoderのDecoder
20.
RNN Encoder-DecoderのDecoder
21.
RNN Encoder-DecoderのDecoder 隠れ層の活性化関数は
さっきのLSTM亜種 [点線部分]以外大体Encoderと一緒
22.
RNN Encoder-DecoderのDecoder 出力層の活性化
関数はMaxout
23.
24.
Training 訓練後は 1.
目的言語列の生成 2. (原言語列-目的言語列)対 の翻訳確率 に使える
25.
Training 訓練後は 1.
目的言語列の生成 2. (原言語列-目的言語列)対 の翻訳確率 に使える 今回は1.は定性評価のみ
26.
実験 提案手法をphrased-base SMTの素性として使う
(Moses with default settings)
27.
phrase-base SMTにおけるデコーダとしての対数線形モデル の素性関数fn(f,e)に追加する
RNN: - 提案手法による入力文のフレーズ対の翻訳確率(フレーズ対の数分足す) - フレーズ対の数 (フレーズ対の数だけ翻訳確率の総和が発生するため,これで公平さを取る狙い) CSLM[Schwenk2007] (基本的には[Bengio2003]のFFNNLMのこと): - 目的言語列の生成確率 Word Penalty - 出てきたUnknown wordの数
28.
BLUE RNN, CSLMどっちも貢献してる
29.
Table 2 現言語phraseに対するtop-scoredな目的言語
phraseの実例(baselineと比較) 割愛 まぁ良い感じ 提案手法はphrase table上の出現頻度に寄らないとか RNNencoderは短めのphraseを好むとか
30.
さすがにアレかなと思ったので急遽貼りました baseline翻訳モデル提案手法 Table
2の上半分
31.
さすがにアレかなと思ったので急遽貼りました baseline翻訳モデル提案手法 Table
2の下半分
32.
Table 3: 提案手法が生成したphraseたち
phrase tableにないものも生成できている →将来的に従来のphrase tableの代替に?
33.
Figure 4: お約束,単語ベクトルの次元削減による可視化
青い部分を拡大 もっと大きな図は付録として最後についてます
34.
Figure 5: cの次元圧縮による可視化
良い感じにphrase空間ができてる(論文をご参照下さい…)
35.
Figure 5: cの次元圧縮による可視化
さすがにいっこ拡大してみる
36.
Conclusion RNN Encoder-Decoderというものを提案
encoder: 任意長の原言語列 → 中間表現 decoder: 中間表現 → 任意長の目的言語列 Large Potential phrase tableの一部ないし全部を置き換える RNNベースだしSpeech recognitionにも使えそう
37.
おまけ Neural Machine
Translation
38.
おまけ1, Bengio先生勢のNMT本編的論文
39.
純粋にNNだけで翻訳生成(デコード時に幅10でビームサーチ) この論文の提案手法(grConv) 今日のやつ(RNNenc)
次のおまけ のやつ 文長・未知語数別のBLUEスコア
40.
次のおまけ のやつ 文の長さ,未知語の数で かなり変わる
っていう論文がすでにarXivに….
41.
おまけ2 話題になったこれとの関係
42.
このへんを
43.
こう!
44.
わりと似てる!
45.
NMT的に生成したもののBLUEスコア
46.
NMT的に生成したもののBLUEスコア “おまけ1”で出てきた結果の表 見比べるべき条件は
このふたつ
47.
NMT的に生成したもののBLUEスコア “おまけ1”で出てきた結果の表 ハイパーパラメータが違ったり
この数値だけだと優劣分からない モデルも一緒ではないので
48.
おまけ3
49.
単語の分散表現の学習について 有名なの今日の バイリンガルで学習するとモノリンガルな
単語類似度評価セットも向上 ! “bilingual word embeddings”は以前からあったが 実際に有名な評価セットで優位性を報告したのは初?
50.
単語の分散表現の学習について 有名なの今日の 新しい単語類似度
評価セット バイリンガルで学習するとモノリンガルな 単語類似度評価セットも向上 ! “bilingual word embeddings”は以前からあったが 実際に有名な評価セットで優位性を報告したのは初?
51.
単語の分散表現の学習について 有名なの今日の これもNMT
しかもBLUEはRNNencより良いっぽい バイリンガルで学習するとモノリンガルな ! ! ! 単語類似度評価セットも向上 ! “bilingual word embeddings”は以前からあったが ! 実際に有名な評価セットで優位性を報告したのは初?
52.
全体まとめ Neural Machine
Translationやばそう ! 純粋にNNだけでちゃんと生成ができそうな報 告が溜まってきた? ! 先行者はBengio先生組やGoogle組
Download now