3. 目次
• Abstractive Text Summarizationについて
• RNNを用いた生成モデル
• Abstractive Text Summarization using Sequence-
to-sequence RNNs and Beyond (Nallapati et al.,
CoNLL’16)
• Get To The Point: Summarization with Pointer-Generator
Networks (See et al., ACL’17)
3
6. • タスク:abstractive text summarization
• 解決した問題:1. 文章の構造を捉えれてない,
2.<UNK>対応
• 解決手法:
1. hierarchicalな構造のEncoderとそれを考慮した
attentionモデルの提案
2. Large Vocabulary Trickとgenerator/pointerを導入.
6
Abstractive Text Summarization using
Sequence-to-sequence RNNs and
Beyond (Nallapati et al., CoNLL’16)
7. 提案モデル
1. Encoder-Decoder RNN with Attention and Large Vocabulary Trick
2. Capturing Keywords using Feature-rich Encoder
3. Modeling Rare/Unseen Words using Switching Generator-Pointer
4. Capturing Hierarchical Document Structure with Hierarchical Attention
7
8. 1. Encoder-Decoder RNN with
Attention and Large Vocabulary Trick
• ベースモデル: NMT model (Bahdanau et al., 2014)
encoderはbi-directional, decoderはuni-directional
GRU-RNN, attention.
• +α
Large vocabulary ‘trick’ (LVT) (Jean et al., 14)
decoderの語彙をミニバッチ内の語彙と,高頻度語彙を規定の数になる
まで取ってくる
(翻訳とは違い,使う言語が一緒だからできる技)
8
ミニバッチ内のソースの語彙 高頻度の語彙 = N
9. 2. Capturing Keywords
using Feature-rich Encoder
• 基本:単語ベクトル
• +α:linguistic features (One-Hot representation)
POSタグ(品詞),named-entity(固有表現),TF and IDF
• エンコーダ側でのみ+αを使用,デーコーダ側では単語ベクトルのみ使用
9
16. • 1. Hybrid Pointer-Generator network
ソースの単語をコピーするpointerと
新しい(ソースにない)単語を生成するgenerator
• 2. Coverage Mechanism
今までに出力した情報を保持することで、単語の繰
り返し生成を防ぐ
• CNN/Daily Mail のデータでsota
Get To The Point: Summarization with
Pointer-Generator Networks
(See et al., ACL’17)
16
概要