SlideShare a Scribd company logo
1 of 12
【 WWW2012 勉強会】


Session 30: Information Extraction

 担当: 塚原裕史(デンソーアイティーラボラトリ)
論文リスト

   "Micropinion Generation: An Unsupervised Approach to Generating
    Ultra-Concise Summaries of Opinions",
       Kavita Ganesan, ChengXiang Zhai, Evelyne Viegas
       要旨 :
              人が読んで分かる要約文生成
              タグ付けや教師データを必要としない


   "A Flexible Large Scale Topic Modeling Package using Variational
    Inference in MapReduce",
       Ke Zhai, Jordan Boyd-Graber, Nima Asadi, Mohamad Alkhouja
       要旨 :
              MapReduce 形式による変分ベイズ法を用いた LDA 計算法
              Callapsed Gibbs Sampling よりもスケールアウトできる




    2       Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ
                                                           ラトリ)
Paper 1
"Micropinion Generation: An Unsupervised Approach to Generating Ultra-Concise Summaries of Opinions",  
Kavita Ganesan et. al.

モチベーション
     ブログやニュース記事として、多くの評判情報が集まっており、
      これらの評判を文章として段階的に要約し、内容を理解できるよ
      うにしたい。

          “micropinion” と呼ぶ


     これまでの評判情報要約では、元の文章とは異なる構造化された
      簡潔な情報に変換されていたので、上記のようなことができなか
      った:

          単純な極性判別: “ positive” or “negative”
          カテゴリごとの評価値 :   buttery life: 1 star, screen: 3.5 star etc.
          Key words or phrases extraction :  buttery, life, screen, short, clear, etc.

 3           Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ
                                                            ラトリ)
Paper 1
"Micropinion Generation: An Unsupervised Approach to Generating Ultra-Concise Summaries of Opinions",  
Kavita Ganesan et. al.

Micropinion            の事例 ( 制約: less than 10 words)

     MP3 Player Y: (8 words)
          Very short battery life. Big and clear screen.

     Restaurant X: (9 words)
          Good service. Delicious soup dishes. Very noisy at nights.


ポイント
     可読な文への要約
     最大単語数を設定可能



 4          Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ
                                                           ラトリ)
Paper 1
"Micropinion Generation: An Unsupervised Approach to Generating Ultra-Concise Summaries of Opinions",  
Kavita Ganesan et. al.

方法
     フレーズの代表性と可読性の指標を設計し、それらの和を最大化
      するフレーズ(単語の組合せ)の組みを検索する。(最適化問題
      )

代表性
     フレーズ内の各単語のローカル相互情報量の平均値
          ローカル相互情報量: コンテキストウインドウ内での補正相互情報量の
           平均値
          補正相互情報量: コンテキストウインドウ内で共起し易い単語間で値が
           大きくなるように、ヒューリスティックな補正を入れたもの。
              通常の相互情報量では、頻出しない単語間で値が大きくなり、代表性という観点
               では問題がある。
可読性
     N-gram 言語モデルによる対数尤度の平均値
 5
          Microsoft の trigram 言語モデル使用 担当:塚原裕史(デンソーITラボ
            Session 30: Information Extraction
                                                                                                     ラトリ)
Paper 1
"Micropinion Generation: An Unsupervised Approach to Generating Ultra-Concise Summaries of Opinions",  
Kavita Ganesan et. al.

最適化手順
     1.シードとなるバイグラム生成
     2. N グラム候補生成
     3.候補 N グラムから候補フレーズ生成
     4. Depth-first search による Micropinion 決定
                                              フレーズ m                                    スコア
                                              w1 w2 w4 w8                          S rep ( m ) + S read ( m )




                候補Nグラム             w1 w2 w4                   w5 w6 w8




      シードバイグラム             w1 w2          w3 w4          w5 w6           w7 w8




 6          Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ
                                                           ラトリ)
Paper 1
"Micropinion Generation: An Unsupervised Approach to Generating Ultra-Concise Summaries of Opinions",  
Kavita Ganesan et. al.

評価
     データセット
          CNET における製品レビューデータ
     定量的評価指標
          ROUGE
     定性的評価指標
          Gramaticality
          Non-redundancy
          Informativeness
     ベースライン ( 従来手法 )
          TF-IDF ベース
          KEA
          Opinosis

 7          Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ
                                                           ラトリ)
Paper 1
"Micropinion Generation: An Unsupervised Approach to Generating Ultra-Concise Summaries of Opinions",  
Kavita Ganesan et. al.

結論
          主要な提案:
              代表性と可読性に基づく最適化問題による定式化
              上記最適化問題の高速な近似解探索手法を提案


          主要な性質:
              従来手法にくらべて、可読性の高い要約文を生成できる

          モデル的に有利な点:
              教師なし学習 → 低コスト
              計算量が小さい → 高速
              形態素解析や構文解析不要 → 多言語への拡張性




 8             Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ
                                                              ラトリ)
Paper 2
    "A Flexible Large Scale Topic Modeling Package using Variational Inference in MapReduce",  
    Ke Zhai et. al.

    モチベーション
        LDA の計算手法として Collapsed Gibbs Sampling が良く使われている
             実装が簡単
        Collapsed Gibbs Sampling は、並列化してもパフォーマンスが出ない
             ノード全体で共有する状態があるため(実際には定期的に同期を取りながら計算)
             明確な収束判定基準がない


    Collapsed Gibbs Sampling での計算
      (#topics in a document) * (#words in a topic across all documents)



                                          この部分で同期が必要となり並列化の効率に影響




    9           Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ
                                                               ラトリ)
Paper 2
    "A Flexible Large Scale Topic Modeling Package using Variational Inference in MapReduce",  
    Ke Zhai et. al.

    方法
        変分ベイズ法による LDA 計算を MapReduce の形式へ並列化

        変分ベイズ法における反復更新処理
                  φ v(,d ) ∝ Eq [ β v ,k ]e Ψ ( γ k )
                       k

                                                          文書ごとの処理                          Map
                                      V
                 γ d ,k = α k + ∑ φ v(,d )
                                       k
                                     v =1



                 λv ,k = η v ,k + ∑ ( wv( d )φv(.dk ) )
                                     C
                                                          文書全体での処理                        Reduce
                                    d =1




          α new = α old − H −1 ( α old ) g ( α old )      モデル全体の制御                         Driver


    10          Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ
                                                               ラトリ)
Paper 2
    "A Flexible Large Scale Topic Modeling Package using Variational Inference in MapReduce",  
    Ke Zhai et. al.

    MapReduce での処理の流れ
                                                                                                                                                                                                   Hyperparameters
              Mapper                                                                                                                                                                                (α   k   , λv ,k ) t → (α k , λv ,k ) t +1

文書

d             (γ    d ,k              ) 
                                        
                                                                                  K         
                           , φ v(,d ) →  γ d , k , φ v(,d ) , Ψ ( γ d , k ) − Ψ  ∑ γ d , k  
                                                                                               
                                                                                                                     Reducer
                                     t
                                                                                  k =1       t +1
                                  k                      k
                                        

                                                                                                                     (η , {φ })                                              K        
                                                                                                                                                             C

                                                                                                                       v ,k
                                                                                                                                (d )
                                                                                                                                                →  λv ,k , ∑ Ψ (γ d ,k ) − Ψ ∑ γ d ,k  
                                                                                                                                                                                         
                                                                                                                                        t
                                                                                                                                                                              k =1      t +1
                                                                                                                                v ,k
                                                                                                                                                           d =1




              (γ                  )                                              K                                                                                                              Driver
d                  d ,k    , φ v(,d ) →  γ d , k , φ v(,d ) , Ψ ( γ d , k ) − Ψ  ∑ γ d , k  
                                  k  t
                                        
                                        
                                                         k
                                                                                  k =1
                                                                                               
                                                                                              t +1

                                                                                                                     (η , {φ })
                                                                                                                      v ,k
                                                                                                                               (d )
                                                                                                                               v ,k     t
                                                                                                                                                  
                                                                                                                                                  
                                                                                                                                                  
                                                                                                                                                             C


                                                                                                                                                            d =1
                                                                                                                                                                              K
                                                                                                                                                                              k =1
                                                                                                                                                                                        
                                                                                                                                                →  λv ,k , ∑ Ψ (γ d ,k ) − Ψ ∑ γ d ,k  
                                                                                                                                                                                          
                                                                                                                                                                                         t +1
                                                                                                                                                                                                               (α k ) t → (α k ) t +1
d             (γ   d ,k           )                                             K         
                          , φ v(,d ) →  γ d , k , φ v(,d ) , Ψ ( γ d , k ) − Ψ  ∑ γ d , k  
                                                                                             
                                    t
                                                                                 k =1       t +1
                                 k                      k
                                       

                                                                                                                     (η , {φ })                                               K        
                                                                                                                                                              C

                                                                                                                        v ,k
                                                                                                                                 (d )
                                                                                                                                                 →  λv ,k , ∑ Ψ (γ d ,k ) − Ψ ∑ γ d ,k  
                                                                                                                                                                                          
                                                                                                                                            t
                                                                                                                                                                               k =1      t +1
                                                                                                                                 v ,k
                                                                                                                                                            d =1

                                                                                                                                                                                                       Test Convergence
d             (γ                  )    
                                       
                                                                                 K         
                          , φ v(,d ) →  γ d , k , φ v(,d ) , Ψ ( γ d , k ) − Ψ  ∑ γ d , k  
                                                                                              
                                                                                                                                                                                                   (Likelihood Computation)
                   d ,k             t
                                                                                 k =1       t +1
                                 k                      k
                                       


                                                                                                       partitioner




    11               Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ
                                                                    ラトリ)
Paper 2
    "A Flexible Large Scale Topic Modeling Package using Variational Inference in MapReduce",  
    Ke Zhai et. al.

    結論
         従来実装 (Mahout) に比べて、処理速度・事後分布の近似精度の
          両面で、非常に良く改善されている。
                                                                                           (論文から引用)
                                                                     事
         L = Eq [ log( p ( D Z ) p ( Z Θ ) ) ] − Eq [ log q( Z ) ]   後
                                                                     分
                                                                     布
         変分ベイズでは、この量を最大化する                                           へ
                                                                     の
                                                                     下
                                                                     限
                                                                                     学習時間

    Remark
         Collapsed Gibbs Sampling の並列化に関しては Mallet というラ
          イブラリがあるが、それとの比較がないので、変分ベイズ法の方
          が本当に良いと言って良いのか、実際にどれくらいの差があるの
          か気になる。

    12            Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ
                                                                 ラトリ)

More Related Content

What's hot

Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Seiya Tokui
 
高位合成でDeep learning
高位合成でDeep learning高位合成でDeep learning
高位合成でDeep learningMori Labo.
 
DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜Jun Okumura
 
深層学習 第4章 大規模深層学習の実現技術
深層学習 第4章 大規模深層学習の実現技術深層学習 第4章 大規模深層学習の実現技術
深層学習 第4章 大規模深層学習の実現技術孝昌 田中
 
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜SSII
 
論文紹介:Dueling network architectures for deep reinforcement learning
論文紹介:Dueling network architectures for deep reinforcement learning論文紹介:Dueling network architectures for deep reinforcement learning
論文紹介:Dueling network architectures for deep reinforcement learningKazuki Adachi
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説弘毅 露崎
 
Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介
Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介
Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介Masayoshi Kondo
 
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜Jun Okumura
 
機械学習を用いたWeb上の産学連携関連文書の抽出
機械学習を用いたWeb上の産学連携関連文書の抽出機械学習を用いたWeb上の産学連携関連文書の抽出
機械学習を用いたWeb上の産学連携関連文書の抽出National Institute of Informatics
 
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)Takuma Yagi
 
第64回情報科学談話会(岡﨑 直観 准教授)
第64回情報科学談話会(岡﨑 直観 准教授) 第64回情報科学談話会(岡﨑 直観 准教授)
第64回情報科学談話会(岡﨑 直観 准教授) gsis gsis
 
Introduction to A3C model
Introduction to A3C modelIntroduction to A3C model
Introduction to A3C modelWEBFARMER. ltd.
 
Pythonで体験する深層学習 5章
Pythonで体験する深層学習 5章Pythonで体験する深層学習 5章
Pythonで体験する深層学習 5章孝好 飯塚
 
機械学習と深層学習の数理
機械学習と深層学習の数理機械学習と深層学習の数理
機械学習と深層学習の数理Ryo Nakamura
 
Clustering _ishii_2014__ch10
Clustering  _ishii_2014__ch10Clustering  _ishii_2014__ch10
Clustering _ishii_2014__ch10Kota Mori
 
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用 2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用 Kenta Oono
 
2値化CNN on FPGAでGPUとガチンコバトル(公開版)
2値化CNN on FPGAでGPUとガチンコバトル(公開版)2値化CNN on FPGAでGPUとガチンコバトル(公開版)
2値化CNN on FPGAでGPUとガチンコバトル(公開版)Hiroki Nakahara
 
2値ディープニューラルネットワークと組込み機器への応用: 開発中のツール紹介
2値ディープニューラルネットワークと組込み機器への応用: 開発中のツール紹介2値ディープニューラルネットワークと組込み機器への応用: 開発中のツール紹介
2値ディープニューラルネットワークと組込み機器への応用: 開発中のツール紹介Hiroki Nakahara
 

What's hot (20)

Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用
 
高位合成でDeep learning
高位合成でDeep learning高位合成でDeep learning
高位合成でDeep learning
 
DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜
 
深層学習 第4章 大規模深層学習の実現技術
深層学習 第4章 大規模深層学習の実現技術深層学習 第4章 大規模深層学習の実現技術
深層学習 第4章 大規模深層学習の実現技術
 
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
 
論文紹介:Dueling network architectures for deep reinforcement learning
論文紹介:Dueling network architectures for deep reinforcement learning論文紹介:Dueling network architectures for deep reinforcement learning
論文紹介:Dueling network architectures for deep reinforcement learning
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
 
Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介
Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介
Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介
 
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜
 
機械学習を用いたWeb上の産学連携関連文書の抽出
機械学習を用いたWeb上の産学連携関連文書の抽出機械学習を用いたWeb上の産学連携関連文書の抽出
機械学習を用いたWeb上の産学連携関連文書の抽出
 
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
 
第64回情報科学談話会(岡﨑 直観 准教授)
第64回情報科学談話会(岡﨑 直観 准教授) 第64回情報科学談話会(岡﨑 直観 准教授)
第64回情報科学談話会(岡﨑 直観 准教授)
 
Introduction to A3C model
Introduction to A3C modelIntroduction to A3C model
Introduction to A3C model
 
Deep learning入門
Deep learning入門Deep learning入門
Deep learning入門
 
Pythonで体験する深層学習 5章
Pythonで体験する深層学習 5章Pythonで体験する深層学習 5章
Pythonで体験する深層学習 5章
 
機械学習と深層学習の数理
機械学習と深層学習の数理機械学習と深層学習の数理
機械学習と深層学習の数理
 
Clustering _ishii_2014__ch10
Clustering  _ishii_2014__ch10Clustering  _ishii_2014__ch10
Clustering _ishii_2014__ch10
 
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用 2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
 
2値化CNN on FPGAでGPUとガチンコバトル(公開版)
2値化CNN on FPGAでGPUとガチンコバトル(公開版)2値化CNN on FPGAでGPUとガチンコバトル(公開版)
2値化CNN on FPGAでGPUとガチンコバトル(公開版)
 
2値ディープニューラルネットワークと組込み機器への応用: 開発中のツール紹介
2値ディープニューラルネットワークと組込み機器への応用: 開発中のツール紹介2値ディープニューラルネットワークと組込み機器への応用: 開発中のツール紹介
2値ディープニューラルネットワークと組込み機器への応用: 開発中のツール紹介
 

Viewers also liked

Vanishing Component Analysisの試作(補足)
Vanishing Component Analysisの試作(補足)Vanishing Component Analysisの試作(補足)
Vanishing Component Analysisの試作(補足)Hiroshi Tsukahara
 
Notes on the low rank matrix approximation of kernel
Notes on the low rank matrix approximation of kernelNotes on the low rank matrix approximation of kernel
Notes on the low rank matrix approximation of kernelHiroshi Tsukahara
 
DSIRNLP06 Nested Pitman-Yor Language Model
DSIRNLP06 Nested Pitman-Yor Language ModelDSIRNLP06 Nested Pitman-Yor Language Model
DSIRNLP06 Nested Pitman-Yor Language ModelKei Uchiumi
 
Vanishing Component Analysisの試作と簡単な実験
Vanishing Component Analysisの試作と簡単な実験Vanishing Component Analysisの試作と簡単な実験
Vanishing Component Analysisの試作と簡単な実験Hiroshi Tsukahara
 
Sparse Isotropic Hashing
Sparse Isotropic HashingSparse Isotropic Hashing
Sparse Isotropic HashingIkuro Sato
 
Go-ICP: グローバル最適(Globally optimal) なICPの解説
Go-ICP: グローバル最適(Globally optimal) なICPの解説Go-ICP: グローバル最適(Globally optimal) なICPの解説
Go-ICP: グローバル最適(Globally optimal) なICPの解説Yusuke Sekikawa
 
FLAT CAM: Replacing Lenses with Masks and Computationの解説
FLAT CAM: Replacing Lenses with Masks and Computationの解説FLAT CAM: Replacing Lenses with Masks and Computationの解説
FLAT CAM: Replacing Lenses with Masks and Computationの解説Yusuke Sekikawa
 
Deep Learning Chapter12
Deep Learning Chapter12Deep Learning Chapter12
Deep Learning Chapter12Kei Uchiumi
 
Halide, Darkroom - 並列化のためのソフトウェア・研究
Halide, Darkroom - 並列化のためのソフトウェア・研究Halide, Darkroom - 並列化のためのソフトウェア・研究
Halide, Darkroom - 並列化のためのソフトウェア・研究Yuichi Yoshida
 
論文紹介:Practical bayesian optimization of machine learning algorithms(nips2012)
論文紹介:Practical bayesian optimization of machine learning algorithms(nips2012)論文紹介:Practical bayesian optimization of machine learning algorithms(nips2012)
論文紹介:Practical bayesian optimization of machine learning algorithms(nips2012)Keisuke Uto
 
Nl220 Pitman-Yor Hidden Semi Markov Model
Nl220 Pitman-Yor Hidden Semi Markov ModelNl220 Pitman-Yor Hidden Semi Markov Model
Nl220 Pitman-Yor Hidden Semi Markov ModelKei Uchiumi
 
ディープラーニングの車載応用に向けて
ディープラーニングの車載応用に向けてディープラーニングの車載応用に向けて
ディープラーニングの車載応用に向けてIkuro Sato
 
Windows Store アプリをuniversal にして申請する手順
Windows Store アプリをuniversal にして申請する手順Windows Store アプリをuniversal にして申請する手順
Windows Store アプリをuniversal にして申請する手順Osamu Masutani
 
Sigir2013 retrieval models-and_ranking_i_pub
Sigir2013 retrieval models-and_ranking_i_pubSigir2013 retrieval models-and_ranking_i_pub
Sigir2013 retrieval models-and_ranking_i_pubKei Uchiumi
 
Stochastic Process Overview (hypothesis)
Stochastic Process Overview (hypothesis)Stochastic Process Overview (hypothesis)
Stochastic Process Overview (hypothesis)Yoshiaki Sakakura
 

Viewers also liked (20)

Vanishing Component Analysisの試作(補足)
Vanishing Component Analysisの試作(補足)Vanishing Component Analysisの試作(補足)
Vanishing Component Analysisの試作(補足)
 
Notes on the low rank matrix approximation of kernel
Notes on the low rank matrix approximation of kernelNotes on the low rank matrix approximation of kernel
Notes on the low rank matrix approximation of kernel
 
Gitのすすめ
GitのすすめGitのすすめ
Gitのすすめ
 
DSIRNLP06 Nested Pitman-Yor Language Model
DSIRNLP06 Nested Pitman-Yor Language ModelDSIRNLP06 Nested Pitman-Yor Language Model
DSIRNLP06 Nested Pitman-Yor Language Model
 
Vanishing Component Analysisの試作と簡単な実験
Vanishing Component Analysisの試作と簡単な実験Vanishing Component Analysisの試作と簡単な実験
Vanishing Component Analysisの試作と簡単な実験
 
Pylm public
Pylm publicPylm public
Pylm public
 
Dsirnlp#7
Dsirnlp#7Dsirnlp#7
Dsirnlp#7
 
Sparse Isotropic Hashing
Sparse Isotropic HashingSparse Isotropic Hashing
Sparse Isotropic Hashing
 
Go-ICP: グローバル最適(Globally optimal) なICPの解説
Go-ICP: グローバル最適(Globally optimal) なICPの解説Go-ICP: グローバル最適(Globally optimal) なICPの解説
Go-ICP: グローバル最適(Globally optimal) なICPの解説
 
FLAT CAM: Replacing Lenses with Masks and Computationの解説
FLAT CAM: Replacing Lenses with Masks and Computationの解説FLAT CAM: Replacing Lenses with Masks and Computationの解説
FLAT CAM: Replacing Lenses with Masks and Computationの解説
 
Deep Learning Chapter12
Deep Learning Chapter12Deep Learning Chapter12
Deep Learning Chapter12
 
Extreme Learning Machine
Extreme Learning MachineExtreme Learning Machine
Extreme Learning Machine
 
Halide, Darkroom - 並列化のためのソフトウェア・研究
Halide, Darkroom - 並列化のためのソフトウェア・研究Halide, Darkroom - 並列化のためのソフトウェア・研究
Halide, Darkroom - 並列化のためのソフトウェア・研究
 
RNNLM
RNNLMRNNLM
RNNLM
 
論文紹介:Practical bayesian optimization of machine learning algorithms(nips2012)
論文紹介:Practical bayesian optimization of machine learning algorithms(nips2012)論文紹介:Practical bayesian optimization of machine learning algorithms(nips2012)
論文紹介:Practical bayesian optimization of machine learning algorithms(nips2012)
 
Nl220 Pitman-Yor Hidden Semi Markov Model
Nl220 Pitman-Yor Hidden Semi Markov ModelNl220 Pitman-Yor Hidden Semi Markov Model
Nl220 Pitman-Yor Hidden Semi Markov Model
 
ディープラーニングの車載応用に向けて
ディープラーニングの車載応用に向けてディープラーニングの車載応用に向けて
ディープラーニングの車載応用に向けて
 
Windows Store アプリをuniversal にして申請する手順
Windows Store アプリをuniversal にして申請する手順Windows Store アプリをuniversal にして申請する手順
Windows Store アプリをuniversal にして申請する手順
 
Sigir2013 retrieval models-and_ranking_i_pub
Sigir2013 retrieval models-and_ranking_i_pubSigir2013 retrieval models-and_ranking_i_pub
Sigir2013 retrieval models-and_ranking_i_pub
 
Stochastic Process Overview (hypothesis)
Stochastic Process Overview (hypothesis)Stochastic Process Overview (hypothesis)
Stochastic Process Overview (hypothesis)
 

Similar to Information extraction 1

量子アニーリングを用いたクラスタ分析 (QIT32)
量子アニーリングを用いたクラスタ分析 (QIT32)量子アニーリングを用いたクラスタ分析 (QIT32)
量子アニーリングを用いたクラスタ分析 (QIT32)Shu Tanaka
 
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...Deep Learning JP
 
NSDI '16 Reading: Flexible Networks Session
NSDI '16 Reading: Flexible Networks SessionNSDI '16 Reading: Flexible Networks Session
NSDI '16 Reading: Flexible Networks SessionDaisuke Kotani
 
Hayashi tutorial ne2017
Hayashi tutorial ne2017Hayashi tutorial ne2017
Hayashi tutorial ne2017yukisachi
 
Proof summit2014mizar
Proof summit2014mizarProof summit2014mizar
Proof summit2014mizarAlcor80UMa
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門joisino
 
Convolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をするConvolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をするDaiki Shimada
 
[part 2]ナレッジグラフ推論チャレンジ・Tech Live!
[part 2]ナレッジグラフ推論チャレンジ・Tech Live![part 2]ナレッジグラフ推論チャレンジ・Tech Live!
[part 2]ナレッジグラフ推論チャレンジ・Tech Live!KnowledgeGraph
 
パターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvqパターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvqsleipnir002
 
GPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装についてGPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装についてYuya Unno
 
東京大学工学部計数工学科応用音響学 D2 Clustering
東京大学工学部計数工学科応用音響学 D2 Clustering東京大学工学部計数工学科応用音響学 D2 Clustering
東京大学工学部計数工学科応用音響学 D2 ClusteringHiroshi Ono
 
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9Yuya Unno
 
今さら聞けないHadoop勉強会第2回 セントラルソフト株式会社(20120228)
今さら聞けないHadoop勉強会第2回 セントラルソフト株式会社(20120228)今さら聞けないHadoop勉強会第2回 セントラルソフト株式会社(20120228)
今さら聞けないHadoop勉強会第2回 セントラルソフト株式会社(20120228)YoheiOkuyama
 
dont_count_predict_in_acl2014
dont_count_predict_in_acl2014dont_count_predict_in_acl2014
dont_count_predict_in_acl2014Sho Takase
 
[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...
[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...
[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...Deep Learning JP
 
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)Koji Matsuda
 
遺伝的アルゴリズム (Genetic Algorithm)を始めよう! 【簡略版】
遺伝的アルゴリズム(Genetic Algorithm)を始めよう! 【簡略版】遺伝的アルゴリズム(Genetic Algorithm)を始めよう! 【簡略版】
遺伝的アルゴリズム (Genetic Algorithm)を始めよう! 【簡略版】Kazuhide Okamura
 

Similar to Information extraction 1 (20)

量子アニーリングを用いたクラスタ分析 (QIT32)
量子アニーリングを用いたクラスタ分析 (QIT32)量子アニーリングを用いたクラスタ分析 (QIT32)
量子アニーリングを用いたクラスタ分析 (QIT32)
 
R seminar on igraph
R seminar on igraphR seminar on igraph
R seminar on igraph
 
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...
 
NSDI '16 Reading: Flexible Networks Session
NSDI '16 Reading: Flexible Networks SessionNSDI '16 Reading: Flexible Networks Session
NSDI '16 Reading: Flexible Networks Session
 
Hayashi tutorial ne2017
Hayashi tutorial ne2017Hayashi tutorial ne2017
Hayashi tutorial ne2017
 
Proof summit2014mizar
Proof summit2014mizarProof summit2014mizar
Proof summit2014mizar
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門
 
4thNLPDL
4thNLPDL4thNLPDL
4thNLPDL
 
Convolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をするConvolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をする
 
[part 2]ナレッジグラフ推論チャレンジ・Tech Live!
[part 2]ナレッジグラフ推論チャレンジ・Tech Live![part 2]ナレッジグラフ推論チャレンジ・Tech Live!
[part 2]ナレッジグラフ推論チャレンジ・Tech Live!
 
演習発表 Sari v.1.2
演習発表 Sari v.1.2演習発表 Sari v.1.2
演習発表 Sari v.1.2
 
パターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvqパターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvq
 
GPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装についてGPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装について
 
東京大学工学部計数工学科応用音響学 D2 Clustering
東京大学工学部計数工学科応用音響学 D2 Clustering東京大学工学部計数工学科応用音響学 D2 Clustering
東京大学工学部計数工学科応用音響学 D2 Clustering
 
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
 
今さら聞けないHadoop勉強会第2回 セントラルソフト株式会社(20120228)
今さら聞けないHadoop勉強会第2回 セントラルソフト株式会社(20120228)今さら聞けないHadoop勉強会第2回 セントラルソフト株式会社(20120228)
今さら聞けないHadoop勉強会第2回 セントラルソフト株式会社(20120228)
 
dont_count_predict_in_acl2014
dont_count_predict_in_acl2014dont_count_predict_in_acl2014
dont_count_predict_in_acl2014
 
[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...
[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...
[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...
 
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
 
遺伝的アルゴリズム (Genetic Algorithm)を始めよう! 【簡略版】
遺伝的アルゴリズム(Genetic Algorithm)を始めよう! 【簡略版】遺伝的アルゴリズム(Genetic Algorithm)を始めよう! 【簡略版】
遺伝的アルゴリズム (Genetic Algorithm)を始めよう! 【簡略版】
 

Information extraction 1

  • 1. 【 WWW2012 勉強会】 Session 30: Information Extraction 担当: 塚原裕史(デンソーアイティーラボラトリ)
  • 2. 論文リスト  "Micropinion Generation: An Unsupervised Approach to Generating Ultra-Concise Summaries of Opinions",  Kavita Ganesan, ChengXiang Zhai, Evelyne Viegas  要旨 :  人が読んで分かる要約文生成  タグ付けや教師データを必要としない  "A Flexible Large Scale Topic Modeling Package using Variational Inference in MapReduce",  Ke Zhai, Jordan Boyd-Graber, Nima Asadi, Mohamad Alkhouja  要旨 :  MapReduce 形式による変分ベイズ法を用いた LDA 計算法  Callapsed Gibbs Sampling よりもスケールアウトできる 2 Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ ラトリ)
  • 3. Paper 1 "Micropinion Generation: An Unsupervised Approach to Generating Ultra-Concise Summaries of Opinions",   Kavita Ganesan et. al. モチベーション  ブログやニュース記事として、多くの評判情報が集まっており、 これらの評判を文章として段階的に要約し、内容を理解できるよ うにしたい。  “micropinion” と呼ぶ  これまでの評判情報要約では、元の文章とは異なる構造化された 簡潔な情報に変換されていたので、上記のようなことができなか った:  単純な極性判別: “ positive” or “negative”  カテゴリごとの評価値 :   buttery life: 1 star, screen: 3.5 star etc.  Key words or phrases extraction :  buttery, life, screen, short, clear, etc. 3 Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ ラトリ)
  • 4. Paper 1 "Micropinion Generation: An Unsupervised Approach to Generating Ultra-Concise Summaries of Opinions",   Kavita Ganesan et. al. Micropinion の事例 ( 制約: less than 10 words)  MP3 Player Y: (8 words)  Very short battery life. Big and clear screen.  Restaurant X: (9 words)  Good service. Delicious soup dishes. Very noisy at nights. ポイント  可読な文への要約  最大単語数を設定可能 4 Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ ラトリ)
  • 5. Paper 1 "Micropinion Generation: An Unsupervised Approach to Generating Ultra-Concise Summaries of Opinions",   Kavita Ganesan et. al. 方法  フレーズの代表性と可読性の指標を設計し、それらの和を最大化 するフレーズ(単語の組合せ)の組みを検索する。(最適化問題 ) 代表性  フレーズ内の各単語のローカル相互情報量の平均値  ローカル相互情報量: コンテキストウインドウ内での補正相互情報量の 平均値  補正相互情報量: コンテキストウインドウ内で共起し易い単語間で値が 大きくなるように、ヒューリスティックな補正を入れたもの。  通常の相互情報量では、頻出しない単語間で値が大きくなり、代表性という観点 では問題がある。 可読性  N-gram 言語モデルによる対数尤度の平均値 5  Microsoft の trigram 言語モデル使用 担当:塚原裕史(デンソーITラボ Session 30: Information Extraction ラトリ)
  • 6. Paper 1 "Micropinion Generation: An Unsupervised Approach to Generating Ultra-Concise Summaries of Opinions",   Kavita Ganesan et. al. 最適化手順  1.シードとなるバイグラム生成  2. N グラム候補生成  3.候補 N グラムから候補フレーズ生成  4. Depth-first search による Micropinion 決定 フレーズ m スコア w1 w2 w4 w8 S rep ( m ) + S read ( m ) 候補Nグラム w1 w2 w4 w5 w6 w8 シードバイグラム w1 w2 w3 w4 w5 w6 w7 w8 6 Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ ラトリ)
  • 7. Paper 1 "Micropinion Generation: An Unsupervised Approach to Generating Ultra-Concise Summaries of Opinions",   Kavita Ganesan et. al. 評価  データセット  CNET における製品レビューデータ  定量的評価指標  ROUGE  定性的評価指標  Gramaticality  Non-redundancy  Informativeness  ベースライン ( 従来手法 )  TF-IDF ベース  KEA  Opinosis 7 Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ ラトリ)
  • 8. Paper 1 "Micropinion Generation: An Unsupervised Approach to Generating Ultra-Concise Summaries of Opinions",   Kavita Ganesan et. al. 結論  主要な提案:  代表性と可読性に基づく最適化問題による定式化  上記最適化問題の高速な近似解探索手法を提案  主要な性質:  従来手法にくらべて、可読性の高い要約文を生成できる  モデル的に有利な点:  教師なし学習 → 低コスト  計算量が小さい → 高速  形態素解析や構文解析不要 → 多言語への拡張性 8 Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ ラトリ)
  • 9. Paper 2 "A Flexible Large Scale Topic Modeling Package using Variational Inference in MapReduce",   Ke Zhai et. al.  モチベーション  LDA の計算手法として Collapsed Gibbs Sampling が良く使われている  実装が簡単  Collapsed Gibbs Sampling は、並列化してもパフォーマンスが出ない  ノード全体で共有する状態があるため(実際には定期的に同期を取りながら計算)  明確な収束判定基準がない  Collapsed Gibbs Sampling での計算  (#topics in a document) * (#words in a topic across all documents) この部分で同期が必要となり並列化の効率に影響 9 Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ ラトリ)
  • 10. Paper 2 "A Flexible Large Scale Topic Modeling Package using Variational Inference in MapReduce",   Ke Zhai et. al.  方法  変分ベイズ法による LDA 計算を MapReduce の形式へ並列化  変分ベイズ法における反復更新処理 φ v(,d ) ∝ Eq [ β v ,k ]e Ψ ( γ k ) k 文書ごとの処理 Map V γ d ,k = α k + ∑ φ v(,d ) k v =1 λv ,k = η v ,k + ∑ ( wv( d )φv(.dk ) ) C 文書全体での処理 Reduce d =1 α new = α old − H −1 ( α old ) g ( α old ) モデル全体の制御 Driver 10 Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ ラトリ)
  • 11. Paper 2 "A Flexible Large Scale Topic Modeling Package using Variational Inference in MapReduce",   Ke Zhai et. al.  MapReduce での処理の流れ Hyperparameters Mapper (α k , λv ,k ) t → (α k , λv ,k ) t +1 文書 d (γ d ,k )    K  , φ v(,d ) →  γ d , k , φ v(,d ) , Ψ ( γ d , k ) − Ψ  ∑ γ d , k    Reducer t  k =1  t +1 k k  (η , {φ })   K  C v ,k (d ) →  λv ,k , ∑ Ψ (γ d ,k ) − Ψ ∑ γ d ,k     t  k =1  t +1 v ,k  d =1 (γ )   K  Driver d d ,k , φ v(,d ) →  γ d , k , φ v(,d ) , Ψ ( γ d , k ) − Ψ  ∑ γ d , k   k t   k  k =1   t +1 (η , {φ }) v ,k (d ) v ,k t    C d =1  K  k =1  →  λv ,k , ∑ Ψ (γ d ,k ) − Ψ ∑ γ d ,k     t +1 (α k ) t → (α k ) t +1 d (γ d ,k )   K  , φ v(,d ) →  γ d , k , φ v(,d ) , Ψ ( γ d , k ) − Ψ  ∑ γ d , k     t  k =1  t +1 k k  (η , {φ })   K  C v ,k (d ) →  λv ,k , ∑ Ψ (γ d ,k ) − Ψ ∑ γ d ,k     t  k =1  t +1 v ,k  d =1 Test Convergence d (γ )    K  , φ v(,d ) →  γ d , k , φ v(,d ) , Ψ ( γ d , k ) − Ψ  ∑ γ d , k    (Likelihood Computation) d ,k t  k =1  t +1 k k  partitioner 11 Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ ラトリ)
  • 12. Paper 2 "A Flexible Large Scale Topic Modeling Package using Variational Inference in MapReduce",   Ke Zhai et. al.  結論  従来実装 (Mahout) に比べて、処理速度・事後分布の近似精度の 両面で、非常に良く改善されている。 (論文から引用) 事 L = Eq [ log( p ( D Z ) p ( Z Θ ) ) ] − Eq [ log q( Z ) ] 後 分 布 変分ベイズでは、この量を最大化する へ の 下 限 学習時間  Remark  Collapsed Gibbs Sampling の並列化に関しては Mallet というラ イブラリがあるが、それとの比較がないので、変分ベイズ法の方 が本当に良いと言って良いのか、実際にどれくらいの差があるの か気になる。 12 Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ ラトリ)