SlideShare a Scribd company logo
1 of 21
Download to read offline
トピックモデル



 難しい話
考え方、アウトプットイメージ、履歴、ツール、事例

 超難しい話
ベイズ統計、生成モデル、サンプリング

 超難しい話
Dirichlet分布




                  1
トピックモデルのアウトプット

                                          言葉




                            トピック
             言葉
文書 (または顧客)




                                   トピックの定義
                                   ぞれぞれのトピックに対してどうい
                                   う言葉が大事


                                         トピック


                            文書 (または顧客)
                                                トピックの割合
                                                それぞれのユーザに
                                                ついて、どういうトピッ
                                                クが大事



                        2
履歴の概要
●LSA (1988)
フレームワーク:線型代数学 (マトリクス対角化)




    文書




                                 出典: http://en.wikipedia.org/wiki/Latent_semantic_analysis



  言葉
         ・問題: アウトプットは使いにくい

                             3
履歴の概要
●PLSA (1999)
確率理論のフレームワーク

                              文書        トピック     言葉




出典: http://en.wikipedia.org/wiki/PLSA

                                               言葉数    文書数




 ・モデル学習: EMアルゴリズム
 ・問題: 過剰適合が多い (特に文書群が小さい場合)
                                           4
履歴の概要
 ●LDA(2003)
 最初の本物のトピックモデル
 ベイズ統計フレームワーク


                                                 ある言葉
                           文書に                                                  トピックに
                                                 のトピック              言葉
                         トピックの分布                                               言葉の分布
   ハイパー                                                                                     ハイパー
  パラメーター                                                                                   パラメーター




出典: http://en.wikipedia.org/wiki/Latent_Dirichlet_allocation



                                                          言葉数            文書数            トピック数

                                                                5
LDAの展開
LDAに基づくモデル:
●パチンコモデル: トピックの間の関連を考慮
例えば、トピック「データ分析」があるなら、トピック「コンピューター」もある可能性が高いけど、トピック
「ファッション」の確率が低い

●作者・トピックモデル: 作者によりトピックの確率が変わる

●関連トピックモデル: モデルの関連を考慮
例えば:html資料のハイパーリンク、論文の引用




LDAは言葉だけでなく、運用範囲は今研究中
例えば:画像処理




                           6
LDAツール:                         MALLET
MALLETとは、「MAchine Learning for Language Toolkit」
http://mallet.cs.umass.edu/index.php
 Andrew McCallum, of the University of Massachusetts Amherst
無料、オープンソース、Javaベース




                                                       7
 難しい話
考え方、履歴、アウトプットイメージ、ツール、事例

 超難しい話
ベイズ統計、生成モデル、サンプリング

 超難しい話
Dirichlet分布




                     8
ベイズ統計の基本原則
考え方:データの構造について強気で仮説を立つ
E → H の代わりに、H → E をモデル化する



                     H                 E


E: データ、観測出来る情報 例えば: 文書群
H: 隠れてる情報 例えば:トピックの定義、文書ごとのトピック割合
        :生成モデル、全ての情報の構造 (仮説に基づく)



計算したいこと: P( H | E)
データから、トピックを計算
でも、そのままで計算しにくい
                     𝑷(𝑯)
ベイズルール: P(H | E) =        * P(E | H)   ∝       P(H)   *   P(E | H)
                     𝑷(𝑬)
          事後確率                             事前確率            尤度



                                           仮説する           生成モデルから
                                                          簡単で計算する
                                           9
LDAの生成モデル
仮説: あるロボットが文書群を作りました。
そのロボットは生成モデルを使って文書ずつ、言葉ずつ、文書群を書きました




For (1:K) :
         トピックを生成 β
For each文書 :
         文書のトピック分布を生成 θ
         For each 言葉 :
                   トピックをランダムで選択 Z
                   言葉をランダムで選択 W




                                     10
                                    出典: http://en.wikipedia.org/wiki/Latent_Dirichlet_allocation
LDA生成モデル(例)
For (1:トピック数) :
          トピックを生成

 トピックID        キャンペーン   限定          日焼け    肌      風呂     。。。
 1             12%      8%          0.6%   0.2%   1.2%
 2             1.3%     0.6%        9%     14%    2%
 3             0.3%     0.8%        0.6%   2%     16%


          各トピック= 全ての有り得る言葉に対しての確率分布




                               11
LDA生成モデル(例)
For (1:トピック数) :
          トピックを生成

 トピックID        キャンペーン       限定          日焼け    肌            風呂     。。。
 1             12%          8%          0.6%   0.2%         1.2%
 2             1.3%         0.6%        9%     14%          2%
 3             0.3%         0.8%        0.6%   2%           16%

For each文書 :
         文書のトピック分布を生成

          文書          トピック1        トピック1            トピック3
          1           56%          24%              20%




                                   12
LDA生成モデル(例)
For (1:トピック数) :
          トピックを生成

 トピックID            キャンペーン          限定           日焼け      肌             風呂     。。。
 1                 12%             8%           0.6%     0.2%          1.2%
 2                 1.3%            0.6%         9%       14%           2%
 3                 0.3%            0.8%         0.6%     2%            16%

For each文書 :
         文書のトピック分布を生成

       文書                  トピック1           トピック2               トピック3
       1                   56%             24%                 20%


                                                       この分布によりランダム抽出
           For each 言葉 :

                     トピックをランダムで選択:        トピック1




                                           13
LDA生成モデル(例)
For (1:トピック数) :
          トピックを生成

 トピックID          キャンペーン            限定           日焼け      肌             風呂     。。。
 1               12%               8%           0.6%     0.2%          1.2%
 2               1.3%              0.6%         9%       14%           2%
 3               0.3%              0.8%         0.6%     2%            16%


For each文書 :                                         この分布によりランダム抽出
         文書のトピック分布を生成

       文書                  トピック1           トピック2               トピック3
       1                   56%             24%                 20%



           For each 言葉 :

                       トピックをランダムで選択:             トピック1

                       言葉をランダムで選択:        “限定”


                                           14
モンテカルロの基本原則
P(β 、 θ 、 Z | W) を計算したい。
それは多次元と連続値の確率密度なので正しく計算出来ない
→ サンプリングを使って確率密度を近似する



For each サンプル:
  生成モデルを使って{β 、 θ 、 Z}を生成
   生成モデルを元に生成された{β、 θ、 Z}の事前確率を計算 → P (β、 θ、 Z )
   生成モデルと{β 、 θ 、 Z}により W                            の尤度を計算            → P (W | β、 θ、 Z )
   事前確率と尤度からサンプルの事後確率を計算                                            P(β 、 θ 、 Z | W) ∝ P (β、θ、Z) * P (W | β、θ、Z )

サンプルが多かったら多いほど事後確率の分布に近づく




出典: http://en.wikipedia.org/wiki/Latent_Dirichlet_allocation
                                                               15
 難しい話
考え方、履歴、アウトプットイメージ、ツール、事例

 超難しい話
ベイズ統計、生成モデル、サンプリング

 超難しい話
Dirichlet分布




                     16
なぜ 「LDA」?

  For (1:トピック数) :
            トピックを生成 β           Dirichlet 分布
  For each文書 :
            文書のトピック分布を生成 θ                 Dirichlet 分布
            For each 言葉 :
                      トピックをランダムで選択 Z                     Categorical 分布
                      言葉をランダムで選択 W                   Categorical 分布




出典: http://en.wikipedia.org/wiki/Latent_Dirichlet_allocation




                                                               17
Categorical分布とは?
For (1:トピック数) :
          トピックを生成 β           Dirichlet 分布
For each文書 :
          文書のトピック分布を生成 θ                 Dirichlet 分布
          For each 言葉 :
                    トピックをランダムで選択 Z                     Categorical 分布
                    言葉をランダムで選択 W                   Categorical 分布



トピックID      キャンペーン        限定          日焼け           肌            風呂          。。。

1           x1 = 12%      x2 = 8%     x3 = 0.6%     x4 = 0.2%    x5 = 1.2%



K値があり得る。 K=言葉種類の全体数

全ての値 i に対して、確率 xi がある。
確率分布なので:
 x1 + x2 + x3 + 。。。 + xk = 1




                                             18
Dirichlet分布とは?
For (1:トピック数) :
          トピックを生成 β           Dirichlet 分布
For each文書 :
          文書のトピック分布を生成 θ                 Dirichlet 分布
          For each 言葉 :
                    トピックをランダムで選択 Z                     Categorical 分布
                    言葉をランダムで選択 W                   Categorical 分布


Categorical 分布を生成する為
⇒ 確率分布の確率分布 (!)

 キャンペーン           限定          日焼け          肌                風呂          。。。
 x1 = 12%         x2 = 8%     x3 = 0.6%    x4 = 0.2%        x5 = 1.2%           0.3%
 x1 = 1.3%        x2 = 0.6%   x3 = 9%      x4 = 14%         x5 = 2%             0.7%
 x1 = 0.3%        x2 = 0.8%   x3 = 0.67%   x4 = 2%          x5 = 16%            0.2%




                                                Dirichlet式
            有り得る {x1, … xK}
            のスペース
                                                                              確率密度
                                                       19
Dirichlet分布とは?


                    Dirichlet式

有り得る {x1, … xK}
のスペース




                                 20
まとめ

●LDAとは、文書群からトピックを統計的に抽出する手法です
●パワフール、使いやすいなので、活用と研究は広がっている状態
●ベイズ統計、確率計算に基づくので、ベイジアンネットワークとの連携がしやすい




                                                     言葉




                                  トピック
                  言葉
      文書(または顧客)




                       LDA
                                                     トピック




                                         文書(または顧客)


                             21

More Related Content

What's hot

[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎Deep Learning JP
 
NLPにおけるAttention~Seq2Seq から BERTまで~
NLPにおけるAttention~Seq2Seq から BERTまで~NLPにおけるAttention~Seq2Seq から BERTまで~
NLPにおけるAttention~Seq2Seq から BERTまで~Takuya Ono
 
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデルMasashi Komori
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)Takao Yamanaka
 
[Ridge-i 論文よみかい] Wasserstein auto encoder
[Ridge-i 論文よみかい] Wasserstein auto encoder[Ridge-i 論文よみかい] Wasserstein auto encoder
[Ridge-i 論文よみかい] Wasserstein auto encoderMasanari Kimura
 
12. Diffusion Model の数学的基礎.pdf
12. Diffusion Model の数学的基礎.pdf12. Diffusion Model の数学的基礎.pdf
12. Diffusion Model の数学的基礎.pdf幸太朗 岩澤
 
確率モデルを使ったグラフクラスタリング
確率モデルを使ったグラフクラスタリング確率モデルを使ったグラフクラスタリング
確率モデルを使ったグラフクラスタリング正志 坪坂
 
【論文読み会】Autoregressive Diffusion Models.pptx
【論文読み会】Autoregressive Diffusion Models.pptx【論文読み会】Autoregressive Diffusion Models.pptx
【論文読み会】Autoregressive Diffusion Models.pptxARISE analytics
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介Naoki Hayashi
 
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリングmlm_kansai
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)Masahiro Suzuki
 
クラシックな機械学習の入門  5. サポートベクターマシン
クラシックな機械学習の入門  5. サポートベクターマシンクラシックな機械学習の入門  5. サポートベクターマシン
クラシックな機械学習の入門  5. サポートベクターマシンHiroshi Nakagawa
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative ModelsDeep Learning JP
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門joisino
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明Haruka Ozaki
 
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
トピックモデルの評価指標 Coherence 研究まとめ #トピ本トピックモデルの評価指標 Coherence 研究まとめ #トピ本
トピックモデルの評価指標 Coherence 研究まとめ #トピ本hoxo_m
 
PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半Ohsawa Goodfellow
 
パターン認識と機械学習入門
パターン認識と機械学習入門パターン認識と機械学習入門
パターン認識と機械学習入門Momoko Hayamizu
 
トピックモデル勉強会: 第2章 Latent Dirichlet Allocation
トピックモデル勉強会: 第2章 Latent Dirichlet Allocationトピックモデル勉強会: 第2章 Latent Dirichlet Allocation
トピックモデル勉強会: 第2章 Latent Dirichlet AllocationHaruka Ozaki
 

What's hot (20)

[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎
 
NLPにおけるAttention~Seq2Seq から BERTまで~
NLPにおけるAttention~Seq2Seq から BERTまで~NLPにおけるAttention~Seq2Seq から BERTまで~
NLPにおけるAttention~Seq2Seq から BERTまで~
 
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
【読書会資料】『StanとRでベイズ統計モデリング』Chapter12:時間や空間を扱うモデル
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
 
[Ridge-i 論文よみかい] Wasserstein auto encoder
[Ridge-i 論文よみかい] Wasserstein auto encoder[Ridge-i 論文よみかい] Wasserstein auto encoder
[Ridge-i 論文よみかい] Wasserstein auto encoder
 
12. Diffusion Model の数学的基礎.pdf
12. Diffusion Model の数学的基礎.pdf12. Diffusion Model の数学的基礎.pdf
12. Diffusion Model の数学的基礎.pdf
 
確率モデルを使ったグラフクラスタリング
確率モデルを使ったグラフクラスタリング確率モデルを使ったグラフクラスタリング
確率モデルを使ったグラフクラスタリング
 
【論文読み会】Autoregressive Diffusion Models.pptx
【論文読み会】Autoregressive Diffusion Models.pptx【論文読み会】Autoregressive Diffusion Models.pptx
【論文読み会】Autoregressive Diffusion Models.pptx
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
 
LDA入門
LDA入門LDA入門
LDA入門
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)
 
クラシックな機械学習の入門  5. サポートベクターマシン
クラシックな機械学習の入門  5. サポートベクターマシンクラシックな機械学習の入門  5. サポートベクターマシン
クラシックな機械学習の入門  5. サポートベクターマシン
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明
 
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
トピックモデルの評価指標 Coherence 研究まとめ #トピ本トピックモデルの評価指標 Coherence 研究まとめ #トピ本
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
 
PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半
 
パターン認識と機械学習入門
パターン認識と機械学習入門パターン認識と機械学習入門
パターン認識と機械学習入門
 
トピックモデル勉強会: 第2章 Latent Dirichlet Allocation
トピックモデル勉強会: 第2章 Latent Dirichlet Allocationトピックモデル勉強会: 第2章 Latent Dirichlet Allocation
トピックモデル勉強会: 第2章 Latent Dirichlet Allocation
 

Viewers also liked

Twitterテキストのトピック分析
Twitterテキストのトピック分析Twitterテキストのトピック分析
Twitterテキストのトピック分析Nobuyuki Kawagashira
 
動画タグネットワーク分析を用いた ニコニコ動画における萌芽文化発見の試み ~”ゆっくり関連タグ”を例として~
動画タグネットワーク分析を用いた ニコニコ動画における萌芽文化発見の試み ~”ゆっくり関連タグ”を例として~動画タグネットワーク分析を用いた ニコニコ動画における萌芽文化発見の試み ~”ゆっくり関連タグ”を例として~
動画タグネットワーク分析を用いた ニコニコ動画における萌芽文化発見の試み ~”ゆっくり関連タグ”を例として~Yusuke Fukasawa
 
料理レシピサービスにおける検索語の意味変化に関する分析
料理レシピサービスにおける検索語の意味変化に関する分析料理レシピサービスにおける検索語の意味変化に関する分析
料理レシピサービスにおける検索語の意味変化に関する分析Yusuke Fukasawa
 
ニコニコ動画における関連動画情報を用いたカテゴリ特徴の把握
ニコニコ動画における関連動画情報を用いたカテゴリ特徴の把握ニコニコ動画における関連動画情報を用いたカテゴリ特徴の把握
ニコニコ動画における関連動画情報を用いたカテゴリ特徴の把握Yusuke Fukasawa
 
経済的寄与度を重視した橋梁管理手法の有効性に関するマルチエージェントシミュレーションによる分析
経済的寄与度を重視した橋梁管理手法の有効性に関するマルチエージェントシミュレーションによる分析経済的寄与度を重視した橋梁管理手法の有効性に関するマルチエージェントシミュレーションによる分析
経済的寄与度を重視した橋梁管理手法の有効性に関するマルチエージェントシミュレーションによる分析Yusuke Fukasawa
 
LDAを用いた教師なし単語分類
LDAを用いた教師なし単語分類LDAを用いた教師なし単語分類
LDAを用いた教師なし単語分類Kouhei Nakaji
 
【ニコニコ動画】"マリオメーカー問題"のもたらした影響をネットワーク分析してみた
【ニコニコ動画】"マリオメーカー問題"のもたらした影響をネットワーク分析してみた【ニコニコ動画】"マリオメーカー問題"のもたらした影響をネットワーク分析してみた
【ニコニコ動画】"マリオメーカー問題"のもたらした影響をネットワーク分析してみたYusuke Fukasawa
 
DeNAの報告書を可視化して雰囲気をつかむ
DeNAの報告書を可視化して雰囲気をつかむDeNAの報告書を可視化して雰囲気をつかむ
DeNAの報告書を可視化して雰囲気をつかむYusuke Fukasawa
 
第二回機械学習アルゴリズム実装会 - LDA
第二回機械学習アルゴリズム実装会 - LDA第二回機械学習アルゴリズム実装会 - LDA
第二回機械学習アルゴリズム実装会 - LDAMasayuki Isobe
 
RではじめるTwitter解析
RではじめるTwitter解析RではじめるTwitter解析
RではじめるTwitter解析Takeshi Arabiki
 

Viewers also liked (10)

Twitterテキストのトピック分析
Twitterテキストのトピック分析Twitterテキストのトピック分析
Twitterテキストのトピック分析
 
動画タグネットワーク分析を用いた ニコニコ動画における萌芽文化発見の試み ~”ゆっくり関連タグ”を例として~
動画タグネットワーク分析を用いた ニコニコ動画における萌芽文化発見の試み ~”ゆっくり関連タグ”を例として~動画タグネットワーク分析を用いた ニコニコ動画における萌芽文化発見の試み ~”ゆっくり関連タグ”を例として~
動画タグネットワーク分析を用いた ニコニコ動画における萌芽文化発見の試み ~”ゆっくり関連タグ”を例として~
 
料理レシピサービスにおける検索語の意味変化に関する分析
料理レシピサービスにおける検索語の意味変化に関する分析料理レシピサービスにおける検索語の意味変化に関する分析
料理レシピサービスにおける検索語の意味変化に関する分析
 
ニコニコ動画における関連動画情報を用いたカテゴリ特徴の把握
ニコニコ動画における関連動画情報を用いたカテゴリ特徴の把握ニコニコ動画における関連動画情報を用いたカテゴリ特徴の把握
ニコニコ動画における関連動画情報を用いたカテゴリ特徴の把握
 
経済的寄与度を重視した橋梁管理手法の有効性に関するマルチエージェントシミュレーションによる分析
経済的寄与度を重視した橋梁管理手法の有効性に関するマルチエージェントシミュレーションによる分析経済的寄与度を重視した橋梁管理手法の有効性に関するマルチエージェントシミュレーションによる分析
経済的寄与度を重視した橋梁管理手法の有効性に関するマルチエージェントシミュレーションによる分析
 
LDAを用いた教師なし単語分類
LDAを用いた教師なし単語分類LDAを用いた教師なし単語分類
LDAを用いた教師なし単語分類
 
【ニコニコ動画】"マリオメーカー問題"のもたらした影響をネットワーク分析してみた
【ニコニコ動画】"マリオメーカー問題"のもたらした影響をネットワーク分析してみた【ニコニコ動画】"マリオメーカー問題"のもたらした影響をネットワーク分析してみた
【ニコニコ動画】"マリオメーカー問題"のもたらした影響をネットワーク分析してみた
 
DeNAの報告書を可視化して雰囲気をつかむ
DeNAの報告書を可視化して雰囲気をつかむDeNAの報告書を可視化して雰囲気をつかむ
DeNAの報告書を可視化して雰囲気をつかむ
 
第二回機械学習アルゴリズム実装会 - LDA
第二回機械学習アルゴリズム実装会 - LDA第二回機械学習アルゴリズム実装会 - LDA
第二回機械学習アルゴリズム実装会 - LDA
 
RではじめるTwitter解析
RではじめるTwitter解析RではじめるTwitter解析
RではじめるTwitter解析
 

LDA等のトピックモデル