Submit Search
Upload
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
•
8 likes
•
4,474 views
hoxo_m
Follow
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択
Read less
Read more
Data & Analytics
Report
Share
Report
Share
1 of 30
Recommended
パターン認識と機械学習入門
パターン認識と機械学習入門
Momoko Hayamizu
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
hoxo_m
アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法
Satoshi Hara
PRML輪読#1
PRML輪読#1
matsuolab
GAN(と強化学習との関係)
GAN(と強化学習との関係)
Masahiro Suzuki
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?
hoxo_m
IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習
Preferred Networks
幾何と機械学習: A Short Intro
幾何と機械学習: A Short Intro
Ichigaku Takigawa
Recommended
パターン認識と機械学習入門
パターン認識と機械学習入門
Momoko Hayamizu
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
hoxo_m
アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法
Satoshi Hara
PRML輪読#1
PRML輪読#1
matsuolab
GAN(と強化学習との関係)
GAN(と強化学習との関係)
Masahiro Suzuki
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?
hoxo_m
IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習
Preferred Networks
幾何と機械学習: A Short Intro
幾何と機械学習: A Short Intro
Ichigaku Takigawa
ノンパラベイズ入門の入門
ノンパラベイズ入門の入門
Shuyo Nakatani
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
今日からできる構造学習(主に構造化パーセプトロンについて)
今日からできる構造学習(主に構造化パーセプトロンについて)
syou6162
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
Deep Learning JP
2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)
Tatsuya Yokota
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
Takao Yamanaka
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?
Fumihiko Takahashi
言葉のもつ広がりを、モデルの学習に活かそう -one-hot to distribution in language modeling-
言葉のもつ広がりを、モデルの学習に活かそう -one-hot to distribution in language modeling-
Takahiro Kubo
最適輸送入門
最適輸送入門
joisino
[Ridge-i 論文よみかい] Wasserstein auto encoder
[Ridge-i 論文よみかい] Wasserstein auto encoder
Masanari Kimura
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
Naoki Hayashi
距離と分類の話
距離と分類の話
考司 小杉
Bayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
tmtm otm
線形?非線形?
線形?非線形?
nishio
Visual Studio CodeでRを使う
Visual Studio CodeでRを使う
Atsushi Hayakawa
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
Deep Learning JP
Stanコードの書き方 中級編
Stanコードの書き方 中級編
Hiroshi Shimizu
[DL輪読会]A Higher-Dimensional Representation for Topologically Varying Neural R...
[DL輪読会]A Higher-Dimensional Representation for Topologically Varying Neural R...
Deep Learning JP
Deeplearning輪読会
Deeplearning輪読会
正志 坪坂
Neural networks for Graph Data NeurIPS2018読み会@PFN
Neural networks for Graph Data NeurIPS2018読み会@PFN
emakryo
Detecting Research Topics via the Correlation between Graphs and Texts
Detecting Research Topics via the Correlation between Graphs and Texts
Shunya Ueta
一般化線形混合モデル入門の入門
一般化線形混合モデル入門の入門
Yu Tamura
More Related Content
What's hot
ノンパラベイズ入門の入門
ノンパラベイズ入門の入門
Shuyo Nakatani
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
今日からできる構造学習(主に構造化パーセプトロンについて)
今日からできる構造学習(主に構造化パーセプトロンについて)
syou6162
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
Deep Learning JP
2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)
Tatsuya Yokota
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
Takao Yamanaka
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?
Fumihiko Takahashi
言葉のもつ広がりを、モデルの学習に活かそう -one-hot to distribution in language modeling-
言葉のもつ広がりを、モデルの学習に活かそう -one-hot to distribution in language modeling-
Takahiro Kubo
最適輸送入門
最適輸送入門
joisino
[Ridge-i 論文よみかい] Wasserstein auto encoder
[Ridge-i 論文よみかい] Wasserstein auto encoder
Masanari Kimura
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
Naoki Hayashi
距離と分類の話
距離と分類の話
考司 小杉
Bayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
tmtm otm
線形?非線形?
線形?非線形?
nishio
Visual Studio CodeでRを使う
Visual Studio CodeでRを使う
Atsushi Hayakawa
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
Deep Learning JP
Stanコードの書き方 中級編
Stanコードの書き方 中級編
Hiroshi Shimizu
[DL輪読会]A Higher-Dimensional Representation for Topologically Varying Neural R...
[DL輪読会]A Higher-Dimensional Representation for Topologically Varying Neural R...
Deep Learning JP
Deeplearning輪読会
Deeplearning輪読会
正志 坪坂
Neural networks for Graph Data NeurIPS2018読み会@PFN
Neural networks for Graph Data NeurIPS2018読み会@PFN
emakryo
What's hot
(20)
ノンパラベイズ入門の入門
ノンパラベイズ入門の入門
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
今日からできる構造学習(主に構造化パーセプトロンについて)
今日からできる構造学習(主に構造化パーセプトロンについて)
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?
言葉のもつ広がりを、モデルの学習に活かそう -one-hot to distribution in language modeling-
言葉のもつ広がりを、モデルの学習に活かそう -one-hot to distribution in language modeling-
最適輸送入門
最適輸送入門
[Ridge-i 論文よみかい] Wasserstein auto encoder
[Ridge-i 論文よみかい] Wasserstein auto encoder
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
距離と分類の話
距離と分類の話
Bayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
線形?非線形?
線形?非線形?
Visual Studio CodeでRを使う
Visual Studio CodeでRを使う
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
Stanコードの書き方 中級編
Stanコードの書き方 中級編
[DL輪読会]A Higher-Dimensional Representation for Topologically Varying Neural R...
[DL輪読会]A Higher-Dimensional Representation for Topologically Varying Neural R...
Deeplearning輪読会
Deeplearning輪読会
Neural networks for Graph Data NeurIPS2018読み会@PFN
Neural networks for Graph Data NeurIPS2018読み会@PFN
Similar to トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
Detecting Research Topics via the Correlation between Graphs and Texts
Detecting Research Topics via the Correlation between Graphs and Texts
Shunya Ueta
一般化線形混合モデル入門の入門
一般化線形混合モデル入門の入門
Yu Tamura
Topic Model Survey (wsdm2012)
Topic Model Survey (wsdm2012)
ybenjo
Hyperoptとその周辺について
Hyperoptとその周辺について
Keisuke Hosaka
あなたの心にBridgeSampling
あなたの心にBridgeSampling
daiki hojo
質問応答システム入門
質問応答システム入門
Hiroyoshi Komatsu
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
Ryutaro Yamauchi
DeepCas
DeepCas
Koichiro tamura
[DL輪読会]Training RNNs as Fast as CNNs
[DL輪読会]Training RNNs as Fast as CNNs
Deep Learning JP
Approximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLP
Koji Matsuda
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Toru Fujino
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
tomitomi3 tomitomi3
論文の書き方・読み方
論文の書き方・読み方
Satoshi Miura
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
Deep Learning JP
トピックモデルの基礎と応用
トピックモデルの基礎と応用
Tomonari Masada
Similar to トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
(15)
Detecting Research Topics via the Correlation between Graphs and Texts
Detecting Research Topics via the Correlation between Graphs and Texts
一般化線形混合モデル入門の入門
一般化線形混合モデル入門の入門
Topic Model Survey (wsdm2012)
Topic Model Survey (wsdm2012)
Hyperoptとその周辺について
Hyperoptとその周辺について
あなたの心にBridgeSampling
あなたの心にBridgeSampling
質問応答システム入門
質問応答システム入門
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
DeepCas
DeepCas
[DL輪読会]Training RNNs as Fast as CNNs
[DL輪読会]Training RNNs as Fast as CNNs
Approximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLP
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
論文の書き方・読み方
論文の書き方・読み方
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
トピックモデルの基礎と応用
トピックモデルの基礎と応用
More from hoxo_m
Shinyユーザのための非同期プログラミング入門
Shinyユーザのための非同期プログラミング入門
hoxo_m
Prophet入門【理論編】Facebookの時系列予測ツール
Prophet入門【理論編】Facebookの時系列予測ツール
hoxo_m
Prophet入門【R編】Facebookの時系列予測ツール
Prophet入門【R編】Facebookの時系列予測ツール
hoxo_m
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
hoxo_m
学習係数
学習係数
hoxo_m
Prophet入門【Python編】Facebookの時系列予測ツール
Prophet入門【Python編】Facebookの時系列予測ツール
hoxo_m
AJAXサイトの情報をWebスクレイピング
AJAXサイトの情報をWebスクレイピング
hoxo_m
高速なガンマ分布の最尤推定法について
高速なガンマ分布の最尤推定法について
hoxo_m
経験過程
経験過程
hoxo_m
確率論基礎
確率論基礎
hoxo_m
シンギュラリティを知らずに機械学習を語るな
シンギュラリティを知らずに機械学習を語るな
hoxo_m
非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出
非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出
hoxo_m
階層モデルの分散パラメータの事前分布について
階層モデルの分散パラメータの事前分布について
hoxo_m
協調フィルタリング入門
協調フィルタリング入門
hoxo_m
データの不備を統計的に見抜く (Gelman’s secret weapon)
データの不備を統計的に見抜く (Gelman’s secret weapon)
hoxo_m
カップルが一緒にお風呂に入る割合をベイズ推定してみた
カップルが一緒にお風呂に入る割合をベイズ推定してみた
hoxo_m
Stan で欠測データの相関係数を推定してみた
Stan で欠測データの相関係数を推定してみた
hoxo_m
チェビシェフの不等式
チェビシェフの不等式
hoxo_m
swirl パッケージでインタラクティブ学習
swirl パッケージでインタラクティブ学習
hoxo_m
RPubs とその Bot たち
RPubs とその Bot たち
hoxo_m
More from hoxo_m
(20)
Shinyユーザのための非同期プログラミング入門
Shinyユーザのための非同期プログラミング入門
Prophet入門【理論編】Facebookの時系列予測ツール
Prophet入門【理論編】Facebookの時系列予測ツール
Prophet入門【R編】Facebookの時系列予測ツール
Prophet入門【R編】Facebookの時系列予測ツール
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
学習係数
学習係数
Prophet入門【Python編】Facebookの時系列予測ツール
Prophet入門【Python編】Facebookの時系列予測ツール
AJAXサイトの情報をWebスクレイピング
AJAXサイトの情報をWebスクレイピング
高速なガンマ分布の最尤推定法について
高速なガンマ分布の最尤推定法について
経験過程
経験過程
確率論基礎
確率論基礎
シンギュラリティを知らずに機械学習を語るな
シンギュラリティを知らずに機械学習を語るな
非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出
非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出
階層モデルの分散パラメータの事前分布について
階層モデルの分散パラメータの事前分布について
協調フィルタリング入門
協調フィルタリング入門
データの不備を統計的に見抜く (Gelman’s secret weapon)
データの不備を統計的に見抜く (Gelman’s secret weapon)
カップルが一緒にお風呂に入る割合をベイズ推定してみた
カップルが一緒にお風呂に入る割合をベイズ推定してみた
Stan で欠測データの相関係数を推定してみた
Stan で欠測データの相関係数を推定してみた
チェビシェフの不等式
チェビシェフの不等式
swirl パッケージでインタラクティブ学習
swirl パッケージでインタラクティブ学習
RPubs とその Bot たち
RPubs とその Bot たち
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
1.
『トピックモデルによる統計的潜在意味解析』読書会 3.7 評価⽅方法 〜~
3.9 モデル選択 @hoxo_m 2016/01/28 1
2.
⾃自⼰己紹介 • hoxo_m •
所属:匿匿名知的集団ホクソエム
3.
本⽇日の内容 • 3.7 評価⽅方法 – 3.7.1
Perplexity – 3.7.2 アルゴリズム別 Perplexity の計算⽅方法 – 3.7.3 新規⽂文書における Perplexity – 3.7.4 Coherence • 3.8 各種学習アルゴリズムの⽐比較 • 3.9 モデル選択 3
4.
3.7 評価⽅方法 • トピックモデルの評価指標として Perplexity
と Coherence の 2 つが広く 使われている。 • Perplexity:予測性能 • Coherence:トピックの品質 • 拡張モデルに対しては⽬目的に応じた評価 指標が使われる 4
5.
Perplexity とは • 辞書で引くと・・ – the
feeling of being confused or worried by something you cannot understand (理理解できないものにより困惑する感覚) 5 http://www.ldoceonline.com/dictionary/perplexity ⇨ ⽇日本語で考えるのはやめよう
6.
Perplexity とは • ①〜~⑤の⽬目が出るスロットマシン •
予測モデル M を作成 • 次に出たスロットの⽬目 n • P(n | M) が⾼高いほど良良い予測モデル • 予測モデルに従って正解を当てるための 困難さ = Perplexity 6
7.
Perplexity とは • 予測モデルがない場合 ①1/5 ②1/5 ③1/5 ④1/5 ⑤1/5 •
それぞれの⽬目が出る確率率率は等しい • P(n) = 1/5 • 選択肢は 5 つ( = 1/P(n) ) • 5 つの中から 1 つを選ぶという困難さ 7
8.
Perplexity とは • 予測モデル
M がある場合 ①1/2 ②1/8 ③1/8 ④1/8 ⑤1/8 • 実際に出た⽬目が①だった ⇨ P(①|M) = 1/2 • ①が出る確率率率とその他が出る確率率率は等しい • ①を選ぶかその他を選ぶか、選択肢が 2 つ あったのと同じ ( = 2 つから 1 つを選ぶ困難さ) 8
9.
Perplexity とは • 予測モデル
M がある場合 ①1/2 ②1/8 ③1/8 ④1/8 ⑤1/8 • 実際に出た⽬目が②だった ⇨ P(②|M) = 1/8 • 正解するには他の選択肢の誘惑をすべて 振り切切る必要があった • 誘惑度度:①4 ②1 ③1 ④1 ⑤1 • 選択肢が 8 つあったのと同じ困難さ 9
10.
Perplexity とは • Perplexity
は、予測モデルに従って正解 を当てるためのある種の困難性である • Perplexity が低いほど、困難性は⼩小さい • Perplexity は、予測モデルにおける予測 確率率率の逆数である PPL = 1 / P(n | M) • 選択肢が PPL 個あったのと同じ困難さ 10
11.
Perplexity とは • 予測モデルに反して②ばかり出ると、 Perplexity
は予測なしより悪くなる • 予測モデルに従って ①①①①②③④⑤ と 出た場合 • Perplexity の平均値は 5 (予測なしと同じ) (2+2+2+2+8+8+8+8)/8 = 5 • この場合、幾何平均(相乗平均)を取るべき (2*2*2*2*8*8*8*8)^(1/8) = 4 11
12.
3.7.1 Perplexity • トピックモデルの
Perplexity • モデル M のもとで単語 w が得られる確率率率 の逆数 • PPL[w|M] = 1 / p(w | M) • テストデータ中の全ての単語に対してこ れを計算し、幾何平均(相乗平均)を取る 12
13.
13 ⇦ 相乗平均 ⇦ 対数尤度度
14.
Perplexity の計算 • LDA
において、単語の出現確率率率 p(w|M) は、各トピックにおいて w が出現する 確率率率の積分 • Φk,w : トピック k における単語 w の出現確率率率 • θd,k : ⽂文書 d におけるトピック k の出現確率率率 14
15.
3.7.2 Perplexity の計算⽅方法 •
学習アルゴリズムによっては、Φk や θd が 求まらない(ベイズなので分布している) ① ギブスサンプリング ② 周辺化ギブスサンプリング ③ 変分ベイズ ④ 周辺化変分ベイズ • 各種アルゴリズムにおける Perplexity の 計算⽅方法を⽰示す 15
16.
① ギブスサンプリング • 求まるのは
Φk および θd のサンプル • サンプル全体の平均確率率率を出す • S : サンプリング数 16
17.
② 周辺化ギブスサンプリング • 求まるのは単語に割り当てられたトピック
z の サンプル • ただし、nk,w および nd,k も同時にサンプリング されるので、これを使えば近似的に Φk および θd が求まる 17 ※事前分布の情報を⼊入れよう!
18.
③ 変分ベイズ • 求まるのは
p(Φ, θ) の近似事後分布 q(Φ)q(θ) 18
19.
④ 周辺化変分ベイズ • 求まるのは
p(z) の近似事後分布 q(z) • 同じ戦略略を取ると・・・ 19
20.
④ 周辺化変分ベイズ • この式は解析的には求まらない・・・ ⇨
q(z) からサンプリングして近似計算? • 細かいことは気にせず、変分ベイズとき の式をそのまま使う! 20
21.
学習データとテストデータの分割 • モデルは学習データで学習し、Perplexity はテストデータで計算する •
⽂文書に対するトピックの出現率率率 θd を学習 するために、ひとつひとつの⽂文書を学習 データとテストデータに分割する 21 w11, w12, w13, ... wi1, wi2, wi3, … d1 di ・・・ w1_test1, … wi_test1, …
22.
3.7.3 新規⽂文書における Perplexity •
新規⽂文書に対しても、学習⽤用とテスト⽤用 に分ける 22 w11, w12, w13, ... wi1, wi2, wi3, … d1 di ・・・ wj1, wj2, wj3, …dj wj_test1, … ・・・ 学 習 ⽤用 テスト⽤用
23.
3.7.4 Coherence • Coherence:
抽出されたトピックの品質 • 意味の近い単語が集まっているトピック をより多く抽出できる⼿手法が良良いモデル • 詳しくは LT で! 23
24.
本⽇日の内容 • 3.7 評価⽅方法 – 3.7.1
Perplexity – 3.7.2 アルゴリズム別 Perplexity の計算⽅方法 – 3.7.3 新規⽂文書における Perplexity – 3.7.4 Coherence • 3.8 各種学習アルゴリズムの⽐比較 • 3.9 モデル選択 24
25.
3.8 各種アルゴリズムの⽐比較 学習アルゴリズム GS
CGS VB CVB0 1反復復当りの計算 コスト ◯ ◉ ✖ ◯ 学習に必要な反復復 回数 厳密には多い 厳密には多い 少ない 少ない 学習の収束判定 ✖ ✖ ◉ ◯ メモリコスト ◯ △ ◉ ✖ 予測分布の計算コ スト ✖ ✖ ◉ ◉ 予測性能 (Perplexity) ◯ ◉ ✖ ◉ 学習の並列列性 容易易に可 厳密には不不可 容易易に可 厳密には不不可 適⽤用可能性 ◉ △ ◯ △ 25
26.
本⽇日の内容 • 3.7 評価⽅方法 – 3.7.1
Perplexity – 3.7.2 アルゴリズム別 Perplexity の計算⽅方法 – 3.7.3 新規⽂文書における Perplexity – 3.7.4 Coherence • 3.8 各種学習アルゴリズムの⽐比較 • 3.9 モデル選択 26
27.
3.9 モデル選択 • LDA
におけるトピック数の決定法 1. データを学習⽤用、テスト⽤用に分ける 2. 特定のトピック数を⽤用いて LDA を学習し、 テストデータで Perplexity を求める 3. LDA 学習時に必要な初期値を変えて学習を 繰り返し、Perplexity の平均を求める 4. トピック数で⽐比較し、最も良良いものを選ぶ 27
28.
3.9 モデル選択 • 変分ベイズ法の場合、変分下限がモデル 選択の基準になる 1.
特定のトピック数に対して LDA を学習し、 変分下限の値を求める 2. 初期値を変えて学習を繰り返し、変分下限の 値の平均を求める 3. トピック数で⽐比較し、最も良良いものを選ぶ • 変分下限は学習データのみから求められ るため、テストデータは必要無い 28
29.
3.9 モデル選択 • Perplexity
の値は結構ばらつくので平均 値を求めているのかなぁと思いました。 • 参照: LDA のパープレキシティを使うとき 29
30.
まとめ • 主要な LDA
ライブラリは Perplexity を 計算してくれるので安⼼心してください! • gensim: log_perplexity() • scikit-learn: perplexity() • MLlib: logPerplexity() 30