Submit Search
Upload
言語モデル入門 (第二版)
•
7 likes
•
8,373 views
Yoshinari Fujinuma
Follow
Introduction to language models in Japanese
Read less
Read more
Technology
Report
Share
Report
Share
1 of 33
Download now
Download to read offline
Recommended
言語モデル入門
言語モデル入門
Yoshinari Fujinuma
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
Deep Learning JP
[DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions
Deep Learning JP
変分推論と Normalizing Flow
変分推論と Normalizing Flow
Akihiro Nitta
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について
Deep Learning JP
Active Learning 入門
Active Learning 入門
Shuyo Nakatani
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
Deep Learning JP
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP
Recommended
言語モデル入門
言語モデル入門
Yoshinari Fujinuma
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
Deep Learning JP
[DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions
Deep Learning JP
変分推論と Normalizing Flow
変分推論と Normalizing Flow
Akihiro Nitta
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について
Deep Learning JP
Active Learning 入門
Active Learning 入門
Shuyo Nakatani
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
Deep Learning JP
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP
Sparse Codingをなるべく数式を使わず理解する(PCAやICAとの関係)
Sparse Codingをなるべく数式を使わず理解する(PCAやICAとの関係)
Teppei Kurita
MCMC法
MCMC法
MatsuiRyo
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
全力解説!Transformer
全力解説!Transformer
Arithmer Inc.
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
Deep Learning JP
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
道具としての機械学習:直感的概要とその実際
道具としての機械学習:直感的概要とその実際
Ichigaku Takigawa
KDD Cup 2021 時系列異常検知コンペ 参加報告
KDD Cup 2021 時系列異常検知コンペ 参加報告
GentaYoshimura
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
Deep Learning JP
深層生成モデルと世界モデル
深層生成モデルと世界モデル
Masahiro Suzuki
[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展
Deep Learning JP
[研究室論文紹介用スライド] Adversarial Contrastive Estimation
[研究室論文紹介用スライド] Adversarial Contrastive Estimation
Makoto Takenaka
Deep State Space Models for Time Series Forecasting の紹介
Deep State Space Models for Time Series Forecasting の紹介
Chihiro Kusunoki
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII
機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化
gree_tech
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
Yoshitaka Ushiku
ELBO型VAEのダメなところ
ELBO型VAEのダメなところ
KCS Keio Computer Society
[DLHacks]StyleGANとBigGANのStyle mixing, morphing
[DLHacks]StyleGANとBigGANのStyle mixing, morphing
Deep Learning JP
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
Naoki Hayashi
【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】マルチモーダル 基盤モデル
Deep Learning JP
ナイーブベイズによる言語判定
ナイーブベイズによる言語判定
Shuyo Nakatani
Jacet2014ykondo_final
Jacet2014ykondo_final
早稲田大学
More Related Content
What's hot
Sparse Codingをなるべく数式を使わず理解する(PCAやICAとの関係)
Sparse Codingをなるべく数式を使わず理解する(PCAやICAとの関係)
Teppei Kurita
MCMC法
MCMC法
MatsuiRyo
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
全力解説!Transformer
全力解説!Transformer
Arithmer Inc.
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
Deep Learning JP
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
道具としての機械学習:直感的概要とその実際
道具としての機械学習:直感的概要とその実際
Ichigaku Takigawa
KDD Cup 2021 時系列異常検知コンペ 参加報告
KDD Cup 2021 時系列異常検知コンペ 参加報告
GentaYoshimura
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
Deep Learning JP
深層生成モデルと世界モデル
深層生成モデルと世界モデル
Masahiro Suzuki
[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展
Deep Learning JP
[研究室論文紹介用スライド] Adversarial Contrastive Estimation
[研究室論文紹介用スライド] Adversarial Contrastive Estimation
Makoto Takenaka
Deep State Space Models for Time Series Forecasting の紹介
Deep State Space Models for Time Series Forecasting の紹介
Chihiro Kusunoki
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII
機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化
gree_tech
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
Yoshitaka Ushiku
ELBO型VAEのダメなところ
ELBO型VAEのダメなところ
KCS Keio Computer Society
[DLHacks]StyleGANとBigGANのStyle mixing, morphing
[DLHacks]StyleGANとBigGANのStyle mixing, morphing
Deep Learning JP
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
Naoki Hayashi
【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】マルチモーダル 基盤モデル
Deep Learning JP
What's hot
(20)
Sparse Codingをなるべく数式を使わず理解する(PCAやICAとの関係)
Sparse Codingをなるべく数式を使わず理解する(PCAやICAとの関係)
MCMC法
MCMC法
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
全力解説!Transformer
全力解説!Transformer
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
道具としての機械学習:直感的概要とその実際
道具としての機械学習:直感的概要とその実際
KDD Cup 2021 時系列異常検知コンペ 参加報告
KDD Cup 2021 時系列異常検知コンペ 参加報告
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
深層生成モデルと世界モデル
深層生成モデルと世界モデル
[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展
[研究室論文紹介用スライド] Adversarial Contrastive Estimation
[研究室論文紹介用スライド] Adversarial Contrastive Estimation
Deep State Space Models for Time Series Forecasting の紹介
Deep State Space Models for Time Series Forecasting の紹介
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
ELBO型VAEのダメなところ
ELBO型VAEのダメなところ
[DLHacks]StyleGANとBigGANのStyle mixing, morphing
[DLHacks]StyleGANとBigGANのStyle mixing, morphing
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】マルチモーダル 基盤モデル
Similar to 言語モデル入門 (第二版)
ナイーブベイズによる言語判定
ナイーブベイズによる言語判定
Shuyo Nakatani
Jacet2014ykondo_final
Jacet2014ykondo_final
早稲田大学
Ism npblm-20120315
Ism npblm-20120315
隆浩 安
Chainer with natural language processing hands on
Chainer with natural language processing hands on
Ogushi Masaya
第三回さくさくテキストマイニング勉強会 入門セッション
第三回さくさくテキストマイニング勉強会 入門セッション
antibayesian 俺がS式だ
はじめての生成文法 《後編》
はじめての生成文法 《後編》
Shuyo Nakatani
はじめての生成文法・前編 - #tokyonlp 5
はじめての生成文法・前編 - #tokyonlp 5
Shuyo Nakatani
大規模常識知識ベース構築のための常識表現の自動獲得
大規模常識知識ベース構築のための常識表現の自動獲得
長岡技術科学大学 自然言語処理研究室
さくさくテキストマイニング入門セッション
さくさくテキストマイニング入門セッション
antibayesian 俺がS式だ
20120731 ALC Eijiro User Meeting
20120731 ALC Eijiro User Meeting
akikom0819
言語資源と付き合う
言語資源と付き合う
Yuya Unno
Similar to 言語モデル入門 (第二版)
(11)
ナイーブベイズによる言語判定
ナイーブベイズによる言語判定
Jacet2014ykondo_final
Jacet2014ykondo_final
Ism npblm-20120315
Ism npblm-20120315
Chainer with natural language processing hands on
Chainer with natural language processing hands on
第三回さくさくテキストマイニング勉強会 入門セッション
第三回さくさくテキストマイニング勉強会 入門セッション
はじめての生成文法 《後編》
はじめての生成文法 《後編》
はじめての生成文法・前編 - #tokyonlp 5
はじめての生成文法・前編 - #tokyonlp 5
大規模常識知識ベース構築のための常識表現の自動獲得
大規模常識知識ベース構築のための常識表現の自動獲得
さくさくテキストマイニング入門セッション
さくさくテキストマイニング入門セッション
20120731 ALC Eijiro User Meeting
20120731 ALC Eijiro User Meeting
言語資源と付き合う
言語資源と付き合う
More from Yoshinari Fujinuma
Probabilistic Graphical Models 輪読会 Chapter 4.1 - 4.4
Probabilistic Graphical Models 輪読会 Chapter 4.1 - 4.4
Yoshinari Fujinuma
IT業界における英語とプログラミングの関係性
IT業界における英語とプログラミングの関係性
Yoshinari Fujinuma
Kuromoji FST
Kuromoji FST
Yoshinari Fujinuma
Liさん
Liさん
Yoshinari Fujinuma
冨田さん
冨田さん
Yoshinari Fujinuma
藤沼さん
藤沼さん
Yoshinari Fujinuma
Yokoさん
Yokoさん
Yoshinari Fujinuma
Panotさん
Panotさん
Yoshinari Fujinuma
大橋さん
大橋さん
Yoshinari Fujinuma
研究室紹介用ポスター
研究室紹介用ポスター
Yoshinari Fujinuma
Minhさん
Minhさん
Yoshinari Fujinuma
Pascualさん
Pascualさん
Yoshinari Fujinuma
Pontusさん
Pontusさん
Yoshinari Fujinuma
hara-san's research
hara-san's research
Yoshinari Fujinuma
Tweet Recommendation with Graph Co-Ranking
Tweet Recommendation with Graph Co-Ranking
Yoshinari Fujinuma
More from Yoshinari Fujinuma
(15)
Probabilistic Graphical Models 輪読会 Chapter 4.1 - 4.4
Probabilistic Graphical Models 輪読会 Chapter 4.1 - 4.4
IT業界における英語とプログラミングの関係性
IT業界における英語とプログラミングの関係性
Kuromoji FST
Kuromoji FST
Liさん
Liさん
冨田さん
冨田さん
藤沼さん
藤沼さん
Yokoさん
Yokoさん
Panotさん
Panotさん
大橋さん
大橋さん
研究室紹介用ポスター
研究室紹介用ポスター
Minhさん
Minhさん
Pascualさん
Pascualさん
Pontusさん
Pontusさん
hara-san's research
hara-san's research
Tweet Recommendation with Graph Co-Ranking
Tweet Recommendation with Graph Co-Ranking
Recently uploaded
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
FumieNakayama
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
UEHARA, Tetsutaro
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
sugiuralab
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
Yuki Kikuchi
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
akihisamiyanaga1
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
博三 太田
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
FumieNakayama
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NTT DATA Technology & Innovation
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
Hiroshi Tomioka
Recently uploaded
(9)
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
言語モデル入門 (第二版)
1.
言語モデル入門 (第二版) 2014年10月19日
@akkikiki
2.
免責事項 •この発表は個人のものであり、会社とは 関係ありません
3.
目次 •はじめに –言語モデルとは?何に使うの?
•基礎編 –スムージング –言語モデルの評価 •応用編:言語モデルの最近の研究 •ツールキットのお話
4.
今回メインで使用した資料 •Coursera •IME本
5.
言語モデルって何? •人間が用いるであろう言葉らしさ、を確率とし てモデル化する
•例:P(<BOS>我輩は猫である<EOS>) > P(<BOS>は猫である<EOS>) IME本210ページより
6.
モデル化するデータは? •コーパスが整備されている。 •Brownコーパス
•新聞コーパス(読売、毎日、日経等々) •Google 日本語 n-gramコーパス •日本語書き言葉均衡コーパス(BCCWJ) •…
7.
言語モデルは何に使うの? •例:基本タスク –機械翻訳
•翻訳した日本語は日本語らしいか。 –かな漢字変換 •変換候補はよく使われる漢字(+送り仮名等)か。 •例:変化球系タスク –翻字(マイケル=Michael)検出(Li+ ACL 2004) –Twitter上のTopic tracking(Lin+ KDD 2011) –ユーザのオンラインコミュニティの退会予測 (Danescu-Niculescu-Mizil+ WWW 2013)
8.
•基礎編: 言語モデルとスムージング
9.
シャノンゲーム •次の単語はなにがくる? •I
want to go to ______ •P(w | I want to go to)でモデル化しよう!
10.
n-gram言語モデル •n-1語を文脈として次の単語を予測する –文字n-gram、単語n-gram、品詞n-gram
–1-gram = unigram, 2-gram = bigram •例:bigram言語モデル –P(w_i | w_i-1) = c(w_i, w_i-1) / c(w_i-1) •P(<BOS>/我輩 / は / 猫 / で / ある/<EOS>) –=P(我輩| <BOS>) * P(は|我輩) * P(猫|は) * P(で|猫) * P(ある|で) * P(<EOS> | ある)
11.
スムージング •コーパスに登場する単語は有限である。 •例:<BOS>/俺/は/猫/で/あ/る/<EOS>
•P(俺 | <BOS>) = 0 •コーパスに登場していない単語にどう対応す るか?(=ゼロ頻度問題) •⇒解決策:スムージング
12.
スムージングの種類 •加算スムージング ⇒
不十分 •n-1, n-2, …と低次のn-gramを用いよう! •バックオフ型 –高次のngramが存在しない場合、低次を考慮 –Good Turingによる推定値で低次をDiscount •補完(interpolated)型 –常に低次を考慮 –Interpolated Kneser-neyスムージング
13.
加算スムージング •一番単純:定数を頻度に加算する •n(w):コーパス中の単語の出現回数
•C:コーパス中の全単語の出現回数 •k:加算する定数 •P(w) = (n(w) + k) / (C + kV)
14.
Good Turing 推定:バックオフ型
•頻度の頻度を用いた、頻度の補正 •N_c: 頻度の頻度 •コーパス例: –マグロ:2,鮭:3,こはだ:1, 玉子:1, いか:1 –合計8単語 •N_1 = 3, N_2 = 1, N_3 = 1 •1回しか観測されていない単語を「未知の単 語が観測される確率」と扱う
15.
Good Turing 推定:例
•P_gt(ゼロ頻度) = N_1 / N •ゼロ頻度: –P_gt(ゼロ頻度) = 3/8 •一回だけ観測された単語: –c*(こはだ) =2 * N_2 / N_1 = 2/3 –P_gt(一回だけの単語) = 2/3 / 8 = 1/12
16.
Kneser-neyスムージング: Discounting •Good
turingは結局ほ ぼ0.75ぐらいを discount –AP corpus –(Church & Gale 1991) •⇒定数でdiscountすれ ばいい! c C* 0 0.000027026 1 0.4457 2 1.260 3 2.237 4 3.236 5 4.23 6 5.19 7 6.21 8 7.24
17.
Kneser-neyスムージング: overview •実験的に一番良いスムージング
•いくつかバリエーションがある –Interpolated Kneser-ney (Kneser & Ney 1995) •今回はこっちを説明 –Modified Kneser-ney(Chen & Goodman 1999) •アイディアは: –直前の単語の種類数を重視
18.
Kneser-neyスムージング:例 •Bigram言語モデルを想定 •I
want to go to Toyama Fransisco –Fransiscoは頻度が高いが、ほぼSanの後に続く •スムージング:unigramの頻度 –P(Toyama Fransisco) ≒ P(Fransisco) –P(Toyama Fransisco)が高くなってしまう! •Kneser-neyのアイディア: –P_continuation: 単語wは直前の単語の種類は 豊富か?
19.
Kneser-neyスムージングによるバ イグラム確率
20.
Kneser-neyスムージングによるバ イグラム確率 w_iの直前に現れる単語の
種類数
21.
Kneser-neyスムージングによるバ イグラム確率 w_iの直前に現れる単語の
種類数 全ての単語の直前に現れ る単語の種類数
22.
•言語モデルの評価
23.
パープレキシティ •情報理論的距離 •低いほど言語モデルに近く、高いほどモデル
から遠い •D: テスト文書 •N: 単語数 •長さNで正規化しているイメージ
24.
•応用編
25.
発展1:ニューラル言語モデル (Bengio+ 2003)
•分散表現 –単語を固定長のベクトルで表す •AP newsコーパスではModified Kneser-ney よりPerplexityが低い model n Perplexity Neural LM 6 109 N-gram (Kneser-ney) 3 127 N-gram (Kneser-ney) 4 119 N-gram (Kneser-ney) 5 117 ※ただしNeural LMはinterpolated trigramも使用している
26.
発展2:大規模データによる言語モ デル (Brants+
EMNLP 2007) •Stupid back off –文字通りstupidだが、意外とうまくいく –Discoutingなし •確率ではなくスコア –α = 0.4 •Unigramは
27.
発展2:大規模データによる言語モ デル (Brants+
EMNLP 2007) BLEU scoreは stupid backoff の方が 上!
28.
発展2:大規模データによる言語モ デル (Brants+
EMNLP 2007) BLEU scoreは stupid backoff の方が 上! コーパスのサイズが大きくなると スムージングの性能差がなくなる
29.
•ツールキットのお話
30.
主な言語モデルツール •CMU-Cambridge language
model toolkit –Kneser-neyがないのであまりおすすめしない •SRI language model toolkit (SRILM) –Kneser-neyはある –Bengioらもこれを使った。多分これが一番使わ れている? –早い!
31.
まとめ •N-gram言語モデルが主に用いられる •Kneser-neyが経験的に良いスムージング
•スムージングの性能差はコーパスを大きくす ればなくなる •おすすめツールはSRILM
32.
参考文献 •日本語入力を支える技術 •StanfordのNLPの授業
–https://class.coursera.org/nlp/lecture –http://nlp.stanford.edu/~wcmac/papers/20050421-smoothing- tutorial.pdf •NYUの言語モデルの授業スライド –http://www.cs.nyu.edu/~petrov/lecture2.pdf •Univ. of Marylandの言語モデルの授業スライド –http://www.umiacs.umd.edu/~jimmylin/cloud-2010- Spring/session9-slides.pdf •Neural Language Modelの授業スライド –http://www.inf.ed.ac.uk/teaching/courses/asr/2013-14/asr09- nnlm.pdf
33.
付録:SRILMのコマンド •# build
a 5-gram model •ngram-count -order 5 -text hogehoge.txt - unk -lm hogehoge_lm •# calculate perplexity •ngram -order 5 -lm hogehoge_lm -ppl test.txt
Download now