SlideShare a Scribd company logo
1 of 33
Download to read offline
言語モデル入門 (第二版) 
2014年10月19日 
@akkikiki
免責事項 
•この発表は個人のものであり、会社とは 関係ありません
目次 
•はじめに 
–言語モデルとは?何に使うの? 
•基礎編 
–スムージング 
–言語モデルの評価 
•応用編:言語モデルの最近の研究 
•ツールキットのお話
今回メインで使用した資料 
•Coursera 
•IME本
言語モデルって何? 
•人間が用いるであろう言葉らしさ、を確率とし てモデル化する 
•例:P(<BOS>我輩は猫である<EOS>) > P(<BOS>は猫である<EOS>) 
IME本210ページより
モデル化するデータは? 
•コーパスが整備されている。 
•Brownコーパス 
•新聞コーパス(読売、毎日、日経等々) 
•Google 日本語 n-gramコーパス 
•日本語書き言葉均衡コーパス(BCCWJ) 
•…
言語モデルは何に使うの? 
•例:基本タスク 
–機械翻訳 
•翻訳した日本語は日本語らしいか。 
–かな漢字変換 
•変換候補はよく使われる漢字(+送り仮名等)か。 
•例:変化球系タスク 
–翻字(マイケル=Michael)検出(Li+ ACL 2004) 
–Twitter上のTopic tracking(Lin+ KDD 2011) 
–ユーザのオンラインコミュニティの退会予測 (Danescu-Niculescu-Mizil+ WWW 2013)
•基礎編: 
言語モデルとスムージング
シャノンゲーム 
•次の単語はなにがくる? 
•I want to go to ______ 
•P(w | I want to go to)でモデル化しよう!
n-gram言語モデル 
•n-1語を文脈として次の単語を予測する 
–文字n-gram、単語n-gram、品詞n-gram 
–1-gram = unigram, 2-gram = bigram 
•例:bigram言語モデル 
–P(w_i | w_i-1) = c(w_i, w_i-1) / c(w_i-1) 
•P(<BOS>/我輩 / は / 猫 / で / ある/<EOS>) 
–=P(我輩| <BOS>) * P(は|我輩) * P(猫|は) * P(で|猫) * P(ある|で) * P(<EOS> | ある)
スムージング 
•コーパスに登場する単語は有限である。 
•例:<BOS>/俺/は/猫/で/あ/る/<EOS> 
•P(俺 | <BOS>) = 0 
•コーパスに登場していない単語にどう対応す るか?(=ゼロ頻度問題) 
•⇒解決策:スムージング
スムージングの種類 
•加算スムージング ⇒ 不十分 
•n-1, n-2, …と低次のn-gramを用いよう! 
•バックオフ型 
–高次のngramが存在しない場合、低次を考慮 
–Good Turingによる推定値で低次をDiscount 
•補完(interpolated)型 
–常に低次を考慮 
–Interpolated Kneser-neyスムージング
加算スムージング 
•一番単純:定数を頻度に加算する 
•n(w):コーパス中の単語の出現回数 
•C:コーパス中の全単語の出現回数 
•k:加算する定数 
•P(w) = (n(w) + k) / (C + kV)
Good Turing 推定:バックオフ型 
•頻度の頻度を用いた、頻度の補正 
•N_c: 頻度の頻度 
•コーパス例: 
–マグロ:2,鮭:3,こはだ:1, 玉子:1, いか:1 
–合計8単語 
•N_1 = 3, N_2 = 1, N_3 = 1 
•1回しか観測されていない単語を「未知の単 語が観測される確率」と扱う
Good Turing 推定:例 
•P_gt(ゼロ頻度) = N_1 / N 
•ゼロ頻度: 
–P_gt(ゼロ頻度) = 3/8 
•一回だけ観測された単語: 
–c*(こはだ) =2 * N_2 / N_1 = 2/3 
–P_gt(一回だけの単語) = 2/3 / 8 = 1/12
Kneser-neyスムージング: Discounting 
•Good turingは結局ほ ぼ0.75ぐらいを discount 
–AP corpus 
–(Church & Gale 1991) 
•⇒定数でdiscountすれ ばいい! 
c 
C* 
0 
0.000027026 
1 
0.4457 
2 
1.260 
3 
2.237 
4 
3.236 
5 
4.23 
6 
5.19 
7 
6.21 
8 
7.24
Kneser-neyスムージング: overview 
•実験的に一番良いスムージング 
•いくつかバリエーションがある 
–Interpolated Kneser-ney (Kneser & Ney 1995) 
•今回はこっちを説明 
–Modified Kneser-ney(Chen & Goodman 1999) 
•アイディアは: 
–直前の単語の種類数を重視
Kneser-neyスムージング:例 
•Bigram言語モデルを想定 
•I want to go to Toyama Fransisco 
–Fransiscoは頻度が高いが、ほぼSanの後に続く 
•スムージング:unigramの頻度 
–P(Toyama Fransisco) ≒ P(Fransisco) 
–P(Toyama Fransisco)が高くなってしまう! 
•Kneser-neyのアイディア: 
–P_continuation: 単語wは直前の単語の種類は 豊富か?
Kneser-neyスムージングによるバ イグラム確率
Kneser-neyスムージングによるバ イグラム確率 
w_iの直前に現れる単語の 種類数
Kneser-neyスムージングによるバ イグラム確率 
w_iの直前に現れる単語の 種類数 
全ての単語の直前に現れ る単語の種類数
•言語モデルの評価
パープレキシティ 
•情報理論的距離 
•低いほど言語モデルに近く、高いほどモデル から遠い 
•D: テスト文書 
•N: 単語数 
•長さNで正規化しているイメージ
•応用編
発展1:ニューラル言語モデル (Bengio+ 2003) 
•分散表現 
–単語を固定長のベクトルで表す 
•AP newsコーパスではModified Kneser-ney よりPerplexityが低い 
model 
n 
Perplexity 
Neural LM 
6 
109 
N-gram (Kneser-ney) 
3 
127 
N-gram (Kneser-ney) 
4 
119 
N-gram (Kneser-ney) 
5 
117 
※ただしNeural LMはinterpolated trigramも使用している
発展2:大規模データによる言語モ デル (Brants+ EMNLP 2007) 
•Stupid back off 
–文字通りstupidだが、意外とうまくいく 
–Discoutingなし 
•確率ではなくスコア 
–α = 0.4 
•Unigramは
発展2:大規模データによる言語モ デル (Brants+ EMNLP 2007) 
BLEU scoreは stupid backoff の方が 上!
発展2:大規模データによる言語モ デル (Brants+ EMNLP 2007) 
BLEU scoreは stupid backoff の方が 上! 
コーパスのサイズが大きくなると スムージングの性能差がなくなる
•ツールキットのお話
主な言語モデルツール 
•CMU-Cambridge language model toolkit 
–Kneser-neyがないのであまりおすすめしない 
•SRI language model toolkit (SRILM) 
–Kneser-neyはある 
–Bengioらもこれを使った。多分これが一番使わ れている? 
–早い!
まとめ 
•N-gram言語モデルが主に用いられる 
•Kneser-neyが経験的に良いスムージング 
•スムージングの性能差はコーパスを大きくす ればなくなる 
•おすすめツールはSRILM
参考文献 
•日本語入力を支える技術 
•StanfordのNLPの授業 
–https://class.coursera.org/nlp/lecture 
–http://nlp.stanford.edu/~wcmac/papers/20050421-smoothing- tutorial.pdf 
•NYUの言語モデルの授業スライド 
–http://www.cs.nyu.edu/~petrov/lecture2.pdf 
•Univ. of Marylandの言語モデルの授業スライド 
–http://www.umiacs.umd.edu/~jimmylin/cloud-2010- Spring/session9-slides.pdf 
•Neural Language Modelの授業スライド 
–http://www.inf.ed.ac.uk/teaching/courses/asr/2013-14/asr09- nnlm.pdf
付録:SRILMのコマンド 
•# build a 5-gram model 
•ngram-count -order 5 -text hogehoge.txt - unk -lm hogehoge_lm 
•# calculate perplexity 
•ngram -order 5 -lm hogehoge_lm -ppl test.txt

More Related Content

What's hot

Sparse Codingをなるべく数式を使わず理解する(PCAやICAとの関係)
Sparse Codingをなるべく数式を使わず理解する(PCAやICAとの関係)Sparse Codingをなるべく数式を使わず理解する(PCAやICAとの関係)
Sparse Codingをなるべく数式を使わず理解する(PCAやICAとの関係)Teppei Kurita
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習Deep Learning JP
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!TransformerArithmer Inc.
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"Deep Learning JP
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情Yuta Kikuchi
 
道具としての機械学習:直感的概要とその実際
道具としての機械学習:直感的概要とその実際道具としての機械学習:直感的概要とその実際
道具としての機械学習:直感的概要とその実際Ichigaku Takigawa
 
KDD Cup 2021 時系列異常検知コンペ 参加報告
KDD Cup 2021 時系列異常検知コンペ 参加報告KDD Cup 2021 時系列異常検知コンペ 参加報告
KDD Cup 2021 時系列異常検知コンペ 参加報告GentaYoshimura
 
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法Deep Learning JP
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデルMasahiro Suzuki
 
[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展Deep Learning JP
 
[研究室論文紹介用スライド] Adversarial Contrastive Estimation
[研究室論文紹介用スライド] Adversarial Contrastive Estimation[研究室論文紹介用スライド] Adversarial Contrastive Estimation
[研究室論文紹介用スライド] Adversarial Contrastive EstimationMakoto Takenaka
 
Deep State Space Models for Time Series Forecasting の紹介
Deep State Space Models for Time Series Forecasting の紹介Deep State Space Models for Time Series Forecasting の紹介
Deep State Space Models for Time Series Forecasting の紹介Chihiro Kusunoki
 
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜SSII
 
機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化gree_tech
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Yoshitaka Ushiku
 
[DLHacks]StyleGANとBigGANのStyle mixing, morphing
[DLHacks]StyleGANとBigGANのStyle mixing, morphing[DLHacks]StyleGANとBigGANのStyle mixing, morphing
[DLHacks]StyleGANとBigGANのStyle mixing, morphingDeep Learning JP
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介Naoki Hayashi
 
【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】マルチモーダル 基盤モデル【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】マルチモーダル 基盤モデルDeep Learning JP
 

What's hot (20)

Sparse Codingをなるべく数式を使わず理解する(PCAやICAとの関係)
Sparse Codingをなるべく数式を使わず理解する(PCAやICAとの関係)Sparse Codingをなるべく数式を使わず理解する(PCAやICAとの関係)
Sparse Codingをなるべく数式を使わず理解する(PCAやICAとの関係)
 
MCMC法
MCMC法MCMC法
MCMC法
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
 
道具としての機械学習:直感的概要とその実際
道具としての機械学習:直感的概要とその実際道具としての機械学習:直感的概要とその実際
道具としての機械学習:直感的概要とその実際
 
KDD Cup 2021 時系列異常検知コンペ 参加報告
KDD Cup 2021 時系列異常検知コンペ 参加報告KDD Cup 2021 時系列異常検知コンペ 参加報告
KDD Cup 2021 時系列異常検知コンペ 参加報告
 
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
 
[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展
 
[研究室論文紹介用スライド] Adversarial Contrastive Estimation
[研究室論文紹介用スライド] Adversarial Contrastive Estimation[研究室論文紹介用スライド] Adversarial Contrastive Estimation
[研究室論文紹介用スライド] Adversarial Contrastive Estimation
 
Deep State Space Models for Time Series Forecasting の紹介
Deep State Space Models for Time Series Forecasting の紹介Deep State Space Models for Time Series Forecasting の紹介
Deep State Space Models for Time Series Forecasting の紹介
 
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
 
機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
 
ELBO型VAEのダメなところ
ELBO型VAEのダメなところELBO型VAEのダメなところ
ELBO型VAEのダメなところ
 
[DLHacks]StyleGANとBigGANのStyle mixing, morphing
[DLHacks]StyleGANとBigGANのStyle mixing, morphing[DLHacks]StyleGANとBigGANのStyle mixing, morphing
[DLHacks]StyleGANとBigGANのStyle mixing, morphing
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】マルチモーダル 基盤モデル【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】マルチモーダル 基盤モデル
 

Similar to 言語モデル入門 (第二版)

ナイーブベイズによる言語判定
ナイーブベイズによる言語判定ナイーブベイズによる言語判定
ナイーブベイズによる言語判定Shuyo Nakatani
 
Ism npblm-20120315
Ism npblm-20120315Ism npblm-20120315
Ism npblm-20120315隆浩 安
 
Chainer with natural language processing hands on
Chainer with natural language processing hands onChainer with natural language processing hands on
Chainer with natural language processing hands onOgushi Masaya
 
第三回さくさくテキストマイニング勉強会 入門セッション
第三回さくさくテキストマイニング勉強会 入門セッション第三回さくさくテキストマイニング勉強会 入門セッション
第三回さくさくテキストマイニング勉強会 入門セッションantibayesian 俺がS式だ
 
はじめての生成文法 《後編》
はじめての生成文法 《後編》はじめての生成文法 《後編》
はじめての生成文法 《後編》Shuyo Nakatani
 
はじめての生成文法・前編 - #tokyonlp 5
はじめての生成文法・前編 - #tokyonlp 5はじめての生成文法・前編 - #tokyonlp 5
はじめての生成文法・前編 - #tokyonlp 5Shuyo Nakatani
 
さくさくテキストマイニング入門セッション
さくさくテキストマイニング入門セッションさくさくテキストマイニング入門セッション
さくさくテキストマイニング入門セッションantibayesian 俺がS式だ
 
20120731 ALC Eijiro User Meeting
20120731 ALC Eijiro User Meeting20120731 ALC Eijiro User Meeting
20120731 ALC Eijiro User Meetingakikom0819
 
言語資源と付き合う
言語資源と付き合う言語資源と付き合う
言語資源と付き合うYuya Unno
 

Similar to 言語モデル入門 (第二版) (11)

ナイーブベイズによる言語判定
ナイーブベイズによる言語判定ナイーブベイズによる言語判定
ナイーブベイズによる言語判定
 
Jacet2014ykondo_final
Jacet2014ykondo_finalJacet2014ykondo_final
Jacet2014ykondo_final
 
Ism npblm-20120315
Ism npblm-20120315Ism npblm-20120315
Ism npblm-20120315
 
Chainer with natural language processing hands on
Chainer with natural language processing hands onChainer with natural language processing hands on
Chainer with natural language processing hands on
 
第三回さくさくテキストマイニング勉強会 入門セッション
第三回さくさくテキストマイニング勉強会 入門セッション第三回さくさくテキストマイニング勉強会 入門セッション
第三回さくさくテキストマイニング勉強会 入門セッション
 
はじめての生成文法 《後編》
はじめての生成文法 《後編》はじめての生成文法 《後編》
はじめての生成文法 《後編》
 
はじめての生成文法・前編 - #tokyonlp 5
はじめての生成文法・前編 - #tokyonlp 5はじめての生成文法・前編 - #tokyonlp 5
はじめての生成文法・前編 - #tokyonlp 5
 
大規模常識知識ベース構築のための常識表現の自動獲得
大規模常識知識ベース構築のための常識表現の自動獲得大規模常識知識ベース構築のための常識表現の自動獲得
大規模常識知識ベース構築のための常識表現の自動獲得
 
さくさくテキストマイニング入門セッション
さくさくテキストマイニング入門セッションさくさくテキストマイニング入門セッション
さくさくテキストマイニング入門セッション
 
20120731 ALC Eijiro User Meeting
20120731 ALC Eijiro User Meeting20120731 ALC Eijiro User Meeting
20120731 ALC Eijiro User Meeting
 
言語資源と付き合う
言語資源と付き合う言語資源と付き合う
言語資源と付き合う
 

More from Yoshinari Fujinuma (15)

Probabilistic Graphical Models 輪読会 Chapter 4.1 - 4.4
Probabilistic Graphical Models 輪読会 Chapter 4.1 - 4.4Probabilistic Graphical Models 輪読会 Chapter 4.1 - 4.4
Probabilistic Graphical Models 輪読会 Chapter 4.1 - 4.4
 
IT業界における英語とプログラミングの関係性
IT業界における英語とプログラミングの関係性IT業界における英語とプログラミングの関係性
IT業界における英語とプログラミングの関係性
 
Kuromoji FST
Kuromoji FSTKuromoji FST
Kuromoji FST
 
Liさん
LiさんLiさん
Liさん
 
冨田さん
冨田さん冨田さん
冨田さん
 
藤沼さん
藤沼さん藤沼さん
藤沼さん
 
Yokoさん
YokoさんYokoさん
Yokoさん
 
Panotさん
PanotさんPanotさん
Panotさん
 
大橋さん
大橋さん大橋さん
大橋さん
 
研究室紹介用ポスター
研究室紹介用ポスター研究室紹介用ポスター
研究室紹介用ポスター
 
Minhさん
MinhさんMinhさん
Minhさん
 
Pascualさん
PascualさんPascualさん
Pascualさん
 
Pontusさん
PontusさんPontusさん
Pontusさん
 
hara-san's research
hara-san's researchhara-san's research
hara-san's research
 
Tweet Recommendation with Graph Co-Ranking
Tweet Recommendation with Graph Co-RankingTweet Recommendation with Graph Co-Ranking
Tweet Recommendation with Graph Co-Ranking
 

Recently uploaded

AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案sugiuralab
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineerYuki Kikuchi
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?akihisamiyanaga1
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NTT DATA Technology & Innovation
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 

Recently uploaded (9)

AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 

言語モデル入門 (第二版)