SlideShare a Scribd company logo
1 of 51
Download to read offline
はじめての生成文法 《前編》

   TokyoNLP #5 - 2011/4/23
 中谷秀洋@サ゗ボウズ・ラボ株式会社
     id:n_shuyo / @shuyo
! 注意 !
• 言語学かじって1ヶ月
 – 発表者の「はじめて」の生成文法
• いろいろあやしいところがあります
 – 間違いがあったら優しく教えてくださいまし
• 独断と偏見もけっこうあります
 – 鵜呑みにしないでね!
もくじ 《前編》
1. 言語学=意外に新しい学問
 – 現代「言語学」は、20世紀生まれ
2. 子供はどうやって言語を身につける?
 – あのくらい自然に英語ができたらいいのになあ
3. まずは「文法」から
 – あらためて「文法って何?」て聞かれると……
4. 生成文法へのゕプローチ
 – 予告編ってやつですね!
(予定) もくじ 《後編》
1. 生成文法ってどんな文法?
 – 生成するの?   文法なの?
2. 生成文法の変遷
 – 生成文法 0.0 (句構造文法)
 – 生成文法 1.0 (標準理論)
 – 生成文法 2.0 (原理とパラメータのゕプローチ)
 – 生成文法 3.0 (ミニマリスト・プログラム)
   • ※注:バージョン間の互換性は基本的にありません
3. 生成文法は役に立つのかな
 – 自然科学とフゔンタジーのすきま
言語学=意外に新しい学問
19世紀以前の言語学
• 歴史言語学/比較言語学
 – 世界の言語を分類、系統を明らかにする
 – 「サンスクリット語が起源の゗ンド=ヨーロッパ
   語族」とか
• 修辞学(レトリック)
 – 豊かな文章を書くための技法
• 文法学(伝統文法、規範文法)
 – 「正しい」文章を規定
フェルデゖナン・ド・ソシュール
    (1857-1913)
• 若くして言語学の才能を認められる
 – 『゗ンド・ヨーロッパ語における原始的母音
   体系についての覚え書き』
フェルディナン・ド・ソシュール
      (1857-1913)
• しかし「言語学」に対して根本的な疑問
  を抱いていた

「言語学」って言うけど、
 みんなが研究してるの
「英語」とか「ドイツ語」
    だよね……
フェルディナン・ド・ソシュール
       (1857-1913)
• しかし「言語学」に対して根本的な疑問
  を抱いていた


 「言語学」はやっぱり
「言語」を研究しないとなあ
ソシュールの「一般言語学講義」
• 1906~11年にジュネーブ大学で行われた講義
 – 学生のノートから再構成した講義録
   • ソシュール自身は著作もメモもほとんど残さなかった

• 言語学に多大な影響を与える
ソシュール以降の言語学
• 音韻論
 – 言語を「音素」の列として研究
• 統語論
 – 語の並べ方について研究
   • 「生成文法」の主戦場はここ
• 意味論
 – 語とか文とかがもつ「意味」を研究
• 他にも語用論とか語彙論とか形態論とか
• 認知言語学とか類型論とか記号論とか
ぷちまとめ
• 現代言語学はここ100年の新しい学問
 – NLP や機械学習と意外と差がないね!
• ソシュールさんはすごい人
 – 言語学以外にも多大な影響。構造主義とか
 – 今回はやらないけどね
• 人工知能とも関係あるよ
 – 認知革命とかダートマス会議とか
 – 今回はやらないけどね
(おまけ) 言語学 vs NLP
•   Google Ngram Viewer で比べてみた!
    – 圧倒的じゃないか(負けっぷりが)
    – 言語学の蓄積を活かしたくなるよね
•   “Linguistics” という言葉が生まれたのは19世紀
    – やっぱりけっこう新しい学問なんだね
子供は
どうやって言語を身につける?
言語獲得
• 子供は4~5歳ごろまでに言葉を身につける
 – 母語:子供の時に自然に身につけた言語
 – 「母国語」はいろいろややこしい(政治的に)
• 大人が言語を習得するのは、子供が母語を身
  につけるよりはるかに難しい!!!!
 – ほんとにそう(T_T


• でも、どうして? どうやって?
どうやって?
• 模倣説
 – まわりの言葉を真似て覚える(経験主義)
• 生得説
 – ヒトの脳には生まれたときから「言語機能」
   がある!(キリッ
• 遺伝説
 – 子供に親の言葉が遺(ry
模倣説 vs 生得説
• 模倣説だと説明しにくいことがいろいろ
 – 刺激の貧困
 – 過剰生成
 – 否定証拠の欠如
 – 臨界期仮説
刺激の貧困(プラトンの問題)
• 子供が言語を身につけるとき、
 – ノ゗ズの少ない、大量のコーパス   ←ないない
 – 全員に均質な入力   ←人によって全然違う
• それなのに
 – 短期間(3~4年)で複雑な時制も使いこなし
 – 個体差も少なく(でないと通じない……)
 – 英語でも日本語でもOK!
• 未知の文も生成できる
 – 模倣説だと説明つかない
過剰生成
• 子供は、言語からルールを抽出できる
 – 赤 → 赤い、黄色→ 黄色い
• 当てはまらないケースにも当てはめてしまう
 – 緑 → 緑い、ピンク → ピンクい
  • うちの子供達の実話

• 模倣説では説明つかない
 – 大人は「緑い」って言わない
否定証拠の欠如
• 大人は子供の文法的な間違いを訂正しない
 – 「ピンクいお花~」「うんうん、ピンクだね」
  • むしろ肯定してるし!
• でも、いつのまにか間違えなくなっている
 – うちの子供達も、もう「緑い」とか言わない
• ルールを自覚してないけど、ちゃんとわかってる
 – ○白い、黒い、茶色い
 – ×黄い、紫い、水色い
臨界期仮説
• 「言語獲得能力には有効な期間(臨界期)があ
  り、だいたい12歳頃まで」という仮説
 – ジーニーの事例
  • 13歳まで監禁され、言葉を話せないまま暮らす
  • その後救出され、言葉を教えられた
  • が、十分な言葉を話せるようにはならなかった
• 例によって、模倣説的には具合悪い
 – 真似して身につくなら、大人にも出来るはず
 – 出来なくなる→脳に何か変化→やっぱり生得!?
臨界期ってほんとにあるの?
• 臨界期を実証する事例が少ない
 – 「12歳くらいまで言葉を話す機会がなかった」ケースな
   んてそうそうない
 – わずかな例では、別に固有の原因がなかったとは言えない
• 実験してみよう!
 – 乳飲み子をたくさん用意
 – 外界から完全に遮断して育てる
 – それぞれ言葉を教え始める年齢を決めておく
 – 言葉を身につけられなかった年齢が臨界期
   • って、そんな実験できるわけない……gkbr
実験しちゃった人
• フリードリヒ2世(1194-1250)
 – 神聖ローマ皇帝/シチリゕ王
   • 先進的な゗スラム文化に触れて育つ           [Wikipedia より]


   • 暗黒時代の西欧において、科学的視点をもった専制君主
• 「言葉を教えず育てた子供はどんな言葉を話すよ
  うになるのだろう?」
 – やってみた→全員死亡
 – ソースは?
   • 同時代の修道士で史家だった Salimbene が書き残したわず
     かな記録が遺っているのみ(っぽい)
生得説
• 「ヒトの脳には生まれつき『言語機能』
  がある」とする仮説
 – だから、かんたんに言語獲得できて、
 – 乏しいデータでもOK!
  • ゗ンプットの違いに寄らず、個体差が小さい
 – 大人になるとその機能に変化が生じて、臨界
   期となり、
 – そして、ヒト以外の生き物は言語を話せない。
言語機能
• 「言語機能」は、きっと次のようなもの
  (もしあるとすれば)
 – 言語の獲得がとても楽にできて、
 – でも、特定の言語に特化していないもの
言語の共通(普遍的)ルール
• 「言語機能=言語の共通ルール」という
  ことにしてみよう
 – 必要なのは差分だけ   ←ちょっと楽?
 – どんな言語にも対応できる   ←ほんとかな?


• でも「言語の共通ルール」なんてあるの
  かな? あるとしても、それって何?
ぷちまとめ
• 言語獲得における生得説
 – ヒトの脳には生まれつき「言語機能」がある
 – あくまで仮説
  • 肯定派も否定派もいっぱいいる
 – 生得説を裏付ける(と言われる)現象は他にも
  • ピジンとクレオール
  • 失語症
  • 今回はやらないけどね
まずは「文法」から
「文法」って?
• 文法=語を並べて文を作るルール
• 文法を組み立てる部品:
 – 語、単語=(定義してくれてない)
 – 句=意味のある、ひとまとまりの語の並び
 – 節=主語と述部のある句
 – 範疇=語や句や節の、共通した特性。品詞とか
 – 文=(トートロジーではない明確な定義をしてる
   本が見つからなかった……)
  • 「文法」によって違うけど、だいたいこんな感じ
「文法」にもいろいろある
• 規範文法
 – 望ましい(正しい)文が満たすべき文法
• 記述文法
 – 現実の文からルールを抽出して作った文法
• 伝統文法/学校文法
 – 「5文型」みたいなやつ。語学学習のための文法
• 形式文法/文脈自由文法
 – NLPで「文法」というとこのへん
普遍文法
• 普遍文法=普遍的な語の並べ方のルール
• 「普遍文法」というゕ゗デゕは昔から
 – ロジャー・ベーコン(13世紀)
  • フランチェスコ派の修道士
 – あらゆる言語は共通の文法を元とする
  • ラテン語メ゗ンで考えれば良かった時代
普遍文法+生得説
• 「普遍文法」を「生得説」に組み合わせると、
 – できるだけ幅広い文法で、
  • 言語獲得が楽になるように
 – できるだけ狭い文法がいい。
  • すべての言語に普遍的で、かつ
  • 生得的に持っていそうなくらい

• って、なんかムリゲーっぽいんですけど。
 – 日本語と英語って語順からして違うし!
グリーンバーグによる類型論
       (1960s)
• 30言語サンプルについて、語順のパターン
  を調査
 – SVO タ゗プの言語は必ず前置詞を持つ
 – SOV タ゗プの言語は必ず後置詞を持つ
  • 後置詞=日本語の助詞

• このような不変性が数多く見つかる
 – 言語の文法には何か必然性がある!
• 「普遍文法」は本当にあるかも!?
まずは「文法」を表わそう
• 文法を書き表す「要件」
 – 文の文法が正しいかチェックできる
 – 文の文法が間違っているかチェックできる
 – 文の曖昧さがチェックできる
• どんな表記方法なら、
  これらの要件を満たすことができる?
文の曖昧さ
• 「黒い瞳の大きな女の子」は
  どれでしょう?
「黒い瞳の大きな女の子」
「黒い瞳の大きな女の子」
                        [ [黒い 瞳の] 大きな 女の子]




                           [黒い [瞳の 大きな] 女の子]
[ [ [黒い 瞳の] 大きな] 女の子]
長距離の依存性
• 遠い位置にある語が結びついている
 – If either the girl eats ice cream or the girl
   eats candy, then the boy eats hot dogs.
    If
        either
            the girl eats ice cream
        or
            the girl eats candy,
    then
        the boy eats hot dogs.
どちらも文の構造の問題
• 黒い瞳の大きな女の子
  – [ [ [黒い 瞳の] 大きな] 女の子]
  – [ [黒い 瞳の] 大きな 女の子]
  – [黒い [瞳の 大きな] 女の子]
• If either ...
      If
             either
                 the girl eats ice cream
             or
                 the girl eats candy,
      then
             the boy eats hot dogs.
句構造
• どのような句のまとまりで文が出来てい
  るかを、樹形図で表す




   黒い   瞳の   大きな   女の子
句構造
• どのような句のまとまりで文が出来てい
  るかを、樹形図で表す




If                                       then
                                                      the boy eats hot dogs
 either                    or
      the girl eats ice cream   the girl eats candy
統語範疇
• 句(語のまとまり)を範疇に分ける
 – NP : 名詞句(全体として名詞のように扱える)
 – VP : 動詞句(全体として動詞のように扱える)
 – S : 文または節(主語と述部を持つ)
 – ……
 – 品詞も含むので、ややこしい
  • N:名詞、V:動詞、Det:冠詞、……
句構造+統語範疇
• “This is a pen.” を句構造で表す


               S

                   VP
        NP
                        NP

        N     V    Det       N

       This   is    a        pen
句構造規則
• Sからたどって、句構造を「生成」する
     – 句構造の枝分かれを「書き換え」とみなす
                                                     句構造規則
        S                          S
                                                     S   → NP VP
                              NP       VP
            VP                                       VP → V NP
NP                            NP   V        NP
                 NP                                  NP → N
                              N    V        NP
 N     V    Det       N       N    V    Det      N
                                                     NP → Det N

                                                     品詞 → 単語
This   is    a        pen   This   is   a     pen
句構造文法(形式文法)
• このような句構造規則によって記述され
  る「文法」
                                                     句構造規則
        S                          S
                                                     S   → NP VP
                              NP       VP
            VP                                       VP → V NP
NP                            NP   V        NP
                 NP                                  NP → N
                              N    V        NP
 N     V    Det       N       N    V    Det      N
                                                     NP → Det N

                                                     品詞 → 単語
This   is    a        pen   This   is   a     pen
ぷちまとめ
• 文法は、文の構造とルールで表せる
 – 文の構造 → 句構造
 – 語を並べるルール → 句構造規則
• 句構造文法は「文法」としてまだ力不足
 – 文の文法が正しいかチェックできる?
  • ものすごく頑張ればできる
    (チューリングマシン!)
  • ただし、句構造規則が超複雑になる
生成文法へのアプローチ
ノーム・チョムスキー(1928-)
• 「帰納的」になりがちな言語学に不満
 – 結果があって、そこから法則を読み取る
ノーム・チョムスキー(1928-)
• 自然科学とは「演繹的」なもの
 – 前提があって、そこから全てを論理的に導く



         言語学は
         生物学の一分野だ!
次回予告
• 普遍文法は本当にあるのか!?
 – いやいやその前に、普遍文法を表現するための
   「文法」がいるよね
• チョムスキーの野望に振り回される人達!
 – 敵も味方もみんな涙目
• ぶっちゃけ、生成文法って役に立つの?
 – えーと、とりあえず刺激的でおもしろいよ!
参考文献
•   黒田龍之助「はじめての言語学」, 2004

•   橋爪大三郎「はじめての構造主義」, 1988

•   加賀野井秀一「20世紀言語学入門 – 現代思想の原点」, 1995

•   丸山圭三郎「言葉とは何か」, 1994

•   池上嘉彦「記号論への招待」, 1984

•   中島文雄「英語の構造」, 1980

•   中井悟/上田雅信「生成文法を学ぶ人のために」, 2004

•   大津由紀雄/他「言語研究入門 -生成文法を学ぶ人のために」, 2002

•   A. ラドフォード「入門ミニマリスト統語論」, 2004/2006

•   M. C. ベ゗カー「言語のレシピ – 多様性にひそむ普遍性をもとめて」, 2001/2003

•   福井直樹「自然科学としての言語学 - 生成文法とは何か」, 2001

•   萩原裕子「脳にいどむ言語学」, 1998

•   L. ボロデゖツキー「言語で変わる思考」(日経サ゗エンス 2011年5月号)
•   M. D. Hauser/N. Chomsky/W. T. Fitch “The Faculty of Language: What Is It, Who Has It, and How Did It Evolve?”, 2002

•   M. Tomasello “What kind of evidence could refute the UG hypothesis?”, 2004

•   S. Pinker/R. Jackendoff “The faculty of language: what’s special about it?”, 2005

•   S. Pinker “Language Instinct – How the Mind Creates Language”, 1994 (邦題「言語を生み出す本能」, 1995)

More Related Content

What's hot

Numpy scipyで独立成分分析
Numpy scipyで独立成分分析Numpy scipyで独立成分分析
Numpy scipyで独立成分分析Shintaro Fukushima
 
子供の言語獲得と機械の言語獲得
子供の言語獲得と機械の言語獲得子供の言語獲得と機械の言語獲得
子供の言語獲得と機械の言語獲得Yuya Unno
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習Deep Learning JP
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情Yuta Kikuchi
 
ガウス過程入門
ガウス過程入門ガウス過程入門
ガウス過程入門ShoShimoyama
 
図と実装で理解する『木構造入門』
図と実装で理解する『木構造入門』図と実装で理解する『木構造入門』
図と実装で理解する『木構造入門』Proktmr
 
文献調査をどのように行うべきか?
文献調査をどのように行うべきか?文献調査をどのように行うべきか?
文献調査をどのように行うべきか?Yuichi Goto
 
新しい推薦方式 知識ベース型推薦についての解説
新しい推薦方式 知識ベース型推薦についての解説新しい推薦方式 知識ベース型推薦についての解説
新しい推薦方式 知識ベース型推薦についての解説Takahiro Kubo
 
言語処理のための仮説推論エンジン Phillip
言語処理のための仮説推論エンジン Phillip言語処理のための仮説推論エンジン Phillip
言語処理のための仮説推論エンジン PhillipKazeto Yamamoto
 
[DL輪読会]Attention Is All You Need
[DL輪読会]Attention Is All You Need[DL輪読会]Attention Is All You Need
[DL輪読会]Attention Is All You NeedDeep Learning JP
 
PRML 8.2 条件付き独立性
PRML 8.2 条件付き独立性PRML 8.2 条件付き独立性
PRML 8.2 条件付き独立性sleepy_yoshi
 
初めてのグラフカット
初めてのグラフカット初めてのグラフカット
初めてのグラフカットTsubasa Hirakawa
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介Naoki Hayashi
 
4 データ間の距離と類似度
4 データ間の距離と類似度4 データ間の距離と類似度
4 データ間の距離と類似度Seiichi Uchida
 
Surveyから始まる研究者への道 - Stand on the shoulders of giants -
Surveyから始まる研究者への道 - Stand on the shoulders of giants -Surveyから始まる研究者への道 - Stand on the shoulders of giants -
Surveyから始まる研究者への道 - Stand on the shoulders of giants -諒介 荒木
 
[DL輪読会]GANとエネルギーベースモデル
[DL輪読会]GANとエネルギーベースモデル[DL輪読会]GANとエネルギーベースモデル
[DL輪読会]GANとエネルギーベースモデルDeep Learning JP
 
Neural text-to-speech and voice conversion
Neural text-to-speech and voice conversionNeural text-to-speech and voice conversion
Neural text-to-speech and voice conversionYuki Saito
 
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報Deep Learning JP
 
マルチモーダル深層学習の研究動向
マルチモーダル深層学習の研究動向マルチモーダル深層学習の研究動向
マルチモーダル深層学習の研究動向Koichiro Mori
 
自然言語処理基礎の基礎
自然言語処理基礎の基礎自然言語処理基礎の基礎
自然言語処理基礎の基礎Takashi Minowa
 

What's hot (20)

Numpy scipyで独立成分分析
Numpy scipyで独立成分分析Numpy scipyで独立成分分析
Numpy scipyで独立成分分析
 
子供の言語獲得と機械の言語獲得
子供の言語獲得と機械の言語獲得子供の言語獲得と機械の言語獲得
子供の言語獲得と機械の言語獲得
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
 
ガウス過程入門
ガウス過程入門ガウス過程入門
ガウス過程入門
 
図と実装で理解する『木構造入門』
図と実装で理解する『木構造入門』図と実装で理解する『木構造入門』
図と実装で理解する『木構造入門』
 
文献調査をどのように行うべきか?
文献調査をどのように行うべきか?文献調査をどのように行うべきか?
文献調査をどのように行うべきか?
 
新しい推薦方式 知識ベース型推薦についての解説
新しい推薦方式 知識ベース型推薦についての解説新しい推薦方式 知識ベース型推薦についての解説
新しい推薦方式 知識ベース型推薦についての解説
 
言語処理のための仮説推論エンジン Phillip
言語処理のための仮説推論エンジン Phillip言語処理のための仮説推論エンジン Phillip
言語処理のための仮説推論エンジン Phillip
 
[DL輪読会]Attention Is All You Need
[DL輪読会]Attention Is All You Need[DL輪読会]Attention Is All You Need
[DL輪読会]Attention Is All You Need
 
PRML 8.2 条件付き独立性
PRML 8.2 条件付き独立性PRML 8.2 条件付き独立性
PRML 8.2 条件付き独立性
 
初めてのグラフカット
初めてのグラフカット初めてのグラフカット
初めてのグラフカット
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
4 データ間の距離と類似度
4 データ間の距離と類似度4 データ間の距離と類似度
4 データ間の距離と類似度
 
Surveyから始まる研究者への道 - Stand on the shoulders of giants -
Surveyから始まる研究者への道 - Stand on the shoulders of giants -Surveyから始まる研究者への道 - Stand on the shoulders of giants -
Surveyから始まる研究者への道 - Stand on the shoulders of giants -
 
[DL輪読会]GANとエネルギーベースモデル
[DL輪読会]GANとエネルギーベースモデル[DL輪読会]GANとエネルギーベースモデル
[DL輪読会]GANとエネルギーベースモデル
 
Neural text-to-speech and voice conversion
Neural text-to-speech and voice conversionNeural text-to-speech and voice conversion
Neural text-to-speech and voice conversion
 
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報
 
マルチモーダル深層学習の研究動向
マルチモーダル深層学習の研究動向マルチモーダル深層学習の研究動向
マルチモーダル深層学習の研究動向
 
自然言語処理基礎の基礎
自然言語処理基礎の基礎自然言語処理基礎の基礎
自然言語処理基礎の基礎
 

More from Shuyo Nakatani

画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15
画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15
画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15Shuyo Nakatani
 
Generative adversarial networks
Generative adversarial networksGenerative adversarial networks
Generative adversarial networksShuyo Nakatani
 
無限関係モデル (続・わかりやすいパターン認識 13章)
無限関係モデル (続・わかりやすいパターン認識 13章)無限関係モデル (続・わかりやすいパターン認識 13章)
無限関係モデル (続・わかりやすいパターン認識 13章)Shuyo Nakatani
 
Memory Networks (End-to-End Memory Networks の Chainer 実装)
Memory Networks (End-to-End Memory Networks の Chainer 実装)Memory Networks (End-to-End Memory Networks の Chainer 実装)
Memory Networks (End-to-End Memory Networks の Chainer 実装)Shuyo Nakatani
 
人工知能と機械学習の違いって?
人工知能と機械学習の違いって?人工知能と機械学習の違いって?
人工知能と機械学習の違いって?Shuyo Nakatani
 
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoRRとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoRShuyo Nakatani
 
ドラえもんでわかる統計的因果推論 #TokyoR
ドラえもんでわかる統計的因果推論 #TokyoRドラえもんでわかる統計的因果推論 #TokyoR
ドラえもんでわかる統計的因果推論 #TokyoRShuyo Nakatani
 
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...Shuyo Nakatani
 
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章Shuyo Nakatani
 
星野「調査観察データの統計科学」第1&2章
星野「調査観察データの統計科学」第1&2章星野「調査観察データの統計科学」第1&2章
星野「調査観察データの統計科学」第1&2章Shuyo Nakatani
 
言語処理するのに Python でいいの? #PyDataTokyo
言語処理するのに Python でいいの? #PyDataTokyo言語処理するのに Python でいいの? #PyDataTokyo
言語処理するのに Python でいいの? #PyDataTokyoShuyo Nakatani
 
Zipf? (ジップ則のひみつ?) #DSIRNLP
Zipf? (ジップ則のひみつ?) #DSIRNLPZipf? (ジップ則のひみつ?) #DSIRNLP
Zipf? (ジップ則のひみつ?) #DSIRNLPShuyo Nakatani
 
ACL2014 Reading: [Zhang+] "Kneser-Ney Smoothing on Expected Count" and [Pickh...
ACL2014 Reading: [Zhang+] "Kneser-Ney Smoothing on Expected Count" and [Pickh...ACL2014 Reading: [Zhang+] "Kneser-Ney Smoothing on Expected Count" and [Pickh...
ACL2014 Reading: [Zhang+] "Kneser-Ney Smoothing on Expected Count" and [Pickh...Shuyo Nakatani
 
ソーシャルメディアの多言語判定 #SoC2014
ソーシャルメディアの多言語判定 #SoC2014ソーシャルメディアの多言語判定 #SoC2014
ソーシャルメディアの多言語判定 #SoC2014Shuyo Nakatani
 
猫に教えてもらうルベーグ可測
猫に教えてもらうルベーグ可測猫に教えてもらうルベーグ可測
猫に教えてもらうルベーグ可測Shuyo Nakatani
 
アラビア語とペルシャ語の見分け方 #DSIRNLP 5
アラビア語とペルシャ語の見分け方 #DSIRNLP 5アラビア語とペルシャ語の見分け方 #DSIRNLP 5
アラビア語とペルシャ語の見分け方 #DSIRNLP 5Shuyo Nakatani
 
どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013
どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013
どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013Shuyo Nakatani
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門Shuyo Nakatani
 
数式を綺麗にプログラミングするコツ #spro2013
数式を綺麗にプログラミングするコツ #spro2013数式を綺麗にプログラミングするコツ #spro2013
数式を綺麗にプログラミングするコツ #spro2013Shuyo Nakatani
 
ノンパラベイズ入門の入門
ノンパラベイズ入門の入門ノンパラベイズ入門の入門
ノンパラベイズ入門の入門Shuyo Nakatani
 

More from Shuyo Nakatani (20)

画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15
画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15
画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15
 
Generative adversarial networks
Generative adversarial networksGenerative adversarial networks
Generative adversarial networks
 
無限関係モデル (続・わかりやすいパターン認識 13章)
無限関係モデル (続・わかりやすいパターン認識 13章)無限関係モデル (続・わかりやすいパターン認識 13章)
無限関係モデル (続・わかりやすいパターン認識 13章)
 
Memory Networks (End-to-End Memory Networks の Chainer 実装)
Memory Networks (End-to-End Memory Networks の Chainer 実装)Memory Networks (End-to-End Memory Networks の Chainer 実装)
Memory Networks (End-to-End Memory Networks の Chainer 実装)
 
人工知能と機械学習の違いって?
人工知能と機械学習の違いって?人工知能と機械学習の違いって?
人工知能と機械学習の違いって?
 
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoRRとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
 
ドラえもんでわかる統計的因果推論 #TokyoR
ドラえもんでわかる統計的因果推論 #TokyoRドラえもんでわかる統計的因果推論 #TokyoR
ドラえもんでわかる統計的因果推論 #TokyoR
 
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...
 
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
 
星野「調査観察データの統計科学」第1&2章
星野「調査観察データの統計科学」第1&2章星野「調査観察データの統計科学」第1&2章
星野「調査観察データの統計科学」第1&2章
 
言語処理するのに Python でいいの? #PyDataTokyo
言語処理するのに Python でいいの? #PyDataTokyo言語処理するのに Python でいいの? #PyDataTokyo
言語処理するのに Python でいいの? #PyDataTokyo
 
Zipf? (ジップ則のひみつ?) #DSIRNLP
Zipf? (ジップ則のひみつ?) #DSIRNLPZipf? (ジップ則のひみつ?) #DSIRNLP
Zipf? (ジップ則のひみつ?) #DSIRNLP
 
ACL2014 Reading: [Zhang+] "Kneser-Ney Smoothing on Expected Count" and [Pickh...
ACL2014 Reading: [Zhang+] "Kneser-Ney Smoothing on Expected Count" and [Pickh...ACL2014 Reading: [Zhang+] "Kneser-Ney Smoothing on Expected Count" and [Pickh...
ACL2014 Reading: [Zhang+] "Kneser-Ney Smoothing on Expected Count" and [Pickh...
 
ソーシャルメディアの多言語判定 #SoC2014
ソーシャルメディアの多言語判定 #SoC2014ソーシャルメディアの多言語判定 #SoC2014
ソーシャルメディアの多言語判定 #SoC2014
 
猫に教えてもらうルベーグ可測
猫に教えてもらうルベーグ可測猫に教えてもらうルベーグ可測
猫に教えてもらうルベーグ可測
 
アラビア語とペルシャ語の見分け方 #DSIRNLP 5
アラビア語とペルシャ語の見分け方 #DSIRNLP 5アラビア語とペルシャ語の見分け方 #DSIRNLP 5
アラビア語とペルシャ語の見分け方 #DSIRNLP 5
 
どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013
どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013
どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門
 
数式を綺麗にプログラミングするコツ #spro2013
数式を綺麗にプログラミングするコツ #spro2013数式を綺麗にプログラミングするコツ #spro2013
数式を綺麗にプログラミングするコツ #spro2013
 
ノンパラベイズ入門の入門
ノンパラベイズ入門の入門ノンパラベイズ入門の入門
ノンパラベイズ入門の入門
 

はじめての生成文法・前編 - #tokyonlp 5