SlideShare a Scribd company logo
1 of 67
Download to read offline
はじめての生成文法 《後編》

   TokyoNLP #6 - 2011/6/25
 中谷秀洋@サ゗ボウズ・ラボ株式会社
     id:n_shuyo / @shuyo
おことわり
• これだけで生成文法がわかったりしません
 – あくまでもダ゗ジェスト
 – 通年の講義するわけにもいかないしね!
• 素人です
 – 独断と偏見も多いよ
 – 鵜呑みにしないでね
• 生成文法は「仮定」「仮説」のかたまり
 – NGつっこみ:「それ本当? 証拠は?」
ねらい
• 生成文法の流れを見てみる
 – 「生成文法の目的って何?」
 – 「生成文法にもいろいろあるみたいだけど」
 – 「どうしてこうなった?」
• 生成文法に興味を持つ
 – 「難しいってよく聞くけどホント?」
 – 「ぶっちゃけ、おもしろいの?」
 – 「なんかの役に立つ?」
もくじ 《後編》
1. 生成文法ってどんな文法?
2. 生成文法の概略と変遷
 – 生成文法 0.0 (句構造文法)
 – 生成文法 1.x ([[改訂]拡大]標準理論)
 – 生成文法 2.0 (GB理論/原理とパラメータのゕプローチ)
 – 生成文法 3.0β (ミニマリスト・プログラム)
3. 生成文法は信じていいの?
 – 自然科学とフゔンタジーのすきま
前編のあらすじ
なぜヒトは言葉を話せるのか
    まだわかっていない
• 言語獲得
 – なぜ子供は言葉をかんたんに覚えられるの?
• 言語機能の生得説
 – 生まれたときから「言語のための機能」を脳
   に持っているんだよ! きっと!
• でも「言語のための機能」って何だろう?
言語機能があるとしたら
  いったいどんなものだろう
• 乏しいデータからかんたんに言語獲得
 – 4歳児でも、ほぼ完全に近い言葉を使う
 – ゗ンプットの違いに寄らず、個体差が小さい
• 言語専用の機能(他の認知機能とは独立)
 – 認知機能の発達した大人に言語習得が難しい
• 任意の言語に対応
 – 獲得速度にも差がない
言語機能は「言語の共通ルール」だと
   チョムスキーは考えた
• 普遍文法=言語の共通ルール
 – 全ての言語に共通の語の並べ方のルール
 – 共通ルールを生まれたときから知っていれば
  • 個別言語との差分を身につければいいだけ

• 普遍文法を明らかにすれば
  言語獲得の謎は解決!
生成文法ってどんな文法?
チョムスキーの生成文法
• 生成文法とは、
 – 普遍文法を研究するフレームワーク
• 具体的には、
 – ヒトの言語の文法的現象を演繹的に記述し、
 – 言語獲得を説明するための仮説群


• キーワード:                  文法じゃあない?

 – 文法的現象 / 演繹 / 記述 / 説明
文法的現象
• 文法的現象(統語現象)                                       文法以外の現象は
 – 語を並べるときに生じる現象                                      対象外
                                                (音韻・意味・形態など)
• 多くは各言語に固有
 – 英語と日本語の文法的現象は全く異なる
        文法的現象                       説明
       語順       SVO, 前置詞
       一致       三単現の -s とその分布
       格        格変化(he/himなど)とその分布
       疑問文      助動詞倒置
       DO支持     疑問文・否定文のDO挿入
       wh移動     文頭の疑問詞(what/whoなど)
       受動文      S V O => O be V-en by S
       虚辞       意味を持たない it や there を主語に
       主語繰り上げ   It seems that S V => S seems to V

                英語の文法的現象(一部)
演繹
                      (Wikipedia より)

演繹(えんえき、英: deduction)は、一般的・普遍
的な前提から、より個別的・特殊的な結論を得る推
論方法である。対義語は帰納。帰納の導出関係は蓋
然的に正しいのみだが、演繹の導出関係は前提を認
めるなら絶対的、必然的に正しい。したがって実際
上は、前提が間違っていたり適切でない前提が用い
られれば、誤った結論が導き出されることがある。
近代的には、演繹法とは記号論理学によって記述で
きる論法の事を指す。

              わかりませんw
「演繹」を柔らかく言うと
• 「正しいこと」の積み重ね
 – 前提となる仮定(仮説・原理・公理)を認めた上で
 – 順に読んでいけば、全てが正しいと言える
• 主観が入らない。人によらない
 – 誰がやっても同じ理解・結論になる


• 一番重要なことは「何を前提としたか」
文法により言語を「記述」する
• 次のことが出来れば、「言語を記述した」と定義
 – 全ての文法的な文を文法操作で生成できる
 – 非文法的な文は生成できないことを示す
• 実際には、個々の「文法的現象」について
 – 適格な文を生成できることを示す             全ての文の列挙なんて
                                できないからね!
 – 非文を生成できないことを示す

 仮説群
生得説、普遍文法、
                                   その言語の
                           =
 句構造、……      文法
                   生成された
             操作                    文法的な文
            (演算)    文全体
                                     全て
  辞書
 (レキシコン)

                           完全一致!
言語獲得を「説明」
• 言語獲得を次のように「説明」する
 – 普遍文法   = 言語に共通のルール
 – 英語を獲得 = (英語 ー 普遍文法) を身につける
• 言語獲得がかんたんということは……?

                     普遍文法=言語に共通のルール
          日本語



     ドイツ語       英語
チョムスキーの生成文法
• 生成文法とは、
 – ヒトの言語の文法的現象を演繹的に記述し、
 – また言語獲得を説明するための仮説群

            ≒
 – 個別かつ例外だらけの言語それぞれが
 – きちんと生成できるルールを
 – できるだけ共通のものとして抜き出そう!
生成文法の概略と変遷
まずは
言語を記述するルールを
   手に入れよう
句構造文法
                 (生成文法 0.0)

• 「文法」を表現する道具がなかった
  – 「句構造」と「句構造規則」を発明
        S
                             範疇      説明

            VP               S       文または節
                                     名詞
NP
                             N

                  NP         V       動詞
                             P       前置詞

 N     V    Det        N             形容詞
                             A
                             D/Det   決定詞(冠詞)
                             ~P      ~句
This   is    a         pen
句構造規則
• Sからたどって、句構造を「生成」する
     – 書き換え規則=句構造の枝分かれ
                                                     句構造規則
        S                          S
                                                     S   → NP VP
                              NP       VP
            VP                                       VP → V NP
NP                            NP   V        NP
                 NP                                  NP → N
                              N    V        NP
 N     V    Det       N       N    V    Det      N
                                                     NP → Det N

                                                     品詞 → 単語
This   is    a        pen   This   is   a     pen
句構造文法
  仮説群
生得説、普遍文法、
 句構造、……、
                                                その言語の
                                           =
                     文法
  句構造規則                         生成された
                     操作                         文法的な文
                    (演算)         文全体
    辞書                                            全て
a, is, pen, this,
       ……




                                                   ∈
                                 ∈
                      S
                                               This is a pen
                           VP
              NP
                                NP
                                            こうやって
               N     V     Det       N     言語を記述して
             This    is     a        pen      いく
チョムスキーの階層
• 句構造文法はチューリングマシンと等価
  – どんな言語も記述できる!(原理的には)
• しかし規則が膨大になる
  – 現在形・過去形・否定文・疑問文・受動態
    ……を生成する規則を動詞ごとに用意、とか
 階層       文法         オートマトン
タイプ-0   句構造文法    チューリングマシン         記述力が
タイプ-1   文脈依存文法   線形有界オートマトン       一番高いけど
タイプ-2   文脈自由文法   プッシュダウン・オートマトン
                                   扱うのも
                                  一番難しい
タイプ-3   正則文法     有限オートマトン
記述力のある
「文法」を手に入れた!
  (原理的には)
次は
実際に文法ルールを
構築できるようにしよう
[[改訂]拡大]標準理論
          (生成文法 1.x)

• 句構造文法に「変形規則」を導入
 – 例:受動文を生成する「受動変形」
  • 動詞ごとに受動文を生成する規則がいらなくなる

• 文法を現実的に構築可能に!

   John    calls    Tom
                           句構造規則
                           で生成した
   Tom is called by John    文を変形
接辞繰り下げ変形                             動詞ごとに過去・
                                               完了・進行の規則を
                                               用意しなくていい
• 助動詞(Aux)は時制・法・相(完了・進行)からなる
• 接辞(-ed や –ing)は「接辞繰り下げ変形」により直後の要素に付く

                           S          中村他「生成文法の新展開」(p39)より



   NP                     Aux                    VP

    N     Tns Modal            Perf     Prog      V

   Mary   [Pres]   will   have͡ en be͡ ing       love
                                      接辞繰り下げ変形


   Mary            will    have        been      loving
英語の変形規則




日本語に当て
はまりそうな
         中井悟/上田雅信「生成文法を学ぶ人のために」(p71)より
 規則は……
英語の記述はだいぶ出来たけど
• こんな状態

             日本語




          ドイツ語     英語
こうしたい!
• 「個別言語ー普遍文法」が
  限りなく小さいほど嬉しい

             日本語




      ドイツ語         英語
今のアプローチのままでは
  絶対無理だ……
いっそ
「全部同じ文法」
 ってのはどう?
GB理論/原理とパラメータのゕプローチ
            (生成文法 2.0)

• 普遍文法に重点を置いて、完全リニューゕル
 – 前バージョン(標準理論)と互換性はありません
• 言語を「共通部分」と「可変部分」に分離
 – 共通部分 →   原理
  • 全ての言語の文法的現象を共通の原理で記述
 – 可変部分 → パラメータ
  • パラメータ:主に2値
  • 脳内に「言語のデゖップス゗ッチ」がある゗メージ
Xバー理論                最初は ������と
                                 書いていたけど、
                                 印刷の都合で ������′ と
                                   書くように
• 句構造規則に変わるもの
 – X’ と書いて「Xバー」と読む
                                XP
• 右の XP ツリーが基本形
 – X,Y,Z は範疇のテンプレート
   • X,Y,Z = N, V, P, ……
                           YP        X’
 – Y, Z は空も可
                                X         ZP
Xバーの構造例
                            X=I, Y=DP, Z=VP
        IP
                            ※) I は「屈折辞」(時制などを含む範疇)で
DP              I’          Xバーでは文は IP で表すと仮定している


         I           VP                  X=V, Y= ∅, Z=DP

John                         V’
                ∅
                                            X=D, Y= ∅, Z=NP
       [Pres]         V            DP

                              ∅           D’
                     love
構造は全て                               D           NP
 Xバーで
                                   the          dog
句構造規則 vs. Xバー理論
• 句構造規則            • Xバー
  S    →   NP VP     XP → YP X'
  VP   →   V NP      X' → XP ZP
  NP   →   N
  NP   →   Det N    – 1種類だけ!
       :            – 原理(共通ルール化)
                      にできる!
 – いろんなパターン
α移動
• 変形規則に変わるもの
 – αは「なんでもいい」の意味(テンプレート)
• 「任意の句を任意の位置に移動する」
 – そんなんでいいの!?

   John    calls   Tom
                          ダメでしょ
                           う……
   calls   Tom     John
フゖルタ
 • α移動で生成された「文」のうち、非文
   法的な文を「フゖルタ」で制約する
      – フゖルタは共通原理として仮定する
       John calls Tom
α移動
       John calls Tom     フ     John calls Tom
       John Tom calls     ィ

                                ×
       calls John Tom     ル
       calls Tome John    タ
       Tom John calls
       Tom calls John
フゖルタ
• さまざまなフゖルタがあるが、詳細は省略
 – 拡大投射原理
 – 空範疇原理
 – θ基準
 – 格フゖルタ
 – 束縛原理
 – 下接の条件
 –   :
パラメータ
• 各言語固有の現象は「パラメータ」で切り替える
 – パラメータ=(主に)2値の「ス゗ッチ」
• 例)語順のパラメータ(主要部位置パラメータ)
パラメータ = 主要部(X)は補部(ZP)の前   パラメータ = 主要部(X)は補部(ZP)の後

       XP                               XP
                           SOVは
                  SVOは     こっち
                  こっち
  YP        X’                     X’        YP

        X        ZP           ZP        X
パラメータ
• さまざまなパラメータがあるけど(ry
 – 主要部位置パラメータ
 – 空主語パラメータ
 – whパラメータ
 –   :

                       ベイカー「言語のレシピ」より
                       パラメータの階層図


ベイカー「言語のレシピ」を読むと、「あーほんとにパラメータだけ
で全ての言語が記述できるんだ~」という気分になれます♪
原理とパラメータのゕプローチ/GB理論
         (生成文法 2.0)

• パラメータが違うだけの「一種類の文法」
 – 句構造規則 → Xバー理論
 – 変形規則 → α移動+フゖルタ(制約)
• 記述力も一定以上(少なくとも英語は)
              日本語




       ドイツ語         英語
問題点
• 説明的妥当性(言語獲得の容易さ)は文句な
  し
 – パラメータを決めるだけ
• しかし、原理が膨大かつ複雑怪奇に
 – 言語の例外をカバー&全ての言語を共通の原
   理で記述しているうちに……
文法を1つにするのに
   夢中で
「生得しているとしたら?」
    ということを
あまり考えてなかったなあ
……
よし!
ミニマリスト・プログラム(MP)
          (生成文法 3.0β)

• 生得性に重点を置いて、完全リニューゕル
 – ヒトの言語器官はどういう条件を満たさなければ
   ならないか?
 – その必要最小限の条件だけから、普遍文法を構成
   することができるのではないか?
• これまでのバージョン(標準理論、GB理論)
  と互換性はありません
 – またかよ
Bare Phrase Structure
                (最小句構造、裸句構造)


• Xバー理論の N’ とか D’ とかって、「最小限
  の条件」から説明つかないよね?
          DP        • そういう余計な情報は
          D’          一切加えない

    D          NP
               N’               the
               N
    the    book           the         book
        Xバー理論             Bare Phrase Structure
Move F(素性移動)
• 時間の都合で、詳細は省略
 – GBでの「α移動」の代わり
last resort(最後の手段)
• GB理論の「α移動」では
 – 任意の要素を、
 – 任意の位置に自由に移動
  • 各種制約によってフゖルタリング
• MP の「素性移動」は
 – 移動が必要な要素のみを、
 – 移動が可能な位置に移動
  • 移動は「認可が必要な素性」によって引き起こされる
    (詳細は省略)
3つの生成文法を
 比べてみよう
生成文法で愛をささやく
• I love you の構造を見てみよう
     – 全部似てるけど、MP が一番シンプル?
     – でもこれは時制などなどを考慮していない手抜き
      S                IP
                                        love
          VP             I’
N                  N   I VP
                                           love
      V        N        V     N
 I    love you     I   love you   I     love you
      標準理論             GB理論           ミニマリスト・プログラム
ちゃんと手抜き無しで
   やってみた
標準理論版

         S


NP    Aux           VP


N     Tns     V          NP

I     Pres   love        you
GB理論版

                  IP

    DP                          I’

∅        D’              I           VP

    D         NP                ∅           V’
                       [Pres]
    []                                V          NP
              I
                                     love        you
ミニマリスト・プログラム版
        IP
              I’
 N
       I               ������P
  I                                      ������’
 [D] [EPP]    tI
[Nom] [Nom]
 [φ] [Pres]
                             ������                        VP
       [φ]         FF(you)          ������         tlove        NP
                    [Acc]
                             love         ������
                             [Pres]                         you
                             [Acc]
どうしてこうなった……
ミニマリスト・プログラム
• 記述力はまだ GB 理論におよばない
• 抽象性が高すぎて実感が困難
• 発展途上
 – まとまった書籍は [Chomsky 1995] か、それをベー
   スにしたもの(つまり新しくない)
 – 用語の日本語訳がまだ定まっていないものも多い


• 専門家になる気がないなら、GB でやめとくのが
  いいかも
生成文法って信じていいの?
生成文法って本当なの?
• そもそも範囲はかなり限定されている
 – 理想的母語話者を想定
 – 意味や言語使用を捨象
• 生成文法を演繹的に導出したわけではない
 – 状況証拠オンリー(反論多数←こっちも状況証拠)
 – ゕブダクション(仮説形成) = 何も証明していない
言語獲得の研究には、2つの極端な立場がある。一つは、合理主義者
(rationalist)の立場であり、デカルトからチョムスキーに至る。人間には
生まれつき豊かな言語能力が備わると考える。もう一つは、経験主義者
(empiricist)の立場であり、人間はいわば白紙状態で生まれると主張する。
おそらく、真実はその中間にあるだろう。
                       テイラー/瀬戸「認知文法のエッセンス」より
生成文法への批判
• トマセロによる生成文法批判
 – 普遍文法とか言っときながら英語ばっかり!
 – 生成文法家以外には認識されたことすらない概念
   ばかり!
 – 「名詞」や「動詞」の言語普遍性すら怪しいのだ
   から、普遍文法なんてあるわけない!
• ピンカー&ジャッケンドフによるMP批判
 – Xバーはある!
生成文法にこだわる必要はない
• 生成文法には “fork” がいっぱいある
 – 主辞駆動句構造文法   (Head-driven Phrase Structure Grammar, HPSG)

   • 語彙が規則を持っている。文法≒辞書(レキシコン)
   • 記述力のある文法でありながら、コンピュータで扱える
     – 文法がオープンソースで開発&公開されている

• 対案もあれこれ
 – 認知言語/認知文法
   • カテゴリー、プロトタ゗プ、メタフゔー、メトニミー
   • 音韻と意味のレベルのみ認める
     – 「品詞」も意味的に定義(無茶しやがって……)
じゃあ生成文法ってウソ?
• 機械学習諸分野で「真のモデル」や「真の分
  布」って見たことあるの?
 – 自分は持ってないのに、他の分野には「真のモデ
   ル」を求めるなんて、ゕンフェゕだよね
• 言語学習分野では役に立っている
 – 精緻に記述された英文法(標準理論ベース)
• 個人的にはおもしろければOK!

“Essentially, all models are wrong,
                           but some are useful.”
                http://lingpipe-blog.com/2011/03/11/what-is-a-mathematical-model/
まとめ
• 生成文法はきもかわいい刺激的でおもしろい
 – 恐ろしく高い目標に肉薄したら、目標をもっと高く
   して仕切り直し×2とか野心的すぎる……
 – 60年前は句構造文法すらなかったのに!
• 直接なにかの役には……立たないかなあw
 – 間接的なら、
  • FSNLP/黒本が楽勝に!(統計的な内容除く)
  • モデル設計に気付きや根拠を与えてくれる(ことを期待)
  • 「言語処理と言語学(生成文法)」は
    「機械学習と数学」みたいな関係かな(゗メージ)
参考文献
•   中島文雄「英語の構造」, 1980

•   中井悟/上田雅信「生成文法を学ぶ人のために」, 2004

•   大津由紀雄/他「言語研究入門 -生成文法を学ぶ人のために」, 2002

•   A. ラドフォード「入門ミニマリスト統語論」, 2004/2006

•   M. C. ベ゗カー「言語のレシピ – 多様性にひそむ普遍性をもとめて」, 2001/2003

•   M. D. Hauser/N. Chomsky/W. T. Fitch “The Faculty of Language: What Is It, Who Has It, and How Did It Evolve?”, 2002

•   M. Tomasello “What kind of evidence could refute the UG hypothesis?”, 2004

•   S. Pinker/R. Jackendoff “The faculty of language: what’s special about it?”, 2005

•   S. Pinker “Language Instinct – How the Mind Creates Language”, 1994 (邦題「言語を生み出す本能」, 1995)



•   中村捷/金子義明/菊地朗「生成文法の新展開―ミニマリスト・プログラム」, 2001

•   山梨正明/有馬道子「現代言語学の潮流」, 2003

•   吉村公宏「はじめての認知言語学」, 2004
•   J. R. テ゗ラー/瀬戸賢一「認知文法のエッセンス」, 2008

•   酒井邦嘉「言語の脳科学―脳はどのようにことばを生みだすか」, 2002

•   N. Chomsky “The Minimalist Program”, 1995

•   R. D. Levine/W. D. Meurers "Head-Driven Phrase Structure Grammar: Linguistic Approach, Formal Foundations, and
    Computational Realization", 2006

•   M. Tomasello “Language is Not an Instinct”, 1995

More Related Content

What's hot

[DL輪読会]Attention Is All You Need
[DL輪読会]Attention Is All You Need[DL輪読会]Attention Is All You Need
[DL輪読会]Attention Is All You NeedDeep Learning JP
 
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報Deep Learning JP
 
PCFG構文解析法
PCFG構文解析法PCFG構文解析法
PCFG構文解析法Yusuke Oda
 
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State SpacesDeep Learning JP
 
非ガウス性を利用した 因果構造探索
非ガウス性を利用した因果構造探索非ガウス性を利用した因果構造探索
非ガウス性を利用した 因果構造探索Shiga University, RIKEN
 
【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者cvpaper. challenge
 
深層ガウス過程とアクセントの潜在変数表現に基づく音声合成の検討
深層ガウス過程とアクセントの潜在変数表現に基づく音声合成の検討深層ガウス過程とアクセントの潜在変数表現に基づく音声合成の検討
深層ガウス過程とアクセントの潜在変数表現に基づく音声合成の検討Tomoki Koriyama
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習cvpaper. challenge
 
ウェーブレット変換の基礎と応用事例:連続ウェーブレット変換を中心に
ウェーブレット変換の基礎と応用事例:連続ウェーブレット変換を中心にウェーブレット変換の基礎と応用事例:連続ウェーブレット変換を中心に
ウェーブレット変換の基礎と応用事例:連続ウェーブレット変換を中心にRyosuke Tachibana
 
グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題joisino
 
z変換をやさしく教えて下さい (音響学入門ペディア)
z変換をやさしく教えて下さい (音響学入門ペディア)z変換をやさしく教えて下さい (音響学入門ペディア)
z変換をやさしく教えて下さい (音響学入門ペディア)Shinnosuke Takamichi
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"Deep Learning JP
 
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習Deep Learning JP
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -tmtm otm
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究についてDeep Learning JP
 
Fisher Vectorによる画像認識
Fisher Vectorによる画像認識Fisher Vectorによる画像認識
Fisher Vectorによる画像認識Takao Yamanaka
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAGIRobots
 
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
[DL輪読会]Glow: Generative Flow with Invertible 1×1 ConvolutionsDeep Learning JP
 
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...Deep Learning JP
 

What's hot (20)

[DL輪読会]Attention Is All You Need
[DL輪読会]Attention Is All You Need[DL輪読会]Attention Is All You Need
[DL輪読会]Attention Is All You Need
 
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報
 
PCFG構文解析法
PCFG構文解析法PCFG構文解析法
PCFG構文解析法
 
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
 
非ガウス性を利用した 因果構造探索
非ガウス性を利用した因果構造探索非ガウス性を利用した因果構造探索
非ガウス性を利用した 因果構造探索
 
【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者
 
深層ガウス過程とアクセントの潜在変数表現に基づく音声合成の検討
深層ガウス過程とアクセントの潜在変数表現に基づく音声合成の検討深層ガウス過程とアクセントの潜在変数表現に基づく音声合成の検討
深層ガウス過程とアクセントの潜在変数表現に基づく音声合成の検討
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
 
ウェーブレット変換の基礎と応用事例:連続ウェーブレット変換を中心に
ウェーブレット変換の基礎と応用事例:連続ウェーブレット変換を中心にウェーブレット変換の基礎と応用事例:連続ウェーブレット変換を中心に
ウェーブレット変換の基礎と応用事例:連続ウェーブレット変換を中心に
 
グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題
 
z変換をやさしく教えて下さい (音響学入門ペディア)
z変換をやさしく教えて下さい (音響学入門ペディア)z変換をやさしく教えて下さい (音響学入門ペディア)
z変換をやさしく教えて下さい (音響学入門ペディア)
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
 
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
 
Fisher Vectorによる画像認識
Fisher Vectorによる画像認識Fisher Vectorによる画像認識
Fisher Vectorによる画像認識
 
数式からみるWord2Vec
数式からみるWord2Vec数式からみるWord2Vec
数式からみるWord2Vec
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
 
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
 
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
 

Similar to はじめての生成文法 《後編》

Ism npblm-20120315
Ism npblm-20120315Ism npblm-20120315
Ism npblm-20120315隆浩 安
 
放送ニュースの動詞連用形名詞の平易化
放送ニュースの動詞連用形名詞の平易化放送ニュースの動詞連用形名詞の平易化
放送ニュースの動詞連用形名詞の平易化swenbe
 
吉田プロジェクト2019_人工知能のプロセス
吉田プロジェクト2019_人工知能のプロセス吉田プロジェクト2019_人工知能のプロセス
吉田プロジェクト2019_人工知能のプロセスWhiramine
 
言語モデル入門 (第二版)
言語モデル入門 (第二版)言語モデル入門 (第二版)
言語モデル入門 (第二版)Yoshinari Fujinuma
 
大学の時の研究の話
大学の時の研究の話大学の時の研究の話
大学の時の研究の話Yuto Suzuki
 
Is there a NULL there?: Null anaphora in Classical Nahuatl
Is there a NULL there?: Null anaphora in Classical NahuatlIs there a NULL there?: Null anaphora in Classical Nahuatl
Is there a NULL there?: Null anaphora in Classical NahuatlMitsuya Sasaki
 
鬱くしい日本語のための形態素解析入門
鬱くしい日本語のための形態素解析入門鬱くしい日本語のための形態素解析入門
鬱くしい日本語のための形態素解析入門Hiroyoshi Komatsu
 
COLING2014 読み会@小町研 “Morphological Analysis for Japanese Noisy Text Based on C...
COLING2014 読み会@小町研 “Morphological Analysis for Japanese Noisy Text Based on C...COLING2014 読み会@小町研 “Morphological Analysis for Japanese Noisy Text Based on C...
COLING2014 読み会@小町研 “Morphological Analysis for Japanese Noisy Text Based on C...Yuki Tomo
 
日本語の語彙的換言知識の質的評価
日本語の語彙的換言知識の質的評価日本語の語彙的換言知識の質的評価
日本語の語彙的換言知識の質的評価Tomoyuki Kajiwara
 
Hinshi
HinshiHinshi
Hinshiskrjpn
 
Kuroda NLP17 slides on Parallel Simulated Error Correction method
Kuroda NLP17 slides on Parallel Simulated Error Correction methodKuroda NLP17 slides on Parallel Simulated Error Correction method
Kuroda NLP17 slides on Parallel Simulated Error Correction methodKow Kuroda
 
第三回さくさくテキストマイニング勉強会 入門セッション
第三回さくさくテキストマイニング勉強会 入門セッション第三回さくさくテキストマイニング勉強会 入門セッション
第三回さくさくテキストマイニング勉強会 入門セッションantibayesian 俺がS式だ
 
言語資源と付き合う
言語資源と付き合う言語資源と付き合う
言語資源と付き合うYuya Unno
 
arkaのparser(JOI2014ss)
arkaのparser(JOI2014ss)arkaのparser(JOI2014ss)
arkaのparser(JOI2014ss)chatsftd
 

Similar to はじめての生成文法 《後編》 (19)

Ism npblm-20120315
Ism npblm-20120315Ism npblm-20120315
Ism npblm-20120315
 
放送ニュースの動詞連用形名詞の平易化
放送ニュースの動詞連用形名詞の平易化放送ニュースの動詞連用形名詞の平易化
放送ニュースの動詞連用形名詞の平易化
 
吉田プロジェクト2019_人工知能のプロセス
吉田プロジェクト2019_人工知能のプロセス吉田プロジェクト2019_人工知能のプロセス
吉田プロジェクト2019_人工知能のプロセス
 
言語モデル入門 (第二版)
言語モデル入門 (第二版)言語モデル入門 (第二版)
言語モデル入門 (第二版)
 
大学の時の研究の話
大学の時の研究の話大学の時の研究の話
大学の時の研究の話
 
Is there a NULL there?: Null anaphora in Classical Nahuatl
Is there a NULL there?: Null anaphora in Classical NahuatlIs there a NULL there?: Null anaphora in Classical Nahuatl
Is there a NULL there?: Null anaphora in Classical Nahuatl
 
Argmax Operations in NLP
Argmax Operations in NLPArgmax Operations in NLP
Argmax Operations in NLP
 
大規模常識知識ベース構築のための常識表現の自動獲得
大規模常識知識ベース構築のための常識表現の自動獲得大規模常識知識ベース構築のための常識表現の自動獲得
大規模常識知識ベース構築のための常識表現の自動獲得
 
鬱くしい日本語のための形態素解析入門
鬱くしい日本語のための形態素解析入門鬱くしい日本語のための形態素解析入門
鬱くしい日本語のための形態素解析入門
 
COLING2014 読み会@小町研 “Morphological Analysis for Japanese Noisy Text Based on C...
COLING2014 読み会@小町研 “Morphological Analysis for Japanese Noisy Text Based on C...COLING2014 読み会@小町研 “Morphological Analysis for Japanese Noisy Text Based on C...
COLING2014 読み会@小町研 “Morphological Analysis for Japanese Noisy Text Based on C...
 
日本語の語彙的換言知識の質的評価
日本語の語彙的換言知識の質的評価日本語の語彙的換言知識の質的評価
日本語の語彙的換言知識の質的評価
 
Hinshi
HinshiHinshi
Hinshi
 
Kuroda NLP17 slides on Parallel Simulated Error Correction method
Kuroda NLP17 slides on Parallel Simulated Error Correction methodKuroda NLP17 slides on Parallel Simulated Error Correction method
Kuroda NLP17 slides on Parallel Simulated Error Correction method
 
第三回さくさくテキストマイニング勉強会 入門セッション
第三回さくさくテキストマイニング勉強会 入門セッション第三回さくさくテキストマイニング勉強会 入門セッション
第三回さくさくテキストマイニング勉強会 入門セッション
 
言語資源と付き合う
言語資源と付き合う言語資源と付き合う
言語資源と付き合う
 
用言等換言辞書の構築
用言等換言辞書の構築用言等換言辞書の構築
用言等換言辞書の構築
 
用言等換言辞書の構築
用言等換言辞書の構築用言等換言辞書の構築
用言等換言辞書の構築
 
arkaのparser(JOI2014ss)
arkaのparser(JOI2014ss)arkaのparser(JOI2014ss)
arkaのparser(JOI2014ss)
 
大規模常識知識ベース構築のための常識表現の自動獲得
大規模常識知識ベース構築のための常識表現の自動獲得大規模常識知識ベース構築のための常識表現の自動獲得
大規模常識知識ベース構築のための常識表現の自動獲得
 

More from Shuyo Nakatani

画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15
画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15
画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15Shuyo Nakatani
 
Generative adversarial networks
Generative adversarial networksGenerative adversarial networks
Generative adversarial networksShuyo Nakatani
 
無限関係モデル (続・わかりやすいパターン認識 13章)
無限関係モデル (続・わかりやすいパターン認識 13章)無限関係モデル (続・わかりやすいパターン認識 13章)
無限関係モデル (続・わかりやすいパターン認識 13章)Shuyo Nakatani
 
Memory Networks (End-to-End Memory Networks の Chainer 実装)
Memory Networks (End-to-End Memory Networks の Chainer 実装)Memory Networks (End-to-End Memory Networks の Chainer 実装)
Memory Networks (End-to-End Memory Networks の Chainer 実装)Shuyo Nakatani
 
人工知能と機械学習の違いって?
人工知能と機械学習の違いって?人工知能と機械学習の違いって?
人工知能と機械学習の違いって?Shuyo Nakatani
 
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoRRとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoRShuyo Nakatani
 
ドラえもんでわかる統計的因果推論 #TokyoR
ドラえもんでわかる統計的因果推論 #TokyoRドラえもんでわかる統計的因果推論 #TokyoR
ドラえもんでわかる統計的因果推論 #TokyoRShuyo Nakatani
 
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...Shuyo Nakatani
 
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章Shuyo Nakatani
 
星野「調査観察データの統計科学」第1&2章
星野「調査観察データの統計科学」第1&2章星野「調査観察データの統計科学」第1&2章
星野「調査観察データの統計科学」第1&2章Shuyo Nakatani
 
言語処理するのに Python でいいの? #PyDataTokyo
言語処理するのに Python でいいの? #PyDataTokyo言語処理するのに Python でいいの? #PyDataTokyo
言語処理するのに Python でいいの? #PyDataTokyoShuyo Nakatani
 
Zipf? (ジップ則のひみつ?) #DSIRNLP
Zipf? (ジップ則のひみつ?) #DSIRNLPZipf? (ジップ則のひみつ?) #DSIRNLP
Zipf? (ジップ則のひみつ?) #DSIRNLPShuyo Nakatani
 
ACL2014 Reading: [Zhang+] "Kneser-Ney Smoothing on Expected Count" and [Pickh...
ACL2014 Reading: [Zhang+] "Kneser-Ney Smoothing on Expected Count" and [Pickh...ACL2014 Reading: [Zhang+] "Kneser-Ney Smoothing on Expected Count" and [Pickh...
ACL2014 Reading: [Zhang+] "Kneser-Ney Smoothing on Expected Count" and [Pickh...Shuyo Nakatani
 
ソーシャルメディアの多言語判定 #SoC2014
ソーシャルメディアの多言語判定 #SoC2014ソーシャルメディアの多言語判定 #SoC2014
ソーシャルメディアの多言語判定 #SoC2014Shuyo Nakatani
 
猫に教えてもらうルベーグ可測
猫に教えてもらうルベーグ可測猫に教えてもらうルベーグ可測
猫に教えてもらうルベーグ可測Shuyo Nakatani
 
アラビア語とペルシャ語の見分け方 #DSIRNLP 5
アラビア語とペルシャ語の見分け方 #DSIRNLP 5アラビア語とペルシャ語の見分け方 #DSIRNLP 5
アラビア語とペルシャ語の見分け方 #DSIRNLP 5Shuyo Nakatani
 
どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013
どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013
どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013Shuyo Nakatani
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門Shuyo Nakatani
 
数式を綺麗にプログラミングするコツ #spro2013
数式を綺麗にプログラミングするコツ #spro2013数式を綺麗にプログラミングするコツ #spro2013
数式を綺麗にプログラミングするコツ #spro2013Shuyo Nakatani
 
ノンパラベイズ入門の入門
ノンパラベイズ入門の入門ノンパラベイズ入門の入門
ノンパラベイズ入門の入門Shuyo Nakatani
 

More from Shuyo Nakatani (20)

画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15
画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15
画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15
 
Generative adversarial networks
Generative adversarial networksGenerative adversarial networks
Generative adversarial networks
 
無限関係モデル (続・わかりやすいパターン認識 13章)
無限関係モデル (続・わかりやすいパターン認識 13章)無限関係モデル (続・わかりやすいパターン認識 13章)
無限関係モデル (続・わかりやすいパターン認識 13章)
 
Memory Networks (End-to-End Memory Networks の Chainer 実装)
Memory Networks (End-to-End Memory Networks の Chainer 実装)Memory Networks (End-to-End Memory Networks の Chainer 実装)
Memory Networks (End-to-End Memory Networks の Chainer 実装)
 
人工知能と機械学習の違いって?
人工知能と機械学習の違いって?人工知能と機械学習の違いって?
人工知能と機械学習の違いって?
 
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoRRとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
 
ドラえもんでわかる統計的因果推論 #TokyoR
ドラえもんでわかる統計的因果推論 #TokyoRドラえもんでわかる統計的因果推論 #TokyoR
ドラえもんでわかる統計的因果推論 #TokyoR
 
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...
 
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
 
星野「調査観察データの統計科学」第1&2章
星野「調査観察データの統計科学」第1&2章星野「調査観察データの統計科学」第1&2章
星野「調査観察データの統計科学」第1&2章
 
言語処理するのに Python でいいの? #PyDataTokyo
言語処理するのに Python でいいの? #PyDataTokyo言語処理するのに Python でいいの? #PyDataTokyo
言語処理するのに Python でいいの? #PyDataTokyo
 
Zipf? (ジップ則のひみつ?) #DSIRNLP
Zipf? (ジップ則のひみつ?) #DSIRNLPZipf? (ジップ則のひみつ?) #DSIRNLP
Zipf? (ジップ則のひみつ?) #DSIRNLP
 
ACL2014 Reading: [Zhang+] "Kneser-Ney Smoothing on Expected Count" and [Pickh...
ACL2014 Reading: [Zhang+] "Kneser-Ney Smoothing on Expected Count" and [Pickh...ACL2014 Reading: [Zhang+] "Kneser-Ney Smoothing on Expected Count" and [Pickh...
ACL2014 Reading: [Zhang+] "Kneser-Ney Smoothing on Expected Count" and [Pickh...
 
ソーシャルメディアの多言語判定 #SoC2014
ソーシャルメディアの多言語判定 #SoC2014ソーシャルメディアの多言語判定 #SoC2014
ソーシャルメディアの多言語判定 #SoC2014
 
猫に教えてもらうルベーグ可測
猫に教えてもらうルベーグ可測猫に教えてもらうルベーグ可測
猫に教えてもらうルベーグ可測
 
アラビア語とペルシャ語の見分け方 #DSIRNLP 5
アラビア語とペルシャ語の見分け方 #DSIRNLP 5アラビア語とペルシャ語の見分け方 #DSIRNLP 5
アラビア語とペルシャ語の見分け方 #DSIRNLP 5
 
どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013
どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013
どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門
 
数式を綺麗にプログラミングするコツ #spro2013
数式を綺麗にプログラミングするコツ #spro2013数式を綺麗にプログラミングするコツ #spro2013
数式を綺麗にプログラミングするコツ #spro2013
 
ノンパラベイズ入門の入門
ノンパラベイズ入門の入門ノンパラベイズ入門の入門
ノンパラベイズ入門の入門
 

Recently uploaded

Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Danieldanielhu54
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A surveyToru Tamaki
 
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略Ryo Sasaki
 
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...Toru Tamaki
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムsugiuralab
 
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Yuma Ohgami
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNetToru Tamaki
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdftaisei2219
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)Hiroki Ichikura
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものですiPride Co., Ltd.
 

Recently uploaded (10)

Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Daniel
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey
 
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
 
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システム
 
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdf
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
 

はじめての生成文法 《後編》

  • 1. はじめての生成文法 《後編》 TokyoNLP #6 - 2011/6/25 中谷秀洋@サ゗ボウズ・ラボ株式会社 id:n_shuyo / @shuyo
  • 2. おことわり • これだけで生成文法がわかったりしません – あくまでもダ゗ジェスト – 通年の講義するわけにもいかないしね! • 素人です – 独断と偏見も多いよ – 鵜呑みにしないでね • 生成文法は「仮定」「仮説」のかたまり – NGつっこみ:「それ本当? 証拠は?」
  • 3. ねらい • 生成文法の流れを見てみる – 「生成文法の目的って何?」 – 「生成文法にもいろいろあるみたいだけど」 – 「どうしてこうなった?」 • 生成文法に興味を持つ – 「難しいってよく聞くけどホント?」 – 「ぶっちゃけ、おもしろいの?」 – 「なんかの役に立つ?」
  • 4. もくじ 《後編》 1. 生成文法ってどんな文法? 2. 生成文法の概略と変遷 – 生成文法 0.0 (句構造文法) – 生成文法 1.x ([[改訂]拡大]標準理論) – 生成文法 2.0 (GB理論/原理とパラメータのゕプローチ) – 生成文法 3.0β (ミニマリスト・プログラム) 3. 生成文法は信じていいの? – 自然科学とフゔンタジーのすきま
  • 6. なぜヒトは言葉を話せるのか まだわかっていない • 言語獲得 – なぜ子供は言葉をかんたんに覚えられるの? • 言語機能の生得説 – 生まれたときから「言語のための機能」を脳 に持っているんだよ! きっと! • でも「言語のための機能」って何だろう?
  • 7. 言語機能があるとしたら いったいどんなものだろう • 乏しいデータからかんたんに言語獲得 – 4歳児でも、ほぼ完全に近い言葉を使う – ゗ンプットの違いに寄らず、個体差が小さい • 言語専用の機能(他の認知機能とは独立) – 認知機能の発達した大人に言語習得が難しい • 任意の言語に対応 – 獲得速度にも差がない
  • 8. 言語機能は「言語の共通ルール」だと チョムスキーは考えた • 普遍文法=言語の共通ルール – 全ての言語に共通の語の並べ方のルール – 共通ルールを生まれたときから知っていれば • 個別言語との差分を身につければいいだけ • 普遍文法を明らかにすれば 言語獲得の謎は解決!
  • 10. チョムスキーの生成文法 • 生成文法とは、 – 普遍文法を研究するフレームワーク • 具体的には、 – ヒトの言語の文法的現象を演繹的に記述し、 – 言語獲得を説明するための仮説群 • キーワード: 文法じゃあない? – 文法的現象 / 演繹 / 記述 / 説明
  • 11. 文法的現象 • 文法的現象(統語現象) 文法以外の現象は – 語を並べるときに生じる現象 対象外 (音韻・意味・形態など) • 多くは各言語に固有 – 英語と日本語の文法的現象は全く異なる 文法的現象 説明 語順 SVO, 前置詞 一致 三単現の -s とその分布 格 格変化(he/himなど)とその分布 疑問文 助動詞倒置 DO支持 疑問文・否定文のDO挿入 wh移動 文頭の疑問詞(what/whoなど) 受動文 S V O => O be V-en by S 虚辞 意味を持たない it や there を主語に 主語繰り上げ It seems that S V => S seems to V 英語の文法的現象(一部)
  • 12. 演繹 (Wikipedia より) 演繹(えんえき、英: deduction)は、一般的・普遍 的な前提から、より個別的・特殊的な結論を得る推 論方法である。対義語は帰納。帰納の導出関係は蓋 然的に正しいのみだが、演繹の導出関係は前提を認 めるなら絶対的、必然的に正しい。したがって実際 上は、前提が間違っていたり適切でない前提が用い られれば、誤った結論が導き出されることがある。 近代的には、演繹法とは記号論理学によって記述で きる論法の事を指す。 わかりませんw
  • 13. 「演繹」を柔らかく言うと • 「正しいこと」の積み重ね – 前提となる仮定(仮説・原理・公理)を認めた上で – 順に読んでいけば、全てが正しいと言える • 主観が入らない。人によらない – 誰がやっても同じ理解・結論になる • 一番重要なことは「何を前提としたか」
  • 14. 文法により言語を「記述」する • 次のことが出来れば、「言語を記述した」と定義 – 全ての文法的な文を文法操作で生成できる – 非文法的な文は生成できないことを示す • 実際には、個々の「文法的現象」について – 適格な文を生成できることを示す 全ての文の列挙なんて できないからね! – 非文を生成できないことを示す 仮説群 生得説、普遍文法、 その言語の = 句構造、…… 文法 生成された 操作 文法的な文 (演算) 文全体 全て 辞書 (レキシコン) 完全一致!
  • 15. 言語獲得を「説明」 • 言語獲得を次のように「説明」する – 普遍文法 = 言語に共通のルール – 英語を獲得 = (英語 ー 普遍文法) を身につける • 言語獲得がかんたんということは……? 普遍文法=言語に共通のルール 日本語 ドイツ語 英語
  • 16. チョムスキーの生成文法 • 生成文法とは、 – ヒトの言語の文法的現象を演繹的に記述し、 – また言語獲得を説明するための仮説群 ≒ – 個別かつ例外だらけの言語それぞれが – きちんと生成できるルールを – できるだけ共通のものとして抜き出そう!
  • 19. 言語を記述するルールを 手に入れよう
  • 20. 句構造文法 (生成文法 0.0) • 「文法」を表現する道具がなかった – 「句構造」と「句構造規則」を発明 S 範疇 説明 VP S 文または節 名詞 NP N NP V 動詞 P 前置詞 N V Det N 形容詞 A D/Det 決定詞(冠詞) ~P ~句 This is a pen
  • 21. 句構造規則 • Sからたどって、句構造を「生成」する – 書き換え規則=句構造の枝分かれ 句構造規則 S S S → NP VP NP VP VP VP → V NP NP NP V NP NP NP → N N V NP N V Det N N V Det N NP → Det N 品詞 → 単語 This is a pen This is a pen
  • 22. 句構造文法 仮説群 生得説、普遍文法、 句構造、……、 その言語の = 文法 句構造規則 生成された 操作 文法的な文 (演算) 文全体 辞書 全て a, is, pen, this, …… ∈ ∈ S This is a pen VP NP NP こうやって N V Det N 言語を記述して This is a pen いく
  • 23. チョムスキーの階層 • 句構造文法はチューリングマシンと等価 – どんな言語も記述できる!(原理的には) • しかし規則が膨大になる – 現在形・過去形・否定文・疑問文・受動態 ……を生成する規則を動詞ごとに用意、とか 階層 文法 オートマトン タイプ-0 句構造文法 チューリングマシン 記述力が タイプ-1 文脈依存文法 線形有界オートマトン 一番高いけど タイプ-2 文脈自由文法 プッシュダウン・オートマトン 扱うのも 一番難しい タイプ-3 正則文法 有限オートマトン
  • 27. [[改訂]拡大]標準理論 (生成文法 1.x) • 句構造文法に「変形規則」を導入 – 例:受動文を生成する「受動変形」 • 動詞ごとに受動文を生成する規則がいらなくなる • 文法を現実的に構築可能に! John calls Tom 句構造規則 で生成した Tom is called by John 文を変形
  • 28. 接辞繰り下げ変形 動詞ごとに過去・ 完了・進行の規則を 用意しなくていい • 助動詞(Aux)は時制・法・相(完了・進行)からなる • 接辞(-ed や –ing)は「接辞繰り下げ変形」により直後の要素に付く S 中村他「生成文法の新展開」(p39)より NP Aux VP N Tns Modal Perf Prog V Mary [Pres] will have͡ en be͡ ing love 接辞繰り下げ変形 Mary will have been loving
  • 29. 英語の変形規則 日本語に当て はまりそうな 中井悟/上田雅信「生成文法を学ぶ人のために」(p71)より 規則は……
  • 31. こうしたい! • 「個別言語ー普遍文法」が 限りなく小さいほど嬉しい 日本語 ドイツ語 英語
  • 34. GB理論/原理とパラメータのゕプローチ (生成文法 2.0) • 普遍文法に重点を置いて、完全リニューゕル – 前バージョン(標準理論)と互換性はありません • 言語を「共通部分」と「可変部分」に分離 – 共通部分 → 原理 • 全ての言語の文法的現象を共通の原理で記述 – 可変部分 → パラメータ • パラメータ:主に2値 • 脳内に「言語のデゖップス゗ッチ」がある゗メージ
  • 35. Xバー理論 最初は ������と 書いていたけど、 印刷の都合で ������′ と 書くように • 句構造規則に変わるもの – X’ と書いて「Xバー」と読む XP • 右の XP ツリーが基本形 – X,Y,Z は範疇のテンプレート • X,Y,Z = N, V, P, …… YP X’ – Y, Z は空も可 X ZP
  • 36. Xバーの構造例 X=I, Y=DP, Z=VP IP ※) I は「屈折辞」(時制などを含む範疇)で DP I’ Xバーでは文は IP で表すと仮定している I VP X=V, Y= ∅, Z=DP John V’ ∅ X=D, Y= ∅, Z=NP [Pres] V DP ∅ D’ love 構造は全て D NP Xバーで the dog
  • 37. 句構造規則 vs. Xバー理論 • 句構造規則 • Xバー S → NP VP XP → YP X' VP → V NP X' → XP ZP NP → N NP → Det N – 1種類だけ! : – 原理(共通ルール化) にできる! – いろんなパターン
  • 38. α移動 • 変形規則に変わるもの – αは「なんでもいい」の意味(テンプレート) • 「任意の句を任意の位置に移動する」 – そんなんでいいの!? John calls Tom ダメでしょ う…… calls Tom John
  • 39. フゖルタ • α移動で生成された「文」のうち、非文 法的な文を「フゖルタ」で制約する – フゖルタは共通原理として仮定する John calls Tom α移動 John calls Tom フ John calls Tom John Tom calls ィ × calls John Tom ル calls Tome John タ Tom John calls Tom calls John
  • 40. フゖルタ • さまざまなフゖルタがあるが、詳細は省略 – 拡大投射原理 – 空範疇原理 – θ基準 – 格フゖルタ – 束縛原理 – 下接の条件 – :
  • 41. パラメータ • 各言語固有の現象は「パラメータ」で切り替える – パラメータ=(主に)2値の「ス゗ッチ」 • 例)語順のパラメータ(主要部位置パラメータ) パラメータ = 主要部(X)は補部(ZP)の前 パラメータ = 主要部(X)は補部(ZP)の後 XP XP SOVは SVOは こっち こっち YP X’ X’ YP X ZP ZP X
  • 42. パラメータ • さまざまなパラメータがあるけど(ry – 主要部位置パラメータ – 空主語パラメータ – whパラメータ – : ベイカー「言語のレシピ」より パラメータの階層図 ベイカー「言語のレシピ」を読むと、「あーほんとにパラメータだけ で全ての言語が記述できるんだ~」という気分になれます♪
  • 43. 原理とパラメータのゕプローチ/GB理論 (生成文法 2.0) • パラメータが違うだけの「一種類の文法」 – 句構造規則 → Xバー理論 – 変形規則 → α移動+フゖルタ(制約) • 記述力も一定以上(少なくとも英語は) 日本語 ドイツ語 英語
  • 44. 問題点 • 説明的妥当性(言語獲得の容易さ)は文句な し – パラメータを決めるだけ • しかし、原理が膨大かつ複雑怪奇に – 言語の例外をカバー&全ての言語を共通の原 理で記述しているうちに……
  • 46. 「生得しているとしたら?」 ということを あまり考えてなかったなあ
  • 49. ミニマリスト・プログラム(MP) (生成文法 3.0β) • 生得性に重点を置いて、完全リニューゕル – ヒトの言語器官はどういう条件を満たさなければ ならないか? – その必要最小限の条件だけから、普遍文法を構成 することができるのではないか? • これまでのバージョン(標準理論、GB理論) と互換性はありません – またかよ
  • 50. Bare Phrase Structure (最小句構造、裸句構造) • Xバー理論の N’ とか D’ とかって、「最小限 の条件」から説明つかないよね? DP • そういう余計な情報は D’ 一切加えない D NP N’ the N the book the book Xバー理論 Bare Phrase Structure
  • 51. Move F(素性移動) • 時間の都合で、詳細は省略 – GBでの「α移動」の代わり
  • 52. last resort(最後の手段) • GB理論の「α移動」では – 任意の要素を、 – 任意の位置に自由に移動 • 各種制約によってフゖルタリング • MP の「素性移動」は – 移動が必要な要素のみを、 – 移動が可能な位置に移動 • 移動は「認可が必要な素性」によって引き起こされる (詳細は省略)
  • 54. 生成文法で愛をささやく • I love you の構造を見てみよう – 全部似てるけど、MP が一番シンプル? – でもこれは時制などなどを考慮していない手抜き S IP love VP I’ N N I VP love V N V N I love you I love you I love you 標準理論 GB理論 ミニマリスト・プログラム
  • 56. 標準理論版 S NP Aux VP N Tns V NP I Pres love you
  • 57. GB理論版 IP DP I’ ∅ D’ I VP D NP ∅ V’ [Pres] [] V NP I love you
  • 58. ミニマリスト・プログラム版 IP I’ N I ������P I ������’ [D] [EPP] tI [Nom] [Nom] [φ] [Pres] ������ VP [φ] FF(you) ������ tlove NP [Acc] love ������ [Pres] you [Acc]
  • 60. ミニマリスト・プログラム • 記述力はまだ GB 理論におよばない • 抽象性が高すぎて実感が困難 • 発展途上 – まとまった書籍は [Chomsky 1995] か、それをベー スにしたもの(つまり新しくない) – 用語の日本語訳がまだ定まっていないものも多い • 専門家になる気がないなら、GB でやめとくのが いいかも
  • 62. 生成文法って本当なの? • そもそも範囲はかなり限定されている – 理想的母語話者を想定 – 意味や言語使用を捨象 • 生成文法を演繹的に導出したわけではない – 状況証拠オンリー(反論多数←こっちも状況証拠) – ゕブダクション(仮説形成) = 何も証明していない 言語獲得の研究には、2つの極端な立場がある。一つは、合理主義者 (rationalist)の立場であり、デカルトからチョムスキーに至る。人間には 生まれつき豊かな言語能力が備わると考える。もう一つは、経験主義者 (empiricist)の立場であり、人間はいわば白紙状態で生まれると主張する。 おそらく、真実はその中間にあるだろう。 テイラー/瀬戸「認知文法のエッセンス」より
  • 63. 生成文法への批判 • トマセロによる生成文法批判 – 普遍文法とか言っときながら英語ばっかり! – 生成文法家以外には認識されたことすらない概念 ばかり! – 「名詞」や「動詞」の言語普遍性すら怪しいのだ から、普遍文法なんてあるわけない! • ピンカー&ジャッケンドフによるMP批判 – Xバーはある!
  • 64. 生成文法にこだわる必要はない • 生成文法には “fork” がいっぱいある – 主辞駆動句構造文法 (Head-driven Phrase Structure Grammar, HPSG) • 語彙が規則を持っている。文法≒辞書(レキシコン) • 記述力のある文法でありながら、コンピュータで扱える – 文法がオープンソースで開発&公開されている • 対案もあれこれ – 認知言語/認知文法 • カテゴリー、プロトタ゗プ、メタフゔー、メトニミー • 音韻と意味のレベルのみ認める – 「品詞」も意味的に定義(無茶しやがって……)
  • 65. じゃあ生成文法ってウソ? • 機械学習諸分野で「真のモデル」や「真の分 布」って見たことあるの? – 自分は持ってないのに、他の分野には「真のモデ ル」を求めるなんて、ゕンフェゕだよね • 言語学習分野では役に立っている – 精緻に記述された英文法(標準理論ベース) • 個人的にはおもしろければOK! “Essentially, all models are wrong, but some are useful.” http://lingpipe-blog.com/2011/03/11/what-is-a-mathematical-model/
  • 66. まとめ • 生成文法はきもかわいい刺激的でおもしろい – 恐ろしく高い目標に肉薄したら、目標をもっと高く して仕切り直し×2とか野心的すぎる…… – 60年前は句構造文法すらなかったのに! • 直接なにかの役には……立たないかなあw – 間接的なら、 • FSNLP/黒本が楽勝に!(統計的な内容除く) • モデル設計に気付きや根拠を与えてくれる(ことを期待) • 「言語処理と言語学(生成文法)」は 「機械学習と数学」みたいな関係かな(゗メージ)
  • 67. 参考文献 • 中島文雄「英語の構造」, 1980 • 中井悟/上田雅信「生成文法を学ぶ人のために」, 2004 • 大津由紀雄/他「言語研究入門 -生成文法を学ぶ人のために」, 2002 • A. ラドフォード「入門ミニマリスト統語論」, 2004/2006 • M. C. ベ゗カー「言語のレシピ – 多様性にひそむ普遍性をもとめて」, 2001/2003 • M. D. Hauser/N. Chomsky/W. T. Fitch “The Faculty of Language: What Is It, Who Has It, and How Did It Evolve?”, 2002 • M. Tomasello “What kind of evidence could refute the UG hypothesis?”, 2004 • S. Pinker/R. Jackendoff “The faculty of language: what’s special about it?”, 2005 • S. Pinker “Language Instinct – How the Mind Creates Language”, 1994 (邦題「言語を生み出す本能」, 1995) • 中村捷/金子義明/菊地朗「生成文法の新展開―ミニマリスト・プログラム」, 2001 • 山梨正明/有馬道子「現代言語学の潮流」, 2003 • 吉村公宏「はじめての認知言語学」, 2004 • J. R. テ゗ラー/瀬戸賢一「認知文法のエッセンス」, 2008 • 酒井邦嘉「言語の脳科学―脳はどのようにことばを生みだすか」, 2002 • N. Chomsky “The Minimalist Program”, 1995 • R. D. Levine/W. D. Meurers "Head-Driven Phrase Structure Grammar: Linguistic Approach, Formal Foundations, and Computational Realization", 2006 • M. Tomasello “Language is Not an Instinct”, 1995