1. 論文紹介: How to Grow a Mind
高橋達二
東京電機大学理工学部
2014-Jul-04-Fri AGI 輪読会
高橋達二 (TDU) 論文紹介: How to Grow a Mind 2014-Jul-04-Fri AGI 輪読会 1 / 62
2. Outline
1 紹介論文
2 Joshua B. Tenenbaum について
3 要約と主要な三つの問題
4 チャレンジ: どうやって一だけ聞いて十を知るか?
5 問 1. 抽象的知識の役割
6 問 2. 抽象的知識の形式
7 問 3. 抽象的知識の起源
8 オープンクエスチョンズ
9 結論
高橋達二 (TDU) 論文紹介: How to Grow a Mind 2014-Jul-04-Fri AGI 輪読会 2 / 62
3. 紹介論文
Topic
1 紹介論文
2 Joshua B. Tenenbaum について
3 要約と主要な三つの問題
4 チャレンジ: どうやって一だけ聞いて十を知るか?
5 問 1. 抽象的知識の役割
6 問 2. 抽象的知識の形式
7 問 3. 抽象的知識の起源
8 オープンクエスチョンズ
9 結論
高橋達二 (TDU) 論文紹介: How to Grow a Mind 2014-Jul-04-Fri AGI 輪読会 3 / 62
4. 紹介論文
紹介論文
Joshua B. Tenenbaum, Charles Kemp, Thomas L. Griffiths, Noah D.
Goodman, How to Grow a Mind: Statistics, Structure, and
Abstraction, Science, 331, 1279–1285. (2011)
NIPS 2010 での招待講演(動画)
How to Grow a Mind: Statistics, Structure and Abstraction
@ 24th NIPS, Vancouver 2010
レビューされている具体的な内容
言語獲得 F. Xu, J. B. Tenenbaum, Psych. Rev. 114, 245 (2007).
構造発見 C. Kemp, J. B. Tenenbaum, PNAS, 105, 10687 (2008).
概念学習・理論形成 C. Kemp et al., Cognition 114, 165 (2010).
高橋達二 (TDU) 論文紹介: How to Grow a Mind 2014-Jul-04-Fri AGI 輪読会 4 / 62
5. Joshua B. Tenenbaum について
Topic
1 紹介論文
2 Joshua B. Tenenbaum について
3 要約と主要な三つの問題
4 チャレンジ: どうやって一だけ聞いて十を知るか?
5 問 1. 抽象的知識の役割
6 問 2. 抽象的知識の形式
7 問 3. 抽象的知識の起源
8 オープンクエスチョンズ
9 結論
高橋達二 (TDU) 論文紹介: How to Grow a Mind 2014-Jul-04-Fri AGI 輪読会 5 / 62
6. Joshua B. Tenenbaum について
Joshua B. Tenenbaum について
MIT の認知科学者
ゴール:「人間の心の reverse-engineering」
CBMM メンバー
機械学習で ISOMAP を提唱
認知心理学ではベイズ的方法論を全面的に導入
中村 國則, 認知科学におけるベイズ的アプローチに関する文
献の紹介, 認知科学, 16(4), 523-529. (Dec. 2009)
Tenenbaum school を形成
Ruslan Salakhutdinov も Tenenbaum lab あたりでポスドク(共
著論文二本あり)
最近の意見: 不変性だけでなく因果関係の表現の獲得が重
要 (CBMM 関係の WS でのトークの動画)
生成モデルの構築
確率論理、確率プログラミング言語 (e.g., Church) の必要性
高橋達二 (TDU) 論文紹介: How to Grow a Mind 2014-Jul-04-Fri AGI 輪読会 6 / 62
7. 要約と主要な三つの問題
Topic
1 紹介論文
2 Joshua B. Tenenbaum について
3 要約と主要な三つの問題
4 チャレンジ: どうやって一だけ聞いて十を知るか?
5 問 1. 抽象的知識の役割
6 問 2. 抽象的知識の形式
7 問 3. 抽象的知識の起源
8 オープンクエスチョンズ
9 結論
高橋達二 (TDU) 論文紹介: How to Grow a Mind 2014-Jul-04-Fri AGI 輪読会 7 / 62
37. 問 3. 抽象的知識の起源
図 1A (Tenenbaum et al., Science, 2011)
ll./_figs/Fig1A.pdf
高橋達二 (TDU) 論文紹介: How to Grow a Mind 2014-Jul-04-Fri AGI 輪読会 37 / 62
38. 問 3. 抽象的知識の起源
図 1B (Tenenbaum et al., Science, 2011)
ty about the
the true causa
model is abst
only the specif
class of situa
generalize, an
the essential w
observations
Bayesian i
for updating b
erative mode
Background
constrained s
sible values
world structu
data. Finer-gra
probability” P
a specific hyp
of) the observ
to “posterior
the observed
P(hjd) ¼
∑
The posterior
product of the
P(d|h), measur
hypothesis h, r
To illustra
we observe J
three hypothe
Fig. 1. Human children learning names for object concepts routinely make strong generalizations from
just a few examples. The same processes of rapid generalization can be studied in adults learning names
for novel objects created with computer graphics. (A) Given these alien objects and three examples
(boxed in red) of “tufas” (a word in the alien language), which other objects are tufas? Almost everyone
selects just the objects boxed in gray (75). (B) Learning names for categories can be modeled as
Bayesian inference over a tree-structured domain representation (2). Objects are placed at the leaves of
Figure : オブジェクトのツリー
高橋達二 (TDU) 論文紹介: How to Grow a Mind 2014-Jul-04-Fri AGI 輪読会 38 / 62
39. 問 3. 抽象的知識の起源
これまでの機械学習手法と認知発達理論
データ構造の形成は心理学者にも科学哲学者にも謎
従来の教師なし学習での構造発見での
階層的クラスタリング
主成分分析 (PCA)
多次元スケーリング
クリーク検出 clique detection
などは、単一の固定されたデータ・表現構造を前提
複数のデータ構造や新奇なデータからの新しい形式を学習不
可能
生得説では、質的に異なる形式は生得的
コネクショニストによれば、新しい構造は学べるが、ジェネリック
な結合重みのシステムでは、人々が明示的に知っていると見える構
造、ツリー、因果ネットワークなどを、せいぜい近似できるだけ
高橋達二 (TDU) 論文紹介: How to Grow a Mind 2014-Jul-04-Fri AGI 輪読会 39 / 62
40. 問 3. 抽象的知識の起源
近年の認知理論
構造的知識表現とベイズ統計学のツールを組み合わせ
階層的ベイズモデル (HBMs: hierarchical Bayesian models) はデー
タを説明するのに、単一のレベルの仮説や事前分布ではなく、仮
説空間の仮説空間・事前分布の事前分布、といった複数のレベルの
仮説・事前分布を措定し仮説空間や事前分布の起源の問題を扱う
HBM の各レベルはその下のレベルの変数の確率分布を生成
全てのレベルにわたるベイズ推論は、特定の学習タスクに必要な
仮説や事前分布をそれ自体より大きい・長い時間スケールで学ぶ
ことを許し、同時にそれはより下のレベルの学習を制約
機械学習や人工知能では、 HBM は第一に転移学習:「以前の関連
したタスクでの経験からの帰納制約の獲得」に用いられてきたが、
(Supplemental Online Material を参照) ここでは HBM が人間が抽
象知識を正しい形で獲得する仕方の説明に利用
高橋達二 (TDU) 論文紹介: How to Grow a Mind 2014-Jul-04-Fri AGI 輪読会 40 / 62
41. 問 3. 抽象的知識の起源
構造の発見
Kemp and Tenenbaum は、グラフや文法に基づく表現の上で定義
された HBM がいかにしてある領域の同一性を支配する構造の形
式を発見できるかを示した
ツリー、クラスター、空間、リング、順序など、様々な形式の構造
は全てグラフとして、そして各形式を基礎づける抽象的原則はそ
の形式のグラフの成長の単純な文法ルールとして表現される
階層ベイズ的枠組みに埋め込むと、このアプローチは多くの実世
界で問題になる領域の構造の正しい形式(文法)を、適切な形式
の最も良い構造(グラフ)と一緒に、発見できる (図 2)
図 1A にあるような新奇なオブジェクトに対する階層的な構造 (図
1B のような) が、たとえば二次元空間のような別の表現よりも
人々がそこに見いだす類似性に良く合うことを推論できる
高橋達二 (TDU) 論文紹介: How to Grow a Mind 2014-Jul-04-Fri AGI 輪読会 41 / 62
42. 問 3. 抽象的知識の起源
図 2 A, B, C (Tenenbaum et al., Science, 2011)
Fig. 2A
Fig. 2. Kemp and Tenenbaum (47)
showed how the form of structure in
a domain can be discovered by using
a HBM defined over graph gram-
mars. At the bottom level of the
model is a data matrix D of objects
and their properties, or similarities
between pairs of objects. Each square
of the matrix represents whether a
given feature (column) is observed
for a given object (row). One level
up is the structure S, a graph of rela-
tions between objects that describes
how the features in D are distributed.
Intuitively, objects nearby in the graph
are expected to share similar feature
values;technically,thegraph Laplacian
parameterizes the inverse covariance
of a gaussian distribution with one
dimensionperobject,andeachfeature
is drawn independently from that dis-
tribution. The highest level of abstract
principles specifies the form F of
structure in the domain, in terms of
grammatical rules for growinga graph
S of a constrained form out of an
initial seed node. Red arrows repre-
sent P(S|F) and P(D|S), the condi-
tional probabilities that each level
specifies for the level below. A search
algorithm attempts to find both the
form F and the structure S of that form
that jointly maximize the posterior
probability P(S,F|D), a function of the
productofP(D|S)andP(S|F).(A)Given
as data the features of animals, the
A
E
B
C
D
Abstract
principles
tree: chain:
ring:
ring x chain
chain x chain
Features
Structure
Data
Animals
Brennan
Marshal
Blackmun
Stevens Souter
Ginsburg
Breyer White
O'Connor
Rehnquist
Scalia
Thomas
Kennedy
Mexico City LimaBogota
Ostrich
Chicken
Finch
Robin
Eagle
Penguin
Salmon Trout Alligator
Iguana
Whale
Dolphin
Ant
Cockroach
Butterfly
Bee
Seal
Wolf
Dog
Cat
Lion
Tiger
Squirrel
Mouse
Cow
Horse
Rhino
Elephant
Deer
Giraffe
Camel
Gorilla
Chimp
REVIEW
onMay23,2011ww.sciencemag.org
Fig. 2B, 2C
Fig. 2. Kemp and Tenenbaum (47)
showed how the form of structure in
a domain can be discovered by using
a HBM defined over graph gram-
mars. At the bottom level of the
model is a data matrix D of objects
and their properties, or similarities
between pairs of objects. Each square
of the matrix represents whether a
given feature (column) is observed
for a given object (row). One level
up is the structure S, a graph of rela-
tions between objects that describes
how the features in D are distributed.
Intuitively, objects nearby in the graph
are expected to share similar feature
values;technically,thegraph Laplacian
parameterizes the inverse covariance
of a gaussian distribution with one
dimensionperobject,andeachfeature
is drawn independently from that dis-
tribution. The highest level of abstract
principles specifies the form F of
structure in the domain, in terms of
grammatical rules for growinga graph
S of a constrained form out of an
initial seed node. Red arrows repre-
sent P(S|F) and P(D|S), the condi-
tional probabilities that each level
specifies for the level below. A search
algorithm attempts to find both the
form F and the structure S of that form
that jointly maximize the posterior
probability P(S,F|D), a function of the
productofP(D|S)andP(S|F).(A)Given
A
E
B
C
D
Abstract
principles
tree: chain:
ring:
ring x chain
Features
Structure
Data
Animals
Brennan
Marshal
Blackmun
Stevens Souter
Ginsburg
Breyer White
O'Connor
Rehnquist
Scalia
Thomas
Kennedy
Ostrich
Chicken
Finch
Robin
Eagle
Penguin
Salmon Trout Alligator
Iguana
Whale
Dolphin
Ant
Cockroach
Butterfly
Bee
Seal
Wolf
Dog
Cat
Lion
Tiger
Squirrel
Mouse
Cow
Horse
Rhino
Elephant
Deer
Giraffe
Camel
Gorilla
Chimp
REVIEW
高橋達二 (TDU) 論文紹介: How to Grow a Mind 2014-Jul-04-Fri AGI 輪読会 42 / 62
43. 問 3. 抽象的知識の起源
図 2 D, E (Tenenbaum et al., Science, 2011)
Fig. 2D
is drawn independently from that dis-
tribution. The highest level of abstract
principles specifies the form F of
structure in the domain, in terms of
grammatical rules for growinga graph
S of a constrained form out of an
initial seed node. Red arrows repre-
sent P(S|F) and P(D|S), the condi-
tional probabilities that each level
specifies for the level below. A search
algorithm attempts to find both the
form F and the structure S of that form
that jointly maximize the posterior
probability P(S,F|D), a function of the
productofP(D|S)andP(S|F).(A)Given
as data the features of animals, the
algorithm finds a tree structure with
intuitively sensible categories at mul-
tiple scales. (B) The same algorithm
discovers that the voting patterns of
U.S. Supreme Court judges are best
explained by a linear “left-right” spec-
trum.(C)Subjective similaritiesamong
colors are best explained by a circu-
larring.(D) Given proximitiesbetween
cities on the globe, the algorithm dis-
covers a cylindrical representation
analogous to latitude and longitude:
the cross product of a ring and a
ring. (E) Given images of realistically
synthesized faces varying in two di-
mensions, race and masculinity, the
algorithm successfully recovers the un-
derlying two-dimensional grid struc-
ture: a cross product of two chains.
D
ring x chain
Los Angeles
Honolulu
Wellington
Sydney
Perth
Jakarta
Manila
Shanghai
Bangkok
Tokyo
Vladivostok
Irkutsk Moscow
Berlin
London
Madrid
Dakar
New
York
Anchorage
Vancouver
Chicago
Toronto
Bombay
Teheran
Cairo
Nairobi
Budapest
Cape
Town
Mexico City LimaBogota
Santiago
Buenos
Aires
Sao
Paulo
Kinshasa
onMay23,20www.sciencemag.orgDownloadedfrom
Fig. 2E
if different domains of cognition are represented tics. Hierarchical B
E
D
chain x chain
Features
Data
Animals
L
Hono
Wellington
Sydney
Perth
Jakarta
M
Mouse
高橋達二 (TDU) 論文紹介: How to Grow a Mind 2014-Jul-04-Fri AGI 輪読会 43 / 62
44. 問 3. 抽象的知識の起源
枠組み理論の学習
HBM はまた、疾病と症状といった、枠組みの理論のような抽象的
な因果知識の学習にも用いることが出来る。
Manshinghka et al. は疾病と症状の二つのクラスを表現するグラフ
スキーマと因果リンクが疾病変数から症状変数へと走ることの優
先、が、特定の疾病と症状の間の因果リンクの学習を支持する同
じデータから学習できることを示した (図 3B, 3C)
学習されたスキーマは、また、より下のレベルの特定の因果関係
(有向グラフ構造)の学習を大幅に加速する
全体像――特定の疾病―症状リンクを特定する前に、疾病が症状
の原因となることを発見する――をまず獲得し、そしてその枠組
みを特定の知識のギャップを埋めるのに用いる、というのは(ボト
ムアップとトップダウンである種のループを作れる)人間に特徴
的な学習の様式である
これは子どもの発達や科学の発展に顕著に現れるが、これまでの
合理的あるいは統計的な学習モデルには収まらなかった
高橋達二 (TDU) 論文紹介: How to Grow a Mind 2014-Jul-04-Fri AGI 輪読会 44 / 62
45. 問 3. 抽象的知識の起源
図 3 A (Tenenbaum et al., Science, 2011)
A C
True structure
Abstrac
principle
'diseases'
'symptoms'
1
1
1
6 7
6
7
16
162 3 4 5 6
7 8 9 10 11 12 13 14 15 16
高橋達二 (TDU) 論文紹介: How to Grow a Mind 2014-Jul-04-Fri AGI 輪読会 45 / 62
46. 問 3. 抽象的知識の起源
図 3 B, C (Tenenbaum et al., Science, 2011)
Fig. 3B
B
True structure
n = 20 n = 80 n = 20 n = 80
Variables
Variab
Abstract
principles
Structure
Data
Structure
Data
Patients
Events
1
6
7
162 3 4 5
1 2 3 7 8 9 10
11 12 13
14 15 16
...
...
4 5 6
0.4
6
7 8 9 10 11 12 13 14 15 16
C1 C2
Fig. 3. HBMs defined over graph schemas can explain how intuitive theories
are acquired and used to learn about specific causal relations from limited
schema discovers the disease-symptom framewo
iables 1 to 6 to class C , variables 7 to 16 to cla
Fig. 3C
A
B
C D
True structure
n = 20 n = 80 n = 20 n = 80
Variables
Abstract
principles
Structure
Data
Structure
Data
Patients
'diseases'
'symptoms'
1
1
1
6 7
6
7
16
162 3 4 5
1 2 3 7 8 9 10
11 12 13
14 15 16
...
...
4 5 6
0.4
6
7 8 9 10 11 12 13 14 15 16
C1
C2
高橋達二 (TDU) 論文紹介: How to Grow a Mind 2014-Jul-04-Fri AGI 輪読会 46 / 62
47. 問 3. 抽象的知識の起源
図 3 D (Tenenbaum et al., Science, 2011)
Fig. 3D
D
REVIEW
onMay23,2011
因果性の抽象的な理論
因果関係の抽象概念?
エージェントが外部から介入したと
きに分かる因果関係の向き?
事象が介入の下にあることを示す
特徴?
これらの論理的な法則が下レベルのグラ
フィカルモデルを制約
高橋達二 (TDU) 論文紹介: How to Grow a Mind 2014-Jul-04-Fri AGI 輪読会 47 / 62
48. 問 3. 抽象的知識の起源
HBM
HBM は因果ネットワークの仮説空間に強く価値ある制約を課す
が、極めて柔軟でもある:
枠組み理論(任意の数の変数クラスとそれらのクラスの中の変数が
どのように結合される傾向があるかによって定義)を発見できる。
変数クラスの数さえ事前に未知で良い。
これは「無限」あるいはノンパラメトリックな階層的モデリング
によって可能となっている
そのようなモデルは無際限な量の構造を措定するが、有限の自由
度のみが与えられたデータセットに関与
ベイズ推論に備わる自動的なオッカムの剃刀が、モデルの複雑性
とデータの適合をトレードオフし、データが本当に要請するとき
のみ新しい構造(ここでは変数クラス)を導入させる。
高橋達二 (TDU) 論文紹介: How to Grow a Mind 2014-Jul-04-Fri AGI 輪読会 48 / 62
49. 問 3. 抽象的知識の起源
HBM と "the blessing of abstraction"
抽象知識の学習のケーススタディ
構造的形式の発見
因果枠組み理論
転移学習を通じて獲得された他の帰納的制約
を通じ、HBM の抽象概念が、より下位のレベルの学習で必要な
データに比べて相対的に少量のデータから著しく早く学習される
ことが分かった。
これは HBM のより上位レベルの各自由度がその下のレベルの多
数の変数に影響を及ぼし、またそれらから証拠を共同出資 (pool)
するからこれを HBM の「抽象化のたまもの」と呼ぶ
高橋達二 (TDU) 論文紹介: How to Grow a Mind 2014-Jul-04-Fri AGI 輪読会 49 / 62
50. 問 3. 抽象的知識の起源
HBM の取り柄
これは知識の起源へのトップダウンの道筋を提供し、生得説にお
いて誕生から存在する知識と、経験論や連合説における、抽象概
念が構築されるが近似的にすぎず、また多くの経験をお互いの上
に重ね合わせ、それらの共通要素をだんだんと取り出すため、ボ
トムアップで遅い、というのとは異なる。
HBM だけが、人間の抽象知識の目覚ましい特性の説明に適してい
るように見える:
1 経験から学ぶことができ、
2 人生の非常に初期に関与し、より個別の学習タスクを制約
する
高橋達二 (TDU) 論文紹介: How to Grow a Mind 2014-Jul-04-Fri AGI 輪読会 50 / 62
51. オープンクエスチョンズ
Topic
1 紹介論文
2 Joshua B. Tenenbaum について
3 要約と主要な三つの問題
4 チャレンジ: どうやって一だけ聞いて十を知るか?
5 問 1. 抽象的知識の役割
6 問 2. 抽象的知識の形式
7 問 3. 抽象的知識の起源
8 オープンクエスチョンズ
9 結論
高橋達二 (TDU) 論文紹介: How to Grow a Mind 2014-Jul-04-Fri AGI 輪読会 51 / 62
61. 結論
二者択一を超えて
ベイズ的アプローチは、認知科学をずっと形成し制限づけてきた
経験論 vs. 生得説(合理論)
領域一般 vs. 領域固有
論理 vs. 確率
記号 vs. 統計といった古典的な二者択一 (either-or)
を超えて進展させる
その代わりに、リバースエンジニアリングのもっと難しい問いを
立て、より人間的な AI システムの構築に役立つかもしれない、十
分に豊かな答えを出すことができる
高橋達二 (TDU) 論文紹介: How to Grow a Mind 2014-Jul-04-Fri AGI 輪読会 61 / 62