SlideShare a Scribd company logo
1 of 21
順推論と逆推論の問題
生理学研究所 脳機能計測・支援センター
准教授 近添淳一
Forward and reverse inference
(順推論と逆推論)
Forward
inference
(順推論)
Reverse
inference
(逆推論)
課題によって生じ
た精神活動
P(A|M)
A: Brain activity (脳活動)
M: Mental state (精神活動)
P(M|A)
精神活動
嫌悪
不適切なReverse inferenceの例
結論:
被験者はgo/no-go課題が難しすぎるために、実験に対し
て嫌悪感を抱いた、と考えられる。
反応抑制
(task: go/no-go)
島皮質で最も
強い脳活動
(Wright et al., 2004)
不適切なReverse inferenceの例
結論:
被験者はgo/no-go課題を遂行するために、課題のルール
を短期記憶を使って保持する必要があった、と考えられる。
反応抑制
(task: go/no-go)
島皮質で最も
強い脳活動
短期記憶
(Engström et al., 2015)
不適切なReverse inferenceの例
結論:
困難な課題で成功することはそれ自体で報酬となるため、
被験者は「甘い」気分になっている、と考えられる。
反応抑制
(task: go/no-go)
島皮質で最も
強い脳活動
味覚
(甘味)
(Chikazoe et al., in preparation)
不適切なReverse inferenceの例
結論:
被験者は「酸っぱい」気分になっている。なぜなら・・・
反応抑制
(task: go/no-go)
島皮質で最も
強い脳活動
味覚
(酸味)
(Chikazoe et al., in preparation)
reverse inferenceの問題は何か?
Bayesの公式:
P(M|A) =
P(A)
P(A|M) x P(M)
M: Mental process (精神活動)
A: Brain activation (脳活動)
事後確率
(脳活動を見た後で
推定された精神活動)
事前確率
(脳活動をみる前に
推定された精神活動)
観察
不適切なreverse inferenceの場合
Bayesの公式:
P(M|A) =
P(A)
P(A|M) x P(M)
M: Mental process (精神活動)
A: Brain activation (脳活動)
観察 自分のストーリーを
サポートする論文を
恣意的に選択
reverse inferenceの問題は何か?
Bayesの公式:
P(M|A) =
P(A)
P(A|M) x P(M)
M: Mental process (精神活動)
A: Brain activation (脳活動)
事前確率
(脳活動をみる前に
推定された精神活動)
著者の主観的信念に
従い、恣意的に設定
二重の恣意性によって推論が歪む
1.客観的なデータ観察の代わりに、恣意的な
論文選択
2.事前確率に著者の信念を直接反映させる
解決策
1.Neurosynthを用いる。
実際のdataに基づいた客観的なreverse inferenceが可能。
2.Taskを条件として加える。
Inferenceの範囲を限定する。
(視覚を使う実験をしている場合には、被験者が聴覚経験
をしている可能性を考える必要がない。)
Neurosynth (http://neurosynth.org/)
Meta-analysis
P(pain|activation)
Automated coordinate
extraction
Related studies
Term-based
search
‘Pain’
Yarkoni et al., 2011, Nature Methods
P(M|A) =
P(A)
P(A|M) x P(M)
過去のfMRI研究を網羅的に調べることにより計算
0.5に設定 (無情報分布)
Term-based
search
‘Pain’
Neurosynthの使い方
Coordinateを用いる方法
単語と領域の
関連の強さ
Reverse inferenceの結果
全脳の脳活動のパターンを用いる方法
全脳の脳活動のパターンを用いる方法
全脳の脳活動のパターンを用いる方法
Neurosynthを使うことのメリット
• 恣意性を排除できる。
• 複数の仮説(解釈)の間で、どれがどの程度確か
らしいかを定量的に評価できる。
Neurosynthを使うことのデメリット
• 論文を精読して細かく振り分けたわけではないた
め(コンピュータが論文の中の単語の出現頻度を
機械的にカウント)、ノイズも多く含まれる。
• 事前確率が非常に重要であるにもかかわらず、こ
の部分を正確に評価できていない。
P(M|A) =
P(A)
P(A|M) x P(M)
過去のfMRI研究を網羅的に調べることにより計算
0.5に設定 (無情報分布)
課題を条件として加える方法
例:視覚実験を行っている場合は、視覚刺激が与え
られているということを事前に実験者は知っている。
この場合、聴覚刺激が与えられている可能性を考え
なくてよい。
(MVPAを使ったDecodingはこれを利用している)
P(M|A ∩Task) =
P(A|Task)
P(A|M ∩ Task) x P(M |Task)
参考文献
• Poldrack, Inferring Mental States from Neuroimaging Data: From
Reverse Inference to Large-Scale Decoding. Neuron. 2011 Dec
8;72(5):692-7. doi: 10.1016/j.neuron.2011.11.001.
• Yarkoni et al., Large-scale automated synthesis of human functional
neuroimaging data. Nature Methods 8, 665–670 (2011)
doi:10.1038/nmeth.1635
• Hutzler, Reverse inference is not a fallacy per se: cognitive processes
can be inferred from functional imaging data. Neuroimage. 2014 Jan
1;84:1061-9. doi: 10.1016/j.neuroimage.2012.12.075.

More Related Content

What's hot

「世界モデル」と関連研究について
「世界モデル」と関連研究について「世界モデル」と関連研究について
「世界モデル」と関連研究についてMasahiro Suzuki
 
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion ModelsDeep Learning JP
 
最適化超入門
最適化超入門最適化超入門
最適化超入門Takami Sato
 
[DL輪読会]Learning Latent Dynamics for Planning from Pixels
[DL輪読会]Learning Latent Dynamics for Planning from Pixels[DL輪読会]Learning Latent Dynamics for Planning from Pixels
[DL輪読会]Learning Latent Dynamics for Planning from PixelsDeep Learning JP
 
【DL輪読会】HyperTree Proof Search for Neural Theorem Proving
【DL輪読会】HyperTree Proof Search for Neural Theorem Proving【DL輪読会】HyperTree Proof Search for Neural Theorem Proving
【DL輪読会】HyperTree Proof Search for Neural Theorem ProvingDeep Learning JP
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!TransformerArithmer Inc.
 
[DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions [DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions Deep Learning JP
 
自由エネルギー原理から エナクティヴィズムへ
自由エネルギー原理から エナクティヴィズムへ自由エネルギー原理から エナクティヴィズムへ
自由エネルギー原理から エナクティヴィズムへMasatoshi Yoshida
 
POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用Yasunori Ozaki
 
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−Deep Learning JP
 
【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language ModelsDeep Learning JP
 
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence ModelingDeep Learning JP
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)Masahiro Suzuki
 
方策勾配型強化学習の基礎と応用
方策勾配型強化学習の基礎と応用方策勾配型強化学習の基礎と応用
方策勾配型強化学習の基礎と応用Ryo Iwaki
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習Deep Learning JP
 
[DL輪読会]画像を使ったSim2Realの現況
[DL輪読会]画像を使ったSim2Realの現況[DL輪読会]画像を使ったSim2Realの現況
[DL輪読会]画像を使ったSim2Realの現況Deep Learning JP
 
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs	(gMLP)[DL輪読会]Pay Attention to MLPs	(gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)Deep Learning JP
 
[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展Deep Learning JP
 

What's hot (20)

「世界モデル」と関連研究について
「世界モデル」と関連研究について「世界モデル」と関連研究について
「世界モデル」と関連研究について
 
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
 
最適化超入門
最適化超入門最適化超入門
最適化超入門
 
[DL輪読会]Learning Latent Dynamics for Planning from Pixels
[DL輪読会]Learning Latent Dynamics for Planning from Pixels[DL輪読会]Learning Latent Dynamics for Planning from Pixels
[DL輪読会]Learning Latent Dynamics for Planning from Pixels
 
【DL輪読会】HyperTree Proof Search for Neural Theorem Proving
【DL輪読会】HyperTree Proof Search for Neural Theorem Proving【DL輪読会】HyperTree Proof Search for Neural Theorem Proving
【DL輪読会】HyperTree Proof Search for Neural Theorem Proving
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
[DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions [DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions
 
自由エネルギー原理から エナクティヴィズムへ
自由エネルギー原理から エナクティヴィズムへ自由エネルギー原理から エナクティヴィズムへ
自由エネルギー原理から エナクティヴィズムへ
 
POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用
 
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
 
【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models
 
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)
 
方策勾配型強化学習の基礎と応用
方策勾配型強化学習の基礎と応用方策勾配型強化学習の基礎と応用
方策勾配型強化学習の基礎と応用
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
 
[DL輪読会]画像を使ったSim2Realの現況
[DL輪読会]画像を使ったSim2Realの現況[DL輪読会]画像を使ったSim2Realの現況
[DL輪読会]画像を使ったSim2Realの現況
 
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs	(gMLP)[DL輪読会]Pay Attention to MLPs	(gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)
 
[DL輪読会]World Models
[DL輪読会]World Models[DL輪読会]World Models
[DL輪読会]World Models
 
Group normalization
Group normalizationGroup normalization
Group normalization
 
[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展[DL輪読会]近年のエネルギーベースモデルの進展
[DL輪読会]近年のエネルギーベースモデルの進展
 

順推論と逆推論