SlideShare a Scribd company logo
1 of 22
馬に蹴られるモデリング
~愛のムチと表情のお話し~
広島大学 難波修史
Osaka.stan #5 LT
自己紹介
• 難波修史 @Nsushi
• 広島のバイキンマンです
• 広島大学教育学研究科心理学専攻D2
• 専門:顔、感情、ド文系
• 興味:ラブライブ
• 使用言語:Python (実験制御), R (統計)
感情と表情
• 表情は内的状態をうつす鏡
― 楽しい時に笑う
― 悲しい時に唇を結ぶ (Namba et al., 2017
内的状態 (ここでは情動体験)
は特定表情と関連する
表情部位
眼輪筋の収縮
皺眉筋の収縮
笑筋の収縮
オトガイ筋の上昇
本研究=各表情部位表出と実際の体験の
関連、という観点からのアプローチ!
特定情動と特定表情
の結びつき=否定
⇒ 要素の観点から、
より保守的な検討
方法
― 参加者は情動喚起映像を複数視聴
― 喚起された情動体験を報告(16種類
― 視聴中の表情を(表情筋ごとに)分析
※画像はイメージです
結果
色々ありますねぇ=解釈が…
眼輪筋(瞼閉
じる)の動き
愉快
安心
満足
興味
幸福
怒り
痛み
混乱
嫌悪
当惑
軽蔑
恐れ
緊張
悲しみ
驚き
覚醒
説明変数が多すぎる
表情表出を予測する妥当な
変数を選択する必要性!
有効な手段 :「ダメな統計学」参照
• 愛のムチ(正則化:Lasso回帰がメジャー)
二重指数分布の出番?
(Bayesian Lasso)
前回のカラオケマン
先生の資料 (7章後半)
にも出てきたぞ!
「Stanならもっといいムチがあるよ」
Andrew Gelman(統計のやべー先生
available at http://andrewgelman.com/2015/02/17/bayesian-
survival-analysis-horseshoe-priors/
「馬蹄事前分布~」
「馬蹄事前分布~」
(Shrinkage profileが)
馬の蹄に似てるぞ!
簡単な説明(イメージ
• 回帰係数の事前分布に用いる。
• τ=愛のムチ (0に近いほどShrinkage)
• λ=ムチとの距離をつくる
効果が弱いやつはしばく、強いやつは許す
変数選択モデリングに有利!!
ムチのハイパーパラメータ
• Piironen & Vehtari (2016)
― LassoにせよShrinkage Prior (馬蹄事前分布
など) にせよ常に最良の設定はない。
― 研究者の信念を含む事前分布でええやん。
説明変数の予想数
説明変数の総数
サンプルサイズ
誤差分散
(今回は2
Stan コード①
Stanコード② ※1:GLMとLMでσの設定が
異なる、これはLogistic用
※2:tau0 = scale_global
近年の表情表出を説明する理論
(Component process model, Scherer, 1997)
びっくり! 腹立つ! 抑えろ! Holy shit!
内的状態と特定表情のオーバーラップ
=おおむね2つだろう(諸説あり
Emot. Rev. Scherer et al. (2013) 参照
p0 = 2の場合
変数が選択されたゾ!!
眼輪筋(瞼閉
じる)の動き
愉快
安心
満足
興味
幸福
怒り
痛み
混乱
嫌悪
当惑
軽蔑
恐れ
緊張
悲しみ
驚き
覚醒
豚を見る目!
結論
馬蹄事前分布
+
あなた (研究者・ユーザー) が持つ
真の説明変数の数に関する事前信念
素敵なモデリングを実現!
参考
• Bhadra, A., Datta, J., Polson, N. G., & Willard,
B. (2017). The horseshoe+ estimator of ultra-
sparse signals. Bayesian Analysis.
• Piironen, J., & Vehtari, A. (2015). Projection
predictive variable selection using Stan+
R. arXiv preprint arXiv:1508.02502.
• Piironen, J., & Vehtari, A. (2016). On the
hyperprior choice for the global shrinkage
parameter in the horseshoe prior. arXiv preprint
arXiv:1610.05559.
おまけ
• さっきの複雑なStanコードを使わなくても
• rstanarmパッケージではデフォルトで回帰
係数に馬蹄事前分布 (あと馬蹄事前分布+
とかいうのもある) を引数として簡単に設
定できる。
↓ Help ページ
より引用
おまけ(https://www.ariddell.org/horseshoe-prior-with-stan.html
Allen 先生がPystan
によってLassoと馬
蹄事前分布 (半コー
シー使った単純なハ
イパーパラメータの
設定) を比較してま
す。ご参考までに。
Enjoy Stan !

More Related Content

What's hot

ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介Naoki Hayashi
 
ノンパラベイズ入門の入門
ノンパラベイズ入門の入門ノンパラベイズ入門の入門
ノンパラベイズ入門の入門Shuyo Nakatani
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説弘毅 露崎
 
MCMCサンプルの使い方 ~見る・決める・探す・発生させる~
MCMCサンプルの使い方 ~見る・決める・探す・発生させる~MCMCサンプルの使い方 ~見る・決める・探す・発生させる~
MCMCサンプルの使い方 ~見る・決める・探す・発生させる~. .
 
相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心takehikoihayashi
 
階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門shima o
 
Stanコードの書き方 中級編
Stanコードの書き方 中級編Stanコードの書き方 中級編
Stanコードの書き方 中級編Hiroshi Shimizu
 
合成変量とアンサンブル:回帰森と加法モデルの要点
合成変量とアンサンブル:回帰森と加法モデルの要点合成変量とアンサンブル:回帰森と加法モデルの要点
合成変量とアンサンブル:回帰森と加法モデルの要点Ichigaku Takigawa
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知Yuya Takashina
 
2 6.ゼロ切断・過剰モデル
2 6.ゼロ切断・過剰モデル2 6.ゼロ切断・過剰モデル
2 6.ゼロ切断・過剰モデルlogics-of-blue
 
Stan勉強会資料(前編)
Stan勉強会資料(前編) Stan勉強会資料(前編)
Stan勉強会資料(前編) daiki hojo
 
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法Deep Learning JP
 
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展Shiga University, RIKEN
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明Haruka Ozaki
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1matsuolab
 
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習Deep Learning JP
 
科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性
科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性
科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性Ichigaku Takigawa
 
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説Shiga University, RIKEN
 
言語と画像の表現学習
言語と画像の表現学習言語と画像の表現学習
言語と画像の表現学習Yuki Noguchi
 

What's hot (20)

Rによるベイジアンネットワーク入門
Rによるベイジアンネットワーク入門Rによるベイジアンネットワーク入門
Rによるベイジアンネットワーク入門
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
ノンパラベイズ入門の入門
ノンパラベイズ入門の入門ノンパラベイズ入門の入門
ノンパラベイズ入門の入門
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
 
MCMCサンプルの使い方 ~見る・決める・探す・発生させる~
MCMCサンプルの使い方 ~見る・決める・探す・発生させる~MCMCサンプルの使い方 ~見る・決める・探す・発生させる~
MCMCサンプルの使い方 ~見る・決める・探す・発生させる~
 
相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心
 
階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門
 
Stanコードの書き方 中級編
Stanコードの書き方 中級編Stanコードの書き方 中級編
Stanコードの書き方 中級編
 
合成変量とアンサンブル:回帰森と加法モデルの要点
合成変量とアンサンブル:回帰森と加法モデルの要点合成変量とアンサンブル:回帰森と加法モデルの要点
合成変量とアンサンブル:回帰森と加法モデルの要点
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知
 
2 6.ゼロ切断・過剰モデル
2 6.ゼロ切断・過剰モデル2 6.ゼロ切断・過剰モデル
2 6.ゼロ切断・過剰モデル
 
Stan勉強会資料(前編)
Stan勉強会資料(前編) Stan勉強会資料(前編)
Stan勉強会資料(前編)
 
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
 
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1
 
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習
 
科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性
科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性
科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性
 
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説
 
言語と画像の表現学習
言語と画像の表現学習言語と画像の表現学習
言語と画像の表現学習
 

Similar to 馬に蹴られるモデリング

表情から見た情動
表情から見た情動表情から見た情動
表情から見た情動Shushi Namba
 
20100530 思想哲学研究会
20100530 思想哲学研究会20100530 思想哲学研究会
20100530 思想哲学研究会Takanobu Mizuta
 
共感覚的表現を用いた触感と基本6感情の対応づけに関する一検討
共感覚的表現を用いた触感と基本6感情の対応づけに関する一検討共感覚的表現を用いた触感と基本6感情の対応づけに関する一検討
共感覚的表現を用いた触感と基本6感情の対応づけに関する一検討Matsushita Laboratory
 
Japan CV Day 2011 Position Talk for Panel Discussion
Japan CV Day 2011 Position Talk for Panel DiscussionJapan CV Day 2011 Position Talk for Panel Discussion
Japan CV Day 2011 Position Talk for Panel DiscussionAkisato Kimura
 
心理学における「再現性」の問題とBayes Factor
心理学における「再現性」の問題とBayes Factor心理学における「再現性」の問題とBayes Factor
心理学における「再現性」の問題とBayes FactorShushi Namba
 

Similar to 馬に蹴られるモデリング (6)

表情から見た情動
表情から見た情動表情から見た情動
表情から見た情動
 
20100530 思想哲学研究会
20100530 思想哲学研究会20100530 思想哲学研究会
20100530 思想哲学研究会
 
共感覚的表現を用いた触感と基本6感情の対応づけに関する一検討
共感覚的表現を用いた触感と基本6感情の対応づけに関する一検討共感覚的表現を用いた触感と基本6感情の対応づけに関する一検討
共感覚的表現を用いた触感と基本6感情の対応づけに関する一検討
 
Japan CV Day 2011 Position Talk for Panel Discussion
Japan CV Day 2011 Position Talk for Panel DiscussionJapan CV Day 2011 Position Talk for Panel Discussion
Japan CV Day 2011 Position Talk for Panel Discussion
 
心理学における「再現性」の問題とBayes Factor
心理学における「再現性」の問題とBayes Factor心理学における「再現性」の問題とBayes Factor
心理学における「再現性」の問題とBayes Factor
 
DOKKAIWA Lesson 09 ws
DOKKAIWA Lesson 09 wsDOKKAIWA Lesson 09 ws
DOKKAIWA Lesson 09 ws
 

More from Shushi Namba

回帰モデルとして見る信号検出理論
回帰モデルとして見る信号検出理論回帰モデルとして見る信号検出理論
回帰モデルとして見る信号検出理論Shushi Namba
 
ベイズモデリングで見る因子分析
ベイズモデリングで見る因子分析ベイズモデリングで見る因子分析
ベイズモデリングで見る因子分析Shushi Namba
 
ベイズモデリングと仲良くするために
ベイズモデリングと仲良くするためにベイズモデリングと仲良くするために
ベイズモデリングと仲良くするためにShushi Namba
 
今夜は動的モデリングよ~Dynrで簡単クッキング!~
今夜は動的モデリングよ~Dynrで簡単クッキング!~今夜は動的モデリングよ~Dynrで簡単クッキング!~
今夜は動的モデリングよ~Dynrで簡単クッキング!~Shushi Namba
 
Mental model for emotion
Mental model for emotionMental model for emotion
Mental model for emotionShushi Namba
 
ベイズ統計モデリングと心理学
ベイズ統計モデリングと心理学ベイズ統計モデリングと心理学
ベイズ統計モデリングと心理学Shushi Namba
 
StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章
StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章
StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章Shushi Namba
 
Rはいいぞ!むしろなぜ使わないのか!!
Rはいいぞ!むしろなぜ使わないのか!!Rはいいぞ!むしろなぜ使わないのか!!
Rはいいぞ!むしろなぜ使わないのか!!Shushi Namba
 
変数同士の関連_MIC
変数同士の関連_MIC変数同士の関連_MIC
変数同士の関連_MICShushi Namba
 
がんばろう!はじめてのDnn!
がんばろう!はじめてのDnn!がんばろう!はじめてのDnn!
がんばろう!はじめてのDnn!Shushi Namba
 
主成分分析(Pca)
主成分分析(Pca)主成分分析(Pca)
主成分分析(Pca)Shushi Namba
 
Psychophysical functions@BCM勉強会
Psychophysical functions@BCM勉強会Psychophysical functions@BCM勉強会
Psychophysical functions@BCM勉強会Shushi Namba
 
Rでベイズをやってみよう!(コワい本1章)@BCM勉強会
Rでベイズをやってみよう!(コワい本1章)@BCM勉強会Rでベイズをやってみよう!(コワい本1章)@BCM勉強会
Rでベイズをやってみよう!(コワい本1章)@BCM勉強会Shushi Namba
 

More from Shushi Namba (13)

回帰モデルとして見る信号検出理論
回帰モデルとして見る信号検出理論回帰モデルとして見る信号検出理論
回帰モデルとして見る信号検出理論
 
ベイズモデリングで見る因子分析
ベイズモデリングで見る因子分析ベイズモデリングで見る因子分析
ベイズモデリングで見る因子分析
 
ベイズモデリングと仲良くするために
ベイズモデリングと仲良くするためにベイズモデリングと仲良くするために
ベイズモデリングと仲良くするために
 
今夜は動的モデリングよ~Dynrで簡単クッキング!~
今夜は動的モデリングよ~Dynrで簡単クッキング!~今夜は動的モデリングよ~Dynrで簡単クッキング!~
今夜は動的モデリングよ~Dynrで簡単クッキング!~
 
Mental model for emotion
Mental model for emotionMental model for emotion
Mental model for emotion
 
ベイズ統計モデリングと心理学
ベイズ統計モデリングと心理学ベイズ統計モデリングと心理学
ベイズ統計モデリングと心理学
 
StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章
StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章
StanとRでベイズ統計モデリング読書会(Osaka.stan) 第6章
 
Rはいいぞ!むしろなぜ使わないのか!!
Rはいいぞ!むしろなぜ使わないのか!!Rはいいぞ!むしろなぜ使わないのか!!
Rはいいぞ!むしろなぜ使わないのか!!
 
変数同士の関連_MIC
変数同士の関連_MIC変数同士の関連_MIC
変数同士の関連_MIC
 
がんばろう!はじめてのDnn!
がんばろう!はじめてのDnn!がんばろう!はじめてのDnn!
がんばろう!はじめてのDnn!
 
主成分分析(Pca)
主成分分析(Pca)主成分分析(Pca)
主成分分析(Pca)
 
Psychophysical functions@BCM勉強会
Psychophysical functions@BCM勉強会Psychophysical functions@BCM勉強会
Psychophysical functions@BCM勉強会
 
Rでベイズをやってみよう!(コワい本1章)@BCM勉強会
Rでベイズをやってみよう!(コワい本1章)@BCM勉強会Rでベイズをやってみよう!(コワい本1章)@BCM勉強会
Rでベイズをやってみよう!(コワい本1章)@BCM勉強会
 

馬に蹴られるモデリング