SlideShare a Scribd company logo
1 of 12
グラフィカルモデル
機械学習プロフェッショナルシリーズ
@St_Hakky
本書の構成
• 1章
• グラフィカルモデルの導入
• 2章
• 確率論の基礎的な事項(条件付き確率、条件付き独立)
• 3,4章
• ベイジアンネットワーク/マルコフ確率場
• 5章
• 因子グラフ
• 6,7,8章
• 確率推論
• 9,10,11章
• パラメタ学習
• 12, 13章
• MAP推定
• 14章
• 構造学習
グラフィカルモデルの
2章をやります
確率論の基礎
定義2.1 : σ-加法族
集合Ω その部分集合族𝙁 が以下の3つの条件を満たすとき、σ-加法族とい
う。
1. Ω ∈ 𝙁
2. 𝐴 ∈ 𝙁 ならばΩ\ 𝐴 ∈ 𝙁 が成立
3. 𝙁の加算個の元𝐴1, 𝐴1, 𝐴1 …に対して、∪𝑖 𝐴𝑖 ∈ 𝙁 が成立
組(Ω,𝙁)は可測空間、𝙁の元は可測集合と呼ばれる。
確率論の基礎
定義2.2 :確率空間
集合Ω と、その部分集合族𝙁からなるσ-加法族が与えられているとする。𝙁か
ら実数への写像Pが確率であるとは、以下の3つの条件(コルモゴロフの公理)を
満たすことである。
1. 任意の𝐴 ∈ 𝙁に対して、0 ≤ 𝑃(𝐴) ≤ 1
2. P(Ω) = 1
3. 互いに素な𝐴1, 𝐴1, 𝐴1 …に対して、P(∪𝑖 𝐴𝑖) = 𝑖 𝑃(𝐴𝑖) ∈ 𝙁 が成立
集合Ωは標本空間、三つ組(Ω,𝙁, P)は確率空間と呼ばれる
離散と連続に本質的に大きな違いはない。以下では、まず離散について説明し、
その後連続について説明する
確率論の基礎
定義2.3 : 離散的な確率変数
写像X ∶ Ω → 𝑍 が確率変数であるとは、任意の𝑥 ∈ 𝑍に対して、写像
𝑋−1({𝑥})が可測集合であることをいう。
確率変数の分布関数
確率分布関数(確率質量関数)
𝑃(𝑋 = 𝑥)
同時確率分布関数(同時確率質量関数)
𝑃(𝑋 = 𝑥, 𝑌 = 𝑦)
周辺化
𝑦
𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) = 𝑃(𝑋 = 𝑥)
2.2 確率変数の独立性
定義2.4 確率変数の独立性
確率変数𝑋1 ∶ Ω → 𝑍, 𝑋2 ∶ Ω → 𝑍が任意の𝐵1, 𝐵2 ⊂ 𝑍に対して、
𝑃(𝑋1 ∈ 𝐵1, 𝑋2 ∈ 𝐵2) = 𝑃(𝑋1 ∈ 𝐵1)𝑃(𝑋2 ∈ 𝐵2)
を満たすとき、X1, X2は独立であるといい、以下のように表記する。
2.3 条件付き確率
確率空間(Ω, 𝙁, P)とその上の確率変数Xがあるとします。今、「確率変数X
の値がBの中に入っている」という条件付けを考える。すなわり、Ωの部分
集合
𝑄 𝐵 𝐴 =
𝑃( ω∈ Ω ω∈𝐴,𝑋 ω ∈𝐵})
𝑃(𝑋∈𝐵)
𝑓𝑜𝑟 𝑎𝑙𝑙 𝐴 ∈ 𝐹
𝑋−1(𝐵) = {𝜔 ∈ Ω | 𝑋(𝜔) ∈ 𝐵}
の確率を1に規格化し直し、 X(ω) ∈ B以外の確率を0にする。
式このことを表現すると、条件つき確率はQBの定義は、
で与えられます。
2.3 条件付き確率
𝑃 𝑋 = 𝑥 𝑌 = 𝑦 =
𝑃(𝑋 = 𝑥, 𝑌 = 𝑦)
𝑃(𝑌 = 𝑦)
X,Yが離散的な確率変数の場合、Y=yの事象が観測されたとすると、
X=xの確率は、以下のように表現される
2.5 連続的な確率変数の取り扱い
まぁ、難しいことはごちゃごちゃありますが、基本的には積分にすれば
オッケーです(雑)
おしまい

More Related Content

Viewers also liked

[DL輪読会]Xception: Deep Learning with Depthwise Separable Convolutions
[DL輪読会]Xception: Deep Learning with Depthwise Separable Convolutions[DL輪読会]Xception: Deep Learning with Depthwise Separable Convolutions
[DL輪読会]Xception: Deep Learning with Depthwise Separable ConvolutionsDeep Learning JP
 
強くなるロボティック・ ゲームプレイヤーの作り方3章
強くなるロボティック・ ゲームプレイヤーの作り方3章強くなるロボティック・ ゲームプレイヤーの作り方3章
強くなるロボティック・ ゲームプレイヤーの作り方3章Hakky St
 
Reducing the dimensionality of data with neural networks
Reducing the dimensionality of data with neural networksReducing the dimensionality of data with neural networks
Reducing the dimensionality of data with neural networksHakky St
 
Boosting probabilistic graphical model inference by incorporating prior knowl...
Boosting probabilistic graphical model inference by incorporating prior knowl...Boosting probabilistic graphical model inference by incorporating prior knowl...
Boosting probabilistic graphical model inference by incorporating prior knowl...Hakky St
 
Deep Recurrent Q-Learning(DRQN) for Partially Observable MDPs
Deep Recurrent Q-Learning(DRQN) for Partially Observable MDPsDeep Recurrent Q-Learning(DRQN) for Partially Observable MDPs
Deep Recurrent Q-Learning(DRQN) for Partially Observable MDPsHakky St
 
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 1章
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 1章スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 1章
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 1章Hakky St
 
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 3.3節と3.4節
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 3.3節と3.4節スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 3.3節と3.4節
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 3.3節と3.4節Hakky St
 
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 2.3節〜2.5節
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 2.3節〜2.5節スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 2.3節〜2.5節
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 2.3節〜2.5節Hakky St
 
Diet networks thin parameters for fat genomic
Diet networks thin parameters for fat genomicDiet networks thin parameters for fat genomic
Diet networks thin parameters for fat genomicHakky St
 
スパース性に基づく機械学習 2章 データからの学習
スパース性に基づく機械学習 2章 データからの学習スパース性に基づく機械学習 2章 データからの学習
スパース性に基づく機械学習 2章 データからの学習hagino 3000
 
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章Hakky St
 
Greed is Good: 劣モジュラ関数最大化とその発展
Greed is Good: 劣モジュラ関数最大化とその発展Greed is Good: 劣モジュラ関数最大化とその発展
Greed is Good: 劣モジュラ関数最大化とその発展Yuichi Yoshida
 
Hands-On Machine Learning with Scikit-Learn and TensorFlow - Chapter8
Hands-On Machine Learning with Scikit-Learn and TensorFlow - Chapter8Hands-On Machine Learning with Scikit-Learn and TensorFlow - Chapter8
Hands-On Machine Learning with Scikit-Learn and TensorFlow - Chapter8Hakky St
 

Viewers also liked (13)

[DL輪読会]Xception: Deep Learning with Depthwise Separable Convolutions
[DL輪読会]Xception: Deep Learning with Depthwise Separable Convolutions[DL輪読会]Xception: Deep Learning with Depthwise Separable Convolutions
[DL輪読会]Xception: Deep Learning with Depthwise Separable Convolutions
 
強くなるロボティック・ ゲームプレイヤーの作り方3章
強くなるロボティック・ ゲームプレイヤーの作り方3章強くなるロボティック・ ゲームプレイヤーの作り方3章
強くなるロボティック・ ゲームプレイヤーの作り方3章
 
Reducing the dimensionality of data with neural networks
Reducing the dimensionality of data with neural networksReducing the dimensionality of data with neural networks
Reducing the dimensionality of data with neural networks
 
Boosting probabilistic graphical model inference by incorporating prior knowl...
Boosting probabilistic graphical model inference by incorporating prior knowl...Boosting probabilistic graphical model inference by incorporating prior knowl...
Boosting probabilistic graphical model inference by incorporating prior knowl...
 
Deep Recurrent Q-Learning(DRQN) for Partially Observable MDPs
Deep Recurrent Q-Learning(DRQN) for Partially Observable MDPsDeep Recurrent Q-Learning(DRQN) for Partially Observable MDPs
Deep Recurrent Q-Learning(DRQN) for Partially Observable MDPs
 
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 1章
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 1章スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 1章
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 1章
 
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 3.3節と3.4節
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 3.3節と3.4節スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 3.3節と3.4節
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 3.3節と3.4節
 
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 2.3節〜2.5節
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 2.3節〜2.5節スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 2.3節〜2.5節
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 2.3節〜2.5節
 
Diet networks thin parameters for fat genomic
Diet networks thin parameters for fat genomicDiet networks thin parameters for fat genomic
Diet networks thin parameters for fat genomic
 
スパース性に基づく機械学習 2章 データからの学習
スパース性に基づく機械学習 2章 データからの学習スパース性に基づく機械学習 2章 データからの学習
スパース性に基づく機械学習 2章 データからの学習
 
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
 
Greed is Good: 劣モジュラ関数最大化とその発展
Greed is Good: 劣モジュラ関数最大化とその発展Greed is Good: 劣モジュラ関数最大化とその発展
Greed is Good: 劣モジュラ関数最大化とその発展
 
Hands-On Machine Learning with Scikit-Learn and TensorFlow - Chapter8
Hands-On Machine Learning with Scikit-Learn and TensorFlow - Chapter8Hands-On Machine Learning with Scikit-Learn and TensorFlow - Chapter8
Hands-On Machine Learning with Scikit-Learn and TensorFlow - Chapter8
 

【機械学習プロフェッショナルシリーズ】グラフィカルモデル2章