SlideShare a Scribd company logo
1 of 21
Download to read offline
4.5	
  ベイズロジスティック回帰
     PRML復々習レーン	
  #5	
  

          2012/11/03	
  

        @hagino3000
4.5	
  ベイズロジスティック回帰

ロジスティック回帰のベイズ的
な取り扱い
ロジスティック回帰に対して、
ベイズ推論を適用する


•  厳密にやるのは難しい	
  

•  事後確率分布がガウス分布でない	
  

•  予測分布の評価をどうするか	
  
事後確率分布がガウス分布
でない。	
  
	
  
     ラプラス近似を適用して事
後確率分布のガウス分布表
現を探索する。
事前ガウス分布の一般形

  p(w) = N(w | m0 , S0 )       4.140



  wの上の事後確率分布

  p(w | t) ∝ p(w)p(t | w)      4.141

尤度関数にロジスティック          ロジスティック回帰の場合、
シグモイド関数が含まれる          ロジスティックシグモイド
ため、ガウス分布では無い            関数が含まれる
4.141の両辺の対数を取る
ln( p(w | t))
= ln( p(w)p(t | w))
= ln( p(w)) + ln( p(t | w))
 事前ガウス分布は式4.140を使う
= ln(N(w | m0 , S0 )) + ln( p(t | w))
 ロジスティック回帰の尤度関数は式4.89
                              N
= ln(N(w | m0 , S0 )) + ln(∏ y {1− yn }
                                    tn
                                    n
                                         1−tn
                                                )
                              n=1
事前ガウス分布の項について、多変量ガウス分布の
式(2.43)を使って整理
ln(N(w | m0 , S0 ))
         1     1         1         T
= ln(      D/2  1/2
                    exp{− (x − m0 ) S0 (x − m0 )})
      (2π ) S0           2
         1     1       1
= ln(      D/2  1/2
                    ) − (x − m0 )T S0 (x − m0 )
      (2π ) S0         2
   1         T
= − (x − m0 ) S0 (x − m0 ) + const
   2
尤度関数の項について整理
       N
ln(∏ y {1− yn }
           tn
           n
                  1−tn
                         )
   n=1
   N
= ∑ (tn ln yn + (1− tn )ln(1− yn ))
  n=1
4.142の式が得られる

ln( p(w | t)) =
        1         T
       − (x − m0 ) S0 (x − m0 )
        2
         N
      + ∑ (tn ln yn + (1− tn )ln(1− yn ))
         n=1

      + const
                   T
 この時     yn = σ (w φn )
次に事後確率分布を最大化するMAP解を求める。	
  
(MAP解はなんらかの数値最適化アルゴリズムで求
める 4.4	
  ラプラス近似)	
  
求めたMAP解をWMAPとする。	
  
	
  
共分散は、負の対数尤度における2回微分行列の逆
行列で与えられる。(4.132のヘッセ行列と同じ)
 −1
S = −∇∇ ln p(w | t)
 N


      = S + ∑ yn (1− yn )φ φ
       −1
       0
                           T
                         n n
最大事後確率WMAPはガウス分布の平均、共分散の逆
行列であるヘッセ行列が求まると、事後確率分布の
ガウス分布による近似は次の式となる。	
  


q(w) = N(w | w MAP , SN )


ここまでがラプラス近似の適用	
  
予測分布
新たな特徴ベクトルφ(x)が与えられた際のクラスC1
に対する予測分布を、ラプラス近似によって導出し
たガウス分布q(w)使って近似すると。	
  

p(C1 | φ, t) =     ∫ p(C1 | φ, w)p(w | t)dw
                      T
                 ≈ ∫ σ (w φ )q(w)dw           4.145



                                 T
※4.87より     p(C1 | φ, w) = σ (w φ )
T
σ (w φ ) は、φ上への射影を通してのみwに依存する	
  

                           T
a = w φ と表すと σ (w φ ) は次の通り
        T


        wTφは常にセット、他との組み合わせでは登場しないので	
  a	
  とおける



    T                T
σ (w φ ) = ∫ δ (a − w φ )σ (a)da

    ディラックのデルタ関数(計算に便利)
よって	
  

p(C1 | φ, t) =     ∫ p(C1 | φ, w)p(w | t)dw
                      T
                 ≈ ∫ σ (w φ )q(w)dw
                               T
                 = ∫ ( ∫ σ (a − w φ )σ (a)q(w)da )dw
                               T
                 = ∫ ( ∫ σ (a − w φ )q(w)dw)σ (a)da
                 = ∫ p(a)σ (a)da
                           T
ここで	
   p(a) = ∫ δ (a − w φ )q(w)dw
平均	
  
µ a = E[a] =      ∫ p(a)a da
                            T
                = ∫ ∫ δ (a − w φ )q(w)a dw da
                            T
                = ∫ ( ∫ δ (a − w φ )a da )q(w)dw
                        T
                = ∫ q(w)w φ dw
                                T
                = ( ∫ q(w)w dw) φ
                    T       T
                = E[w] φ = w    φ
                            MAP
共分散	
  
  2
σ a = var[a] =         ∫       p(a){a 2 − Ε[a]2 }da
                       T
 4.146で	
     a=w φ
                                       T
 4.148で	
     p(a) = ∫ δ (a − w φ )q(w)dw                  をあてはめて	
  

                                       T   2       T   2
                   =   ∫ q(w){(w φ )           − (m φ ) }dw
                                                   N
                           T
                   = φ S N φ
予測分布	
  

 p(C1 | t) = ∫ σ (a)p(a)da
                                  2
              = ∫ σ (a)N(a | µ a , σ )da
                                  a

これは2.3.2節で与えられたガウス分布の周辺分布に対する結果を用いて、
直接この結果を導く事もできる。

a上での積分は、ロジスティックシグモイド関数でのガ
ウス分布のたたみ込み積分を表しており、解析的に評価
する事ができない。
a上での積分は、ロジスティックシグモイド関数でのガ
ウス分布のたたみ込み積分を表しており、解析的に評価
する事ができない。

→ ロジスティックシグモイド関数σ(a)	
  4.59とプロビット
関数 4.114	
  の逆関数の高い類似性を利用すれば良い近似
を得る事ができる。(図	
  4.9)




PATTERN	
  RECOGNITION	
  AND	
  MACHINE	
  LEARNING	
  (CM.	
  BISHOP)	
  から引用
σ(a)の代りにプロビット関数の逆関数を使って近似


p(C1 | t) = ∫ σ (a)p(a)da
                                    2
             = ∫ σ (a)N(a | µ a , σ )da
                                    a

                                        2
             ≈   ∫ Φ(λ a)N(a | µ , σ
                                a       a   )da
別のプロビット関数の逆関数で解析的に表現でき
る。具体的には以下の表現

                           2
                            $       µ          '
∫ Φ(λ a)N(a | µa, σ )da = Φ & (λ −2 + ρ 2 )1/2 )
                           a
                            %                  (
両辺に現れるプロビット関数の逆関数に	
  
近似 σ(a) φ(λa)	
  を適用
                       2               2
∫ σ (a)N(a | µ , σ
               a       a   )da ≈ σ (k(σ )µ )

ここで
    2              2        −1/2
k(σ ) = (1+ πσ / 8)
2               2
∫ σ (a)N(a | µ , σ
                a    a   )da ≈ σ (k(σ )µ )

を
                                 2
p(C1 | t) = ∫ σ (a)N(a | µ a , σ )da
                                 a


に適用すると。次の近似予測分布が得られる。
                         2
p(C1 | φ, t) = σ (k(σ )µ a )
                         a

More Related Content

What's hot

PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」Keisuke Sugawara
 
C:\D Drive\Prml\プレゼン\パターン認識と機械学習2 4章 D0703
C:\D Drive\Prml\プレゼン\パターン認識と機械学習2 4章 D0703C:\D Drive\Prml\プレゼン\パターン認識と機械学習2 4章 D0703
C:\D Drive\Prml\プレゼン\パターン認識と機械学習2 4章 D0703Yoshinori Kabeya
 
PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6Kohei Tomita
 
統計的学習の基礎_3章
統計的学習の基礎_3章統計的学習の基礎_3章
統計的学習の基礎_3章Shoichi Taguchi
 
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学Ken'ichi Matsui
 
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2禎晃 山崎
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1matsuolab
 
PRML ベイズロジスティック回帰 4.5 4.5.2
PRML ベイズロジスティック回帰 4.5 4.5.2PRML ベイズロジスティック回帰 4.5 4.5.2
PRML ベイズロジスティック回帰 4.5 4.5.2tmtm otm
 
トピックモデルの基礎と応用
トピックモデルの基礎と応用トピックモデルの基礎と応用
トピックモデルの基礎と応用Tomonari Masada
 
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.42013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4Takeshi Sakaki
 
PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7sleepy_yoshi
 
PRML読書会#4資料+補足
PRML読書会#4資料+補足PRML読書会#4資料+補足
PRML読書会#4資料+補足Hiromasa Ohashi
 
MLaPP 5章 「ベイズ統計学」
MLaPP 5章 「ベイズ統計学」MLaPP 5章 「ベイズ統計学」
MLaPP 5章 「ベイズ統計学」moterech
 
PRML 8.2 条件付き独立性
PRML 8.2 条件付き独立性PRML 8.2 条件付き独立性
PRML 8.2 条件付き独立性sleepy_yoshi
 
PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現hagino 3000
 

What's hot (20)

PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」
 
PRML 第4章
PRML 第4章PRML 第4章
PRML 第4章
 
C:\D Drive\Prml\プレゼン\パターン認識と機械学習2 4章 D0703
C:\D Drive\Prml\プレゼン\パターン認識と機械学習2 4章 D0703C:\D Drive\Prml\プレゼン\パターン認識と機械学習2 4章 D0703
C:\D Drive\Prml\プレゼン\パターン認識と機械学習2 4章 D0703
 
PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6
 
統計的学習の基礎_3章
統計的学習の基礎_3章統計的学習の基礎_3章
統計的学習の基礎_3章
 
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学
 
PRML 2.4
PRML 2.4PRML 2.4
PRML 2.4
 
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1
 
PRML ベイズロジスティック回帰 4.5 4.5.2
PRML ベイズロジスティック回帰 4.5 4.5.2PRML ベイズロジスティック回帰 4.5 4.5.2
PRML ベイズロジスティック回帰 4.5 4.5.2
 
Prml 2.3
Prml 2.3Prml 2.3
Prml 2.3
 
PRML8章
PRML8章PRML8章
PRML8章
 
トピックモデルの基礎と応用
トピックモデルの基礎と応用トピックモデルの基礎と応用
トピックモデルの基礎と応用
 
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.42013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
 
PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7
 
PRML読書会#4資料+補足
PRML読書会#4資料+補足PRML読書会#4資料+補足
PRML読書会#4資料+補足
 
Prml2.1 2.2,2.4-2.5
Prml2.1 2.2,2.4-2.5Prml2.1 2.2,2.4-2.5
Prml2.1 2.2,2.4-2.5
 
MLaPP 5章 「ベイズ統計学」
MLaPP 5章 「ベイズ統計学」MLaPP 5章 「ベイズ統計学」
MLaPP 5章 「ベイズ統計学」
 
PRML 8.2 条件付き独立性
PRML 8.2 条件付き独立性PRML 8.2 条件付き独立性
PRML 8.2 条件付き独立性
 
PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現
 

Similar to PRML ベイズロジスティック回帰

Rate-Distortion Function for Gamma Sources under Absolute-Log Distortion
Rate-Distortion Function for Gamma Sources under Absolute-Log DistortionRate-Distortion Function for Gamma Sources under Absolute-Log Distortion
Rate-Distortion Function for Gamma Sources under Absolute-Log Distortion奈良先端大 情報科学研究科
 
線形識別モデル
線形識別モデル線形識別モデル
線形識別モデル貴之 八木
 
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜Yuki Matsubara
 
ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習ssuserf4860b
 
PRML 2.3.2-2.3.4 ガウス分布
PRML 2.3.2-2.3.4 ガウス分布PRML 2.3.2-2.3.4 ガウス分布
PRML 2.3.2-2.3.4 ガウス分布Akihiro Nitta
 
公開鍵暗号7: 楕円曲線の数理
公開鍵暗号7: 楕円曲線の数理公開鍵暗号7: 楕円曲線の数理
公開鍵暗号7: 楕円曲線の数理Joe Suzuki
 
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知Chika Inoshita
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)Yukara Ikemiya
 
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)Akihiro Nitta
 
Similarity functions in Lucene 4.0
Similarity functions in Lucene 4.0Similarity functions in Lucene 4.0
Similarity functions in Lucene 4.0Koji Sekiguchi
 
13.2 隠れマルコフモデル
13.2 隠れマルコフモデル13.2 隠れマルコフモデル
13.2 隠れマルコフモデルshow you
 
070 統計的推測 母集団と推定
070 統計的推測 母集団と推定070 統計的推測 母集団と推定
070 統計的推測 母集団と推定t2tarumi
 

Similar to PRML ベイズロジスティック回帰 (20)

PRML_titech 2.3.1 - 2.3.7
PRML_titech 2.3.1 - 2.3.7PRML_titech 2.3.1 - 2.3.7
PRML_titech 2.3.1 - 2.3.7
 
Rate-Distortion Function for Gamma Sources under Absolute-Log Distortion
Rate-Distortion Function for Gamma Sources under Absolute-Log DistortionRate-Distortion Function for Gamma Sources under Absolute-Log Distortion
Rate-Distortion Function for Gamma Sources under Absolute-Log Distortion
 
線形識別モデル
線形識別モデル線形識別モデル
線形識別モデル
 
Prml 4.3.6
Prml 4.3.6Prml 4.3.6
Prml 4.3.6
 
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜
 
2013 03 25
2013 03 252013 03 25
2013 03 25
 
ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習
 
PRML 2.3.2-2.3.4 ガウス分布
PRML 2.3.2-2.3.4 ガウス分布PRML 2.3.2-2.3.4 ガウス分布
PRML 2.3.2-2.3.4 ガウス分布
 
PRML 2.3節
PRML 2.3節PRML 2.3節
PRML 2.3節
 
PRML 10.4 - 10.6
PRML 10.4 - 10.6PRML 10.4 - 10.6
PRML 10.4 - 10.6
 
Prml 4.3.5
Prml 4.3.5Prml 4.3.5
Prml 4.3.5
 
公開鍵暗号7: 楕円曲線の数理
公開鍵暗号7: 楕円曲線の数理公開鍵暗号7: 楕円曲線の数理
公開鍵暗号7: 楕円曲線の数理
 
PRML セミナー
PRML セミナーPRML セミナー
PRML セミナー
 
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知
 
分布 isseing333
分布 isseing333分布 isseing333
分布 isseing333
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)
 
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
 
Similarity functions in Lucene 4.0
Similarity functions in Lucene 4.0Similarity functions in Lucene 4.0
Similarity functions in Lucene 4.0
 
13.2 隠れマルコフモデル
13.2 隠れマルコフモデル13.2 隠れマルコフモデル
13.2 隠れマルコフモデル
 
070 統計的推測 母集団と推定
070 統計的推測 母集団と推定070 統計的推測 母集団と推定
070 統計的推測 母集団と推定
 

More from hagino 3000

スパース性に基づく機械学習 2章 データからの学習
スパース性に基づく機械学習 2章 データからの学習スパース性に基づく機械学習 2章 データからの学習
スパース性に基づく機械学習 2章 データからの学習hagino 3000
 
Cloud DatalabとBigQueryを使ったアドホックデータ解析
Cloud DatalabとBigQueryを使ったアドホックデータ解析Cloud DatalabとBigQueryを使ったアドホックデータ解析
Cloud DatalabとBigQueryを使ったアドホックデータ解析hagino 3000
 
異常検知と変化検知 9章 部分空間法による変化点検知
異常検知と変化検知 9章 部分空間法による変化点検知異常検知と変化検知 9章 部分空間法による変化点検知
異常検知と変化検知 9章 部分空間法による変化点検知hagino 3000
 
アドネットワークのデータ解析チームを支える技術
アドネットワークのデータ解析チームを支える技術アドネットワークのデータ解析チームを支える技術
アドネットワークのデータ解析チームを支える技術hagino 3000
 
Secure Code for Interactive Programming
Secure Code for Interactive ProgrammingSecure Code for Interactive Programming
Secure Code for Interactive Programminghagino 3000
 
ハイパフォーマンスブラウザネットワーキング 12章「HTTP 2.0」と現在の仕様
ハイパフォーマンスブラウザネットワーキング 12章「HTTP 2.0」と現在の仕様ハイパフォーマンスブラウザネットワーキング 12章「HTTP 2.0」と現在の仕様
ハイパフォーマンスブラウザネットワーキング 12章「HTTP 2.0」と現在の仕様hagino 3000
 
Introduction of Leap Motion
Introduction of Leap MotionIntroduction of Leap Motion
Introduction of Leap Motionhagino 3000
 
Where does my money go チーム発表
Where does my money go チーム発表Where does my money go チーム発表
Where does my money go チーム発表hagino 3000
 
ノンタッチUI時代とフロントエンドエンジニア (Using emotiv)
ノンタッチUI時代とフロントエンドエンジニア (Using emotiv)ノンタッチUI時代とフロントエンドエンジニア (Using emotiv)
ノンタッチUI時代とフロントエンドエンジニア (Using emotiv)hagino 3000
 
今日からはじめるKinect Hack
今日からはじめるKinect Hack今日からはじめるKinect Hack
今日からはじめるKinect Hackhagino 3000
 
Introduction of Kinect Hacks
Introduction of Kinect HacksIntroduction of Kinect Hacks
Introduction of Kinect Hackshagino 3000
 
JavaScriptとSalesforceとTwitterマーケティングな話をした時の資料
JavaScriptとSalesforceとTwitterマーケティングな話をした時の資料JavaScriptとSalesforceとTwitterマーケティングな話をした時の資料
JavaScriptとSalesforceとTwitterマーケティングな話をした時の資料hagino 3000
 
はじめてのChaos Proxy Viewer
はじめてのChaos Proxy ViewerはじめてのChaos Proxy Viewer
はじめてのChaos Proxy Viewerhagino 3000
 
HTML5を使ったウェブアプリケーションの高速化
HTML5を使ったウェブアプリケーションの高速化HTML5を使ったウェブアプリケーションの高速化
HTML5を使ったウェブアプリケーションの高速化hagino 3000
 
Google App Engine で初めるServerSide JavaScript
Google App Engine で初めるServerSide JavaScriptGoogle App Engine で初めるServerSide JavaScript
Google App Engine で初めるServerSide JavaScripthagino 3000
 

More from hagino 3000 (19)

スパース性に基づく機械学習 2章 データからの学習
スパース性に基づく機械学習 2章 データからの学習スパース性に基づく機械学習 2章 データからの学習
スパース性に基づく機械学習 2章 データからの学習
 
Cloud DatalabとBigQueryを使ったアドホックデータ解析
Cloud DatalabとBigQueryを使ったアドホックデータ解析Cloud DatalabとBigQueryを使ったアドホックデータ解析
Cloud DatalabとBigQueryを使ったアドホックデータ解析
 
異常検知と変化検知 9章 部分空間法による変化点検知
異常検知と変化検知 9章 部分空間法による変化点検知異常検知と変化検知 9章 部分空間法による変化点検知
異常検知と変化検知 9章 部分空間法による変化点検知
 
アドネットワークのデータ解析チームを支える技術
アドネットワークのデータ解析チームを支える技術アドネットワークのデータ解析チームを支える技術
アドネットワークのデータ解析チームを支える技術
 
Secure Code for Interactive Programming
Secure Code for Interactive ProgrammingSecure Code for Interactive Programming
Secure Code for Interactive Programming
 
ハイパフォーマンスブラウザネットワーキング 12章「HTTP 2.0」と現在の仕様
ハイパフォーマンスブラウザネットワーキング 12章「HTTP 2.0」と現在の仕様ハイパフォーマンスブラウザネットワーキング 12章「HTTP 2.0」と現在の仕様
ハイパフォーマンスブラウザネットワーキング 12章「HTTP 2.0」と現在の仕様
 
iOS WebView App
iOS WebView AppiOS WebView App
iOS WebView App
 
Introduction of Leap Motion
Introduction of Leap MotionIntroduction of Leap Motion
Introduction of Leap Motion
 
Where does my money go チーム発表
Where does my money go チーム発表Where does my money go チーム発表
Where does my money go チーム発表
 
ノンタッチUI時代とフロントエンドエンジニア (Using emotiv)
ノンタッチUI時代とフロントエンドエンジニア (Using emotiv)ノンタッチUI時代とフロントエンドエンジニア (Using emotiv)
ノンタッチUI時代とフロントエンドエンジニア (Using emotiv)
 
NUIとKinect
NUIとKinectNUIとKinect
NUIとKinect
 
今日からはじめるKinect Hack
今日からはじめるKinect Hack今日からはじめるKinect Hack
今日からはじめるKinect Hack
 
Introduction of Kinect Hacks
Introduction of Kinect HacksIntroduction of Kinect Hacks
Introduction of Kinect Hacks
 
JavaScriptとSalesforceとTwitterマーケティングな話をした時の資料
JavaScriptとSalesforceとTwitterマーケティングな話をした時の資料JavaScriptとSalesforceとTwitterマーケティングな話をした時の資料
JavaScriptとSalesforceとTwitterマーケティングな話をした時の資料
 
はじめてのChaos Proxy Viewer
はじめてのChaos Proxy ViewerはじめてのChaos Proxy Viewer
はじめてのChaos Proxy Viewer
 
HTML5を使ったウェブアプリケーションの高速化
HTML5を使ったウェブアプリケーションの高速化HTML5を使ったウェブアプリケーションの高速化
HTML5を使ったウェブアプリケーションの高速化
 
逃亡の勧め
逃亡の勧め逃亡の勧め
逃亡の勧め
 
Google App Engine で初めるServerSide JavaScript
Google App Engine で初めるServerSide JavaScriptGoogle App Engine で初めるServerSide JavaScript
Google App Engine で初めるServerSide JavaScript
 
Extjs + Gears
Extjs + GearsExtjs + Gears
Extjs + Gears
 

PRML ベイズロジスティック回帰