SlideShare a Scribd company logo
1 of 25
Download to read offline
相関係数
ベクトルで理解する相関係数




MATSUURA Satoshi
matsuura@is.naist.jp


         1
相関が強い/弱いとは?

とても強い(線形)                強い                    弱い
料金               物理の得点                    成果




             >                        >
0      消費量       0            数学の得点       0         予算




                         2
相関係数
・目的
 2つの集合(x, y)の線形関係を定量的に表現したい


・性質
 1.相関係数は[-1, 1]の範囲で表す。
 2.0に近いほど相関が弱く、1(-1)に近づくほど相関が強い。
 3.相関関数が3倍になる事は、3倍の相関を得ることを示さない。
   相関度合いの比較を可能とするだけである。


・計算式
 x = (x1, x2, x3, ... xn), y = (y1, y2, y3, ... yn)の時
                                                        n
 x, yの相関関係Rは下記の式で求まる。だたし、      である。               x = n i=1 xi
                                                  ¯ 1

                       n
                       i=1 (xi     x)(yi
                                   ¯        y)
                                            ¯
      R=          n                    n
                  i=1 (xi    x)2
                             ¯         i=1 (yi    y )2
                                                  ¯

                                   3
問題点
・危険な(浅い)理解の仕方

     相関係数って、
関連がどれくらい有るかの値でしょ。


  ・値の大小が何を意味するか分からない
  ・そもそも[-1,1]の値を取る事を知らない
  ・相関係数が3倍になると3倍の相関が
   あると思ってしまう
            4
Goal
・簡潔な理解の仕方

     相関係数って、
     cosθ でしょ。

・[-1,1]の値を取るのは自明
・二つの集合(ベクトル)が同じ向き→1, 逆向き→-1
・¦cosθ¦ 1(強い相関)、¦cosθ¦ 0(弱い相関)

              5
そもそも線形の関係とは

線形:直線上に並ぶ
y

y4                         ・二つの集合(x, y)を考える
y3
                           ・x = (x1, x2, ... xn), y = (y1, y2, ... yn)とする
y2
y1                         ・(x1, y1), (x2, y2), ... (xn, yn)の全ての点を、
                            ある一つの直線が通過する時、二つの集合は
                            線形の関係にあると呼ぶ。
                       x
0    x1 x2   x3   x4




                                    6
線形関係の特徴

線形:直線上に並ぶ          重心を取る            重心と原点を重ねる

y              y                       y

                      x                0
                                           x
                                               x



0      x       0           x



             POINT: 重心は必ず直線上の点になる




                     7
線形関係の特徴

重心と原点が重なる
                    ・平行移動後の集合を(x , y )とする
 ように平行移動
                    ・x = (x1 , x2 , ... xn ), y = (y1 , y2 , ... yn )
   y       y = ax   →y = ax の関係が成り立つ

   0                              ・最重要ポイント
       x
             x                    x , y をn次元空間の1点と捉える


                    ・x , y の二つのベクトルの向きが等しい(a > 0)




                              8
ベクトルとcosθ
  y       y = ax

  0
                   ・線形の関係
      x            ・ベクトルx , y は4次元上で同一の方向を指す
            x

                   ・x , y で作る角度が0→cosθの値は1


  y       y = ax
                   ・線形に近い関係
  0
      x
            x
                   ・ベクトルx , y は4次元上で似た方向を指す
                   ・x , y で作る角度が小さい→cosθの値は1に近い


  y       y = ax
                   ・線形から遠い関係
  0
      x
            x
                   ・ベクトルx , y は4次元上で違った方向を指す
                   ・x , y で作る角度が大きい→cosθの値は0に近い



4点(4次元)は想像しにくいので、具体的な3点で確認してみて下さい
                          9
このcosθが
相関係数です。


   10
本当でしょうか?
  (以下確認)


   11
cosθの導出

         初期状態            (回帰直線と)重心を求める              重心を原点へ平行移動

     y                         y                        y


                                   x
                                                        0
                                                            x
     0          x              0          x                          x




                       POINT: 重心は必ず回帰直線上の点になる*




* 回帰直線:最小二乗法より求められる直線。重心が回帰直線上に存在することを確認するには少々の計算が必要(末尾のおまけを参照の事)。

                                   12
cosθの導出
                 ・初期状態の集合を(x, y)とする
                 ・平行移動後の集合を(x , y )とする
y                ・x = (x1 , x2 , ... xn ), y = (y1 , y2 , ... yn )


0                                       内積を考える
    x
          x


                 x ・y = ¦x ¦¦y ¦cosθ
                 ここで平行移動した距離は原点と重心間の距離に
                                 n
                        x = n i=1 xi
                        ¯ 1
                 等しく、       のように表される(yも同様)。
                 cosθについて解くと、下記を得る(p.3のRと同じ式)。

                      n
                      i=1 (xi         x)(yi
                                      ¯       y)
                                              ¯
        cos =    n                        n
                 i=1 (xi        x)2
                                ¯         i=1 (yi   y )2
                                                    ¯
                           13
ここまでのまとめ
       1.   集合 x, yの相関係数を求めたい
       2.   集合の重心を原点に合わせるように平行移動
       3.   平行移動後の集合 x , y をn次元の1点と捉える
       4.   ベクトルx , y から得られるcosθが求める相関係数

    ・相関係数の解釈の仕方

          どれだけ点(集合)が直線に沿って分布しているか
                      ↓
      どれだけベクトル(平行移動後の集合)が同じ方向を向いているか

y                      y                   y


                           x
                                           0
                                               x
0            x         0        x                  x




                           14
相関係数って、
  cosθ でしょ、
と思えたでしょうか。


     15
ここまで説明した、
相関係数のイメージが
 掴めれば十分です。
 (以下、おまけ)

    16
残された疑問
  ・なぜ、回帰直線を利用するのか
  ・本当に、回帰直線上に集合の重心が位置するのか
  ・回帰直線とcosθの関係はどうなっているのか
・p.12 cosθの導出より

         初期状態          (回帰直線と)重心を求める           重心を原点へ平行移動

     y                      y                    y


                                x
                                                 0
                                                     x
     0            x         0         x                  x




                      POINT: 重心は必ず回帰直線上の点になる
                                17
回帰直線を利用する理由
相関係数:線形関係にどれだけ近いか(遠いか)を示す値
              ↓
       基準となる直線が必要だ
              ↓
 出来るだけ、点(集合)の近くを通る直線を設定しよう
  (そうで無いと線形関係の場合、点(集合)が線上に存在しないという矛盾した状態が生じる)

            ↓
   そういう直線は最小二乗法で求められるよ
            ↓
  回帰直線:最小二乗法によって算出される直線

                       18
回帰直線と重心
       f (x) = ax + b
求める直線を        とおき、最小二乗法により求める。
       n
                                   J    J
J=          (yi       f (x)) が最小の時、       が成り立つ。
                            2
                                     =0   =0
      i=1
                                   a    b
                  n
      J
        =2     xi (axi + b               yi )2 = 0
      a    i=1
                  n
      J                                                          n
        =2     (axi + b              yi ) = 0
                                         2
                                                              =
                                                          以後、   とする。
      b    i=1                                                  i=1



  a         x2 + b
             i         xi           xi yi = 0

  a         xi + nb             yi = 0

                       n                        n
   x = n i=1 xi y = n i=1 yi
    ¯ 1         ¯ 1
ここで、             とおくと、

       xi yi     x2
             =a   i
                    + b¯
                       x
       n        n
                                             - (1)               y = a¯ + b
                                                                 ¯          (¯, y )
                                                                             x ¯
                                                            (1)式、      より重心   は
                                                                      x
  y = a¯ + b
  ¯    x                                                    回帰直線上に存在することがわかる



                                                     19
回帰直線とcosθ
続いて、回帰直線を求める。(1)より b を消去すると、

  xi yi              x2
            xy = a(
            ¯¯        i
                                       x2 )
                                       ¯                              - (2)
  n                 n

ここで、(2)式の右辺、左辺を整理する。
                                                                          n
  x2                  x2           xi               ¯
                                                    x2
   i
          x2 =
          ¯            i
                               2¯
                                x     +                                    =n
                                                                 (αが定数の時      が成り立つ)
 n                   n            n                n                     i=1

            =        (x2
                       i       2xi x + x2 )
                                   ¯ ¯
                 n
            =        (xi       x)2
                               ¯                                      - (2a)
                 n

  xi yi                  xi yi
           xy =
           ¯¯                    xy + y x + xy
                                 ¯ ¯ ¯¯ ¯ ¯
  n                      n
                         xi yi           ¯
                                      xi y     yi x + n¯y
                                                  ¯    x¯
                 =             +
                         n                   n
                 =       (xi yi         ¯
                                     xi y     yi x + xy )
                                                 ¯ ¯¯
                     n
                 =       (xi      x)(yi
                                  ¯           y)
                                              ¯                      - (2b)
                     n
                                                            20
回帰直線とcosθ
(2a), (2b)式を(2)に代入してaを得る。
       (xi     x)(yi y )
                ¯    ¯
 a=
             (xi x)2
                  ¯

(1)式に代入し、bを得る。
 b=y
   ¯   a¯
        x
             (xi     x)(yi y )
                      ¯     ¯
  =y
   ¯                           ¯
                               x
                   (xi x)
                        ¯ 2



a, bより回帰直線が下記の様に求まる。
       (xi     x)(yi y )
                ¯     ¯            (xi     x)(yi y )
                                            ¯     ¯
 y=                      x+y
                           ¯                         ¯
                                                     x       - (3)
             (xi x)
                  ¯ 2                    (xi x)
                                              ¯ 2



        y                                       y
                                                                     回帰直線

                                                    x                重心  y )
                                                                       (¯, ¯
                                                                        x

        0                x                      0        x




                                              21
回帰直線とcosθ
相関係数:線形関係にどれだけ近いかを示す値。
下図において回帰直線と点との差(赤線部)が小さいほど線形関係に近い。
→ 二乗和の比を利用して表す(定義。平行移動後の状態を利用する)。


・平行移動後の回帰直線をr(x)とすると、

             r(xi x)2
                   ¯
  R2 =                  - (4)
             (yi y )2
                  ¯



                                           (xi   ¯
                                                 x, y i   y)
                                                          ¯
  y                       y                                     y = r(x)


         x                                        (xi     ¯
                                                          x, r(xi   x))
                                                                    ¯

                          0
                              x
  0             x                      x
                                                                      x


                                  22
回帰直線とcosθ
(3)式よりr(x)は下記の様に求まり、(4)式を整理する。
                  (xi     x)(yi y )
                           ¯     ¯
 r(x) =                             x
                        (xi x)
                             ¯ 2


              r(xi x)2
                    ¯
 R =
  2
              (yi y )2
                   ¯
                  P
                      (xi x)(yi y )
                       P ¯       ¯
              (          (xi x)2
                              ¯     (xi    x))2
                                           ¯
      =
                            (yi y )2
                                  ¯
              P
          (   (xi x)(yi y ))2
               P ¯        ¯
              ( (xi x)
                     ¯ 2 )2          (xi    x)2
                                            ¯
      =
               (yi y )2
                    ¯
        ( (xi x)(yi y ))2
               ¯      ¯
      =
         (xi x)2 (yi y )2
             ¯          ¯

したがって、相関係数Rは下記の様に求まる。

                        (xi     x)(yi
                                ¯           y)
                                            ¯
 R=
                   (xi        x)2
                              ¯           (yi     y )2
                                                  ¯           p.13で求めたcosθと同じ式が得られた




                                                         23
おまけのまとめ

    ・相関係数:線形関係にどれだけ近いかを示す値。
     → 二乗和の比を利用して表す(定義)
    ・回帰直線からcosθと同じ値が得られた



・まとめの一言

    時には、定義から相関係数を導ける事も必要でしょう。
普段は、相関係数=cosθとベクトルと共にイメージ出来れば十分です。




                24
参考文献

・相関係数
http://ja.wikipedia.org/wiki/%E7%9B%B8%E9%96%A2%E4%BF
%82%E6%95%B0


・5 回帰直線(1)
http://www.kwansei.ac.jp/hs/z90010/sugakuc/toukei/rp4/rp4.htm




                              25

More Related Content

What's hot

基底変換、固有値・固有ベクトル、そしてその先
基底変換、固有値・固有ベクトル、そしてその先基底変換、固有値・固有ベクトル、そしてその先
基底変換、固有値・固有ベクトル、そしてその先Taketo Sano
 
TorchDataチュートリアル解説
TorchDataチュートリアル解説TorchDataチュートリアル解説
TorchDataチュートリアル解説西岡 賢一郎
 
学習時に使ってはいないデータの混入「リーケージを避ける」
学習時に使ってはいないデータの混入「リーケージを避ける」学習時に使ってはいないデータの混入「リーケージを避ける」
学習時に使ってはいないデータの混入「リーケージを避ける」西岡 賢一郎
 
機械学習を用いた異常検知入門
機械学習を用いた異常検知入門機械学習を用いた異常検知入門
機械学習を用いた異常検知入門michiaki ito
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方joisino
 
アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法Satoshi Hara
 
NumPyが物足りない人へのCython入門
NumPyが物足りない人へのCython入門NumPyが物足りない人へのCython入門
NumPyが物足りない人へのCython入門Shiqiao Du
 
実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだこと実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだことnishio
 
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明Satoshi Hara
 
[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object Detection[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object DetectionDeep Learning JP
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理Taiji Suzuki
 
距離とクラスタリング
距離とクラスタリング距離とクラスタリング
距離とクラスタリング大貴 末廣
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習Eiji Uchibe
 
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...Deep Learning JP
 
Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)Yamato OKAMOTO
 
レコメンドエンジン作成コンテストの勝ち方
レコメンドエンジン作成コンテストの勝ち方レコメンドエンジン作成コンテストの勝ち方
レコメンドエンジン作成コンテストの勝ち方Shun Nukui
 
不均衡データのクラス分類
不均衡データのクラス分類不均衡データのクラス分類
不均衡データのクラス分類Shintaro Fukushima
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門hoxo_m
 
マルチモーダル深層学習の研究動向
マルチモーダル深層学習の研究動向マルチモーダル深層学習の研究動向
マルチモーダル深層学習の研究動向Koichiro Mori
 

What's hot (20)

基底変換、固有値・固有ベクトル、そしてその先
基底変換、固有値・固有ベクトル、そしてその先基底変換、固有値・固有ベクトル、そしてその先
基底変換、固有値・固有ベクトル、そしてその先
 
TorchDataチュートリアル解説
TorchDataチュートリアル解説TorchDataチュートリアル解説
TorchDataチュートリアル解説
 
学習時に使ってはいないデータの混入「リーケージを避ける」
学習時に使ってはいないデータの混入「リーケージを避ける」学習時に使ってはいないデータの混入「リーケージを避ける」
学習時に使ってはいないデータの混入「リーケージを避ける」
 
機械学習を用いた異常検知入門
機械学習を用いた異常検知入門機械学習を用いた異常検知入門
機械学習を用いた異常検知入門
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方
 
アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法
 
NumPyが物足りない人へのCython入門
NumPyが物足りない人へのCython入門NumPyが物足りない人へのCython入門
NumPyが物足りない人へのCython入門
 
実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだこと実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだこと
 
明日使えないすごいビット演算
明日使えないすごいビット演算明日使えないすごいビット演算
明日使えないすごいビット演算
 
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明
 
[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object Detection[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object Detection
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
 
距離とクラスタリング
距離とクラスタリング距離とクラスタリング
距離とクラスタリング
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
 
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
 
Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)
 
レコメンドエンジン作成コンテストの勝ち方
レコメンドエンジン作成コンテストの勝ち方レコメンドエンジン作成コンテストの勝ち方
レコメンドエンジン作成コンテストの勝ち方
 
不均衡データのクラス分類
不均衡データのクラス分類不均衡データのクラス分類
不均衡データのクラス分類
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
 
マルチモーダル深層学習の研究動向
マルチモーダル深層学習の研究動向マルチモーダル深層学習の研究動向
マルチモーダル深層学習の研究動向
 

Similar to ベクトルで理解する相関係数

8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論sleepy_yoshi
 
030 2変数の集計
030 2変数の集計030 2変数の集計
030 2変数の集計t2tarumi
 
量子アニーリング解説 1
量子アニーリング解説 1量子アニーリング解説 1
量子アニーリング解説 1Kohta Ishikawa
 
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 16: Metric Predicted Variab...
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 16: Metric Predicted Variab...【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 16: Metric Predicted Variab...
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 16: Metric Predicted Variab...Junki Marui
 
数学教材(中間発表)
数学教材(中間発表)数学教材(中間発表)
数学教材(中間発表)Mizuguchi1205
 
【材料力学】3次元空間のひずみ (II-11 2018)
【材料力学】3次元空間のひずみ  (II-11 2018)【材料力学】3次元空間のひずみ  (II-11 2018)
【材料力学】3次元空間のひずみ (II-11 2018)Kazuhiro Suga
 
統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333Issei Kurahashi
 
2014年度春学期 画像情報処理 第13回 Radon変換と投影定理 (2014. 7. 16)
2014年度春学期 画像情報処理 第13回 Radon変換と投影定理 (2014. 7. 16)2014年度春学期 画像情報処理 第13回 Radon変換と投影定理 (2014. 7. 16)
2014年度春学期 画像情報処理 第13回 Radon変換と投影定理 (2014. 7. 16)Akira Asano
 
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)Akira Asano
 
生物統計特論3資料 2006 ギブス MCMC isseing333
生物統計特論3資料 2006 ギブス MCMC isseing333生物統計特論3資料 2006 ギブス MCMC isseing333
生物統計特論3資料 2006 ギブス MCMC isseing333Issei Kurahashi
 
2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)
2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)
2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)Akira Asano
 
wq-1. ポアソン分布、指数分布、アーラン分布
wq-1. ポアソン分布、指数分布、アーラン分布wq-1. ポアソン分布、指数分布、アーラン分布
wq-1. ポアソン分布、指数分布、アーラン分布kunihikokaneko1
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰sleipnir002
 
2015年度春学期 画像情報処理 第13回 Radon変換と投影定理
2015年度春学期 画像情報処理 第13回 Radon変換と投影定理2015年度春学期 画像情報処理 第13回 Radon変換と投影定理
2015年度春学期 画像情報処理 第13回 Radon変換と投影定理Akira Asano
 
さくっと線形代数
さくっと線形代数さくっと線形代数
さくっと線形代数Kota Mori
 
Crfと素性テンプレート
Crfと素性テンプレートCrfと素性テンプレート
Crfと素性テンプレートKei Uchiumi
 

Similar to ベクトルで理解する相関係数 (20)

8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論
 
030 2変数の集計
030 2変数の集計030 2変数の集計
030 2変数の集計
 
Linera lgebra
Linera lgebraLinera lgebra
Linera lgebra
 
量子アニーリング解説 1
量子アニーリング解説 1量子アニーリング解説 1
量子アニーリング解説 1
 
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 16: Metric Predicted Variab...
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 16: Metric Predicted Variab...【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 16: Metric Predicted Variab...
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 16: Metric Predicted Variab...
 
数学教材(中間発表)
数学教材(中間発表)数学教材(中間発表)
数学教材(中間発表)
 
【材料力学】3次元空間のひずみ (II-11 2018)
【材料力学】3次元空間のひずみ  (II-11 2018)【材料力学】3次元空間のひずみ  (II-11 2018)
【材料力学】3次元空間のひずみ (II-11 2018)
 
分布 isseing333
分布 isseing333分布 isseing333
分布 isseing333
 
統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333
 
2014年度春学期 画像情報処理 第13回 Radon変換と投影定理 (2014. 7. 16)
2014年度春学期 画像情報処理 第13回 Radon変換と投影定理 (2014. 7. 16)2014年度春学期 画像情報処理 第13回 Radon変換と投影定理 (2014. 7. 16)
2014年度春学期 画像情報処理 第13回 Radon変換と投影定理 (2014. 7. 16)
 
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)
 
生物統計特論3資料 2006 ギブス MCMC isseing333
生物統計特論3資料 2006 ギブス MCMC isseing333生物統計特論3資料 2006 ギブス MCMC isseing333
生物統計特論3資料 2006 ギブス MCMC isseing333
 
2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)
2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)
2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)
 
Re revenge chap03-1
Re revenge chap03-1Re revenge chap03-1
Re revenge chap03-1
 
wq-1. ポアソン分布、指数分布、アーラン分布
wq-1. ポアソン分布、指数分布、アーラン分布wq-1. ポアソン分布、指数分布、アーラン分布
wq-1. ポアソン分布、指数分布、アーラン分布
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰
 
2015年度春学期 画像情報処理 第13回 Radon変換と投影定理
2015年度春学期 画像情報処理 第13回 Radon変換と投影定理2015年度春学期 画像情報処理 第13回 Radon変換と投影定理
2015年度春学期 画像情報処理 第13回 Radon変換と投影定理
 
さくっと線形代数
さくっと線形代数さくっと線形代数
さくっと線形代数
 
C03
C03C03
C03
 
Crfと素性テンプレート
Crfと素性テンプレートCrfと素性テンプレート
Crfと素性テンプレート
 

Recently uploaded

IoT in the era of generative AI, Thanks IoT ALGYAN.pptx
IoT in the era of generative AI, Thanks IoT ALGYAN.pptxIoT in the era of generative AI, Thanks IoT ALGYAN.pptx
IoT in the era of generative AI, Thanks IoT ALGYAN.pptxAtomu Hidaka
 
新人研修のまとめ 2024/04/12の勉強会で発表されたものです。
新人研修のまとめ       2024/04/12の勉強会で発表されたものです。新人研修のまとめ       2024/04/12の勉強会で発表されたものです。
新人研修のまとめ 2024/04/12の勉強会で発表されたものです。iPride Co., Ltd.
 
20240412_HCCJP での Windows Server 2025 Active Directory
20240412_HCCJP での Windows Server 2025 Active Directory20240412_HCCJP での Windows Server 2025 Active Directory
20240412_HCCJP での Windows Server 2025 Active Directoryosamut
 
PHP-Conference-Odawara-2024-04-000000000
PHP-Conference-Odawara-2024-04-000000000PHP-Conference-Odawara-2024-04-000000000
PHP-Conference-Odawara-2024-04-000000000Shota Ito
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムsugiuralab
 
UPWARD_share_company_information_20240415.pdf
UPWARD_share_company_information_20240415.pdfUPWARD_share_company_information_20240415.pdf
UPWARD_share_company_information_20240415.pdffurutsuka
 
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。iPride Co., Ltd.
 
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Danieldanielhu54
 
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略Ryo Sasaki
 

Recently uploaded (9)

IoT in the era of generative AI, Thanks IoT ALGYAN.pptx
IoT in the era of generative AI, Thanks IoT ALGYAN.pptxIoT in the era of generative AI, Thanks IoT ALGYAN.pptx
IoT in the era of generative AI, Thanks IoT ALGYAN.pptx
 
新人研修のまとめ 2024/04/12の勉強会で発表されたものです。
新人研修のまとめ       2024/04/12の勉強会で発表されたものです。新人研修のまとめ       2024/04/12の勉強会で発表されたものです。
新人研修のまとめ 2024/04/12の勉強会で発表されたものです。
 
20240412_HCCJP での Windows Server 2025 Active Directory
20240412_HCCJP での Windows Server 2025 Active Directory20240412_HCCJP での Windows Server 2025 Active Directory
20240412_HCCJP での Windows Server 2025 Active Directory
 
PHP-Conference-Odawara-2024-04-000000000
PHP-Conference-Odawara-2024-04-000000000PHP-Conference-Odawara-2024-04-000000000
PHP-Conference-Odawara-2024-04-000000000
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システム
 
UPWARD_share_company_information_20240415.pdf
UPWARD_share_company_information_20240415.pdfUPWARD_share_company_information_20240415.pdf
UPWARD_share_company_information_20240415.pdf
 
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
 
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Daniel
 
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
 

ベクトルで理解する相関係数