SlideShare a Scribd company logo
1 of 46
Download to read offline
ロジスティック回帰入門
内山 雄司 (@y__uti)
2019-02-13 社内勉強会
自己紹介
内山 雄司 (@y__uti)
◦ http://y-uti.hatenablog.jp/ (phpusers-ja)
仕事
◦ 受託開発の会社 (株式会社ピコラボ) でプログラマをしています
興味
◦ プログラミング言語処理系
◦ 機械学習
2019-02-13 社内勉強会 2
目標 (説明しようとしていること)
1. 線形分類器について理解する
2. ロジスティック回帰を実装できるようになる
3. ロジスティック回帰モデルを理解する
重要かつ基本的ですが今回は説明しないこと
◦ 交差検証
◦ 過学習と正則化
◦ 予測結果の評価 (適合率、再現率、F 値)
2019-02-13 社内勉強会 3
ロジスティック回帰とは
機械学習の手法の一種
2019-02-13 社内勉強会 4
ここをクリック
ロジスティック回帰とは
機械学習の手法の一種
2019-02-13 社内勉強会 5
分類とは
機械学習が対象とする問題領域の一つ
2019-02-13 社内勉強会 6
?
分類問題の具体例
以下のようなデータが手元にあるとして・・・
2019-02-13 社内勉強会 7
分類問題の具体例
未知のデータがどちらに分類されるかを予測する
2019-02-13 社内勉強会 8
ここにデータがあったら
0 と 1 どちらの可能性が大きいか?
ここならどうか?
ここならどうか?
代表的な手法:線形分類器
直線のどちら側にあるかで分類する
2019-02-13 社内勉強会 9
0
1
1
0 1
代表的な手法:決定木
if-else の組み合わせで分類する
2019-02-13 社内勉強会 10
0
0
1
1
0
1
代表的な手法:k-近傍法
近い順に k 個の点を見つけて多数決で分類する
2019-02-13 社内勉強会 11
0
0
1
ロジスティック回帰とは
線形分類器の一種
直線からの距離に応じて「1 である確率」が決まるモデル
2019-02-13 社内勉強会 12
こちらに離れるほど 1 っぽいこちらに離れるほど 0 っぽい
直線上は五分五分
確率を考えるメリット
0 か 1 か、だけでなく確率が求まると嬉しい
◦ 五分五分に近いところは判断を保留して詳細にチェックするとか
背後に統計的な理論付けがある
◦ 教科書を開くとしっかり書いてある
◦ 最後の方で少しだけ説明します
コンピュータでの計算上も都合がよい
◦ ここからの話の中心
◦ ⇒ ということで一旦「確率」のことは忘れて・・・
2019-02-13 社内勉強会 13
線形分類器の基本
2019-02-13 社内勉強会 14
線形分類器
1. 直線を一つ定める
2. データが直線のどちら側にあるかで分類する
2019-02-13 社内勉強会 15
0 1
直線を決める
平面上の直線は「傾き」と「切片」で表せる
2019-02-13 社内勉強会 16
y = 傾き * x + 切片
左辺に移項してまとめる
変数名を付けて整理する
ax + by + c = 0
0 1
y - 傾き * x - 切片 = 0
a, b, c を決めれば直線が決まる
データを分類する
データ (x, y) に対して ax + by + c を計算する
計算結果の正負によって直線との位置関係が分かる
2019-02-13 社内勉強会 17
0 1
符号 直線との位置関係 (注) 分類
正 直線より上にある 1
0 直線に重なっている (任意)
負 直線より下にある 0
(注) b が正の場合。負の場合は逆になる
線形分類器の実装例
a, b, c を指定してオブジェクトを作り predict で予測する
2019-02-13 社内勉強会 18
class LinearClassifier():
def __init__(self, a, b, c):
self.a = a
self.b = b
self.c = c
def predict(self, x, y):
if self.a * x + self.b * y + self.c >= 0:
return 1
else:
return 0
線形分類器の使用例
サンプルデータの一つを予測
2019-02-13 社内勉強会 19
classifier = LinearClassifier(a=1, b=2, c=3)
x, y = features[0] # [7.0, 3.2]
answer = labels[0] # 0
predicted = classifier.predict(x, y)
print('x={}, y={}, predicted={}, answer={}'
.format(x, y, predicted, answer))
# x=7.0, y=3.2, predicted=1, answer=0
外れた
線形分類器の学習
直線の選び方 (= a, b, c の選び方) で良し悪しが変わる
2019-02-13 社内勉強会 20
0 1
0
1
よく当たる a, b, c を見つけたい
手持ちのデータを利用して良い a, b, c を学習する
素朴な実装方法
以下のような方法を思いつくが・・・
◦ 三重のループで a, b, c を走査して「誤分類の数」が最小のものを選ぶ
◦ ランダムに a, b, c の組を沢山作り「誤分類の数」が最小のものを選ぶ
問題点
◦ 計算コストが大きい
◦ a, b, c を探す範囲の手がかりもない
効率的に a, b, c を探す方法が必要
2019-02-13 社内勉強会 21
勾配降下法 (考え方)
適当な初期値から始める
a = 0, b = 0, c = -9 (errors = 50)
変数を一つだけ変えたときの誤分類の数をそれぞれ調べる
2019-02-13 社内勉強会 22
誤分類の数が減る方向にパラメータを更新する
勾配降下法 (考え方)
適当な初期値から始める
a = 1.4, b = 0, c = -9 (errors = 33)
変数を一つだけ変えたときの誤分類の数をそれぞれ調べる
2019-02-13 社内勉強会 23
誤分類の数が減る方向にパラメータを更新する
勾配降下法 (考え方)
適当な初期値から始める
a = 1.4, b = 0.05, c = -8.8 (errors = 26)
変数を一つだけ変えたときの誤分類の数をそれぞれ調べる
2019-02-13 社内勉強会 24
誤分類の数が減る方向にパラメータを更新する
コスト関数
誤分類の数を数える方法では勾配降下法を上手く使えない
2019-02-13 社内勉強会 25
勾配降下法
= 現在地点の勾配を計算して降下する
しかし誤分類の数は階段状で勾配がない
コスト関数
誤分類の数を数える方法では勾配降下法を上手く使えない
2019-02-13 社内勉強会 26
勾配降下法
= 現在地点の勾配を計算して降下する
しかし誤分類の数は階段状で勾配がない
代わりに滑らかな関数を使って考える
ロジスティック回帰
2019-02-13 社内勉強会 27
確率の計算
0 か 1 かではなく "1 っぽさ" を予測
ax + by + c の符号だけで判断せずに値を考える
2019-02-13 社内勉強会 28
値が大きいほど 1 っぽい値が小さいほど 0 っぽい
シグモイド関数
"1 っぽさ" を 0 から 1 の範囲で「確率」として表現する
計算式:
1 ÷ (1 + exp(-(ax + by + c)))
2019-02-13 社内勉強会 29
何故これが「確率」と言えるのかは難しい
尤度の計算
モデルの「尤も (もっとも) らしさ」
適当な a, b, c で次のような予測結果になったとすると・・・
2019-02-13 社内勉強会 30
正解 である確率 である確率
0 0.27 0.73
0 0.48 0.52
1 0.85 0.15
1 0.90 0.10
0 0.52 0.48
これは
1 - "1 である確率" で計算
尤度の計算
モデルの「尤も (もっとも) らしさ」
適当な a, b, c で次のような予測結果になったとすると・・・
2019-02-13 社内勉強会 31
正解 である確率 である確率
0 0.27 0.73
0 0.48 0.52
1 0.85 0.15
1 0.90 0.10
0 0.52 0.48
尤度 = 0.73 × 0.52 × 0.85 × 0.90 × 0.48 = 0.13938912
値が大きいほど良い (= データに良く当てはまっている)
正解側の確率を
全部かけ合わせる
対数尤度の計算
実際はデータの数が多いので浮動小数点数の精度が問題になる
そこで対数で計算する
2019-02-13 社内勉強会 32
正解 である確率の対数 である確率の対数
0 -1.31 -0.31
0 -0.73 -0.65
1 -0.16 -1.90
1 -1.01 -2.30
0 -0.65 -0.73
対数尤度 = (-0.31) + (-0.63) + (-0.16) + (-1.01) + (-0.73) = -2.84
値が大きいほど良い (= データに良く当てはまっている)
正解側の確率の対数を
全部足し合わせる
コストの計算
コスト = -対数尤度 ÷ データ数
2019-02-13 社内勉強会 33
正解 である確率の対数 である確率の対数
0 -1.31 -0.31
0 -0.73 -0.65
1 -0.16 -1.90
1 -1.01 -2.30
0 -0.65 -0.73
コスト = (0.31 + 0.63 + 0.16 + 1.01 + 0.73) ÷ 5 = 0.568
値が小さいほど良い (= データに良く当てはまっている)
誤分類の数とコスト関数
a = 1.4, b = 0, c = -9 の場合 (errors = 33, cost = 0.569...)
2019-02-13 社内勉強会 34
誤分類の数
コスト関数
ここまでの整理
確率は無視!0, 1 に分類することだけを考えてみた
1. ax + by + c の正負によって分類する
2. できるだけ良く当たる (a, b, c) の組を見つけたい
3. 誤分類の数が減る方向に (a, b, c) を動かしていきたいが・・・
4. 「誤分類の数」は階段状の関数なので、これが難しい
確率で考える方が計算上も都合がよさそうだとわかった
5. 正負によって 0, 1 に分類するのではなく確率を考える
6. 誤分類の数ではなく、確率を元に「コスト関数」を考える
すると
7. コスト関数は滑らかな関数になった (狙いどおり)
8. あとはコスト関数の勾配を考えよう
2019-02-13 社内勉強会 35
コスト関数の勾配の計算
コスト関数を a, b, c それぞれで偏微分する
計算式
◦ a の勾配:(1 である確率 - 正解) * x を全データについて平均する
◦ b の勾配:(1 である確率 - 正解) * y を全データについて平均する
◦ c の勾配:(1 である確率 - 正解) * 1 を全データについて平均する
2019-02-13 社内勉強会 36
(何故このような式になるのかは難しい)
コスト関数の勾配
a = 1.4, b = 0, c = -9 の場合
2019-02-13 社内勉強会 37
コスト関数
勾配
コスト関数の勾配
a = 1.4, b = 0, c = -9 の場合
2019-02-13 社内勉強会 38
コスト関数
勾配
勾配が負 = コスト関数が右下がり
勾配が正 = コスト関数が右上がり
勾配降下法
適当な初期値 a, b, c を設定する
以下を繰り返す
1. a, b, c それぞれの勾配を計算する
2. 勾配が正 (= 右上がり) なら a, b, c を減少 (= 左に移動) させる
3. 勾配が負 (= 右下がり) なら a, b, c を増加 (= 右に移動) させる
するとコスト関数が減少していく
コスト関数の減少 = データへの当てはまりが良い
2019-02-13 社内勉強会 39
勾配降下法による学習
初期値を a=0, b=0, c=0 として 1,200 回反復 (学習率 0.15)
2019-02-13 社内勉強会 40
ロジスティック回帰モデル
2019-02-13 社内勉強会 41
ロジスティック回帰モデル
ax + by + c の値によって 1 である確率が下図のように変化する
2019-02-13 社内勉強会 42
この関数はどこから出てきたのか
ロジスティック回帰モデル
ax + by + c の値によって 1 である確率が下図のように変化する
2019-02-13 社内勉強会 43
1 である確率
0 である確率
オッズ = 1 である確率 ÷ 0 である確率
= exp(ax + by + c)
対数オッズが ax + by + c にしたがうというモデル
パラメータの意味
たとえば a = 2 だとすると
◦ x が 1 増えると ax + by + c (= 対数オッズ) が 2 増える
◦ すると「1 である確率 ÷ 0 である確率」(= オッズ) は exp(2) 倍になる
2019-02-13 社内勉強会 44
オッズと確率
0 を「はずれ」、1 を「当たり」とすると・・・
2019-02-13 社内勉強会 45
オッズ はずれと当たりの割り合い 当選確率
0.001 はずれ 1000 枚、当たり 1 枚 0.0999%
0.01 はずれ 100 枚、当たり 1 枚 0.990%
0.1 はずれ 10 枚、当たり 1 枚 9.09%
1.0 はずれ 1 枚、当たり 1 枚 50%
10 はずれ 1 枚、当たり 10 枚 90.9%
100 はずれ 1 枚、当たり 100 枚 99.0%
1000 はずれ 1 枚、当たり 1000 枚 99.9%
10 倍
10 倍
10 倍
この対数が横軸 これが縦軸
おわり
2019-02-13 社内勉強会 46

More Related Content

What's hot

グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門Kawamoto_Kazuhiko
 
深層学習時代の自然言語処理
深層学習時代の自然言語処理深層学習時代の自然言語処理
深層学習時代の自然言語処理Yuya Unno
 
100614 構造方程式モデリング基本の「き」
100614 構造方程式モデリング基本の「き」100614 構造方程式モデリング基本の「き」
100614 構造方程式モデリング基本の「き」Shinohara Masahiro
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理Taiji Suzuki
 
『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会takehikoihayashi
 
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)MLSE
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介Naoki Hayashi
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門joisino
 
因果推論の奥へ: "What works" meets "why it works"
因果推論の奥へ: "What works" meets "why it works"因果推論の奥へ: "What works" meets "why it works"
因果推論の奥へ: "What works" meets "why it works"takehikoihayashi
 
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータStanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータMiki Katsuragi
 
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?hoxo_m
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)Takao Yamanaka
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向Motokawa Tetsuya
 
Rによるノンパラメトリック検定と効果量の出し方
Rによるノンパラメトリック検定と効果量の出し方Rによるノンパラメトリック検定と効果量の出し方
Rによるノンパラメトリック検定と効果量の出し方Hikaru GOTO
 
最適化超入門
最適化超入門最適化超入門
最適化超入門Takami Sato
 
はじめよう多変量解析~主成分分析編~
はじめよう多変量解析~主成分分析編~はじめよう多変量解析~主成分分析編~
はじめよう多変量解析~主成分分析編~宏喜 佐野
 
傾向スコアの概念とその実践
傾向スコアの概念とその実践傾向スコアの概念とその実践
傾向スコアの概念とその実践Yasuyuki Okumura
 
GEE(一般化推定方程式)の理論
GEE(一般化推定方程式)の理論GEE(一般化推定方程式)の理論
GEE(一般化推定方程式)の理論Koichiro Gibo
 
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and EditingDeep Learning JP
 
アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法Satoshi Hara
 

What's hot (20)

グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
 
深層学習時代の自然言語処理
深層学習時代の自然言語処理深層学習時代の自然言語処理
深層学習時代の自然言語処理
 
100614 構造方程式モデリング基本の「き」
100614 構造方程式モデリング基本の「き」100614 構造方程式モデリング基本の「き」
100614 構造方程式モデリング基本の「き」
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
 
『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会
 
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門
 
因果推論の奥へ: "What works" meets "why it works"
因果推論の奥へ: "What works" meets "why it works"因果推論の奥へ: "What works" meets "why it works"
因果推論の奥へ: "What works" meets "why it works"
 
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータStanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
StanとRでベイズ統計モデリング 11章 離散値をとるパラメータ
 
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向
 
Rによるノンパラメトリック検定と効果量の出し方
Rによるノンパラメトリック検定と効果量の出し方Rによるノンパラメトリック検定と効果量の出し方
Rによるノンパラメトリック検定と効果量の出し方
 
最適化超入門
最適化超入門最適化超入門
最適化超入門
 
はじめよう多変量解析~主成分分析編~
はじめよう多変量解析~主成分分析編~はじめよう多変量解析~主成分分析編~
はじめよう多変量解析~主成分分析編~
 
傾向スコアの概念とその実践
傾向スコアの概念とその実践傾向スコアの概念とその実践
傾向スコアの概念とその実践
 
GEE(一般化推定方程式)の理論
GEE(一般化推定方程式)の理論GEE(一般化推定方程式)の理論
GEE(一般化推定方程式)の理論
 
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
 
アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法
 

Similar to ロジスティック回帰入門

2011年11月11日
2011年11月11日2011年11月11日
2011年11月11日nukaemon
 
目で見る過学習と正則化
目で見る過学習と正則化目で見る過学習と正則化
目で見る過学習と正則化y-uti
 
第五回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場第五回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場Daisuke Yoneoka
 
Hivemallで始める不動産価格推定サービス
Hivemallで始める不動産価格推定サービスHivemallで始める不動産価格推定サービス
Hivemallで始める不動産価格推定サービスKentaro Yoshida
 
cs-12. 式の抽象化と関数,モジュール,算法(アルゴリズム)
cs-12. 式の抽象化と関数,モジュール,算法(アルゴリズム) cs-12. 式の抽象化と関数,モジュール,算法(アルゴリズム)
cs-12. 式の抽象化と関数,モジュール,算法(アルゴリズム) kunihikokaneko1
 
Why Reactive Matters #ScalaMatsuri
Why Reactive Matters #ScalaMatsuriWhy Reactive Matters #ScalaMatsuri
Why Reactive Matters #ScalaMatsuriYuta Okamoto
 
なぜリアクティブは重要か #ScalaMatsuri
なぜリアクティブは重要か #ScalaMatsuriなぜリアクティブは重要か #ScalaMatsuri
なぜリアクティブは重要か #ScalaMatsuriYuta Okamoto
 
パターン認識モデル初歩の初歩
パターン認識モデル初歩の初歩パターン認識モデル初歩の初歩
パターン認識モデル初歩の初歩t_ichioka_sg
 
顧客データを基にしたHivemallによる成約率予測
顧客データを基にしたHivemallによる成約率予測顧客データを基にしたHivemallによる成約率予測
顧客データを基にしたHivemallによる成約率予測Classi.corp
 
JavaScriptクイックスタート
JavaScriptクイックスタートJavaScriptクイックスタート
JavaScriptクイックスタートShumpei Shiraishi
 
PHPの関数実行とその計測
PHPの関数実行とその計測PHPの関数実行とその計測
PHPの関数実行とその計測shinjiigarashi
 
WI2研究会(公開用) “データ分析でよく使う前処理の整理と対処”
WI2研究会(公開用) “データ分析でよく使う前処理の整理と対処” WI2研究会(公開用) “データ分析でよく使う前処理の整理と対処”
WI2研究会(公開用) “データ分析でよく使う前処理の整理と対処” Hajime Sasaki
 
ji-3. 条件分岐と場合分け
ji-3. 条件分岐と場合分けji-3. 条件分岐と場合分け
ji-3. 条件分岐と場合分けkunihikokaneko1
 
El text.tokuron a(2019).katagiri190425
El text.tokuron a(2019).katagiri190425El text.tokuron a(2019).katagiri190425
El text.tokuron a(2019).katagiri190425RCCSRENKEI
 
[The Elements of Statistical Learning]Chapter8: Model Inferennce and Averaging
[The Elements of Statistical Learning]Chapter8: Model Inferennce and Averaging[The Elements of Statistical Learning]Chapter8: Model Inferennce and Averaging
[The Elements of Statistical Learning]Chapter8: Model Inferennce and AveragingYu Otsuka
 
[DL輪読会]Non-Autoregressive Machine Translation with Latent Alignments
[DL輪読会]Non-Autoregressive Machine Translation with Latent Alignments[DL輪読会]Non-Autoregressive Machine Translation with Latent Alignments
[DL輪読会]Non-Autoregressive Machine Translation with Latent AlignmentsDeep Learning JP
 
Model seminar shibata_100710
Model seminar shibata_100710Model seminar shibata_100710
Model seminar shibata_100710Kazuya Nishina
 

Similar to ロジスティック回帰入門 (20)

RでAHP
RでAHPRでAHP
RでAHP
 
2011年11月11日
2011年11月11日2011年11月11日
2011年11月11日
 
目で見る過学習と正則化
目で見る過学習と正則化目で見る過学習と正則化
目で見る過学習と正則化
 
第五回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場第五回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場
 
Hivemallで始める不動産価格推定サービス
Hivemallで始める不動産価格推定サービスHivemallで始める不動産価格推定サービス
Hivemallで始める不動産価格推定サービス
 
cs-12. 式の抽象化と関数,モジュール,算法(アルゴリズム)
cs-12. 式の抽象化と関数,モジュール,算法(アルゴリズム) cs-12. 式の抽象化と関数,モジュール,算法(アルゴリズム)
cs-12. 式の抽象化と関数,モジュール,算法(アルゴリズム)
 
Why Reactive Matters #ScalaMatsuri
Why Reactive Matters #ScalaMatsuriWhy Reactive Matters #ScalaMatsuri
Why Reactive Matters #ScalaMatsuri
 
なぜリアクティブは重要か #ScalaMatsuri
なぜリアクティブは重要か #ScalaMatsuriなぜリアクティブは重要か #ScalaMatsuri
なぜリアクティブは重要か #ScalaMatsuri
 
パターン認識モデル初歩の初歩
パターン認識モデル初歩の初歩パターン認識モデル初歩の初歩
パターン認識モデル初歩の初歩
 
顧客データを基にしたHivemallによる成約率予測
顧客データを基にしたHivemallによる成約率予測顧客データを基にしたHivemallによる成約率予測
顧客データを基にしたHivemallによる成約率予測
 
JavaScriptクイックスタート
JavaScriptクイックスタートJavaScriptクイックスタート
JavaScriptクイックスタート
 
PHPの関数実行とその計測
PHPの関数実行とその計測PHPの関数実行とその計測
PHPの関数実行とその計測
 
WI2研究会(公開用) “データ分析でよく使う前処理の整理と対処”
WI2研究会(公開用) “データ分析でよく使う前処理の整理と対処” WI2研究会(公開用) “データ分析でよく使う前処理の整理と対処”
WI2研究会(公開用) “データ分析でよく使う前処理の整理と対処”
 
Tokyo r7 sem_20100724
Tokyo r7 sem_20100724Tokyo r7 sem_20100724
Tokyo r7 sem_20100724
 
ji-3. 条件分岐と場合分け
ji-3. 条件分岐と場合分けji-3. 条件分岐と場合分け
ji-3. 条件分岐と場合分け
 
El text.tokuron a(2019).katagiri190425
El text.tokuron a(2019).katagiri190425El text.tokuron a(2019).katagiri190425
El text.tokuron a(2019).katagiri190425
 
[The Elements of Statistical Learning]Chapter8: Model Inferennce and Averaging
[The Elements of Statistical Learning]Chapter8: Model Inferennce and Averaging[The Elements of Statistical Learning]Chapter8: Model Inferennce and Averaging
[The Elements of Statistical Learning]Chapter8: Model Inferennce and Averaging
 
第2回DARM勉強会
第2回DARM勉強会第2回DARM勉強会
第2回DARM勉強会
 
[DL輪読会]Non-Autoregressive Machine Translation with Latent Alignments
[DL輪読会]Non-Autoregressive Machine Translation with Latent Alignments[DL輪読会]Non-Autoregressive Machine Translation with Latent Alignments
[DL輪読会]Non-Autoregressive Machine Translation with Latent Alignments
 
Model seminar shibata_100710
Model seminar shibata_100710Model seminar shibata_100710
Model seminar shibata_100710
 

More from y-uti

潜在ディリクレ配分法
潜在ディリクレ配分法潜在ディリクレ配分法
潜在ディリクレ配分法y-uti
 
Active Object
Active ObjectActive Object
Active Objecty-uti
 
論文紹介 Identifying Implementation Bugs in Machine Learning based Image Classifi...
論文紹介 Identifying Implementation Bugs in Machine Learning based Image Classifi...論文紹介 Identifying Implementation Bugs in Machine Learning based Image Classifi...
論文紹介 Identifying Implementation Bugs in Machine Learning based Image Classifi...y-uti
 
PECL operator で演算子オーバーロード
PECL operator で演算子オーバーロードPECL operator で演算子オーバーロード
PECL operator で演算子オーバーロードy-uti
 
PHP-ML で手書き数字認識
PHP-ML で手書き数字認識PHP-ML で手書き数字認識
PHP-ML で手書き数字認識y-uti
 
OPcache の最適化器の今
OPcache の最適化器の今OPcache の最適化器の今
OPcache の最適化器の今y-uti
 
スパース推定
スパース推定スパース推定
スパース推定y-uti
 
Kaggle の Titanic チュートリアルに挑戦した話
Kaggle の Titanic チュートリアルに挑戦した話Kaggle の Titanic チュートリアルに挑戦した話
Kaggle の Titanic チュートリアルに挑戦した話y-uti
 
PHP カンファレンス福岡 2017 参加報告
PHP カンファレンス福岡 2017 参加報告PHP カンファレンス福岡 2017 参加報告
PHP カンファレンス福岡 2017 参加報告y-uti
 
分類問題 - 機械学習ライブラリ scikit-learn の活用
分類問題 - 機械学習ライブラリ scikit-learn の活用分類問題 - 機械学習ライブラリ scikit-learn の活用
分類問題 - 機械学習ライブラリ scikit-learn の活用y-uti
 
JIT のコードを読んでみた
JIT のコードを読んでみたJIT のコードを読んでみた
JIT のコードを読んでみたy-uti
 
JIT for PHP を試した
JIT for PHP を試したJIT for PHP を試した
JIT for PHP を試したy-uti
 
Task Spooler を試した
Task Spooler を試したTask Spooler を試した
Task Spooler を試したy-uti
 
anyenv + phpenv + php-build が便利すぎる件
anyenv + phpenv + php-build が便利すぎる件anyenv + phpenv + php-build が便利すぎる件
anyenv + phpenv + php-build が便利すぎる件y-uti
 
PHP カンファレンス福岡 参加報告
PHP カンファレンス福岡 参加報告PHP カンファレンス福岡 参加報告
PHP カンファレンス福岡 参加報告y-uti
 
RFC: "var" Deprecation
RFC: "var" DeprecationRFC: "var" Deprecation
RFC: "var" Deprecationy-uti
 
最近の PHP の話
最近の PHP の話最近の PHP の話
最近の PHP の話y-uti
 
Windows で拡張モジュールをビルドしてみた
Windows で拡張モジュールをビルドしてみたWindows で拡張モジュールをビルドしてみた
Windows で拡張モジュールをビルドしてみたy-uti
 
PECL を数えてみた
PECL を数えてみたPECL を数えてみた
PECL を数えてみたy-uti
 
Windows で PHP をビルドしてみた
Windows で PHP をビルドしてみたWindows で PHP をビルドしてみた
Windows で PHP をビルドしてみたy-uti
 

More from y-uti (20)

潜在ディリクレ配分法
潜在ディリクレ配分法潜在ディリクレ配分法
潜在ディリクレ配分法
 
Active Object
Active ObjectActive Object
Active Object
 
論文紹介 Identifying Implementation Bugs in Machine Learning based Image Classifi...
論文紹介 Identifying Implementation Bugs in Machine Learning based Image Classifi...論文紹介 Identifying Implementation Bugs in Machine Learning based Image Classifi...
論文紹介 Identifying Implementation Bugs in Machine Learning based Image Classifi...
 
PECL operator で演算子オーバーロード
PECL operator で演算子オーバーロードPECL operator で演算子オーバーロード
PECL operator で演算子オーバーロード
 
PHP-ML で手書き数字認識
PHP-ML で手書き数字認識PHP-ML で手書き数字認識
PHP-ML で手書き数字認識
 
OPcache の最適化器の今
OPcache の最適化器の今OPcache の最適化器の今
OPcache の最適化器の今
 
スパース推定
スパース推定スパース推定
スパース推定
 
Kaggle の Titanic チュートリアルに挑戦した話
Kaggle の Titanic チュートリアルに挑戦した話Kaggle の Titanic チュートリアルに挑戦した話
Kaggle の Titanic チュートリアルに挑戦した話
 
PHP カンファレンス福岡 2017 参加報告
PHP カンファレンス福岡 2017 参加報告PHP カンファレンス福岡 2017 参加報告
PHP カンファレンス福岡 2017 参加報告
 
分類問題 - 機械学習ライブラリ scikit-learn の活用
分類問題 - 機械学習ライブラリ scikit-learn の活用分類問題 - 機械学習ライブラリ scikit-learn の活用
分類問題 - 機械学習ライブラリ scikit-learn の活用
 
JIT のコードを読んでみた
JIT のコードを読んでみたJIT のコードを読んでみた
JIT のコードを読んでみた
 
JIT for PHP を試した
JIT for PHP を試したJIT for PHP を試した
JIT for PHP を試した
 
Task Spooler を試した
Task Spooler を試したTask Spooler を試した
Task Spooler を試した
 
anyenv + phpenv + php-build が便利すぎる件
anyenv + phpenv + php-build が便利すぎる件anyenv + phpenv + php-build が便利すぎる件
anyenv + phpenv + php-build が便利すぎる件
 
PHP カンファレンス福岡 参加報告
PHP カンファレンス福岡 参加報告PHP カンファレンス福岡 参加報告
PHP カンファレンス福岡 参加報告
 
RFC: "var" Deprecation
RFC: "var" DeprecationRFC: "var" Deprecation
RFC: "var" Deprecation
 
最近の PHP の話
最近の PHP の話最近の PHP の話
最近の PHP の話
 
Windows で拡張モジュールをビルドしてみた
Windows で拡張モジュールをビルドしてみたWindows で拡張モジュールをビルドしてみた
Windows で拡張モジュールをビルドしてみた
 
PECL を数えてみた
PECL を数えてみたPECL を数えてみた
PECL を数えてみた
 
Windows で PHP をビルドしてみた
Windows で PHP をビルドしてみたWindows で PHP をビルドしてみた
Windows で PHP をビルドしてみた
 

Recently uploaded

AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NTT DATA Technology & Innovation
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineerYuki Kikuchi
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?akihisamiyanaga1
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 

Recently uploaded (8)

AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 

ロジスティック回帰入門