Submit Search
Upload
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
•
9 likes
•
3,513 views
S
Shuyo Nakatani
Follow
Tokyo.R #57 の発表資料です。
Read less
Read more
Technology
Report
Share
Report
Share
1 of 43
Download now
Download to read offline
Recommended
TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)
徹 上野山
Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識
Ken Morishita
機械学習概論 講義テキスト
機械学習概論 講義テキスト
Etsuji Nakai
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tatsuya Tojima
「深層学習」第6章 畳込みニューラルネット
「深層学習」第6章 畳込みニューラルネット
Ken'ichi Matsui
TensorFlowの使い方(in Japanese)
TensorFlowの使い方(in Japanese)
Toshihiko Yamakami
Random Forestsとその応用
Random Forestsとその応用
MPRG_Chubu_University
Pythonで動かして学ぶ機械学習入門_予測モデルを作ってみよう
Pythonで動かして学ぶ機械学習入門_予測モデルを作ってみよう
洋資 堅田
Recommended
TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)
徹 上野山
Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識
Ken Morishita
機械学習概論 講義テキスト
機械学習概論 講義テキスト
Etsuji Nakai
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tatsuya Tojima
「深層学習」第6章 畳込みニューラルネット
「深層学習」第6章 畳込みニューラルネット
Ken'ichi Matsui
TensorFlowの使い方(in Japanese)
TensorFlowの使い方(in Japanese)
Toshihiko Yamakami
Random Forestsとその応用
Random Forestsとその応用
MPRG_Chubu_University
Pythonで動かして学ぶ機械学習入門_予測モデルを作ってみよう
Pythonで動かして学ぶ機械学習入門_予測モデルを作ってみよう
洋資 堅田
TensorFlowで機械学習ことはじめ(summer edition)
TensorFlowで機械学習ことはじめ(summer edition)
徹 上野山
Random Forests
Random Forests
Hironobu Fujiyoshi
17ゼロから作るディープラーニング2章パーセプトロン
17ゼロから作るディープラーニング2章パーセプトロン
Keiichirou Miyamoto
TensorFlowによるニューラルネットワーク入門
TensorFlowによるニューラルネットワーク入門
Etsuji Nakai
アンサンブル学習
アンサンブル学習
Hidekazu Tanaka
それっぽく感じる機械学習
それっぽく感じる機械学習
Yuki Igarashi
機会学習ハッカソン:ランダムフォレスト
機会学習ハッカソン:ランダムフォレスト
Teppei Baba
最近のRのランダムフォレストパッケージ -ranger/Rborist-
最近のRのランダムフォレストパッケージ -ranger/Rborist-
Shintaro Fukushima
パターン認識 第10章 決定木
パターン認識 第10章 決定木
Miyoshi Yuya
ランダムフォレスト
ランダムフォレスト
Kinki University
Pythonによる機械学習
Pythonによる機械学習
Kimikazu Kato
はじめての「R」
はじめての「R」
Masahiro Hayashi
20170422 数学カフェ Part1
20170422 数学カフェ Part1
Kenta Oono
数式をnumpyに落としこむコツ
数式をnumpyに落としこむコツ
Shuyo Nakatani
クラスタリングとレコメンデーション資料
クラスタリングとレコメンデーション資料
洋資 堅田
はてなインターン「機械学習」
はてなインターン「機械学習」
Hatena::Engineering
機械学習 入門
機械学習 入門
Hayato Maki
機械学習の理論と実践
機械学習の理論と実践
Preferred Networks
Deep Learning基本理論とTensorFlow
Deep Learning基本理論とTensorFlow
Tadaichiro Nakano
深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開
Seiya Tokui
Dummiesパッケージ
Dummiesパッケージ
weda654
R入門(dplyrでデータ加工)-TokyoR42
R入門(dplyrでデータ加工)-TokyoR42
Atsushi Hayakawa
More Related Content
What's hot
TensorFlowで機械学習ことはじめ(summer edition)
TensorFlowで機械学習ことはじめ(summer edition)
徹 上野山
Random Forests
Random Forests
Hironobu Fujiyoshi
17ゼロから作るディープラーニング2章パーセプトロン
17ゼロから作るディープラーニング2章パーセプトロン
Keiichirou Miyamoto
TensorFlowによるニューラルネットワーク入門
TensorFlowによるニューラルネットワーク入門
Etsuji Nakai
アンサンブル学習
アンサンブル学習
Hidekazu Tanaka
それっぽく感じる機械学習
それっぽく感じる機械学習
Yuki Igarashi
機会学習ハッカソン:ランダムフォレスト
機会学習ハッカソン:ランダムフォレスト
Teppei Baba
最近のRのランダムフォレストパッケージ -ranger/Rborist-
最近のRのランダムフォレストパッケージ -ranger/Rborist-
Shintaro Fukushima
パターン認識 第10章 決定木
パターン認識 第10章 決定木
Miyoshi Yuya
ランダムフォレスト
ランダムフォレスト
Kinki University
Pythonによる機械学習
Pythonによる機械学習
Kimikazu Kato
はじめての「R」
はじめての「R」
Masahiro Hayashi
20170422 数学カフェ Part1
20170422 数学カフェ Part1
Kenta Oono
数式をnumpyに落としこむコツ
数式をnumpyに落としこむコツ
Shuyo Nakatani
クラスタリングとレコメンデーション資料
クラスタリングとレコメンデーション資料
洋資 堅田
はてなインターン「機械学習」
はてなインターン「機械学習」
Hatena::Engineering
機械学習 入門
機械学習 入門
Hayato Maki
機械学習の理論と実践
機械学習の理論と実践
Preferred Networks
Deep Learning基本理論とTensorFlow
Deep Learning基本理論とTensorFlow
Tadaichiro Nakano
深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開
Seiya Tokui
What's hot
(20)
TensorFlowで機械学習ことはじめ(summer edition)
TensorFlowで機械学習ことはじめ(summer edition)
Random Forests
Random Forests
17ゼロから作るディープラーニング2章パーセプトロン
17ゼロから作るディープラーニング2章パーセプトロン
TensorFlowによるニューラルネットワーク入門
TensorFlowによるニューラルネットワーク入門
アンサンブル学習
アンサンブル学習
それっぽく感じる機械学習
それっぽく感じる機械学習
機会学習ハッカソン:ランダムフォレスト
機会学習ハッカソン:ランダムフォレスト
最近のRのランダムフォレストパッケージ -ranger/Rborist-
最近のRのランダムフォレストパッケージ -ranger/Rborist-
パターン認識 第10章 決定木
パターン認識 第10章 決定木
ランダムフォレスト
ランダムフォレスト
Pythonによる機械学習
Pythonによる機械学習
はじめての「R」
はじめての「R」
20170422 数学カフェ Part1
20170422 数学カフェ Part1
数式をnumpyに落としこむコツ
数式をnumpyに落としこむコツ
クラスタリングとレコメンデーション資料
クラスタリングとレコメンデーション資料
はてなインターン「機械学習」
はてなインターン「機械学習」
機械学習 入門
機械学習 入門
機械学習の理論と実践
機械学習の理論と実践
Deep Learning基本理論とTensorFlow
Deep Learning基本理論とTensorFlow
深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開
Viewers also liked
Dummiesパッケージ
Dummiesパッケージ
weda654
R入門(dplyrでデータ加工)-TokyoR42
R入門(dplyrでデータ加工)-TokyoR42
Atsushi Hayakawa
20140625 rでのデータ分析(仮) for_tokyor
20140625 rでのデータ分析(仮) for_tokyor
Takashi Kitano
Rcppのすすめ
Rcppのすすめ
Masaki Tsuda
Mxnetで回帰 #TokyoR 53th
Mxnetで回帰 #TokyoR 53th
Akifumi Eguchi
20170923 excelユーザーのためのr入門
20170923 excelユーザーのためのr入門
Takashi Kitano
20150303ぞくパタLT-ゆるふわ構造学習
20150303ぞくパタLT-ゆるふわ構造学習
Toru Imai
Rで潜在ランク分析
Rで潜在ランク分析
Hiroshi Shimizu
データサイエンティスト必見!M-1グランプリ
データサイエンティスト必見!M-1グランプリ
Satoshi Kitajima
R を起動するその前に
R を起動するその前に
Kosei ABE
TokyoR42_around_chaining
TokyoR42_around_chaining
TokorosawaYoshio
Rで代数統計 TokyoR #42 LT
Rで代数統計 TokyoR #42 LT
Toru Imai
マルコフ連鎖モンテカルロ法入門-1
マルコフ連鎖モンテカルロ法入門-1
Nagi Teramo
最強のハードディスクはどれだ?
最強のハードディスクはどれだ?
Atsushi Hayakawa
ggplot2再入門(2015年バージョン)
ggplot2再入門(2015年バージョン)
yutannihilation
Tokyor42 ggplot2
Tokyor42 ggplot2
Yohei Sato
Tokyor42_r_datamining_18
Tokyor42_r_datamining_18
Yohei Sato
Tokyo r33 beginner
Tokyo r33 beginner
Takashi Minoda
Tokyo r30 anova
Tokyo r30 anova
Takashi Minoda
Rで学ぶ 傾向スコア解析入門 - 無作為割り当てが出来ない時の因果効果推定 -
Rで学ぶ 傾向スコア解析入門 - 無作為割り当てが出来ない時の因果効果推定 -
Yohei Sato
Viewers also liked
(20)
Dummiesパッケージ
Dummiesパッケージ
R入門(dplyrでデータ加工)-TokyoR42
R入門(dplyrでデータ加工)-TokyoR42
20140625 rでのデータ分析(仮) for_tokyor
20140625 rでのデータ分析(仮) for_tokyor
Rcppのすすめ
Rcppのすすめ
Mxnetで回帰 #TokyoR 53th
Mxnetで回帰 #TokyoR 53th
20170923 excelユーザーのためのr入門
20170923 excelユーザーのためのr入門
20150303ぞくパタLT-ゆるふわ構造学習
20150303ぞくパタLT-ゆるふわ構造学習
Rで潜在ランク分析
Rで潜在ランク分析
データサイエンティスト必見!M-1グランプリ
データサイエンティスト必見!M-1グランプリ
R を起動するその前に
R を起動するその前に
TokyoR42_around_chaining
TokyoR42_around_chaining
Rで代数統計 TokyoR #42 LT
Rで代数統計 TokyoR #42 LT
マルコフ連鎖モンテカルロ法入門-1
マルコフ連鎖モンテカルロ法入門-1
最強のハードディスクはどれだ?
最強のハードディスクはどれだ?
ggplot2再入門(2015年バージョン)
ggplot2再入門(2015年バージョン)
Tokyor42 ggplot2
Tokyor42 ggplot2
Tokyor42_r_datamining_18
Tokyor42_r_datamining_18
Tokyo r33 beginner
Tokyo r33 beginner
Tokyo r30 anova
Tokyo r30 anova
Rで学ぶ 傾向スコア解析入門 - 無作為割り当てが出来ない時の因果効果推定 -
Rで学ぶ 傾向スコア解析入門 - 無作為割り当てが出来ない時の因果効果推定 -
Similar to RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
Rパッケージ“KFAS”を使った時系列データの解析方法
Rパッケージ“KFAS”を使った時系列データの解析方法
Hiroki Itô
Maatkit で MySQL チューニング
Maatkit で MySQL チューニング
Kensuke Nagae
文献紹介:Deep Analysis of CNN-Based Spatio-Temporal Representations for Action Re...
文献紹介:Deep Analysis of CNN-Based Spatio-Temporal Representations for Action Re...
Toru Tamaki
R's anti sparseness
R's anti sparseness
ybenjo
各言語の k-means 比較
各言語の k-means 比較
y-uti
第9回 大規模データを用いたデータフレーム操作実習(3)
第9回 大規模データを用いたデータフレーム操作実習(3)
Wataru Shito
Nagoya.R #12 入門者講習
Nagoya.R #12 入門者講習
Yusaku Kawaguchi
文献紹介:Token Shift Transformer for Video Classification
文献紹介:Token Shift Transformer for Video Classification
Toru Tamaki
MySQLerの7つ道具
MySQLerの7つ道具
yoku0825
20190625 OpenACC 講習会 第3部
20190625 OpenACC 講習会 第3部
NVIDIA Japan
Memoizeの仕組み(第41回PostgreSQLアンカンファレンス@オンライン 発表資料)
Memoizeの仕組み(第41回PostgreSQLアンカンファレンス@オンライン 発表資料)
NTT DATA Technology & Innovation
Tokyo r27
Tokyo r27
Takashi Minoda
Cmdstanr入門とreduce_sum()解説
Cmdstanr入門とreduce_sum()解説
Hiroshi Shimizu
PostgreSQL SQLチューニング入門 実践編(pgcon14j)
PostgreSQL SQLチューニング入門 実践編(pgcon14j)
Satoshi Yamada
PostgreSQLの実行計画を読み解こう(OSC2015 Spring/Tokyo)
PostgreSQLの実行計画を読み解こう(OSC2015 Spring/Tokyo)
Satoshi Yamada
第3回機械学習勉強会「色々なNNフレームワークを動かしてみよう」-Keras編-
第3回機械学習勉強会「色々なNNフレームワークを動かしてみよう」-Keras編-
Yasuyuki Sugai
文献紹介:TSM: Temporal Shift Module for Efficient Video Understanding
文献紹介:TSM: Temporal Shift Module for Efficient Video Understanding
Toru Tamaki
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
sleepy_yoshi
タダで始めるテストファースト入門 ~ C# Express + NUnit
タダで始めるテストファースト入門 ~ C# Express + NUnit
Yasuhiko Yamamoto
Analyze by StatsModels or Numpy
Analyze by StatsModels or Numpy
Toshiki NOGUCHI
Similar to RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
(20)
Rパッケージ“KFAS”を使った時系列データの解析方法
Rパッケージ“KFAS”を使った時系列データの解析方法
Maatkit で MySQL チューニング
Maatkit で MySQL チューニング
文献紹介:Deep Analysis of CNN-Based Spatio-Temporal Representations for Action Re...
文献紹介:Deep Analysis of CNN-Based Spatio-Temporal Representations for Action Re...
R's anti sparseness
R's anti sparseness
各言語の k-means 比較
各言語の k-means 比較
第9回 大規模データを用いたデータフレーム操作実習(3)
第9回 大規模データを用いたデータフレーム操作実習(3)
Nagoya.R #12 入門者講習
Nagoya.R #12 入門者講習
文献紹介:Token Shift Transformer for Video Classification
文献紹介:Token Shift Transformer for Video Classification
MySQLerの7つ道具
MySQLerの7つ道具
20190625 OpenACC 講習会 第3部
20190625 OpenACC 講習会 第3部
Memoizeの仕組み(第41回PostgreSQLアンカンファレンス@オンライン 発表資料)
Memoizeの仕組み(第41回PostgreSQLアンカンファレンス@オンライン 発表資料)
Tokyo r27
Tokyo r27
Cmdstanr入門とreduce_sum()解説
Cmdstanr入門とreduce_sum()解説
PostgreSQL SQLチューニング入門 実践編(pgcon14j)
PostgreSQL SQLチューニング入門 実践編(pgcon14j)
PostgreSQLの実行計画を読み解こう(OSC2015 Spring/Tokyo)
PostgreSQLの実行計画を読み解こう(OSC2015 Spring/Tokyo)
第3回機械学習勉強会「色々なNNフレームワークを動かしてみよう」-Keras編-
第3回機械学習勉強会「色々なNNフレームワークを動かしてみよう」-Keras編-
文献紹介:TSM: Temporal Shift Module for Efficient Video Understanding
文献紹介:TSM: Temporal Shift Module for Efficient Video Understanding
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
タダで始めるテストファースト入門 ~ C# Express + NUnit
タダで始めるテストファースト入門 ~ C# Express + NUnit
Analyze by StatsModels or Numpy
Analyze by StatsModels or Numpy
More from Shuyo Nakatani
画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15
画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15
Shuyo Nakatani
Generative adversarial networks
Generative adversarial networks
Shuyo Nakatani
無限関係モデル (続・わかりやすいパターン認識 13章)
無限関係モデル (続・わかりやすいパターン認識 13章)
Shuyo Nakatani
Memory Networks (End-to-End Memory Networks の Chainer 実装)
Memory Networks (End-to-End Memory Networks の Chainer 実装)
Shuyo Nakatani
人工知能と機械学習の違いって?
人工知能と機械学習の違いって?
Shuyo Nakatani
ドラえもんでわかる統計的因果推論 #TokyoR
ドラえもんでわかる統計的因果推論 #TokyoR
Shuyo Nakatani
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...
Shuyo Nakatani
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
Shuyo Nakatani
星野「調査観察データの統計科学」第1&2章
星野「調査観察データの統計科学」第1&2章
Shuyo Nakatani
言語処理するのに Python でいいの? #PyDataTokyo
言語処理するのに Python でいいの? #PyDataTokyo
Shuyo Nakatani
Zipf? (ジップ則のひみつ?) #DSIRNLP
Zipf? (ジップ則のひみつ?) #DSIRNLP
Shuyo Nakatani
ACL2014 Reading: [Zhang+] "Kneser-Ney Smoothing on Expected Count" and [Pickh...
ACL2014 Reading: [Zhang+] "Kneser-Ney Smoothing on Expected Count" and [Pickh...
Shuyo Nakatani
ソーシャルメディアの多言語判定 #SoC2014
ソーシャルメディアの多言語判定 #SoC2014
Shuyo Nakatani
猫に教えてもらうルベーグ可測
猫に教えてもらうルベーグ可測
Shuyo Nakatani
アラビア語とペルシャ語の見分け方 #DSIRNLP 5
アラビア語とペルシャ語の見分け方 #DSIRNLP 5
Shuyo Nakatani
どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013
どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013
Shuyo Nakatani
Active Learning 入門
Active Learning 入門
Shuyo Nakatani
数式を綺麗にプログラミングするコツ #spro2013
数式を綺麗にプログラミングするコツ #spro2013
Shuyo Nakatani
ノンパラベイズ入門の入門
ノンパラベイズ入門の入門
Shuyo Nakatani
[Kim+ ICML2012] Dirichlet Process with Mixed Random Measures : A Nonparametri...
[Kim+ ICML2012] Dirichlet Process with Mixed Random Measures : A Nonparametri...
Shuyo Nakatani
More from Shuyo Nakatani
(20)
画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15
画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15
Generative adversarial networks
Generative adversarial networks
無限関係モデル (続・わかりやすいパターン認識 13章)
無限関係モデル (続・わかりやすいパターン認識 13章)
Memory Networks (End-to-End Memory Networks の Chainer 実装)
Memory Networks (End-to-End Memory Networks の Chainer 実装)
人工知能と機械学習の違いって?
人工知能と機械学習の違いって?
ドラえもんでわかる統計的因果推論 #TokyoR
ドラえもんでわかる統計的因果推論 #TokyoR
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第1&2章
星野「調査観察データの統計科学」第1&2章
言語処理するのに Python でいいの? #PyDataTokyo
言語処理するのに Python でいいの? #PyDataTokyo
Zipf? (ジップ則のひみつ?) #DSIRNLP
Zipf? (ジップ則のひみつ?) #DSIRNLP
ACL2014 Reading: [Zhang+] "Kneser-Ney Smoothing on Expected Count" and [Pickh...
ACL2014 Reading: [Zhang+] "Kneser-Ney Smoothing on Expected Count" and [Pickh...
ソーシャルメディアの多言語判定 #SoC2014
ソーシャルメディアの多言語判定 #SoC2014
猫に教えてもらうルベーグ可測
猫に教えてもらうルベーグ可測
アラビア語とペルシャ語の見分け方 #DSIRNLP 5
アラビア語とペルシャ語の見分け方 #DSIRNLP 5
どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013
どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013
Active Learning 入門
Active Learning 入門
数式を綺麗にプログラミングするコツ #spro2013
数式を綺麗にプログラミングするコツ #spro2013
ノンパラベイズ入門の入門
ノンパラベイズ入門の入門
[Kim+ ICML2012] Dirichlet Process with Mixed Random Measures : A Nonparametri...
[Kim+ ICML2012] Dirichlet Process with Mixed Random Measures : A Nonparametri...
Recently uploaded
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdf
taisei2219
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
iPride Co., Ltd.
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
Hiroki Ichikura
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Yuma Ohgami
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet
Toru Tamaki
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey
Toru Tamaki
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
Ryo Sasaki
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
Toru Tamaki
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Daniel
danielhu54
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システム
sugiuralab
Recently uploaded
(10)
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdf
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Daniel
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システム
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
1.
RとStanで クラウドセットアップ時間を 分析してみたら 2016/9/24 Tokyo.R #57 中谷
秀洋(@shuyo, サイボウズ・ラボ)
2.
MCMCサンプラー
3.
いびつなサイコロの設計図 • 目が出る確率の分布を知りたい! 重心とか計算して 確率の理論値を求める?
4.
組み立てて、いっぱい投げる 1 2 3
4 5 6
5.
MCMCサンプラーとは • サイコロの設計図(モデルファイル)を渡す と、サイコロを作っていっぱい投げてくれる data { int<lower=0>
N; int<lower=0> M; matrix<lower=0,upper=1>[N, M] z; real<lower=0> jtime[N]; } parameters { real mu[M]; real<lower=0> sig[M]; matrix<lower=0>[N, M] y; real c; real<lower=0> s; } model { for (n in 1:N) { jtime[n] ~ normal(c + dot_product(y[n], z[n]), s); for (m in 1:M) { y[n, m] ~ lognormal(mu[m], sig[m]); } } // 事前分布 for (m in 1:M) { mu[m] ~ normal(0, 1); sig[m] ~ gamma(1, 0.1); } c ~ normal(0, 1); s ~ gamma(1, 1); } かなり複雑な 設計図でもOK!
6.
Stan • 代表的なMCMCサンプラーのひとつ – 条件付き確率で記述されたモデルを
MCMC で解く • 推定したい「値」は確率変数(ベイズ!) – 点推定ではなく分布を推定 – 推定値が欲しいときは平均をとる • というあたりを実例で説明
7.
参考文献 岩波データサイエンス vol.1 StanとRでベイズ統計モデリング
8.
(サイボウズのサービスの説明が 少々続きますが 分析動機に関係するためであり けっして宣伝ではありません)
9.
サイボウズのクラウドって 申し込んだら すぐ使えるんだって!(ステマ
10.
cybozu.com のお試し/購入 はじめてcybozu.comを購入する |
購入方法 | サイボウズ製品サイト cybozu.com https://www.cybozu.com/jp/buy/first/
11.
試用するサービスの選択 チェックを入れた サービスが利用可能に
12.
cybozu.com の 5つサービス •
kintone Webデータベース • サイボウズ ガルーン (garoon) • サイボウズ オフィス (office) • メールワイズ (mailwise) メール共有 • セキュアアクセス (skylab) グループウェア
13.
セキュアアクセス(“skylab”) • 安全な接続を提供するオプションサービス – クライアント証明書によるアクセス制限 –
https://www.cybozu.com/jp/service/option/ • 単機能のアプリケーション – 規模は office などより かなり小さい – skylab 単独で使用されることは基本ない
14.
申し込みから5分で使える • 小人さん(という名の担当者)が24時間待機 • 申し込みの通知が来たら •
急いでセットアップしてお客さんにメール – なわけなく、自動化されている
15.
“village” : 自動セットアップ •
申し込まれたサービスを自動的にセット アップする仕組み – 7割のジョブは1分以内にセットアップ完了 – 99% は4分以内 – 0.25% が5分以上 • 「ご発注から5分~10分程度」と歌ってお り、5分以内が望ましい
16.
何に時間がかかっている? • village の履歴ログ(抜粋) –
jtime =そのセットアップジョブの合計実行時間(秒) – kintone ~ skylab =各サービスがセットアップ対象(=1) か、対象外(=0)か • 分析すれば、各サービスごとのセットアップ時間がわ かる? > head(village) jtime kintone garoon office mailwise skylab 1 3.6307 1 0 0 0 0 2 18.1070 0 0 0 1 0 3 13.5170 0 0 1 0 0 4 13.3591 1 0 0 0 1 5 8.7739 0 0 1 0 0 6 2.8032 1 0 0 0 0 kintone と skylab の セットアップに 13.4秒かかった
17.
R で分析
18.
lm 関数で重回帰 > summary(lm(jtime~1+kintone+garoon+office+mailwise+skylab,
data=village)) Call: lm(formula = jtime ~ 1 + kintone + garoon + office + mailwise + skylab, data = village) Residuals: Min 1Q Median 3Q Max -21.525 -2.746 -1.746 2.254 86.841 Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) 4.2244 0.1172 36.04 <2e-16 *** kintone 1.5214 0.1245 12.22 <2e-16 *** garoon 31.1726 0.1518 205.32 <2e-16 *** office 6.7723 0.1223 55.37 <2e-16 *** mailwise 8.4679 0.1480 57.20 <2e-16 *** skylab 5.3662 0.1781 30.13 <2e-16 ***
19.
分析完了 jtime = 4.2
+ 1.5𝑧kintone + 31.2𝑧garoon + 6.8𝑧office + 8.5𝑧mailwise + 5.4𝑧skylab + 𝜖 – 𝑧サービス名はそのサービスを選択していれば 1、非選択なら 0 – office を選択すると6.8秒、skylab を選択すると 5.4秒追加される • skylab のセットアップは office と同等の時間 – アプリ規模に比べて遅い。高速化はきっと容易だろう…… Estimate Std. Error t value Pr(>|t|) (Intercept) 4.2244 0.1172 36.04 <2e-16 *** kintone 1.5214 0.1245 12.22 <2e-16 *** garoon 31.1726 0.1518 205.32 <2e-16 *** office 6.7723 0.1223 55.37 <2e-16 *** mailwise 8.4679 0.1480 57.20 <2e-16 *** skylab 5.3662 0.1781 30.13 <2e-16 ***
20.
分析完了? jtime = 4.2
+ 1.5𝑧kintone + 31.2𝑧garoon + 6.8𝑧office + 8.5𝑧mailwise + 5.4𝑧skylab + 𝜖 • skylab 遅すぎない? – アプリの規模がぜんぜん違うのに…… • モデルに問題があるとすれば、 – 残差 𝜖 がサービスによらず共通 • garoon の分散 >>> office の分散 > kintone の分散 • garoon と一緒に選択されることが多い skylab が分散を吸収? – 右に裾が長い分布なのに、考慮してない • 残差 𝜖 が大きく負になると、jtime も負に!
21.
モデルを改良しよう!
22.
製品別のセットアップ時間分布 • 散らばり具合は製品ごとに違う – 右に裾の長い分布 mailwise
単独のセットアップ (5~30秒) garoon 単独 (20~60秒)
23.
対数正規分布 • 対数が正規分布に従う分布 – 右に裾が長い –
いい感じにフィッティング jtime の対数の平均と標準 偏差をパラメータとする 対数正規分布でフィッティ ング
24.
じゃあ skylab 単独セットアップを 見ればいいんじゃね? •
skylab 単独は数えるほどしかない – セキュアな接続を提供するものなので、他の サービスと一緒に使って初めて意味がある 平均が有意なほどの 件数がない
25.
改良モデル • 各サービスのセットアップ時間 𝑦
がそれ ぞれの対数正規分布に従う 𝑦𝑛𝑚|𝜇 𝑚, 𝜎 𝑚 ~ ℒ𝒩(𝜇 𝑚, 𝜎 𝑚) 𝑦 𝑀 𝜇 𝜎 Log-Normal=対数正規分布 𝑚 = 𝑦 𝑚 =
26.
改良モデル • 選択されたサービス 𝑧
= 1 のセットアッ プ時間の合計+定数 𝑐 が観測時間 jtime jtime 𝑛|𝒚 𝑛, 𝒛 𝑛, 𝑐, 𝑠 ~ 𝒩(𝑐 + 𝒚 𝑛 ⋅ 𝒛 𝑛, 𝒔) 𝑧 jtime𝑦 𝑁 𝑀 𝑠 𝑐 選択してないから使わない
27.
良さげなモデルができた!?
28.
でも最尤法では解けない…… • 未観測変数 𝑦
を積分消去しないといけない ∫ 𝑃 jtime 𝑧, 𝑦 𝑃 𝑦; 𝜇, 𝜎 𝑑𝑦 • しかも 𝑦 は対数正規分布(←計算が難しいやつ) 𝑃 𝑦; 𝜇, 𝜎 = 1 2𝜋𝜎𝑦 exp − ln 𝑦 − 𝜇 2 2𝜎2 未観測変数は 積分消去しないと 最尤推定できない
29.
MCMC サンプラーなら 解けるよ!
30.
Stan で分析
31.
Stan に食わせるには…… • Stan
は MCMC サンプラー – サイコロをいっぱい振ってくれる奴 • 求めたい値がサイコロ(=確率変数)になっ てないと Stan に食わせられない – ベイズ化≒パラメータを確率変数にすること
32.
ベイズ化(before) • 最尤推定はパラメータ 𝜇,
𝜎, 𝑐, 𝑠 を点推定 – サイコロじゃない! 𝑧 jtime𝑦 𝑁 𝑀 𝜇 𝜎 𝑠 𝑐 点推定する パラメータ 観測できる 確率変数 観測できない 確率変数
33.
ベイズ化(after) • パラメータをサイコロ(確率変数)に – 𝜇,
𝜎, 𝑐, 𝑠 が黒丸から大きい白丸に変わった! 𝑧 jtime𝑦 𝑁 𝑀 𝜎 𝜇 𝑐 𝑠 サイコロ振りの対象に 追加してしまおう!
34.
何が変わるの? • 実はあんまり変わらない (違いは後ほど) 𝑦𝑛𝑚|𝜇
𝑚, 𝜎 𝑚~ℒ𝒩(𝜇 𝑚, 𝜎 𝑚) jtime 𝑛|𝒚 𝑛, 𝒛 𝑛, 𝑐, 𝑠~𝒩(𝑐 + 𝒚 𝑛 ⋅ 𝒛 𝑛, 𝑠) 𝑧 jtime𝑦 𝑁 𝑀 𝜎 𝜇 𝑐 𝑠
35.
Stan に渡す設計図を書こう • モデルファイル 𝑧 jtime𝑦 𝑁 𝑀 𝜎 𝜇 𝑐 𝑠 data
{ int<lower=0> N; int<lower=0> M; matrix<lower=0,upper=1>[N, M] z; real<lower=0> jtime[N]; } parameters { real mu[M]; real<lower=0> sig[M]; matrix<lower=0>[N, M] y; real c; real<lower=0> s; }
36.
条件付き分布 • (1) 𝑦𝑛𝑚|𝜇
𝑚, 𝜎 𝑚 ~ ℒ𝒩(𝜇 𝑚, 𝜎 𝑚) • (2) jtime 𝑛|𝒚 𝑛, 𝒛 𝑛, 𝑐, 𝑠 ~ 𝒩(𝑐 + 𝒚 𝑛 ⋅ 𝒛 𝑛, 𝒔) model { for (n in 1:N) { for (m in 1:M) { y[n, m] ~ lognormal(mu[m], sig[m]); // (1) } // (2) jtime[n] ~ normal(c + dot_product(y[n], z[n]), s); } }
37.
事前分布 • ベイズ化による最大の相違点 – 𝜇,
𝜎, 𝑐, 𝑠 が確率変数になってしまった! – ので、スタート地点となる分布を書いて あげる必要があるmodel { // 事前分布 for (m in 1:M) { mu[m] ~ normal(0, 1); sig[m] ~ gamma(1, 0.1); } c ~ normal(0, 1); s ~ gamma(1, 1); } ※ Stan では事前分布の指定を省略 することもできる。その場合、無情 報っぽいのが勝手に入る。今回は データが多峰性をちょっと持つので、 正則化を効かせる感じで狭い事前分 布を明示的に入れている。
38.
推論(サイコロ振り)の実行 • rstan から
Stan を呼び出し – 10000件食わせると一昼夜かかった上、結果 を読み込むところでメモリ不足で落ちた – 1000件で1~2時間 N <- 1000 vlg <- village[sample(nrow(village), N),] # 1000 件サンプル library(rstan) data <- list(N=N, M=5, jtime=vlg$jtime, z=vlg[6:10]) fit <- stan(file=stan_file, data=data)
39.
サイコロ振りの様子(traceplot) • モデルに大きな問題がないか、ざっくり確認 – 4系列がオーバーラップしてれば大丈夫(っぽいと考える) traceplot(fit,
pars=c("mu","c")) 4人で並んで サイコロを振ってる イメージ
40.
製品別セットアップ時間 𝑦 の分布 y
<- melt(extract(fit, "y")$y, value.name="jtime") y$lbl <- lbl[y$Var3] ggplot(y, aes(jtime, ..density..)) + geom_histogram(alpha=0.5, binwidth=1) + geom_line(data=d,aes(x, y)) + facet_wrap(~lbl) + xlim(0, 50)
41.
office と skylab
の 𝑦 の分布 平均 9.2秒 平均 4.8秒 • skylab のセットアップ時間はちゃんと短かった!
42.
(参考)他のパラメータの推定値 > print(fit, pars=c("mu","sig","c","s")) mean
se_mean sd 2.5% 25% 50% 75% 97.5% n_eff Rhat mu[1] 0.91 0.01 0.07 0.74 0.86 0.91 0.96 1.04 50 1.07 mu[2] 3.43 0.00 0.03 3.37 3.41 3.42 3.45 3.49 128 1.02 mu[3] 2.15 0.00 0.03 2.10 2.13 2.15 2.16 2.20 146 1.02 mu[4] 2.29 0.00 0.04 2.21 2.26 2.29 2.31 2.36 76 1.07 mu[5] 1.04 0.03 0.20 0.64 0.92 1.04 1.18 1.42 41 1.07 sig[1] 0.99 0.01 0.06 0.88 0.95 0.98 1.03 1.10 55 1.04 sig[2] 0.27 0.00 0.02 0.24 0.26 0.27 0.29 0.32 78 1.04 sig[3] 0.39 0.00 0.02 0.36 0.38 0.39 0.40 0.43 191 1.01 sig[4] 0.38 0.01 0.03 0.32 0.35 0.37 0.39 0.45 27 1.17 sig[5] 1.00 0.04 0.16 0.77 0.89 0.98 1.07 1.40 14 1.34 c 1.65 0.02 0.10 1.46 1.59 1.64 1.71 1.92 33 1.12 s 0.19 0.04 0.10 0.06 0.11 0.16 0.28 0.40 6 2.39 > y %>% group_by(lbl) %>% summarise(mean(jtime)) lbl mean(jtime) (chr) (dbl) 1 garoon 31.940648 2 kintone 3.978208 3 mailwise 10.573244 4 office 9.246358 5 skylab 4.803925 ★重回帰の結果 Estimate Std. Error t value Pr(>|t (Intercept) 4.2244 0.1172 36.04 <2e- kintone 1.5214 0.1245 12.22 <2e- garoon 31.1726 0.1518 205.32 <2e- office 6.7723 0.1223 55.37 <2e- mailwise 8.4679 0.1480 57.20 <2e- skylab 5.3662 0.1781 30.13 <2e-
43.
まとめ • 真の正解は「サービスごとのセットアップ時間をログ に吐く」 – でもデータを取るのが高コスト
or 不可能だったり – 十分なデータを集め直すのに時間がかかったり – という場合に、未観測変数をモデルに入れて解く方法があ る、と知っておくと嬉しいかも • モデルはできるだけ単純な方がいい – でも「単純=強い仮定」 – 仮定があわないなら、モデルを見直そう • 本内容はブログ記事版もあります – http://blog.cybozu.io/entry/2015/10/21/110218
Download now