SlideShare a Scribd company logo
1 of 50
2014/8/30 
第42回R勉強会@東京(#TokyoR)
出場者のご紹介
出場者1: R (R_baseと表記) 
パッケージを使わずに 
勝負してやるぜ! 
人からはピュアだね 
って言われます。
出場者2: R (R_pkgと表記) 
最強パッケージと名高い 
“dplyr”と”data.table” 
を使って勝負だ! 
連続の必殺技! %>% 
高速! fread()
出場者3: PostgreSQL 
データベースの力を 
見せつけてやる! 
伝統のSQL文!
出場者4: NYSOL(「にそる」と読みます) 
日本で誕生した 
オープンソースです。 
Mコマンドは、%>%ではなく 
UNIXのpipeを使います
出演料と時間の都合により 
以上の4出場者が参加します
ルール説明
ルールはシンプル! 
CSVデータ 
前処理処理後の 
CSVデータ 
所要時間が最も短い出場者が勝者! 
所要時間: 
各CSVデータにいくつかの前処理 
を行い、処理後 
のCSVデータを保存するまでにかかる時間の合計
前処理のご紹介
前処理1: 列選択(selColと表記) 
A B C D 
列選択 
(B,C) 
B C
前処理2: 行選択(selRowと表記) 
A B C D 
あ 
い 
う 
あ 
A B C D 
あ 
あ 
行選択 
(B=あ)
前処理3: 列計算(aggregatingと表記) 
A B C D 
8 2 
5 1 
3 1 
列計算 
(E=B-C) 
A B C D E 
8 2 6 
5 1 4 
3 1 2
前処理4: 並び替え(sortingと表記) 
A B C D 
あ2 
い1 
う1 
あ1 
並び替え 
(B,C) 
A B C D 
あ1 
あ2 
い1 
う1
前処理5: 複合(mixと表記) 
A B C D 
あ2 
い1 
う1 
あ1 
複合 
(前処理1〜4) 
B C E 
あ1 2 
あ2 6
CSVデータの詳細
オープン& 生データ 
まず、同じ形式の複数 
データを一つに結合。 
(データ件数は1億以上) 
http://stat-computing.org/dataexpo/2009/
結合先からランダム抽出(CSVデータは6つ) 
データ件数容量 
1 千件約100 KB 
2 一万件約1 MB 
3 十万件約10 MB 
4 百万件約100 MB 
5 一千万件約1GB 
6 一億件約10GB 
列数(カラム)はすべて29個(違いはデータ件数)
テスト環境 
OS: OSX Version 10.9.4 (MacBook Pro) 
CPU: 2.4 GHz Intel Core i7 (4 Cores) 
Memory: 16GB (1600MHz DDR3) 
Storage: SSD 
Software: 
R version 3.0.3 
PostgreSQL version 9.3.4 
NYSOL version 1.1
会場の皆さんに 
お聞きします
勝者と予想される番号の 
お手もとのスイッチオン! 
1:R (パッケージなし) 
2:R (パッケージあり) 
3:PostgreSQL 
4:NYSOL
勝者と予想される番号の 
お手もとのスイッチオン! 
1:R (パッケージなし) 
2:R (パッケージあり) 
3:PostgreSQL 
4:NYSOL 
結果 
・・・0% 
・・・45% 
・・・5% 
・・・50%
データ件数容量 
1 千件約100 KB 
2 一万件約1 MB 
3 十万件約10 MB 
4 百万件約100 MB 
5 一千万件約1GB 
6 一億件約10GB
0.5秒 
R_base R_pkg PostgreSQL NYSOL
列選択行選択列計算並び替え複合 
0.5秒 
R_base R_pkg PostgreSQL NYSOL
0.5秒 
R_base R_pkg PostgreSQL NYSOL
データ件数容量 
1 千件約100 KB 
2 一万件約1 MB 
3 十万件約10 MB 
4 百万件約100 MB 
5 一千万件約1GB 
6 一億件約10GB
1秒 
R_base R_pkg PostgreSQL NYSOL
データ件数容量 
1 千件約100 KB 
2 一万件約1 MB 
3 十万件約10 MB 
4 百万件約100 MB 
5 一千万件約1GB 
6 一億件約10GB
5秒 
1秒 
R_base R_pkg PostgreSQL NYSOL
データ件数容量 
1 千件約100 KB 
2 一万件約1 MB 
3 十万件約10 MB 
4 百万件約100 MB 
5 一千万件約1GB 
6 一億件約10GB
45秒 
5秒 
R_base R_pkg PostgreSQL NYSOL
データ件数容量 
1 千件約100 KB 
2 一万件約1 MB 
3 十万件約10 MB 
4 百万件約100 MB 
5 一千万件約1GB 
6 一億件約10GB
5分 
1分 
R_base R_pkg PostgreSQL NYSOL
データ件数容量 
1 千件約100 KB 
2 一万件約1 MB 
3 十万件約10 MB 
4 百万件約100 MB 
5 一千万件約1GB 
6 一億件約10GB
R_base R_pkg PostgreSQL NYSOL 
1時間 
30分 
10分 
Rは一部の前処理が 
メモリエラーで計測不可
結果発表!
(R_pkg)
まとめと考察 
NYSOLは合計30個(6データ、5前処理)のテストにおいてす 
べて最速であった。 
PostgreSQLはNYSOLに次いで高速であったものの、今回は 
インデックス機能を使用していないため、さらなるパフォーマン 
スの改善余地が残っている。 
R_baseとR_pkgを比較すると、データが10MB以上になれば 
R_pkgの所要時間が改善され、特に1GBでの複合(Mix)は早 
い。データが10MBより小さければR_baseの方が早くなる傾 
向が見られた。 
Rにもスクリプトの記載方法、パッケージ選択などによるパ 
フォーマンス改善余地が残っている。(magrittr?pipeR?)
次回のM-1グランプリ 
本家のM-1(漫才)は復活が決定しました 
(2015年夏) 
M-1(前処理)はどなたか次回開催をご検 
討ください(今回のプログラムは公開します) 
どちらの開催もお楽しみに♪
補足資料
列選択 
(B,C) 
R_base 
data <- read.csv("input.csv", header = TRUE, stringsAsFactors = FALSE ) 
write.csv(data[ , c("B","C")], ”output.csv", row.names = FALSE ) 
R_pkg 
library(data.table) 
library(dplyr) 
data <- fread("input.csv", header = TRUE, stringsAsFactors = FALSE, showProgress = FALSE ) 
write.table(select(data, B,C), "output.csv", sep=",", row.names = FALSE ) 
PostgreSQL 
set search_path=schema_name; 
COPY table_name FROM 'input.csv' WITH CSV HEADER NULL AS 'NA'; 
COPY (select B,C from table_name) TO 'output.csv' WITH CSV HEADER NULL AS 'NA'; 
truncate table table_name; 
NYSOL 
mcut f=B,C i=input.csv o=output.csv 
※入力ファイルのパスなど一部を省略して記載しています。
行選択 
(B=あ) 
R_base 
data <- read.csv("input.csv", header = TRUE, stringsAsFactors = FALSE ) 
write.csv(data[ data$B == 'あ' , ], "output.csv", row.names = FALSE ) 
R_pkg 
library(data.table) 
library(dplyr) 
data <- fread("input.csv", header = TRUE, stringsAsFactors = FALSE, showProgress = FALSE ) 
setkey(data, B) 
write.table(filter(data, B == " あ" ), "output.csv", sep=",", row.names = FALSE ) 
PostgreSQL 
set search_path=schema_name; 
COPY table_name FROM 'input.csv' WITH CSV HEADER NULL AS 'NA'; 
COPY (select * from table_name where B=‘あ’) TO 'output.csv' WITH CSV HEADER NULL AS 'NA'; 
truncate table table_name; 
NYSOL 
mselstr f=B v=あi=input.csv o=output.csv 
※入力ファイルのパスなど一部を省略して記載しています。
列計算 
(E=B-C) 
R_base 
data <- read.csv("input.csv", header = TRUE, stringsAsFactors = FALSE ) 
write.csv(transform(data, E = B - C), "output.csv", row.names = FALSE ) 
R_pkg 
library(data.table) 
library(dplyr) 
data <- fread("input.csv", header = TRUE, stringsAsFactors = FALSE, showProgress = FALSE ) 
write.table(mutate(data, E = B- C) , "output.csv", sep=",", row.names = FALSE ) 
PostgreSQL 
set search_path=schema_name; 
COPY table_name FROM 'input.csv' WITH CSV HEADER NULL AS 'NA'; 
COPY (select *,B-C as E from table_name) TO 'output.csv' WITH CSV HEADER NULL AS 'NA'; 
truncate table table_name; 
NYSOL 
mcal c=‘${B}-${C}' a=E i=input.csv o=output.csv 
※入力ファイルのパスなど一部を省略して記載しています。
並び替え 
(B,C) 
R_base 
data <- read.csv("input.csv", header = TRUE, stringsAsFactors = FALSE ) 
write.csv( data[order(data$B,data$C), ], "output.csv", row.names = FALSE ) 
R_pkg 
library(data.table) 
library(dplyr) 
data <- fread("input.csv", header = TRUE, stringsAsFactors = FALSE, showProgress = FALSE ) 
write.table(arrange(data,B,C), "output.csv", sep=",", row.names = FALSE ) 
PostgreSQL 
set search_path=schema_name; 
COPY table_name FROM 'input.csv' WITH CSV HEADER NULL AS 'NA'; 
COPY (select * from table_name order by B,C) TO 'output.csv' WITH CSV HEADER NULL AS 'NA'; 
truncate table table_name; 
NYSOL 
msortf f=B,C i=input.csv o=output.csv 
※入力ファイルのパスなど一部を省略して記載しています。
複合 
(1〜4) 
R_base 
data <- read.csv("input.csv, header = TRUE, stringsAsFactors = FALSE ) 
data.trn <- transform(data[data$B == 'あ'' , c("B","C")], E = B - C) 
write.csv(data.trn[order(data.trn$B,data.trn$C),], "output.csv", row.names = FALSE ) 
R_pkg 
library(data.table) 
library(dplyr) 
data <- fread("input.csv", header = TRUE, stringsAsFactors = FALSE, showProgress = FALSE ) 
data.mixed = 
data %>% 
select(B,C) %>% 
filter(B == "あ" ) %>% 
mutate(E = B - C) %>% 
arrange(B,C) 
write.table(data.mixed, "output.csv", sep=",", row.names = FALSE ) 
※入力ファイルのパスなど一部を省略して記載しています。
複合 
(1〜4) 
PostgreSQL 
set search_path=schema_name; 
COPY table_name FROM 'input.csv' WITH CSV HEADER NULL AS 'NA'; 
COPY (select B,C , B-C as E from table_name where B="あ" order by B,C) TO 'output.csv' WITH CSV 
HEADER NULL AS 'NA'; 
truncate table table_name; 
NYSOL 
mcut f=B,C i=input.csv | 
mselstr f=B v=あ| 
mcal c=‘${B}-${C}' a=E | 
msortf f=B,C o=output.csv 
※入力ファイルのパスなど一部を省略して記載しています。
千件(約100KB) 
一万件(約1MB) 
十万件(約10MB) 
所要時間:単位(秒)
百万件(約100MB) 
一千万件(約1GB) 
一億件(約10GB) 
所要時間:単位(秒)

More Related Content

What's hot

さくっとはじめるテキストマイニング(R言語)  スタートアップ編
さくっとはじめるテキストマイニング(R言語)  スタートアップ編さくっとはじめるテキストマイニング(R言語)  スタートアップ編
さくっとはじめるテキストマイニング(R言語)  スタートアップ編Yutaka Shimada
 
今さら聞けないHadoop セントラルソフト株式会社(20120119)
今さら聞けないHadoop セントラルソフト株式会社(20120119)今さら聞けないHadoop セントラルソフト株式会社(20120119)
今さら聞けないHadoop セントラルソフト株式会社(20120119)Toru Takizawa
 
[db tech showcase Tokyo 2014] B22: Hadoop Rush!! HDFSからデータを自在に取得、加工するにはどうする? ...
[db tech showcase Tokyo 2014] B22: Hadoop Rush!! HDFSからデータを自在に取得、加工するにはどうする? ...[db tech showcase Tokyo 2014] B22: Hadoop Rush!! HDFSからデータを自在に取得、加工するにはどうする? ...
[db tech showcase Tokyo 2014] B22: Hadoop Rush!! HDFSからデータを自在に取得、加工するにはどうする? ...Insight Technology, Inc.
 
Oracle Cloud Developers Meetup@東京
Oracle Cloud Developers Meetup@東京Oracle Cloud Developers Meetup@東京
Oracle Cloud Developers Meetup@東京tuchimur
 
Python for Data Analysis: Chapter 2
Python for Data Analysis: Chapter 2Python for Data Analysis: Chapter 2
Python for Data Analysis: Chapter 2智哉 今西
 
Hadoop for programmer
Hadoop for programmerHadoop for programmer
Hadoop for programmerSho Shimauchi
 
クラウド時代の並列分散処理技術
クラウド時代の並列分散処理技術クラウド時代の並列分散処理技術
クラウド時代の並列分散処理技術Koichi Fujikawa
 
20191211_Apache_Arrow_Meetup_Tokyo
20191211_Apache_Arrow_Meetup_Tokyo20191211_Apache_Arrow_Meetup_Tokyo
20191211_Apache_Arrow_Meetup_TokyoKohei KaiGai
 
GMO プライベート DMP で ビッグデータ解析をするために アプリクラウドで Apache Spark の検証をしてみた
GMO プライベート DMP で ビッグデータ解析をするために アプリクラウドで Apache Spark の検証をしてみたGMO プライベート DMP で ビッグデータ解析をするために アプリクラウドで Apache Spark の検証をしてみた
GMO プライベート DMP で ビッグデータ解析をするために アプリクラウドで Apache Spark の検証をしてみたTetsuo Yamabe
 
ただいまHadoop勉強中
ただいまHadoop勉強中ただいまHadoop勉強中
ただいまHadoop勉強中Satoshi Noto
 
オライリーセミナー Hive入門 #oreilly0724
オライリーセミナー Hive入門  #oreilly0724オライリーセミナー Hive入門  #oreilly0724
オライリーセミナー Hive入門 #oreilly0724Cloudera Japan
 
Apache Spark チュートリアル
Apache Spark チュートリアルApache Spark チュートリアル
Apache Spark チュートリアルK Yamaguchi
 
20200424_Writable_Arrow_Fdw
20200424_Writable_Arrow_Fdw20200424_Writable_Arrow_Fdw
20200424_Writable_Arrow_FdwKohei KaiGai
 
20190516_DLC10_PGStrom
20190516_DLC10_PGStrom20190516_DLC10_PGStrom
20190516_DLC10_PGStromKohei KaiGai
 
chapter6
chapter6chapter6
chapter6ymk0424
 
データベースシステム論12 - 問い合わせ処理と最適化
データベースシステム論12 - 問い合わせ処理と最適化データベースシステム論12 - 問い合わせ処理と最適化
データベースシステム論12 - 問い合わせ処理と最適化Shohei Yokoyama
 
Apache Drill: Rethinking SQL for Big data – Don’t Compromise on Flexibility o...
Apache Drill: Rethinking SQL for Big data – Don’t Compromise on Flexibility o...Apache Drill: Rethinking SQL for Big data – Don’t Compromise on Flexibility o...
Apache Drill: Rethinking SQL for Big data – Don’t Compromise on Flexibility o...MapR Technologies Japan
 

What's hot (20)

さくっとはじめるテキストマイニング(R言語)  スタートアップ編
さくっとはじめるテキストマイニング(R言語)  スタートアップ編さくっとはじめるテキストマイニング(R言語)  スタートアップ編
さくっとはじめるテキストマイニング(R言語)  スタートアップ編
 
今さら聞けないHadoop セントラルソフト株式会社(20120119)
今さら聞けないHadoop セントラルソフト株式会社(20120119)今さら聞けないHadoop セントラルソフト株式会社(20120119)
今さら聞けないHadoop セントラルソフト株式会社(20120119)
 
[db tech showcase Tokyo 2014] B22: Hadoop Rush!! HDFSからデータを自在に取得、加工するにはどうする? ...
[db tech showcase Tokyo 2014] B22: Hadoop Rush!! HDFSからデータを自在に取得、加工するにはどうする? ...[db tech showcase Tokyo 2014] B22: Hadoop Rush!! HDFSからデータを自在に取得、加工するにはどうする? ...
[db tech showcase Tokyo 2014] B22: Hadoop Rush!! HDFSからデータを自在に取得、加工するにはどうする? ...
 
MapReduce解説
MapReduce解説MapReduce解説
MapReduce解説
 
Oracle Cloud Developers Meetup@東京
Oracle Cloud Developers Meetup@東京Oracle Cloud Developers Meetup@東京
Oracle Cloud Developers Meetup@東京
 
Python for Data Analysis: Chapter 2
Python for Data Analysis: Chapter 2Python for Data Analysis: Chapter 2
Python for Data Analysis: Chapter 2
 
Hadoop for programmer
Hadoop for programmerHadoop for programmer
Hadoop for programmer
 
クラウド時代の並列分散処理技術
クラウド時代の並列分散処理技術クラウド時代の並列分散処理技術
クラウド時代の並列分散処理技術
 
20191211_Apache_Arrow_Meetup_Tokyo
20191211_Apache_Arrow_Meetup_Tokyo20191211_Apache_Arrow_Meetup_Tokyo
20191211_Apache_Arrow_Meetup_Tokyo
 
GMO プライベート DMP で ビッグデータ解析をするために アプリクラウドで Apache Spark の検証をしてみた
GMO プライベート DMP で ビッグデータ解析をするために アプリクラウドで Apache Spark の検証をしてみたGMO プライベート DMP で ビッグデータ解析をするために アプリクラウドで Apache Spark の検証をしてみた
GMO プライベート DMP で ビッグデータ解析をするために アプリクラウドで Apache Spark の検証をしてみた
 
ただいまHadoop勉強中
ただいまHadoop勉強中ただいまHadoop勉強中
ただいまHadoop勉強中
 
オライリーセミナー Hive入門 #oreilly0724
オライリーセミナー Hive入門  #oreilly0724オライリーセミナー Hive入門  #oreilly0724
オライリーセミナー Hive入門 #oreilly0724
 
Azure Search 大全
Azure Search 大全Azure Search 大全
Azure Search 大全
 
Apache Spark チュートリアル
Apache Spark チュートリアルApache Spark チュートリアル
Apache Spark チュートリアル
 
20200424_Writable_Arrow_Fdw
20200424_Writable_Arrow_Fdw20200424_Writable_Arrow_Fdw
20200424_Writable_Arrow_Fdw
 
20190516_DLC10_PGStrom
20190516_DLC10_PGStrom20190516_DLC10_PGStrom
20190516_DLC10_PGStrom
 
chapter6
chapter6chapter6
chapter6
 
Drill超簡単チューニング
Drill超簡単チューニングDrill超簡単チューニング
Drill超簡単チューニング
 
データベースシステム論12 - 問い合わせ処理と最適化
データベースシステム論12 - 問い合わせ処理と最適化データベースシステム論12 - 問い合わせ処理と最適化
データベースシステム論12 - 問い合わせ処理と最適化
 
Apache Drill: Rethinking SQL for Big data – Don’t Compromise on Flexibility o...
Apache Drill: Rethinking SQL for Big data – Don’t Compromise on Flexibility o...Apache Drill: Rethinking SQL for Big data – Don’t Compromise on Flexibility o...
Apache Drill: Rethinking SQL for Big data – Don’t Compromise on Flexibility o...
 

Viewers also liked

#TokyoR 39 高速に前処理するNYSOL
#TokyoR 39 高速に前処理するNYSOL#TokyoR 39 高速に前処理するNYSOL
#TokyoR 39 高速に前処理するNYSOLSatoshi Kitajima
 
20170923 excelユーザーのためのr入門
20170923 excelユーザーのためのr入門20170923 excelユーザーのためのr入門
20170923 excelユーザーのためのr入門Takashi Kitano
 
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoRRとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoRShuyo Nakatani
 
20150303ぞくパタLT-ゆるふわ構造学習
20150303ぞくパタLT-ゆるふわ構造学習20150303ぞくパタLT-ゆるふわ構造学習
20150303ぞくパタLT-ゆるふわ構造学習Toru Imai
 
Dummiesパッケージ
DummiesパッケージDummiesパッケージ
Dummiesパッケージweda654
 
R入門(dplyrでデータ加工)-TokyoR42
R入門(dplyrでデータ加工)-TokyoR42R入門(dplyrでデータ加工)-TokyoR42
R入門(dplyrでデータ加工)-TokyoR42Atsushi Hayakawa
 
20140625 rでのデータ分析(仮) for_tokyor
20140625 rでのデータ分析(仮) for_tokyor20140625 rでのデータ分析(仮) for_tokyor
20140625 rでのデータ分析(仮) for_tokyorTakashi Kitano
 
Mxnetで回帰 #TokyoR 53th
Mxnetで回帰 #TokyoR 53thMxnetで回帰 #TokyoR 53th
Mxnetで回帰 #TokyoR 53thAkifumi Eguchi
 
Rで潜在ランク分析
Rで潜在ランク分析Rで潜在ランク分析
Rで潜在ランク分析Hiroshi Shimizu
 
R を起動するその前に
R を起動するその前にR を起動するその前に
R を起動するその前にKosei ABE
 
Rで代数統計 TokyoR #42 LT
Rで代数統計 TokyoR #42 LTRで代数統計 TokyoR #42 LT
Rで代数統計 TokyoR #42 LTToru Imai
 
マルコフ連鎖モンテカルロ法入門-1
マルコフ連鎖モンテカルロ法入門-1マルコフ連鎖モンテカルロ法入門-1
マルコフ連鎖モンテカルロ法入門-1Nagi Teramo
 
最強のハードディスクはどれだ?
最強のハードディスクはどれだ?最強のハードディスクはどれだ?
最強のハードディスクはどれだ?Atsushi Hayakawa
 
ggplot2再入門(2015年バージョン)
ggplot2再入門(2015年バージョン)ggplot2再入門(2015年バージョン)
ggplot2再入門(2015年バージョン)yutannihilation
 
Tokyor42 ggplot2
Tokyor42 ggplot2Tokyor42 ggplot2
Tokyor42 ggplot2Yohei Sato
 
Tokyor42_r_datamining_18
Tokyor42_r_datamining_18Tokyor42_r_datamining_18
Tokyor42_r_datamining_18Yohei Sato
 

Viewers also liked (20)

#TokyoR 39 高速に前処理するNYSOL
#TokyoR 39 高速に前処理するNYSOL#TokyoR 39 高速に前処理するNYSOL
#TokyoR 39 高速に前処理するNYSOL
 
20170923 excelユーザーのためのr入門
20170923 excelユーザーのためのr入門20170923 excelユーザーのためのr入門
20170923 excelユーザーのためのr入門
 
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoRRとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
 
Rcppのすすめ
RcppのすすめRcppのすすめ
Rcppのすすめ
 
20150303ぞくパタLT-ゆるふわ構造学習
20150303ぞくパタLT-ゆるふわ構造学習20150303ぞくパタLT-ゆるふわ構造学習
20150303ぞくパタLT-ゆるふわ構造学習
 
Dummiesパッケージ
DummiesパッケージDummiesパッケージ
Dummiesパッケージ
 
R入門(dplyrでデータ加工)-TokyoR42
R入門(dplyrでデータ加工)-TokyoR42R入門(dplyrでデータ加工)-TokyoR42
R入門(dplyrでデータ加工)-TokyoR42
 
20140625 rでのデータ分析(仮) for_tokyor
20140625 rでのデータ分析(仮) for_tokyor20140625 rでのデータ分析(仮) for_tokyor
20140625 rでのデータ分析(仮) for_tokyor
 
Mxnetで回帰 #TokyoR 53th
Mxnetで回帰 #TokyoR 53thMxnetで回帰 #TokyoR 53th
Mxnetで回帰 #TokyoR 53th
 
Rで潜在ランク分析
Rで潜在ランク分析Rで潜在ランク分析
Rで潜在ランク分析
 
R を起動するその前に
R を起動するその前にR を起動するその前に
R を起動するその前に
 
TokyoR42_around_chaining
TokyoR42_around_chainingTokyoR42_around_chaining
TokyoR42_around_chaining
 
Rで代数統計 TokyoR #42 LT
Rで代数統計 TokyoR #42 LTRで代数統計 TokyoR #42 LT
Rで代数統計 TokyoR #42 LT
 
マルコフ連鎖モンテカルロ法入門-1
マルコフ連鎖モンテカルロ法入門-1マルコフ連鎖モンテカルロ法入門-1
マルコフ連鎖モンテカルロ法入門-1
 
最強のハードディスクはどれだ?
最強のハードディスクはどれだ?最強のハードディスクはどれだ?
最強のハードディスクはどれだ?
 
ggplot2再入門(2015年バージョン)
ggplot2再入門(2015年バージョン)ggplot2再入門(2015年バージョン)
ggplot2再入門(2015年バージョン)
 
Tokyor42 ggplot2
Tokyor42 ggplot2Tokyor42 ggplot2
Tokyor42 ggplot2
 
Tokyor42_r_datamining_18
Tokyor42_r_datamining_18Tokyor42_r_datamining_18
Tokyor42_r_datamining_18
 
Tokyo r33 beginner
Tokyo r33 beginnerTokyo r33 beginner
Tokyo r33 beginner
 
Tokyo r30 anova
Tokyo r30 anovaTokyo r30 anova
Tokyo r30 anova
 

Similar to データサイエンティスト必見!M-1グランプリ

入門機械学習1,2章
入門機械学習1,2章入門機械学習1,2章
入門機械学習1,2章Kazufumi Ohkawa
 
Write good parser in perl
Write good parser in perlWrite good parser in perl
Write good parser in perlJiro Nishiguchi
 
Chugokudb study-20150131
Chugokudb study-20150131Chugokudb study-20150131
Chugokudb study-20150131Toshi Harada
 
20211112_jpugcon_gpu_and_arrow
20211112_jpugcon_gpu_and_arrow20211112_jpugcon_gpu_and_arrow
20211112_jpugcon_gpu_and_arrowKohei KaiGai
 
データサイエンスワールドからC++を眺めてみる
データサイエンスワールドからC++を眺めてみるデータサイエンスワールドからC++を眺めてみる
データサイエンスワールドからC++を眺めてみるShintaro Fukushima
 
⑲jQueryをおぼえよう!その5
⑲jQueryをおぼえよう!その5⑲jQueryをおぼえよう!その5
⑲jQueryをおぼえよう!その5Nishida Kansuke
 
Pgunconf14 pg13-psql
Pgunconf14 pg13-psqlPgunconf14 pg13-psql
Pgunconf14 pg13-psqlToshi Harada
 
RとSQLiteで気軽にデータベース作成
RとSQLiteで気軽にデータベース作成RとSQLiteで気軽にデータベース作成
RとSQLiteで気軽にデータベース作成弘毅 露崎
 
20150530 pgunconf-pgbench-semi-structured-benchmark
20150530 pgunconf-pgbench-semi-structured-benchmark20150530 pgunconf-pgbench-semi-structured-benchmark
20150530 pgunconf-pgbench-semi-structured-benchmarkToshi Harada
 
PGCon.jp 2014 jsonb-datatype-20141205
PGCon.jp 2014 jsonb-datatype-20141205PGCon.jp 2014 jsonb-datatype-20141205
PGCon.jp 2014 jsonb-datatype-20141205Toshi Harada
 
統計環境R_データ入出力編2016
統計環境R_データ入出力編2016統計環境R_データ入出力編2016
統計環境R_データ入出力編2016wada, kazumi
 
2017年3月版データマエショリスト入門
2017年3月版データマエショリスト入門2017年3月版データマエショリスト入門
2017年3月版データマエショリスト入門Yuya Matsumura
 
Haskellday rf
Haskellday rfHaskellday rf
Haskellday rfrf0444
 
PostgreSQL のイケてるテクニック7選
PostgreSQL のイケてるテクニック7選PostgreSQL のイケてるテクニック7選
PostgreSQL のイケてるテクニック7選Tomoya Kawanishi
 
PostgreSQL10徹底解説
PostgreSQL10徹底解説PostgreSQL10徹底解説
PostgreSQL10徹底解説Masahiko Sawada
 
2017年3月版データマエショリスト入門(誤植修正版)
2017年3月版データマエショリスト入門(誤植修正版)2017年3月版データマエショリスト入門(誤植修正版)
2017年3月版データマエショリスト入門(誤植修正版)Yuya Matsumura
 

Similar to データサイエンティスト必見!M-1グランプリ (20)

入門機械学習1,2章
入門機械学習1,2章入門機械学習1,2章
入門機械学習1,2章
 
Write good parser in perl
Write good parser in perlWrite good parser in perl
Write good parser in perl
 
Chugokudb study-20150131
Chugokudb study-20150131Chugokudb study-20150131
Chugokudb study-20150131
 
20211112_jpugcon_gpu_and_arrow
20211112_jpugcon_gpu_and_arrow20211112_jpugcon_gpu_and_arrow
20211112_jpugcon_gpu_and_arrow
 
データサイエンスワールドからC++を眺めてみる
データサイエンスワールドからC++を眺めてみるデータサイエンスワールドからC++を眺めてみる
データサイエンスワールドからC++を眺めてみる
 
Scala on Hadoop
Scala on HadoopScala on Hadoop
Scala on Hadoop
 
⑲jQueryをおぼえよう!その5
⑲jQueryをおぼえよう!その5⑲jQueryをおぼえよう!その5
⑲jQueryをおぼえよう!その5
 
Pgunconf14 pg13-psql
Pgunconf14 pg13-psqlPgunconf14 pg13-psql
Pgunconf14 pg13-psql
 
RとSQLiteで気軽にデータベース作成
RとSQLiteで気軽にデータベース作成RとSQLiteで気軽にデータベース作成
RとSQLiteで気軽にデータベース作成
 
20150530 pgunconf-pgbench-semi-structured-benchmark
20150530 pgunconf-pgbench-semi-structured-benchmark20150530 pgunconf-pgbench-semi-structured-benchmark
20150530 pgunconf-pgbench-semi-structured-benchmark
 
PGCon.jp 2014 jsonb-datatype-20141205
PGCon.jp 2014 jsonb-datatype-20141205PGCon.jp 2014 jsonb-datatype-20141205
PGCon.jp 2014 jsonb-datatype-20141205
 
統計環境R_データ入出力編2016
統計環境R_データ入出力編2016統計環境R_データ入出力編2016
統計環境R_データ入出力編2016
 
2017年3月版データマエショリスト入門
2017年3月版データマエショリスト入門2017年3月版データマエショリスト入門
2017年3月版データマエショリスト入門
 
HiRoshimaR3_IntroR
HiRoshimaR3_IntroRHiRoshimaR3_IntroR
HiRoshimaR3_IntroR
 
Haskellday rf
Haskellday rfHaskellday rf
Haskellday rf
 
PostgreSQL のイケてるテクニック7選
PostgreSQL のイケてるテクニック7選PostgreSQL のイケてるテクニック7選
PostgreSQL のイケてるテクニック7選
 
PostgreSQL10徹底解説
PostgreSQL10徹底解説PostgreSQL10徹底解説
PostgreSQL10徹底解説
 
Silkについて
SilkについてSilkについて
Silkについて
 
PandasとSQLとの比較
PandasとSQLとの比較PandasとSQLとの比較
PandasとSQLとの比較
 
2017年3月版データマエショリスト入門(誤植修正版)
2017年3月版データマエショリスト入門(誤植修正版)2017年3月版データマエショリスト入門(誤植修正版)
2017年3月版データマエショリスト入門(誤植修正版)
 

More from Satoshi Kitajima

分析革命がもたらすビッグデータの世界@Cloudera World Tokyo 2014
分析革命がもたらすビッグデータの世界@Cloudera World Tokyo 2014分析革命がもたらすビッグデータの世界@Cloudera World Tokyo 2014
分析革命がもたらすビッグデータの世界@Cloudera World Tokyo 2014Satoshi Kitajima
 
オープンソースのデータ分析ソフト3製品「RapidMiner」「NYSOL」「Revolution R Enterprise (RRE) ※Rの商用版」のご紹介
オープンソースのデータ分析ソフト3製品「RapidMiner」「NYSOL」「Revolution R Enterprise (RRE) ※Rの商用版」のご紹介オープンソースのデータ分析ソフト3製品「RapidMiner」「NYSOL」「Revolution R Enterprise (RRE) ※Rの商用版」のご紹介
オープンソースのデータ分析ソフト3製品「RapidMiner」「NYSOL」「Revolution R Enterprise (RRE) ※Rの商用版」のご紹介Satoshi Kitajima
 
SASより高速なRevolution R Enterprise
SASより高速なRevolution R EnterpriseSASより高速なRevolution R Enterprise
SASより高速なRevolution R EnterpriseSatoshi Kitajima
 
レボリューションR(RRE)のご紹介
レボリューションR(RRE)のご紹介レボリューションR(RRE)のご紹介
レボリューションR(RRE)のご紹介Satoshi Kitajima
 
RapidMinerのインストール【Windows 7】
RapidMinerのインストール【Windows 7】RapidMinerのインストール【Windows 7】
RapidMinerのインストール【Windows 7】Satoshi Kitajima
 
RapidMinerのインストール【Ubuntu 14.04 LTS】
RapidMinerのインストール【Ubuntu 14.04 LTS】RapidMinerのインストール【Ubuntu 14.04 LTS】
RapidMinerのインストール【Ubuntu 14.04 LTS】Satoshi Kitajima
 
RapidMinerのインストール【CentOS 6.5】
RapidMinerのインストール【CentOS 6.5】RapidMinerのインストール【CentOS 6.5】
RapidMinerのインストール【CentOS 6.5】Satoshi Kitajima
 
RapidMinerのインストール【Mac OSX Mavericks】
RapidMinerのインストール【Mac OSX Mavericks】RapidMinerのインストール【Mac OSX Mavericks】
RapidMinerのインストール【Mac OSX Mavericks】Satoshi Kitajima
 

More from Satoshi Kitajima (8)

分析革命がもたらすビッグデータの世界@Cloudera World Tokyo 2014
分析革命がもたらすビッグデータの世界@Cloudera World Tokyo 2014分析革命がもたらすビッグデータの世界@Cloudera World Tokyo 2014
分析革命がもたらすビッグデータの世界@Cloudera World Tokyo 2014
 
オープンソースのデータ分析ソフト3製品「RapidMiner」「NYSOL」「Revolution R Enterprise (RRE) ※Rの商用版」のご紹介
オープンソースのデータ分析ソフト3製品「RapidMiner」「NYSOL」「Revolution R Enterprise (RRE) ※Rの商用版」のご紹介オープンソースのデータ分析ソフト3製品「RapidMiner」「NYSOL」「Revolution R Enterprise (RRE) ※Rの商用版」のご紹介
オープンソースのデータ分析ソフト3製品「RapidMiner」「NYSOL」「Revolution R Enterprise (RRE) ※Rの商用版」のご紹介
 
SASより高速なRevolution R Enterprise
SASより高速なRevolution R EnterpriseSASより高速なRevolution R Enterprise
SASより高速なRevolution R Enterprise
 
レボリューションR(RRE)のご紹介
レボリューションR(RRE)のご紹介レボリューションR(RRE)のご紹介
レボリューションR(RRE)のご紹介
 
RapidMinerのインストール【Windows 7】
RapidMinerのインストール【Windows 7】RapidMinerのインストール【Windows 7】
RapidMinerのインストール【Windows 7】
 
RapidMinerのインストール【Ubuntu 14.04 LTS】
RapidMinerのインストール【Ubuntu 14.04 LTS】RapidMinerのインストール【Ubuntu 14.04 LTS】
RapidMinerのインストール【Ubuntu 14.04 LTS】
 
RapidMinerのインストール【CentOS 6.5】
RapidMinerのインストール【CentOS 6.5】RapidMinerのインストール【CentOS 6.5】
RapidMinerのインストール【CentOS 6.5】
 
RapidMinerのインストール【Mac OSX Mavericks】
RapidMinerのインストール【Mac OSX Mavericks】RapidMinerのインストール【Mac OSX Mavericks】
RapidMinerのインストール【Mac OSX Mavericks】
 

データサイエンティスト必見!M-1グランプリ

Editor's Notes

  1. %.%