SlideShare a Scribd company logo
1 of 43
Download to read offline
LightGBM:A Highly Efficient
Gradient Boosting Decision
Tree(NIPS 2017)
Paper Friday
Yusuke Kaneko
About Paper
● Authors
Guolin Ke, Thomas Finley, Taifeng Wang, Wei Chen, Weidong Ma, Qiwei Ye,
Tie-Yan Liu(Microsoft)
Qi Meng(Peking University)
● NIPS(2017)
● links
○ https://papers.nips.cc/paper/6907-lightgbm-a-highly-efficient-gradient-boosting-decision-tree.p
df
○ http://papers.nips.cc/paper/6907-lightgbm-a-highly-efficient-gradi
About LightGBM(LGBM)
● Microsoft謹製Gradient Boosting Decision Tree(GBDT)アルゴリズム
● 2016年に登場し、Kaggleなどで猛威を振るう
→ 「速い, 精度良い , メモリ食わない」というメリット
● 現在はPython , Rのパッケージが存在
About LightGBM(LGBM)
● KaggleなどのコンペでのWinnig
Solution採用実績(右図)
Abstract
● GBDTはXGBoostなどの効果的実装がある一方、ビッグデータの(つまり、特徴量の
数やインスタンスの数が大きい)場合にはefficiencyやスケーラビリティが十分でな
いという問題がある
● これを解決するために、
1. Gradient-based One-Side Sampling(GOSS)
2. Exclusive Feature Bundling(EFB)
の新手法を提案
● GBDT + GOSS +EFB をLightGBM(LGBM)と呼ぶ
● 実験の結果、従来手法の20倍の速さで同等のaccuracyを獲得可能
1. Introduction
Motivation
● GBDTの問題点:特徴量の次元が高かったりデータサイズが大きい場合には
efficiencyやスケーラビリティが十分でない
→ 理由:各特徴に対し、全てのあり得る分岐点のinformation gainの推定のために
全データを参照しないといけないから(当然、時間もメモリも食う)
● 上記の問題を解決した、スケーラビリティなどが十分なGBDTの実装を提案したい
Two novel techniques in LGBM
1. Gradient-based One-Side Sampling(GOSS)
Idea: Infromation gainの定義より、勾配の絶対値
が大きい*データインスタンスがより大きく
information gainに貢献 → 勾配の大きなインスタン
スを残し、勾配の小さなインスタンスをダウンサン
プリングする
2. Exclusive Feature Bundling(EFB)
Idea: 実データ解析において特徴量のサイズは大
きくなるが、殆どの特徴はスパースで排他的
(exclusive)、つまり同時に非ゼロの値を取ることは
ほぼない(例: One-hot encodingして生成した特徴)
→ greedy algorithmによって、これらの排他的特徴
をまとめることで特徴量を削減
(*注 : 以下勾配の大小という表現は全て絶対値についての表現とする)
2. Preliminaries
CART(Classification and Regression Trees)
● 右図のように特徴空間を分割していき、
最適な分割点と特徴量を選んで最も
当てはまりが良くなりようにする
Hastie et al .ESL p.306
GBDT
● (ざっくりいえば)勾配を元に
擬似的な残差を求め、それを
元に誤差が最小化されるように
弱分類器(GBDTの場合は決定木)
をフィッティングさせる
Hastie et al .ESL p.361
負の勾配
Friedman(2001) Annals of Statistics
擬似的な残差
XGBoost
● LGBMが出る前の主要なGBDT実装(Kaggleでもまだ現役で使ってる人は多い)
● 損失関数から直接、木の分岐点を求めるというidea(LGBMでも同様の発想を使う)
● Histogram-based algorithmとPre-sorted algorithmの2つを導入
Pre-sorted algorithm VS Histogram-based algorithm
● GBDTの訓練において一番時間がかかるのは最適な分割点を探すパート.これを
探すアルゴリズムは主に2つ
●
1. Pre-sorted algorithm
...事前にソートした特徴量の値上の、全ての有り得る分割点を数え上げる
→ 最適分割点は求まるが時間効率が悪くメモリも食うので非効率
2. Histogram-based algorithm
… 連続値特徴量を離散値を取るbinにまとめて、このbinを元にヒストグラムを構成
する
→ 精度は僅かに犠牲になるがメモリ効率も時間効率も良い
Histogram-based algorithm
● 右図がHistogram-based algorithmの概要
● LGBMではHistogram-based Algorithmのみが
採用されている.(XGBではPre-sortedが
デフォルト)
● Histogram-based Algorithmによって
計算コストは O(#data * #feature)から
O(#bin * #feature)に削減可能
Histogram-based algorithm
● Histogram-based algorithmにおいて、カテゴリデータは以下のように扱っている.
(https://github.com/Microsoft/LightGBM/issues/1279)
“So when #category is smaller than max_bin, the #bin is smaller than max_bin.
otherwise it use the most frequent categories and stop when use 99% data.”
3. GOSS
Two novel techniques in LGBM(再掲)
1. Gradient-based One-Side Sampling(GOSS)
Idea: Infromation gainの定義より、勾配の絶対値
が大きいデータインスタンスがより大きく
information gainに貢献
→ 勾配の大きなインスタンスを残し、勾配の小さな
インスタンスをダウンサンプリングする
2. Exclusive Feature Bundling(EFB)
Idea: 実データ解析において特徴量のサイズは大
きくなるが、殆どの特徴はスパースで排他的
(exclusive)、つまり同時に非ゼロの値を取ることは
ほぼない(例: One-hot encodingして生成した特徴)
→ greedy algorithmによって、これらの排他的特徴
をまとめることで特徴量を削減
Algorithm Description
● 「勾配の小さなインスタンスをダウンサンプリングする」ことについて
→ 何も考えずにそのまま実行すると、データの分布が変わってしまうので精度悪化
を招く
→ この問題を回避するのがGOSS
Algorithm Description
1. 定数a, b を設定
2. データインスタンスの勾配の絶対値に
従いソートし、上位a * 100%のデータを
選択.残りのデータのうちb * 100%を
ランダムサンプリング.
3. その後、information gainの計算時に、
(1-a)/bだけサンプルされたデータを
重み付けで増幅させる
Theoretical Analysis
● GBDTにおいて、特徴の分割によるinformation gainは分割後の分散によって計算
される.GOSSを用いた時には以下の式で近似する
固定された木の枝内の訓練データ数 分割の左側のデータ数 分割の右側のデータ数
損失関数の
負の勾配
勾配の大きいデータ 勾配の小さいデータ
ウェイト
Theoretical Analysis
● GOSSの近似誤差については上の定理が成立
(結局何を言っているかというと)分割が過度にアンバランスではない限り(
つまり か でない限り)、近似誤差は第2項が
dominateする.これは のオーダーで
(第2項)
なので、サンプルサイズが大きければ近似はほぼ正確になる
4 . EFB
Two novel techniques in LGBM(再掲)
1. Gradient-based One-Side Sampling(GOSS)
Idea: Infromation gainの定義より、勾配の絶対値
が大きいデータインスタンスがより大きく
information gainに貢献
→ 勾配の大きなインスタンスを残し、勾配の小さな
インスタンスをダウンサンプリングする
2. Exclusive Feature Bundling(EFB)
Idea: 実データ解析において特徴量のサイズは大
きくなるが、殆どの特徴はスパースで排他的
(exclusive)、つまり同時に非ゼロの値を取ることは
ほぼない(例: One-hot encodingして生成した特徴)
→ greedy algorithmによって、これらの排他的特徴
をまとめることで特徴量を削減
Algorithm Description
● 排他的特徴量をバンドルにまとめることによって、計算コストをO(#data * #feature)
から O(#data * #bundle)に削減が可能
問題.
A. どの特徴量をまとめるべきなのか?
B.バンドルをどのように構成すべきなのか?
Algorithm Description(A)
● 最適バンドルを見つけるのはグラフ彩色問題と同等と見做せるが、これはNP-困難
問題.
→ 最適バンドルを見つけるのではなく、各特徴を頂点とした時に排他的でない全て
の2特徴量についてエッジを引くという問題に縮小する
→ 貪欲法で解くことが可能
Algorithm Description(A)
● 完全に排他的でない特徴量も多く存在する
→ わずかなコンフリクトを許容すれば、さらに計算効率性を上昇させることが可能
→ 定数γを各バンドルの最大のコンフリクトの割合の閾値として設定する
Algorithm Description(A)
1. まず、特徴量の全コンフリクトに
対応したウェイトで重み付けた
エッジでグラフを構成する
2. 特徴量をグラフの次数(頂点に接す
るエッジの重みの総和)で降順に
ソート
3. 順序づけられた特徴量をそれぞれ
確認し、既存のバンドルにアサイン
するか新しいバンドルを構成する
Greedy Bundlingについて
● 訓練の前に回すだけでよく、計算コストはO(#feature^2).
→ 特徴量が数百万ほどになると探索コストはかかる
● 順序付けのアルゴリズムとして、グラフをバンドルするのでなく、単に非ゼロ要素で
ソートすれば良いという、よりefficientなアルゴリズムを提案.
Algorithm Description(B)
● 特徴量を上手く同じバンドルにマージする方法が必要
→ つまり、特徴量のバンドルから元の特徴量の値を識別できることを保証しないと
いけない
● Histogram-based algorithmを採用しているので排他的特徴量を異なるビンに入れ
ることでバンドルを構成可能.
例:
feature.A [0 ,10)
feature.B [0, 20)
feature.A [0 ,10)
feature.B [10, 30)
Bundle(A +B) [0 ,30)
Bに+10 まとめる
Algorithm Description
● 前ページの例を一般化した
アルゴリズムがAlg.4
5. Experiments
Experiments
● 5つのPublicに入手可能なデータセットについて手法を比較
● データセットの詳細は下記. 上2つはOne-hot encodingをしたスパースな特徴量が
殆どなデータセットなのに対し、下2つはdenseな特徴量とsparseな特徴量が混
在.
Overall Comparison
● 使用手法は
1. xgb_eta (XGBoost + Pre-sorted algoritgm)
2. xgb_his (XGBoost + Histogram-based algorithm)
3. lgb_baseline (LGBMからGOSSとEFBを抜いたもの)
4. lgb_baseline + EFB
5. LightGBM
Overall Time Cost Comparison
● lgb_baselineとEFB_Onlyの比較を見ても、EFBはスパースデータには大きな効果
あり(LETORはdenseなのでさほど変わらず)
● KDDデータのような大規模データではGOSSが特に効果あり
out of memory
Overall Accuracy Comparison
● xgbと比較してもそこまで精度は変わらず
… EFBやGOSSが精度悪化に繋がることはほぼない
Analysis on GOSS
● サンプリング比率を変えた時のSGBとGOSSの比較.
→SGBよりGOSSの方がいい(SGBはoverallサンプリングの比率の設定しかできなく
てGOSSはa,bの値を調整できるので当たり前な気はするが...)
(論文外の内容)
LightGBMのパラメータ
● LightGBMのパラメータのリスト
https://github.com/Microsoft/LightGBM/blob/master/docs/Parameters.rst
● そもそもデフォだとgossじゃなかったりする
LightGBMのパラメータ
● 葉のサイズを主に調整する(max_depthも設定可能)
● カテゴリ変数の名前を指定してあげることでOne-Hot Encodingなしで取り扱いが可
能(One-hot encodingすると1/10くらい遅くなるからやるなとどこかにあったはず)
LightGBMのパラメータチューニング
● LightGBMのパラメータチューニング示唆
サイト
https://lightgbm.readthedocs.io/en/
latest/Parameters-Tuning.html
Conclusion
conclusion
● GOSS + EFB + GBDT の新アルゴリズムの提案
● メモリ消費と計算時間を劇的に抑えつつ、従来手法と同等の精度維持を
sparse/dense データで確認
● また、XGBoostではOOMになるようなサイズのデータでも計算可能
Reference
1. Ke, Guolin, et al. "Lightgbm: A highly efficient gradient boosting decision tree." Advances in Neural Information
Processing Systems. 2017.
2. Chen, Tianqi, and Carlos Guestrin. "Xgboost: A scalable tree boosting system." Proceedings of the 22nd acm sigkdd
international conference on knowledge discovery and data mining. ACM, 2016.
3. Friedman, Jerome, Trevor Hastie, and Robert Tibshirani. The elements of statistical learning. Vol. 1. No. 10. New York,
NY, USA:: Springer series in statistics, 2001.
4. Friedman, Jerome H. "Greedy function approximation: a gradient boosting machine." Annals of statistics (2001):
1189-1232.

More Related Content

What's hot

不老におけるOptunaを利用した分散ハイパーパラメータ最適化 - 今村秀明(名古屋大学 Optuna講習会)
不老におけるOptunaを利用した分散ハイパーパラメータ最適化 - 今村秀明(名古屋大学 Optuna講習会)不老におけるOptunaを利用した分散ハイパーパラメータ最適化 - 今村秀明(名古屋大学 Optuna講習会)
不老におけるOptunaを利用した分散ハイパーパラメータ最適化 - 今村秀明(名古屋大学 Optuna講習会)Preferred Networks
 
多様な強化学習の概念と課題認識
多様な強化学習の概念と課題認識多様な強化学習の概念と課題認識
多様な強化学習の概念と課題認識佑 甲野
 
[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANs[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANsDeep Learning JP
 
【DL輪読会】GIT RE-BASIN: MERGING MODELS MODULO PERMU- TATION SYMMETRIES
【DL輪読会】GIT RE-BASIN: MERGING MODELS MODULO PERMU- TATION SYMMETRIES【DL輪読会】GIT RE-BASIN: MERGING MODELS MODULO PERMU- TATION SYMMETRIES
【DL輪読会】GIT RE-BASIN: MERGING MODELS MODULO PERMU- TATION SYMMETRIESDeep Learning JP
 
Generative Adversarial Imitation Learningの紹介(RLアーキテクチャ勉強会)
Generative Adversarial Imitation Learningの紹介(RLアーキテクチャ勉強会)Generative Adversarial Imitation Learningの紹介(RLアーキテクチャ勉強会)
Generative Adversarial Imitation Learningの紹介(RLアーキテクチャ勉強会)Yusuke Nakata
 
SHAP値の考え方を理解する(木構造編)
SHAP値の考え方を理解する(木構造編)SHAP値の考え方を理解する(木構造編)
SHAP値の考え方を理解する(木構造編)Kazuyuki Wakasugi
 
Kaggleのテクニック
KaggleのテクニックKaggleのテクニック
KaggleのテクニックYasunori Ozaki
 
Long-Tailed Classificationの最新動向について
Long-Tailed Classificationの最新動向についてLong-Tailed Classificationの最新動向について
Long-Tailed Classificationの最新動向についてPlot Hong
 
科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性
科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性
科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性Ichigaku Takigawa
 
[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural NetworksDeep Learning JP
 
強化学習その3
強化学習その3強化学習その3
強化学習その3nishio
 
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健Preferred Networks
 
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)MLSE
 
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたいTakuji Tahara
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!TransformerArithmer Inc.
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...Deep Learning JP
 
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報Deep Learning JP
 
強化学習その2
強化学習その2強化学習その2
強化学習その2nishio
 
ベイズ最適化によるハイパラーパラメータ探索
ベイズ最適化によるハイパラーパラメータ探索ベイズ最適化によるハイパラーパラメータ探索
ベイズ最適化によるハイパラーパラメータ探索西岡 賢一郎
 
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence ModelingDeep Learning JP
 

What's hot (20)

不老におけるOptunaを利用した分散ハイパーパラメータ最適化 - 今村秀明(名古屋大学 Optuna講習会)
不老におけるOptunaを利用した分散ハイパーパラメータ最適化 - 今村秀明(名古屋大学 Optuna講習会)不老におけるOptunaを利用した分散ハイパーパラメータ最適化 - 今村秀明(名古屋大学 Optuna講習会)
不老におけるOptunaを利用した分散ハイパーパラメータ最適化 - 今村秀明(名古屋大学 Optuna講習会)
 
多様な強化学習の概念と課題認識
多様な強化学習の概念と課題認識多様な強化学習の概念と課題認識
多様な強化学習の概念と課題認識
 
[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANs[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANs
 
【DL輪読会】GIT RE-BASIN: MERGING MODELS MODULO PERMU- TATION SYMMETRIES
【DL輪読会】GIT RE-BASIN: MERGING MODELS MODULO PERMU- TATION SYMMETRIES【DL輪読会】GIT RE-BASIN: MERGING MODELS MODULO PERMU- TATION SYMMETRIES
【DL輪読会】GIT RE-BASIN: MERGING MODELS MODULO PERMU- TATION SYMMETRIES
 
Generative Adversarial Imitation Learningの紹介(RLアーキテクチャ勉強会)
Generative Adversarial Imitation Learningの紹介(RLアーキテクチャ勉強会)Generative Adversarial Imitation Learningの紹介(RLアーキテクチャ勉強会)
Generative Adversarial Imitation Learningの紹介(RLアーキテクチャ勉強会)
 
SHAP値の考え方を理解する(木構造編)
SHAP値の考え方を理解する(木構造編)SHAP値の考え方を理解する(木構造編)
SHAP値の考え方を理解する(木構造編)
 
Kaggleのテクニック
KaggleのテクニックKaggleのテクニック
Kaggleのテクニック
 
Long-Tailed Classificationの最新動向について
Long-Tailed Classificationの最新動向についてLong-Tailed Classificationの最新動向について
Long-Tailed Classificationの最新動向について
 
科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性
科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性
科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性
 
[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
 
強化学習その3
強化学習その3強化学習その3
強化学習その3
 
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健
 
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
 
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
 
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報
 
強化学習その2
強化学習その2強化学習その2
強化学習その2
 
ベイズ最適化によるハイパラーパラメータ探索
ベイズ最適化によるハイパラーパラメータ探索ベイズ最適化によるハイパラーパラメータ探索
ベイズ最適化によるハイパラーパラメータ探索
 
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
 

Similar to LightGBM: a highly efficient gradient boosting decision tree

グラフデータ分析 入門編
グラフデータ分析 入門編グラフデータ分析 入門編
グラフデータ分析 入門編順也 山口
 
CNNの構造最適化手法(第3回3D勉強会)
CNNの構造最適化手法(第3回3D勉強会)CNNの構造最適化手法(第3回3D勉強会)
CNNの構造最適化手法(第3回3D勉強会)MasanoriSuganuma
 
GCをみればRTSが見えてくる、かも。。。
GCをみればRTSが見えてくる、かも。。。GCをみればRTSが見えてくる、かも。。。
GCをみればRTSが見えてくる、かも。。。dec9ue
 
R+pythonでKAGGLEの2値予測に挑戦!
R+pythonでKAGGLEの2値予測に挑戦! R+pythonでKAGGLEの2値予測に挑戦!
R+pythonでKAGGLEの2値予測に挑戦! Yurie Oka
 
2012-03-08 MSS研究会
2012-03-08 MSS研究会2012-03-08 MSS研究会
2012-03-08 MSS研究会Kimikazu Kato
 
研究動向から考えるx86/x64最適化手法
研究動向から考えるx86/x64最適化手法研究動向から考えるx86/x64最適化手法
研究動向から考えるx86/x64最適化手法Takeshi Yamamuro
 
Robust Large-Scale Machine Learning in the Cloud
Robust Large-Scale Machine Learning in the CloudRobust Large-Scale Machine Learning in the Cloud
Robust Large-Scale Machine Learning in the CloudYuto Yamaguchi
 
Unity名古屋セミナー [Shadowgun]
Unity名古屋セミナー [Shadowgun]Unity名古屋セミナー [Shadowgun]
Unity名古屋セミナー [Shadowgun]MakotoItoh
 
CVPR 2011 ImageNet Challenge 文献紹介
CVPR 2011 ImageNet Challenge 文献紹介CVPR 2011 ImageNet Challenge 文献紹介
CVPR 2011 ImageNet Challenge 文献紹介Narihira Takuya
 
CNNの構造最適化手法について
CNNの構造最適化手法についてCNNの構造最適化手法について
CNNの構造最適化手法についてMasanoriSuganuma
 
Hivemallで始める不動産価格推定サービス
Hivemallで始める不動産価格推定サービスHivemallで始める不動産価格推定サービス
Hivemallで始める不動産価格推定サービスKentaro Yoshida
 
Approximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLPApproximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLPKoji Matsuda
 
[DL輪読会]Convolutional Sequence to Sequence Learning
[DL輪読会]Convolutional Sequence to Sequence Learning[DL輪読会]Convolutional Sequence to Sequence Learning
[DL輪読会]Convolutional Sequence to Sequence LearningDeep Learning JP
 
ITpro EXPO版「データセンター視点で比較したクラウドの内側」
ITpro EXPO版「データセンター視点で比較したクラウドの内側」ITpro EXPO版「データセンター視点で比較したクラウドの内側」
ITpro EXPO版「データセンター視点で比較したクラウドの内側」Atsushi Nakada
 
BazelでビルドしたアプリをGCPにデプロイしようとしてハマった話
BazelでビルドしたアプリをGCPにデプロイしようとしてハマった話BazelでビルドしたアプリをGCPにデプロイしようとしてハマった話
BazelでビルドしたアプリをGCPにデプロイしようとしてハマった話Katsunori Kanda
 
大規模言語モデル開発を支える分散学習技術 - 東京工業大学横田理央研究室の藤井一喜さん
大規模言語モデル開発を支える分散学習技術 - 東京工業大学横田理央研究室の藤井一喜さん大規模言語モデル開発を支える分散学習技術 - 東京工業大学横田理央研究室の藤井一喜さん
大規模言語モデル開発を支える分散学習技術 - 東京工業大学横田理央研究室の藤井一喜さんAkira Shibata
 
ZoZei - アイデア賞スライド
ZoZei - アイデア賞スライドZoZei - アイデア賞スライド
ZoZei - アイデア賞スライドKosaku Ono
 
Go-ICP: グローバル最適(Globally optimal) なICPの解説
Go-ICP: グローバル最適(Globally optimal) なICPの解説Go-ICP: グローバル最適(Globally optimal) なICPの解説
Go-ICP: グローバル最適(Globally optimal) なICPの解説Yusuke Sekikawa
 

Similar to LightGBM: a highly efficient gradient boosting decision tree (20)

グラフデータ分析 入門編
グラフデータ分析 入門編グラフデータ分析 入門編
グラフデータ分析 入門編
 
CNNの構造最適化手法(第3回3D勉強会)
CNNの構造最適化手法(第3回3D勉強会)CNNの構造最適化手法(第3回3D勉強会)
CNNの構造最適化手法(第3回3D勉強会)
 
GCをみればRTSが見えてくる、かも。。。
GCをみればRTSが見えてくる、かも。。。GCをみればRTSが見えてくる、かも。。。
GCをみればRTSが見えてくる、かも。。。
 
R+pythonでKAGGLEの2値予測に挑戦!
R+pythonでKAGGLEの2値予測に挑戦! R+pythonでKAGGLEの2値予測に挑戦!
R+pythonでKAGGLEの2値予測に挑戦!
 
2012-03-08 MSS研究会
2012-03-08 MSS研究会2012-03-08 MSS研究会
2012-03-08 MSS研究会
 
研究動向から考えるx86/x64最適化手法
研究動向から考えるx86/x64最適化手法研究動向から考えるx86/x64最適化手法
研究動向から考えるx86/x64最適化手法
 
Robust Large-Scale Machine Learning in the Cloud
Robust Large-Scale Machine Learning in the CloudRobust Large-Scale Machine Learning in the Cloud
Robust Large-Scale Machine Learning in the Cloud
 
Unity名古屋セミナー [Shadowgun]
Unity名古屋セミナー [Shadowgun]Unity名古屋セミナー [Shadowgun]
Unity名古屋セミナー [Shadowgun]
 
CVPR 2011 ImageNet Challenge 文献紹介
CVPR 2011 ImageNet Challenge 文献紹介CVPR 2011 ImageNet Challenge 文献紹介
CVPR 2011 ImageNet Challenge 文献紹介
 
2017.10.12 PRMU 研究会
2017.10.12 PRMU 研究会2017.10.12 PRMU 研究会
2017.10.12 PRMU 研究会
 
CNNの構造最適化手法について
CNNの構造最適化手法についてCNNの構造最適化手法について
CNNの構造最適化手法について
 
Hivemallで始める不動産価格推定サービス
Hivemallで始める不動産価格推定サービスHivemallで始める不動産価格推定サービス
Hivemallで始める不動産価格推定サービス
 
Approximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLPApproximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLP
 
[DL輪読会]Convolutional Sequence to Sequence Learning
[DL輪読会]Convolutional Sequence to Sequence Learning[DL輪読会]Convolutional Sequence to Sequence Learning
[DL輪読会]Convolutional Sequence to Sequence Learning
 
ITpro EXPO版「データセンター視点で比較したクラウドの内側」
ITpro EXPO版「データセンター視点で比較したクラウドの内側」ITpro EXPO版「データセンター視点で比較したクラウドの内側」
ITpro EXPO版「データセンター視点で比較したクラウドの内側」
 
RAPIDS 概要
RAPIDS 概要RAPIDS 概要
RAPIDS 概要
 
BazelでビルドしたアプリをGCPにデプロイしようとしてハマった話
BazelでビルドしたアプリをGCPにデプロイしようとしてハマった話BazelでビルドしたアプリをGCPにデプロイしようとしてハマった話
BazelでビルドしたアプリをGCPにデプロイしようとしてハマった話
 
大規模言語モデル開発を支える分散学習技術 - 東京工業大学横田理央研究室の藤井一喜さん
大規模言語モデル開発を支える分散学習技術 - 東京工業大学横田理央研究室の藤井一喜さん大規模言語モデル開発を支える分散学習技術 - 東京工業大学横田理央研究室の藤井一喜さん
大規模言語モデル開発を支える分散学習技術 - 東京工業大学横田理央研究室の藤井一喜さん
 
ZoZei - アイデア賞スライド
ZoZei - アイデア賞スライドZoZei - アイデア賞スライド
ZoZei - アイデア賞スライド
 
Go-ICP: グローバル最適(Globally optimal) なICPの解説
Go-ICP: グローバル最適(Globally optimal) なICPの解説Go-ICP: グローバル最適(Globally optimal) なICPの解説
Go-ICP: グローバル最適(Globally optimal) なICPの解説
 

More from Yusuke Kaneko

Kdd 2021 読み会(clustering for private interest-based advertising & learning a l...
Kdd 2021 読み会(clustering for private interest-based advertising & learning a l...Kdd 2021 読み会(clustering for private interest-based advertising & learning a l...
Kdd 2021 読み会(clustering for private interest-based advertising & learning a l...Yusuke Kaneko
 
DID, Synthetic Control, CausalImpact
DID, Synthetic Control, CausalImpactDID, Synthetic Control, CausalImpact
DID, Synthetic Control, CausalImpactYusuke Kaneko
 
企業の中の経済学
企業の中の経済学企業の中の経済学
企業の中の経済学Yusuke Kaneko
 
How to correctly estimate the effect of online advertisement(About Double Mac...
How to correctly estimate the effect of online advertisement(About Double Mac...How to correctly estimate the effect of online advertisement(About Double Mac...
How to correctly estimate the effect of online advertisement(About Double Mac...Yusuke Kaneko
 
効果のあるクリエイティブ広告の見つけ方(Contextual Bandit + TS or UCB)
効果のあるクリエイティブ広告の見つけ方(Contextual Bandit + TS or UCB)効果のあるクリエイティブ広告の見つけ方(Contextual Bandit + TS or UCB)
効果のあるクリエイティブ広告の見つけ方(Contextual Bandit + TS or UCB)Yusuke Kaneko
 

More from Yusuke Kaneko (7)

Kdd 2021 読み会(clustering for private interest-based advertising & learning a l...
Kdd 2021 読み会(clustering for private interest-based advertising & learning a l...Kdd 2021 読み会(clustering for private interest-based advertising & learning a l...
Kdd 2021 読み会(clustering for private interest-based advertising & learning a l...
 
DID, Synthetic Control, CausalImpact
DID, Synthetic Control, CausalImpactDID, Synthetic Control, CausalImpact
DID, Synthetic Control, CausalImpact
 
企業の中の経済学
企業の中の経済学企業の中の経済学
企業の中の経済学
 
TokyoR_74_RDD
TokyoR_74_RDDTokyoR_74_RDD
TokyoR_74_RDD
 
Hastie_chapter5
Hastie_chapter5Hastie_chapter5
Hastie_chapter5
 
How to correctly estimate the effect of online advertisement(About Double Mac...
How to correctly estimate the effect of online advertisement(About Double Mac...How to correctly estimate the effect of online advertisement(About Double Mac...
How to correctly estimate the effect of online advertisement(About Double Mac...
 
効果のあるクリエイティブ広告の見つけ方(Contextual Bandit + TS or UCB)
効果のあるクリエイティブ広告の見つけ方(Contextual Bandit + TS or UCB)効果のあるクリエイティブ広告の見つけ方(Contextual Bandit + TS or UCB)
効果のあるクリエイティブ広告の見つけ方(Contextual Bandit + TS or UCB)
 

LightGBM: a highly efficient gradient boosting decision tree