Submit Search
Upload
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 1章
•
Download as PPTX, PDF
•
4 likes
•
4,242 views
Hakky St
Follow
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ)の勉強会の資料です。 1章のスライドです。
Read less
Read more
Data & Analytics
Report
Share
Report
Share
1 of 16
Download now
Recommended
ブレインパッドにおける機械学習プロジェクトの進め方
ブレインパッドにおける機械学習プロジェクトの進め方
BrainPad Inc.
スパース性に基づく機械学習 2章 データからの学習
スパース性に基づく機械学習 2章 データからの学習
hagino 3000
SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII
SIX ABEJA 講演資料 もうブラックボックスとは呼ばせない~機械学習を支援する情報
SIX ABEJA 講演資料 もうブラックボックスとは呼ばせない~機械学習を支援する情報
Takayuki Itoh
リプシッツ連続性に基づく勾配法・ニュートン型手法の計算量解析
リプシッツ連続性に基づく勾配法・ニュートン型手法の計算量解析
京都大学大学院情報学研究科数理工学専攻
大学3年生の僕に伝えたいことをつらつらと
大学3年生の僕に伝えたいことをつらつらと
Toshinori Sato
LightGBMを少し改造してみた ~カテゴリ変数の動的エンコード~
LightGBMを少し改造してみた ~カテゴリ変数の動的エンコード~
RyuichiKanoh
分散学習のあれこれ~データパラレルからモデルパラレルまで~
分散学習のあれこれ~データパラレルからモデルパラレルまで~
Hideki Tsunashima
Recommended
ブレインパッドにおける機械学習プロジェクトの進め方
ブレインパッドにおける機械学習プロジェクトの進め方
BrainPad Inc.
スパース性に基づく機械学習 2章 データからの学習
スパース性に基づく機械学習 2章 データからの学習
hagino 3000
SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII
SIX ABEJA 講演資料 もうブラックボックスとは呼ばせない~機械学習を支援する情報
SIX ABEJA 講演資料 もうブラックボックスとは呼ばせない~機械学習を支援する情報
Takayuki Itoh
リプシッツ連続性に基づく勾配法・ニュートン型手法の計算量解析
リプシッツ連続性に基づく勾配法・ニュートン型手法の計算量解析
京都大学大学院情報学研究科数理工学専攻
大学3年生の僕に伝えたいことをつらつらと
大学3年生の僕に伝えたいことをつらつらと
Toshinori Sato
LightGBMを少し改造してみた ~カテゴリ変数の動的エンコード~
LightGBMを少し改造してみた ~カテゴリ変数の動的エンコード~
RyuichiKanoh
分散学習のあれこれ~データパラレルからモデルパラレルまで~
分散学習のあれこれ~データパラレルからモデルパラレルまで~
Hideki Tsunashima
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
グラフィカルモデル入門
グラフィカルモデル入門
Kawamoto_Kazuhiko
[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景
Deep Learning JP
Data-Centric AIの紹介
Data-Centric AIの紹介
Kazuyuki Miyazawa
実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだこと
nishio
構造方程式モデルによる因果探索と非ガウス性
構造方程式モデルによる因果探索と非ガウス性
Shiga University, RIKEN
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
joisino
ベイズファクターとモデル選択
ベイズファクターとモデル選択
kazutantan
深層学習の数理
深層学習の数理
Taiji Suzuki
ブースティング入門
ブースティング入門
Retrieva inc.
CatBoost on GPU のひみつ
CatBoost on GPU のひみつ
Takuji Tahara
パターン認識と機械学習入門
パターン認識と機械学習入門
Momoko Hayamizu
【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models
Deep Learning JP
強化学習その2
強化学習その2
nishio
DSIRNLP#1 ランキング学習ことはじめ
DSIRNLP#1 ランキング学習ことはじめ
sleepy_yoshi
学習時に使ってはいないデータの混入「リーケージを避ける」
学習時に使ってはいないデータの混入「リーケージを避ける」
西岡 賢一郎
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Preferred Networks
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?
Fumihiko Takahashi
[DL輪読会]Model-Based Reinforcement Learning via Meta-Policy Optimization
[DL輪読会]Model-Based Reinforcement Learning via Meta-Policy Optimization
Deep Learning JP
非ガウス性を利用した因果構造探索
非ガウス性を利用した因果構造探索
Shiga University, RIKEN
Diet networks thin parameters for fat genomic
Diet networks thin parameters for fat genomic
Hakky St
Deep Recurrent Q-Learning(DRQN) for Partially Observable MDPs
Deep Recurrent Q-Learning(DRQN) for Partially Observable MDPs
Hakky St
More Related Content
What's hot
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
グラフィカルモデル入門
グラフィカルモデル入門
Kawamoto_Kazuhiko
[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景
Deep Learning JP
Data-Centric AIの紹介
Data-Centric AIの紹介
Kazuyuki Miyazawa
実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだこと
nishio
構造方程式モデルによる因果探索と非ガウス性
構造方程式モデルによる因果探索と非ガウス性
Shiga University, RIKEN
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
joisino
ベイズファクターとモデル選択
ベイズファクターとモデル選択
kazutantan
深層学習の数理
深層学習の数理
Taiji Suzuki
ブースティング入門
ブースティング入門
Retrieva inc.
CatBoost on GPU のひみつ
CatBoost on GPU のひみつ
Takuji Tahara
パターン認識と機械学習入門
パターン認識と機械学習入門
Momoko Hayamizu
【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models
Deep Learning JP
強化学習その2
強化学習その2
nishio
DSIRNLP#1 ランキング学習ことはじめ
DSIRNLP#1 ランキング学習ことはじめ
sleepy_yoshi
学習時に使ってはいないデータの混入「リーケージを避ける」
学習時に使ってはいないデータの混入「リーケージを避ける」
西岡 賢一郎
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Preferred Networks
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?
Fumihiko Takahashi
[DL輪読会]Model-Based Reinforcement Learning via Meta-Policy Optimization
[DL輪読会]Model-Based Reinforcement Learning via Meta-Policy Optimization
Deep Learning JP
非ガウス性を利用した因果構造探索
非ガウス性を利用した因果構造探索
Shiga University, RIKEN
What's hot
(20)
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
グラフィカルモデル入門
グラフィカルモデル入門
[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景
Data-Centric AIの紹介
Data-Centric AIの紹介
実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだこと
構造方程式モデルによる因果探索と非ガウス性
構造方程式モデルによる因果探索と非ガウス性
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
ベイズファクターとモデル選択
ベイズファクターとモデル選択
深層学習の数理
深層学習の数理
ブースティング入門
ブースティング入門
CatBoost on GPU のひみつ
CatBoost on GPU のひみつ
パターン認識と機械学習入門
パターン認識と機械学習入門
【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models
強化学習その2
強化学習その2
DSIRNLP#1 ランキング学習ことはじめ
DSIRNLP#1 ランキング学習ことはじめ
学習時に使ってはいないデータの混入「リーケージを避ける」
学習時に使ってはいないデータの混入「リーケージを避ける」
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?
[DL輪読会]Model-Based Reinforcement Learning via Meta-Policy Optimization
[DL輪読会]Model-Based Reinforcement Learning via Meta-Policy Optimization
非ガウス性を利用した因果構造探索
非ガウス性を利用した因果構造探索
More from Hakky St
Diet networks thin parameters for fat genomic
Diet networks thin parameters for fat genomic
Hakky St
Deep Recurrent Q-Learning(DRQN) for Partially Observable MDPs
Deep Recurrent Q-Learning(DRQN) for Partially Observable MDPs
Hakky St
Hands-On Machine Learning with Scikit-Learn and TensorFlow - Chapter8
Hands-On Machine Learning with Scikit-Learn and TensorFlow - Chapter8
Hakky St
An overview of gradient descent optimization algorithms
An overview of gradient descent optimization algorithms
Hakky St
劣モジュラ最適化と機械学習 3章
劣モジュラ最適化と機械学習 3章
Hakky St
劣モジュラ最適化と機械学習 2.4節
劣モジュラ最適化と機械学習 2.4節
Hakky St
劣モジュラ最適化と機械学習 2.5節
劣モジュラ最適化と機械学習 2.5節
Hakky St
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
Hakky St
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 2.3節〜2.5節
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 2.3節〜2.5節
Hakky St
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 4.2節
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 4.2節
Hakky St
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 3.3節と3.4節
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 3.3節と3.4節
Hakky St
強くなるロボティック・ ゲームプレイヤーの作り方3章
強くなるロボティック・ ゲームプレイヤーの作り方3章
Hakky St
Reducing the dimensionality of data with neural networks
Reducing the dimensionality of data with neural networks
Hakky St
Boosting probabilistic graphical model inference by incorporating prior knowl...
Boosting probabilistic graphical model inference by incorporating prior knowl...
Hakky St
【機械学習プロフェッショナルシリーズ】グラフィカルモデル2章
【機械学習プロフェッショナルシリーズ】グラフィカルモデル2章
Hakky St
【機械学習プロフェッショナルシリーズ】グラフィカルモデル1章
【機械学習プロフェッショナルシリーズ】グラフィカルモデル1章
Hakky St
Tensorflow
Tensorflow
Hakky St
Creating basic workflows as Jupyter Notebooks to use Cytoscape programmatically.
Creating basic workflows as Jupyter Notebooks to use Cytoscape programmatically.
Hakky St
More from Hakky St
(18)
Diet networks thin parameters for fat genomic
Diet networks thin parameters for fat genomic
Deep Recurrent Q-Learning(DRQN) for Partially Observable MDPs
Deep Recurrent Q-Learning(DRQN) for Partially Observable MDPs
Hands-On Machine Learning with Scikit-Learn and TensorFlow - Chapter8
Hands-On Machine Learning with Scikit-Learn and TensorFlow - Chapter8
An overview of gradient descent optimization algorithms
An overview of gradient descent optimization algorithms
劣モジュラ最適化と機械学習 3章
劣モジュラ最適化と機械学習 3章
劣モジュラ最適化と機械学習 2.4節
劣モジュラ最適化と機械学習 2.4節
劣モジュラ最適化と機械学習 2.5節
劣モジュラ最適化と機械学習 2.5節
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 2.3節〜2.5節
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 2.3節〜2.5節
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 4.2節
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 4.2節
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 3.3節と3.4節
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 3.3節と3.4節
強くなるロボティック・ ゲームプレイヤーの作り方3章
強くなるロボティック・ ゲームプレイヤーの作り方3章
Reducing the dimensionality of data with neural networks
Reducing the dimensionality of data with neural networks
Boosting probabilistic graphical model inference by incorporating prior knowl...
Boosting probabilistic graphical model inference by incorporating prior knowl...
【機械学習プロフェッショナルシリーズ】グラフィカルモデル2章
【機械学習プロフェッショナルシリーズ】グラフィカルモデル2章
【機械学習プロフェッショナルシリーズ】グラフィカルモデル1章
【機械学習プロフェッショナルシリーズ】グラフィカルモデル1章
Tensorflow
Tensorflow
Creating basic workflows as Jupyter Notebooks to use Cytoscape programmatically.
Creating basic workflows as Jupyter Notebooks to use Cytoscape programmatically.
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 1章
1.
スパース性に基づく機械学習1章 機械学習プロフェッショナルシリーズ @St_Hakky
2.
自己紹介と告知 • Twitter :
@St_Hakky • ブログ:http://st-hakky.hatenablog.com/ • 関西で機械学習勉強会を実施中!! • 団体のモットー: • 圧倒的スピード感で大量の書物と論文をぶった切る • 「えっ、まだ読んでないの?」と煽り奉り、輪講会を乱立させる • 過去のイベント例 • PRML輪講会、PRML上巻/下巻一気読み • データ解析のための統計モデリング入門の輪講会 • わかりやすいパターン認識(続)の輪講会 • 参加したい方は、Facebookのグループにまずは参加を。 • URL :https://www.facebook.com/groups/1767916400127792/
3.
スパース性に基づく機械学習の 1章をやります
4.
スパース性とは • スパース性とは • 日本語訳は疎性。まばらであること •
多くの変数のうちほとんどがゼロでごく一部だけが非ゼ ロの値をとることを意味する
5.
基本的なスパース性:要素単位のスパース性 • 多くの要素がゼロで少数の要素が非ゼロで、これらが特に 構造もなく並んでいる • 本スライドで出てくる図は、灰色が0で色があるのが値があ るものとする。
6.
スパース性が有効である例 • ゲノムの個人差からの予測 • 例:特定の病気のかかりやすさ、治療の有効性など •
ゲノムの個人間の変異は数百万箇所で起こりうる • しかし、特定の病気のかかりやすさに関連しているのはそのごく一 部 • 数百万箇所全ての変異が特定の病気にどのように影響す るのかを推定するには? • その数と同じオーダーの被験者(サンプル)を集める必要がある • こんなのコスト的にも無理w → んじゃ、どうするのか?
7.
スパース性が有効である例(続き) • 病気と関連している変異が少数であるという仮定を用いる • このようなスパース性の仮定を用いる •
この仮定で、少ないサンプル数から調べることが可能 • 注意:この仮定を用いたからといって、病気と関連している 変数の目星がついているわけではない。 • 病気と関連している変数の数が数十や数百であったとして も、組み合わせの数は膨大。
8.
スパース性を考える時のポイント • 統計的な問題 • 如何に現実的な仮定を用いて少ないサンプル数での推定を可能 にするか •
計算量の問題 • 如何に組み合わせ爆発を防いで現実的な計算量で推定を行うか • 上の二つを考える必要がある
9.
スパース性の拡張 • スパース性の定義 • 「高次元ベクトルのほとんどの要素がゼロである」 •
上記の定義にとどまらず、様々な拡張が現在は考えられて いる。
10.
スパース性の拡張:グループ単位のスパース性 • 各行があらかじめ定義した1つのグループに対応 • 各行が全てゼロか、全て値を含むかのどちらか一方
11.
スパース性の拡張:行列の低ランク性 • これが使える問題設定 • 共通のd変数の上に定義されたT個の関連する学習課題を同時に 解きたい •
スパースじゃない方法 • 推定すべき係数の数:dT個。多い。 • 行列の低ランク性を用いたスパースな方法 • 各列にd個の係数を持つd行T列の行列を推定する問題と考える • 行列のランクがrだとすると、T個の学習課題に対して、 r個の要因が 存在することを意味する • →スパース!!!
12.
スパース性の拡張:行列の低ランク性 • 低ランク行列は、ベクトルとしてみるとスパースではない • しかし、行列の特異値と見ると、以下のような特徴が見れ る •
行列のランクに等しい特異値だけが非ゼロ • 残りの特異値はゼロ
13.
スパース性の拡張:行列の低ランク性 • グループ単位のスパース性との比較 • グループ単位のスパース性 •
あらかじめグループを定義しておく必要があった • 行列の低ランク性によるスパース性 • 変数のグループや複数の課題に共通する要因を含めて学習できる
14.
スパース性の拡張:行列の低ランク性 • 実際の適応例 • 時空間データの分析、推薦システム •
こういった適用先でも、行列が低ランクであることを利用し て、以下の二つの問題を考えるようにすること。 • 統計的な問題 • より小さいサンプル数で推定できないか • 計算量の問題 • 低ランク性という非凸制約から来る計算の困難さを回避して多項式 時間で推定を行うか • そうしないと、旨味がなくなってしまう
15.
一般的にスパースと言われているけどこの本では 扱わないもの • 自然言語処理分野 • 高次元かつスパースな特徴ベクトルが存在 •
例:単語、n-グラム • データがスパースといっても、分類器が少数の変数の組み合わせ からなるとは言えない。 • 例:同義語のように、本来は1つの変数で済むものが別々に表現され ているせいで、スパースに見えているなど • データのスパース性が利用できるので計算量の上では好ましい状 況。しかし、スパースなデータを対象とするからといって、前に述べ た統計的な問題が生じるとは限らない
16.
おしまい
Download now