Submit Search
Upload
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 2.3節〜2.5節
•
Download as PPTX, PDF
•
1 like
•
3,319 views
Hakky St
Follow
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ)の勉強会の資料です。 2.3節〜2.5節のスライドです。
Read less
Read more
Data & Analytics
Report
Share
Report
Share
1 of 24
Download now
Recommended
リプシッツ連続性に基づく勾配法・ニュートン型手法の計算量解析
リプシッツ連続性に基づく勾配法・ニュートン型手法の計算量解析
京都大学大学院情報学研究科数理工学専攻
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説
Shiga University, RIKEN
[DL輪読会]Inverse Constrained Reinforcement Learning
[DL輪読会]Inverse Constrained Reinforcement Learning
Deep Learning JP
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
Taiji Suzuki
XGBoostからNGBoostまで
XGBoostからNGBoostまで
Tomoki Yoshida
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh
On the Convergence of Adam and Beyond
On the Convergence of Adam and Beyond
harmonylab
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習
Deep Learning JP
Recommended
リプシッツ連続性に基づく勾配法・ニュートン型手法の計算量解析
リプシッツ連続性に基づく勾配法・ニュートン型手法の計算量解析
京都大学大学院情報学研究科数理工学専攻
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説
Shiga University, RIKEN
[DL輪読会]Inverse Constrained Reinforcement Learning
[DL輪読会]Inverse Constrained Reinforcement Learning
Deep Learning JP
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
統計的学習理論チュートリアル: 基礎から応用まで (Ibis2012)
Taiji Suzuki
XGBoostからNGBoostまで
XGBoostからNGBoostまで
Tomoki Yoshida
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh
On the Convergence of Adam and Beyond
On the Convergence of Adam and Beyond
harmonylab
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習
Deep Learning JP
関数データ解析の概要とその方法
関数データ解析の概要とその方法
Hidetoshi Matsui
構造方程式モデルによる因果探索と非ガウス性
構造方程式モデルによる因果探索と非ガウス性
Shiga University, RIKEN
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
Takao Yamanaka
論文紹介 No-Reward Meta Learning (RL architecture勉強会)
論文紹介 No-Reward Meta Learning (RL architecture勉強会)
Yusuke Nakata
GAN(と強化学習との関係)
GAN(と強化学習との関係)
Masahiro Suzuki
実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだこと
nishio
機械学習は化学研究の"経験と勘"を合理化できるか?
機械学習は化学研究の"経験と勘"を合理化できるか?
Ichigaku Takigawa
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
弘毅 露崎
ブースティング入門
ブースティング入門
Retrieva inc.
[DL輪読会]Model-Based Reinforcement Learning via Meta-Policy Optimization
[DL輪読会]Model-Based Reinforcement Learning via Meta-Policy Optimization
Deep Learning JP
時系列問題に対するCNNの有用性検証
時系列問題に対するCNNの有用性検証
Masaharu Kinoshita
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル
Kei Nakagawa
人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -
人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -
Akisato Kimura
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
Deep Learning JP
Graph Neural Networks
Graph Neural Networks
tm1966
[DL輪読会]Reinforcement Learning with Deep Energy-Based Policies
[DL輪読会]Reinforcement Learning with Deep Energy-Based Policies
Deep Learning JP
勾配降下法の最適化アルゴリズム
勾配降下法の最適化アルゴリズム
nishio
ファクター投資と機械学習
ファクター投資と機械学習
Kei Nakagawa
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式
Hiroshi Nakagawa
変分ベイズ法の説明
変分ベイズ法の説明
Haruka Ozaki
Diet networks thin parameters for fat genomic
Diet networks thin parameters for fat genomic
Hakky St
Deep Recurrent Q-Learning(DRQN) for Partially Observable MDPs
Deep Recurrent Q-Learning(DRQN) for Partially Observable MDPs
Hakky St
More Related Content
What's hot
関数データ解析の概要とその方法
関数データ解析の概要とその方法
Hidetoshi Matsui
構造方程式モデルによる因果探索と非ガウス性
構造方程式モデルによる因果探索と非ガウス性
Shiga University, RIKEN
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
Takao Yamanaka
論文紹介 No-Reward Meta Learning (RL architecture勉強会)
論文紹介 No-Reward Meta Learning (RL architecture勉強会)
Yusuke Nakata
GAN(と強化学習との関係)
GAN(と強化学習との関係)
Masahiro Suzuki
実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだこと
nishio
機械学習は化学研究の"経験と勘"を合理化できるか?
機械学習は化学研究の"経験と勘"を合理化できるか?
Ichigaku Takigawa
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
弘毅 露崎
ブースティング入門
ブースティング入門
Retrieva inc.
[DL輪読会]Model-Based Reinforcement Learning via Meta-Policy Optimization
[DL輪読会]Model-Based Reinforcement Learning via Meta-Policy Optimization
Deep Learning JP
時系列問題に対するCNNの有用性検証
時系列問題に対するCNNの有用性検証
Masaharu Kinoshita
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル
Kei Nakagawa
人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -
人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -
Akisato Kimura
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
Deep Learning JP
Graph Neural Networks
Graph Neural Networks
tm1966
[DL輪読会]Reinforcement Learning with Deep Energy-Based Policies
[DL輪読会]Reinforcement Learning with Deep Energy-Based Policies
Deep Learning JP
勾配降下法の最適化アルゴリズム
勾配降下法の最適化アルゴリズム
nishio
ファクター投資と機械学習
ファクター投資と機械学習
Kei Nakagawa
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式
Hiroshi Nakagawa
変分ベイズ法の説明
変分ベイズ法の説明
Haruka Ozaki
What's hot
(20)
関数データ解析の概要とその方法
関数データ解析の概要とその方法
構造方程式モデルによる因果探索と非ガウス性
構造方程式モデルによる因果探索と非ガウス性
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
論文紹介 No-Reward Meta Learning (RL architecture勉強会)
論文紹介 No-Reward Meta Learning (RL architecture勉強会)
GAN(と強化学習との関係)
GAN(と強化学習との関係)
実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだこと
機械学習は化学研究の"経験と勘"を合理化できるか?
機械学習は化学研究の"経験と勘"を合理化できるか?
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
ブースティング入門
ブースティング入門
[DL輪読会]Model-Based Reinforcement Learning via Meta-Policy Optimization
[DL輪読会]Model-Based Reinforcement Learning via Meta-Policy Optimization
時系列問題に対するCNNの有用性検証
時系列問題に対するCNNの有用性検証
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル
人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -
人間の視覚的注意を予測するモデル - 動的ベイジアンネットワークに基づく 最新のアプローチ -
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
Graph Neural Networks
Graph Neural Networks
[DL輪読会]Reinforcement Learning with Deep Energy-Based Policies
[DL輪読会]Reinforcement Learning with Deep Energy-Based Policies
勾配降下法の最適化アルゴリズム
勾配降下法の最適化アルゴリズム
ファクター投資と機械学習
ファクター投資と機械学習
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式
変分ベイズ法の説明
変分ベイズ法の説明
More from Hakky St
Diet networks thin parameters for fat genomic
Diet networks thin parameters for fat genomic
Hakky St
Deep Recurrent Q-Learning(DRQN) for Partially Observable MDPs
Deep Recurrent Q-Learning(DRQN) for Partially Observable MDPs
Hakky St
Hands-On Machine Learning with Scikit-Learn and TensorFlow - Chapter8
Hands-On Machine Learning with Scikit-Learn and TensorFlow - Chapter8
Hakky St
An overview of gradient descent optimization algorithms
An overview of gradient descent optimization algorithms
Hakky St
劣モジュラ最適化と機械学習 3章
劣モジュラ最適化と機械学習 3章
Hakky St
劣モジュラ最適化と機械学習 2.4節
劣モジュラ最適化と機械学習 2.4節
Hakky St
劣モジュラ最適化と機械学習 2.5節
劣モジュラ最適化と機械学習 2.5節
Hakky St
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
Hakky St
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 4.2節
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 4.2節
Hakky St
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 3.3節と3.4節
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 3.3節と3.4節
Hakky St
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 1章
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 1章
Hakky St
強くなるロボティック・ ゲームプレイヤーの作り方3章
強くなるロボティック・ ゲームプレイヤーの作り方3章
Hakky St
Reducing the dimensionality of data with neural networks
Reducing the dimensionality of data with neural networks
Hakky St
Boosting probabilistic graphical model inference by incorporating prior knowl...
Boosting probabilistic graphical model inference by incorporating prior knowl...
Hakky St
【機械学習プロフェッショナルシリーズ】グラフィカルモデル2章
【機械学習プロフェッショナルシリーズ】グラフィカルモデル2章
Hakky St
【機械学習プロフェッショナルシリーズ】グラフィカルモデル1章
【機械学習プロフェッショナルシリーズ】グラフィカルモデル1章
Hakky St
Tensorflow
Tensorflow
Hakky St
Creating basic workflows as Jupyter Notebooks to use Cytoscape programmatically.
Creating basic workflows as Jupyter Notebooks to use Cytoscape programmatically.
Hakky St
More from Hakky St
(18)
Diet networks thin parameters for fat genomic
Diet networks thin parameters for fat genomic
Deep Recurrent Q-Learning(DRQN) for Partially Observable MDPs
Deep Recurrent Q-Learning(DRQN) for Partially Observable MDPs
Hands-On Machine Learning with Scikit-Learn and TensorFlow - Chapter8
Hands-On Machine Learning with Scikit-Learn and TensorFlow - Chapter8
An overview of gradient descent optimization algorithms
An overview of gradient descent optimization algorithms
劣モジュラ最適化と機械学習 3章
劣モジュラ最適化と機械学習 3章
劣モジュラ最適化と機械学習 2.4節
劣モジュラ最適化と機械学習 2.4節
劣モジュラ最適化と機械学習 2.5節
劣モジュラ最適化と機械学習 2.5節
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 4.2節
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 4.2節
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 3.3節と3.4節
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 3.3節と3.4節
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 1章
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 1章
強くなるロボティック・ ゲームプレイヤーの作り方3章
強くなるロボティック・ ゲームプレイヤーの作り方3章
Reducing the dimensionality of data with neural networks
Reducing the dimensionality of data with neural networks
Boosting probabilistic graphical model inference by incorporating prior knowl...
Boosting probabilistic graphical model inference by incorporating prior knowl...
【機械学習プロフェッショナルシリーズ】グラフィカルモデル2章
【機械学習プロフェッショナルシリーズ】グラフィカルモデル2章
【機械学習プロフェッショナルシリーズ】グラフィカルモデル1章
【機械学習プロフェッショナルシリーズ】グラフィカルモデル1章
Tensorflow
Tensorflow
Creating basic workflows as Jupyter Notebooks to use Cytoscape programmatically.
Creating basic workflows as Jupyter Notebooks to use Cytoscape programmatically.
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 2.3節〜2.5節
1.
スパース性に基づく機械学習 2.3〜2.5節 機械学習プロフェッショナルシリーズ @St_Hakky
2.
自己紹介と告知 • Twitter :
@St_Hakky • ブログ:http://st-hakky.hatenablog.com/ • 関西で機械学習勉強会を実施中!! • 団体のモットー: • 圧倒的スピード感で大量の書物と論文をぶった切る • 「えっ、まだ読んでないの?」と煽り奉り、輪講会を乱立させる • 過去のイベント例 • PRML輪講会、PRML上巻/下巻一気読み • データ解析のための統計モデリング入門の輪講会 • わかりやすいパターン認識(続)の輪講会 • 参加したい方は、Facebookのグループにまずは参加を。 • URL :https://www.facebook.com/groups/1767916400127792/
3.
スパース性に基づく機械学習の 2.3〜2.5節をやります
4.
コンテンツ • 2.3 :
正則化 • 2.4 : 交差確認 • 2.5 : 制約付き最小化問題と罰則項付き最小化問 題の等価性
5.
正則化 • 仮説集合の大きさの制御方法 • 特徴量の増減だけじゃない! •
→同じ特徴空間であってもパラメータベクトル𝒘をより 小さい集合から選ぶことで分散を減少できる • この様な方法として、パラメータベクトルのノルム の制約がある。
6.
ノルムとは • 関数 ・
∶ ℝ 𝑑 → ℝ が以下の3つの性質を満たす とき、 ・ はノルム(norm)という。 • (斉次性) 任意の𝛼 ∈ ℝ, 𝒙 ∈ ℝ 𝑑に対して、 𝛼𝒙 = 𝛼 𝒙 が成立 • (劣加法性)任意の に対して、 が成立。 • (独立性)
7.
L1,L2,L3ノルム L1ノルム L2ノルム L3ノルム
8.
罰則付き推定量 • 同じ特徴空間であってもパラメータベクトル𝑤をより小さい 集合から選ぶことで分散を減少するためのノルムを使った 一種の方法 • 罰則付き推定量
9.
罰則付き推定量 2.5節で示すが、以下の二つの式は等価 2.20式はノルムで制約があるものの、パラメータ数は11であ り、関数は正則化に関係なく10次の多項式
10.
なぜノルムで分散を減らせるのか? • 説明しよう!
11.
まずは図の説明 罰則項付き最小化問題を幾何学的に解釈す るために作られた図 パラメータ次元d=2で横軸が𝑤1、縦軸が𝑤2である 人工的に生成した回帰問題に対する正則化の 軌跡 真のパラメータ𝑤∗ = (2,1) 𝑇 (黒色の×) サンプル数n=10 (a)の図と合わせて、もう一つ(b)の図があるが、 これらは独立に同分布から生成されたデータであ る 楕円状の等高線上は経験誤差関数の値を表す
12.
なぜノルムで分散を減らせるのか? 正則化パラメータλが大きくなるに 従って、解ωは原点を中心とする 小さい同心円上の内部に制約され る。 すなわち、正則化が強くなるほど、小サンプルに由来する揺らぎが抑えら れ、分散が小さくなることがわかる これにより、別でサンプルされた(a)と(b)の回曲線が近づいていることが わかる。
13.
ノルムの値による違い 多項式回帰問題に対して罰則項付き経験誤差最小化 (2.19)を用いた結果を示す。 λ=10-6 : 概ね正しい関数を推定 λ=10-2
: 0 ≤ 𝑥 ≤ 0.6 の範囲で学習された関数がほ ぼ直線になり、誤差が大きくなってしまう
14.
パラメータの数の変化と正則化パラメータの 変化の比較 (c)と(d)の比較 (d):期待誤差は正則化パラメータλ=10-5付近で最小。極端な変化はなし (c):次数p=3付近でやや急峻に誤差が変化 (c)の場合は、p=3以上ではバイアスと呼ぶ誤差要因がゼロになる一方で、(d)で はラムダ=0でない限り、バイアスはゼロにならないから起こる。 (c) : パラメータの数を変化
(d) : 正則化パラメータを変化
15.
2.4 交差確認 • 2.3節で多項式の次数pと正則化パラメータλあるいはCを 調節することでバイアスと分散のトレードオフを測ることが できることを見た。 •
これらのパラメータは、モデルの持つパラメータと区別する ためにハイパーパラメータと呼ぶ。 • ハイパーパラメータを決定する問題はモデル選択という。
16.
データを基にハイパーパラメータの決定 • ハイパーパラメータの決定を客観的にするにはど うしたらいいか? • 訓練データに対する当てはまり:× •
理由:モデルが複雑なほど小さくなる。汎化性能がない • 期待誤差を用いる?:× • 理由:未知の分布に対する期待値が必要なので、基準として 用いることができない • どうする?
17.
データを基にハイパーパラメータの決定 • 一般的に、次の2つがよく用いられる • 検証データを用いる方法 •
交差確認(cross validation)
18.
検証データを用いる方法 • 検証データを用いる方法: • 与えられたデータを訓練用と検証用に分割 •
訓練データでパラメータを学習(ハイパーパラメータは 固定) • 検証データで、検証データに対する誤差を最小にする 様にハイパーパラメータを決定 • 訓練用と検証用の比率は、8:2 or 9:1が一般的
19.
交差確認(cross validation) • 交差確認を用いる方法: •
訓練データをK分割 • K-1個の部分で学習して、誤差評価 • これをすべての1,2,…,K部分で行い、誤差平均を取る • Kは5や10が一般的
20.
検証データを用いる方法と交差確認の比較 • データの規模: • 検証データを用いる方法:大規模データ •
交差確認と比べて計算量が少ないから • 交差確認:小〜中規模データ • データの分割方法: • 検証データを用いる方法:分割を固定することが多い • 検証データに対する誤差に再現性があるため、コンペでもこの方法 を使うことが多い様子。 • 交差確認:分割はランダム
21.
2.5 制約付き最小化問題と罰則項付き最小化問題 の等価性 ここでは、一般の損失関数𝐿と罰則項𝑔に関して、以下の二つの式が等価 であることを説明する ・制約付き最小化問題 ・罰則項付き最小化問題 ここで、損失関数𝐿及び罰則項𝑔は共に凸関数とし、任意の𝐶に関して以 下の集合が有界とする
22.
制約付き最小化問題と罰則項付き最小化問題の等 価性 あるCにおける制約付き最小化問題(2.21) の最小値をL(C)とする 青の実線𝐿(𝐶) :目的関数 の最小値を示す 制約𝑔
𝜔 ≤ Cの元で達成可能な 目的関数𝐿(𝜔)の値の領域 共通部分を持つという制約の中で 最も小さい𝑡に対応する直線 制約なし最小値𝐿0 = 𝑚𝑖𝑛 𝒘 𝐿(𝒘)より𝐿(𝐶)が小 さくなることはないことに注意。 交点の座標が罰則項付き 最小化問題(2.22)の解 𝒘 𝐿 + λ𝐶 = 𝑡
23.
制約付き最小化問題と罰則項付き最小化問題の等 価性 青の実線� (� )
:目的関数 の最小値を示す 制約� � ≤ Cの元で達成可能な 目的関数� (� )の値の領域 共通部分を持つという制約の中で 最も小さい�に対応する直線 交点の座標が罰則項付き 最小化問題(2.22)の解� � + λ� = � この𝐶の値に対する制約付き最小化問題(2.21)の解は、罰則項付き最小 化問題の解 𝒘を含む。 逆に、曲線上側領域の凸性から、任意の𝐶に対して対応するλの値があ り、罰則項付き最小化問題(2.22)の解はこの𝐶に対する制約付き最小化 問題(2.21)の解を含む
24.
おしまい
Download now