Submit Search
Upload
はじパタ2章
•
20 likes
•
21,601 views
tetsuro ito
Follow
Report
Share
Report
Share
1 of 25
Download now
Download to read offline
Recommended
20130716 はじパタ3章前半 ベイズの識別規則
20130716 はじパタ3章前半 ベイズの識別規則
koba cky
はじめてのパターン認識 第1章
はじめてのパターン認識 第1章
Prunus 1350
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
Motoya Wakiyama
決定木・回帰木に基づくアンサンブル学習の最近
決定木・回帰木に基づくアンサンブル学習の最近
Ichigaku Takigawa
ベータ分布の謎に迫る
ベータ分布の謎に迫る
Ken'ichi Matsui
はじパタ8章 svm
はじパタ8章 svm
tetsuro ito
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
Naoki Hayashi
はじめてのパターン認識 第8章 サポートベクトルマシン
はじめてのパターン認識 第8章 サポートベクトルマシン
Motoya Wakiyama
Recommended
20130716 はじパタ3章前半 ベイズの識別規則
20130716 はじパタ3章前半 ベイズの識別規則
koba cky
はじめてのパターン認識 第1章
はじめてのパターン認識 第1章
Prunus 1350
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
Motoya Wakiyama
決定木・回帰木に基づくアンサンブル学習の最近
決定木・回帰木に基づくアンサンブル学習の最近
Ichigaku Takigawa
ベータ分布の謎に迫る
ベータ分布の謎に迫る
Ken'ichi Matsui
はじパタ8章 svm
はじパタ8章 svm
tetsuro ito
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
Naoki Hayashi
はじめてのパターン認識 第8章 サポートベクトルマシン
はじめてのパターン認識 第8章 サポートベクトルマシン
Motoya Wakiyama
劣微分
劣微分
ShintaUrakami
[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎
Deep Learning JP
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
Kenyu Uehara
ベイズファクターとモデル選択
ベイズファクターとモデル選択
kazutantan
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
弘毅 露崎
One Class SVMを用いた異常値検知
One Class SVMを用いた異常値検知
Yuto Mori
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
Ken'ichi Matsui
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
sleepy_yoshi
論文紹介 Anomaly Detection using One-Class Neural Networks (修正版
論文紹介 Anomaly Detection using One-Class Neural Networks (修正版
Katsuki Ohto
正準相関分析
正準相関分析
Akisato Kimura
強化学習入門
強化学習入門
Shunta Saito
SHAP値の考え方を理解する(木構造編)
SHAP値の考え方を理解する(木構造編)
Kazuyuki Wakasugi
Control as Inference (強化学習とベイズ統計)
Control as Inference (強化学習とベイズ統計)
Shohei Taniguchi
深層学習の数理
深層学習の数理
Taiji Suzuki
線形計画法入門
線形計画法入門
Shunji Umetani
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知
Yuya Takashina
パターン認識 第10章 決定木
パターン認識 第10章 決定木
Miyoshi Yuya
Gradient Tree Boosting はいいぞ
Gradient Tree Boosting はいいぞ
7X RUSK
Rで階層ベイズモデル
Rで階層ベイズモデル
Yohei Sato
スパース推定法による統計モデリング(入門)
スパース推定法による統計モデリング(入門)
Hidetoshi Matsui
20140204はじパタlt
20140204はじパタlt
tetsuro ito
はじめてのパターン認識勉強会 20130716
はじめてのパターン認識勉強会 20130716
Hiroko Onari
More Related Content
What's hot
劣微分
劣微分
ShintaUrakami
[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎
Deep Learning JP
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
Kenyu Uehara
ベイズファクターとモデル選択
ベイズファクターとモデル選択
kazutantan
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
弘毅 露崎
One Class SVMを用いた異常値検知
One Class SVMを用いた異常値検知
Yuto Mori
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
Ken'ichi Matsui
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
sleepy_yoshi
論文紹介 Anomaly Detection using One-Class Neural Networks (修正版
論文紹介 Anomaly Detection using One-Class Neural Networks (修正版
Katsuki Ohto
正準相関分析
正準相関分析
Akisato Kimura
強化学習入門
強化学習入門
Shunta Saito
SHAP値の考え方を理解する(木構造編)
SHAP値の考え方を理解する(木構造編)
Kazuyuki Wakasugi
Control as Inference (強化学習とベイズ統計)
Control as Inference (強化学習とベイズ統計)
Shohei Taniguchi
深層学習の数理
深層学習の数理
Taiji Suzuki
線形計画法入門
線形計画法入門
Shunji Umetani
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知
Yuya Takashina
パターン認識 第10章 決定木
パターン認識 第10章 決定木
Miyoshi Yuya
Gradient Tree Boosting はいいぞ
Gradient Tree Boosting はいいぞ
7X RUSK
Rで階層ベイズモデル
Rで階層ベイズモデル
Yohei Sato
スパース推定法による統計モデリング(入門)
スパース推定法による統計モデリング(入門)
Hidetoshi Matsui
What's hot
(20)
劣微分
劣微分
[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
ベイズファクターとモデル選択
ベイズファクターとモデル選択
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
One Class SVMを用いた異常値検知
One Class SVMを用いた異常値検知
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
論文紹介 Anomaly Detection using One-Class Neural Networks (修正版
論文紹介 Anomaly Detection using One-Class Neural Networks (修正版
正準相関分析
正準相関分析
強化学習入門
強化学習入門
SHAP値の考え方を理解する(木構造編)
SHAP値の考え方を理解する(木構造編)
Control as Inference (強化学習とベイズ統計)
Control as Inference (強化学習とベイズ統計)
深層学習の数理
深層学習の数理
線形計画法入門
線形計画法入門
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知
パターン認識 第10章 決定木
パターン認識 第10章 決定木
Gradient Tree Boosting はいいぞ
Gradient Tree Boosting はいいぞ
Rで階層ベイズモデル
Rで階層ベイズモデル
スパース推定法による統計モデリング(入門)
スパース推定法による統計モデリング(入門)
Viewers also liked
20140204はじパタlt
20140204はじパタlt
tetsuro ito
はじめてのパターン認識勉強会 20130716
はじめてのパターン認識勉強会 20130716
Hiroko Onari
オイラーの公式で感じる次元の呪い
オイラーの公式で感じる次元の呪い
Yoshiteru Kamiyama
はじパタ2nd 20130702 otanet
はじパタ2nd 20130702 otanet
博三 太田
はじパタLT2
はじパタLT2
Tadayuki Onishi
はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半
Prunus 1350
Fisher線形判別分析とFisher Weight Maps
Fisher線形判別分析とFisher Weight Maps
Takao Yamanaka
Viewers also liked
(7)
20140204はじパタlt
20140204はじパタlt
はじめてのパターン認識勉強会 20130716
はじめてのパターン認識勉強会 20130716
オイラーの公式で感じる次元の呪い
オイラーの公式で感じる次元の呪い
はじパタ2nd 20130702 otanet
はじパタ2nd 20130702 otanet
はじパタLT2
はじパタLT2
はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半
Fisher線形判別分析とFisher Weight Maps
Fisher線形判別分析とFisher Weight Maps
Similar to はじパタ2章
TechTarget新サービス
TechTarget新サービス
リード研究所 / Lead Lab
Alteryxの中級者向けトレーニングコース始めます!
Alteryxの中級者向けトレーニングコース始めます!
Yuji Kanemoto
カルマンフィルタ入門
カルマンフィルタ入門
Yasunori Nihei
データサイエンティスト協会スキル委員会2ndシンポジウム講演資料
データサイエンティスト協会スキル委員会2ndシンポジウム講演資料
The Japan DataScientist Society
Markezine チラ見せ用
Markezine チラ見せ用
Shinya Nakazawa
20171201 deep learning lab albert
20171201 deep learning lab albert
Hirono Jumpei
自己紹介にかえて-変化する企業ITと“ワクワク感” 桑原里恵
自己紹介にかえて-変化する企業ITと“ワクワク感” 桑原里恵
Sapporo Sparkle k.k.
東北大学AIE - 機械学習入門編
東北大学AIE - 機械学習入門編
Daiyu Hatakeyama
『手を動かしながら学ぶ ビジネスに活かすデータマイニング』で目指したもの・学んでもらいたいもの
『手を動かしながら学ぶ ビジネスに活かすデータマイニング』で目指したもの・学んでもらいたいもの
Takashi J OZAKI
20180627 - DEEP LEARNING LAB / Cognitive Services 最新情報 30 分でズバリ!
20180627 - DEEP LEARNING LAB / Cognitive Services 最新情報 30 分でズバリ!
Takashi Okawa
[db analytics showcase Sapporo 2018] B32 無いなら作ろう!教師データ作成のあれこれ
[db analytics showcase Sapporo 2018] B32 無いなら作ろう!教師データ作成のあれこれ
Insight Technology, Inc.
tut_pfi_2012
tut_pfi_2012
Preferred Networks
Data-Centric AIの紹介
Data-Centric AIの紹介
Kazuyuki Miyazawa
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V e-1
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V e-1
Shunsuke Nakamura
Markezine day 2012 gdo nakazawa
Markezine day 2012 gdo nakazawa
Shinya Nakazawa
ITエンジニアのためのAI基礎2020
ITエンジニアのためのAI基礎2020
Keisuke Tameyasu
分析のリアルがここに!現場で使えるデータ分析(1限目) 先生:吉永 恵一
分析のリアルがここに!現場で使えるデータ分析(1限目) 先生:吉永 恵一
schoowebcampus
Big data解析ビジネス
Big data解析ビジネス
Mie Mori
経済を理解する数字の見方、上司が見たい数字の見せ方
経済を理解する数字の見方、上司が見たい数字の見せ方
MKT International Inc.
SEGA : Growth hacking by Spark ML for Mobile games
SEGA : Growth hacking by Spark ML for Mobile games
DataWorks Summit/Hadoop Summit
Similar to はじパタ2章
(20)
TechTarget新サービス
TechTarget新サービス
Alteryxの中級者向けトレーニングコース始めます!
Alteryxの中級者向けトレーニングコース始めます!
カルマンフィルタ入門
カルマンフィルタ入門
データサイエンティスト協会スキル委員会2ndシンポジウム講演資料
データサイエンティスト協会スキル委員会2ndシンポジウム講演資料
Markezine チラ見せ用
Markezine チラ見せ用
20171201 deep learning lab albert
20171201 deep learning lab albert
自己紹介にかえて-変化する企業ITと“ワクワク感” 桑原里恵
自己紹介にかえて-変化する企業ITと“ワクワク感” 桑原里恵
東北大学AIE - 機械学習入門編
東北大学AIE - 機械学習入門編
『手を動かしながら学ぶ ビジネスに活かすデータマイニング』で目指したもの・学んでもらいたいもの
『手を動かしながら学ぶ ビジネスに活かすデータマイニング』で目指したもの・学んでもらいたいもの
20180627 - DEEP LEARNING LAB / Cognitive Services 最新情報 30 分でズバリ!
20180627 - DEEP LEARNING LAB / Cognitive Services 最新情報 30 分でズバリ!
[db analytics showcase Sapporo 2018] B32 無いなら作ろう!教師データ作成のあれこれ
[db analytics showcase Sapporo 2018] B32 無いなら作ろう!教師データ作成のあれこれ
tut_pfi_2012
tut_pfi_2012
Data-Centric AIの紹介
Data-Centric AIの紹介
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V e-1
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V e-1
Markezine day 2012 gdo nakazawa
Markezine day 2012 gdo nakazawa
ITエンジニアのためのAI基礎2020
ITエンジニアのためのAI基礎2020
分析のリアルがここに!現場で使えるデータ分析(1限目) 先生:吉永 恵一
分析のリアルがここに!現場で使えるデータ分析(1限目) 先生:吉永 恵一
Big data解析ビジネス
Big data解析ビジネス
経済を理解する数字の見方、上司が見たい数字の見せ方
経済を理解する数字の見方、上司が見たい数字の見せ方
SEGA : Growth hacking by Spark ML for Mobile games
SEGA : Growth hacking by Spark ML for Mobile games
More from tetsuro ito
[Up用]rでqr
[Up用]rでqr
tetsuro ito
20170912 data analyst meetup tokyo vol.5
20170912 data analyst meetup tokyo vol.5
tetsuro ito
DataOps in Moneyforward
DataOps in Moneyforward
tetsuro ito
20170207 bigdata analytics_tokyo講演資料
20170207 bigdata analytics_tokyo講演資料
tetsuro ito
20161029 dots machine learning in money forward
20161029 dots machine learning in money forward
tetsuro ito
20160906 bq sushi
20160906 bq sushi
tetsuro ito
TokyoR LT Rで連続データを離散化
TokyoR LT Rで連続データを離散化
tetsuro ito
20150531分析プラットホームとその技術(bizreach) cookpad ito #dcube_analysis
20150531分析プラットホームとその技術(bizreach) cookpad ito #dcube_analysis
tetsuro ito
20150303続パタ5章後半
20150303続パタ5章後半
tetsuro ito
PRML読書会1スライド(公開用)
PRML読書会1スライド(公開用)
tetsuro ito
20140614 tokyo r lt
20140614 tokyo r lt
tetsuro ito
20140329 tokyo r lt 「カーネルとsvm」
20140329 tokyo r lt 「カーネルとsvm」
tetsuro ito
Japan.r 2013 「実ビジネスデータへのrの活用とその限界」
Japan.r 2013 「実ビジネスデータへのrの活用とその限界」
tetsuro ito
Tokyo R LT 20131109
Tokyo R LT 20131109
tetsuro ito
第31回TokyoR LT資料
第31回TokyoR LT資料
tetsuro ito
集合知プログラミング5章発表
集合知プログラミング5章発表
tetsuro ito
集合知プログラミング11章
集合知プログラミング11章
tetsuro ito
集合知プログラミング勉強会キックオフMTG LT用資料
集合知プログラミング勉強会キックオフMTG LT用資料
tetsuro ito
20120326 zansa勉強会発表資料 (公開用) 02 04-38
20120326 zansa勉強会発表資料 (公開用) 02 04-38
tetsuro ito
複雑ネットワーク勉強会 第6章 後半
複雑ネットワーク勉強会 第6章 後半
tetsuro ito
More from tetsuro ito
(20)
[Up用]rでqr
[Up用]rでqr
20170912 data analyst meetup tokyo vol.5
20170912 data analyst meetup tokyo vol.5
DataOps in Moneyforward
DataOps in Moneyforward
20170207 bigdata analytics_tokyo講演資料
20170207 bigdata analytics_tokyo講演資料
20161029 dots machine learning in money forward
20161029 dots machine learning in money forward
20160906 bq sushi
20160906 bq sushi
TokyoR LT Rで連続データを離散化
TokyoR LT Rで連続データを離散化
20150531分析プラットホームとその技術(bizreach) cookpad ito #dcube_analysis
20150531分析プラットホームとその技術(bizreach) cookpad ito #dcube_analysis
20150303続パタ5章後半
20150303続パタ5章後半
PRML読書会1スライド(公開用)
PRML読書会1スライド(公開用)
20140614 tokyo r lt
20140614 tokyo r lt
20140329 tokyo r lt 「カーネルとsvm」
20140329 tokyo r lt 「カーネルとsvm」
Japan.r 2013 「実ビジネスデータへのrの活用とその限界」
Japan.r 2013 「実ビジネスデータへのrの活用とその限界」
Tokyo R LT 20131109
Tokyo R LT 20131109
第31回TokyoR LT資料
第31回TokyoR LT資料
集合知プログラミング5章発表
集合知プログラミング5章発表
集合知プログラミング11章
集合知プログラミング11章
集合知プログラミング勉強会キックオフMTG LT用資料
集合知プログラミング勉強会キックオフMTG LT用資料
20120326 zansa勉強会発表資料 (公開用) 02 04-38
20120326 zansa勉強会発表資料 (公開用) 02 04-38
複雑ネットワーク勉強会 第6章 後半
複雑ネットワーク勉強会 第6章 後半
はじパタ2章
1.
はじめてのパターン認識 第2章 「識別規則と学習法の概要」 後半 2013/7/2 @リクルート
2.
あんた誰? 名前 伊藤 徹郎 (@tetsuroito) 所属 株式会社ALBERT データ分析部 好きなもの サッカー、スキー、オレオ!
3.
株式会社ALBERTについて 「分析力をコアとするマーケティングソリューションカンパニー」 ALBERTの事業領域 CRMソリューションの開発・提供 レコメンドエンジンの開発・提供 行動ターゲティング広告システムの 開発・提供 データサイエンティスト、エンジニア大募集中です! 一緒にデータサイエンスしませんか?
4.
では、本題 2.2 汎化能力とは?
5.
2.2 汎化能力とは? ちょっとおさらい 学習:学習データに対する識別関数の出力値と学習データとの誤差が最小に なるように、識別関数のパラメータを調整すること 未知のデータに対しての性能保証はなし! 学習データから動作確認のためにテストデータを除いて試そう! 汎化能力:未知データに対する識別能力 汎化誤差:未知データを識別した時の誤差
6.
学習データとテストデータ 手元にある学習データセットを分割してテストデータセットを作ります。 重さ 透磁率 etc‥ d個の特徴 d次元の特徴ベクトルの分布p 真の誤り率ε(p,p) 重さ 透磁率 etc‥ 10,000枚 8,000枚 2,000枚 母集団 学習データセット テストデータセット d個の特徴 d次元の特徴ベクトルの分布pL 再代入誤り率ε(pL,pL) d個の特徴重さ 透磁率 etc‥ d次元の特徴ベクトルの分布pT
7.
用語たち 母集団:先の事例では、全硬貨の集合(事例では10,000枚) 真の分布:母集団のd次元特徴の分布p バイアス:真の分布とランダムサンプルのズレ (平均値や分散など) 真の誤り率ε(p,p):真の分布pに従う学習データを用いて設計し、真の分布 pに従うテストデータを用いてテストしたときの誤り率 再代入誤り率:学習データを母集団からサンプルし、テストにも同じデータを 用いて測定した誤り率
8.
例題だよ 再代入誤り率が大きい場合、 どのような対処法が考えられ ますか?
9.
ANSWER 学習データに対する誤りが多いので、 識別機の能力が足りません。 何らかの方法で 識別機の性能をあげましょう!
10.
データの主な分割方法 1、ホールドアウト法(holdout法) 2、交差確認法(cross validation法) 3、一つ抜き法(leave-one-out法) (ジャックナイフ法) 4、ブートストラップ法(bootstrap法)
11.
1、ホールドアウト法 母集団 学習データ テストデータ ホールドアウト誤り率 分割の配分はご自由に ★欠点 学習データを増やす→学習精度は向上するが、性能評価がいまいち 検証データを増やす→学習精度が悪くなってしまう
12.
2、交差確認法 手元の各クラスのデータをm個に分割し、m-1個のグループのデータを使って 識別機を学習し、残りの1つで検証を行う方法です。これをm回繰り返し、 それらの誤り率の平均を性能予測値とします。 学習データテスト 学習データテスト 学習データ テスト m個に分割 m 回 識別率の予測値 全データを検証できるので、
13.
3、一つ抜き法(ジャックナイフ法) 交差確認法において、データの数とグループの数を等しくした場合のこと。 1つを除いたデータすべてのデータで学習し、除いた1つでテストすることを データ数分繰り返す。 またの名をジャックナイフ法ともいい、重複をしない分、計算効率がいいとか 悪いとか‥ なんかいまいちわからないので、 知ってる人、教えてください
14.
4、ブートストラップ法 再代入誤り率のバイアス補正に用いられる。 データ #1 データ #2 データ #3 ‥ データ #N-1 データ #N 復元抽出×N回 ブートストラップサンプル データ #3 データ #20 データ #1 ‥ データ #3 データ #5 N個 ブートストラップサンプルを最低50は生成し、それらによって得られる 誤認識率の差の平均値でバイアスを推定する!
15.
汎化能力の評価法とモデル選択 学習データでパラメータを調整して、テストデータで誤り率を評価しても 誤りが目標より小さくならないという場面ありますね。 この場合はどうしようもないので、識別関数を変えましょう。
16.
モデル選択 変えると言っても、方法はたくさんあります! ・線形識別関数→非線形識別関数に変える ・多項式のパラメータの数(次数)を変える etc‥ パラメータの数を変え、テストデータに対する誤り率が最も小さくなる パラメータを選択する方法をモデル選択と言います このように‥
17.
具体例:多項式回帰で あるノイズが乗った多項式から等間隔にサンプルされたデータに多項式近似を 行います。 f(x)=0.5+0.4sin(2πx)+ε=h(x)+ε N~(ε|0,0.05) 11個の学習データから信号成分h(x)を取り出す! 信号成分h(x)との近似の良さは平均2乗誤差(MSE)で表す テキストでは、1次、3次、6次、10次多項式で近似している
18.
多項式近似の例 データから大きく外れている(バイアスが大きい) ノイズに惑わされず信号成分をよく近似 バイアスも小さく、分散も小さい 6次になると、ノイズを追うようになる 10次は完全にノイズを追ってしまう
19.
バイアス・分散トレードオフ 関数が複雑になるほど学習データに対する近似能力は向上する (学習データに対するバイアス小さいが、分散が大きい) このように バイアスを小さくすれば分散が大きくなり、逆に分散を小さく すれば、バイアスが大きくなる現象をバイアス・分散トレードオフ という 汎化能力を決める大きな要因となる!
20.
過学習(オーバーフィッティング) 先の事例のように、多項式の次数を大きくすると個々のノイズ成分を追従する ようになるので、学習誤差が単調に減少します。 このような事象を過学習と言います。 ※深堀したい人はぜひPRML上巻1章の多項式フィッティングを読もう!
21.
識別関数の最適選択 多項式の最適次数選択は先ほどの説明の通りです。 同様に、識別関数でも同様に考えることができます。 識別関数y=f(x;w)のf()の形やwの要素数を変化させ、交差確認法やブートスト ラップ法によって汎化誤差を推定します。 データの分布に統計モデルを仮定する場合 AIC(赤池情報量基準)やBIC(ベイズ情報量基準)、MDL(最小距離基準) などを使って解析的に汎化誤差を評価し、モデル選択をします。 詳細は自分で調べてね!
22.
章末問題は省略するね
23.
最後に大事なので もう1回言います あっ!
24.
データサイエンティスト、エンジニア大募集中です! 一緒にデータサイエンスしませんか?
25.
おわり ご清聴ありがとうございました!
Download now