More Related Content More from Deep Learning JP (20) [DL輪読会]Understanding deep learning requires rethinking generalization2. 書誌情報
• ICLR2017 oral accepted
• Rating9.5 (1st!!!)
• Chiyuan Zhang, Samy Bengio, Moritz Harbd, Benjamin Recht,
Oriol Vinyasls
• MIT, Berkeley, Google Brain, DeepMindの混合
• 1st authorがGoogle Brainでインターンしてた時の研究
• Harbdさん,Rechtさんはそもそも汎化性能に関する研究をしている人っぽい
• 反省:輪読して質問が出やすい系の論文じゃないかもしれない
(じっくり考えないとよくわからない)
2
4. RQ: 良い汎化性能を達成する理由は?
• 一般的なDLの問題設定:サンプル数 <<<< パラメタの数
• しかし,汎化性能は◎
• 一方で汎化性能の悪いNNを考えることも簡単
• 汎化性能の「良い」NNと「悪い」 NNを分けるのは何か?
“What is it then that distinguishes neural networks that
generalize well from those that don’t?”
4
5. 汎化性能に関する従来指標
1. 仮説集合Hの複雑さ
1. VC dimension [Vapnik, 1998]
2. Rademacher complexity [Bartlett, 2003]
2. アルゴリズムAの安定性
1. Uniform stability [Mukherjee et al., 2002]
複雑なモデルの汎化性能の保証には正則化が必須である
5
9. 実験1:検証方法
• 無作為化の方法
• 1. ラベルをランダムに変更する
• 2. 入力をランダムに変更する (Random,Shuffle,Gaussian)
• データセット
• CIFAR10とImageNet
• モデル
• Inception v3、Alxexnet、MLPs
• 詳細は付録A参照
9
13. 実験1から得られた示唆
• Radermacher complexity and VC-dimension
• 仮説集合Hの複雑さの指標
• ランダムなラベルに対する予測精度の上界の期待値
• 今回の結果からRademacher complexityは1
=>何の上界も抑えない(DLは悪いモデルということになる)
• Uniform stability
• 訓練アルゴリズムAの安定性の指標
• ランダムに1つ事例を変えたときに結果がどう変わるか
• データの性質を考慮していない?
13
21. 実験1, 2, 3で得られた示唆
• モデル自体の複雑さではDLの汎化性能を評価できない
• DLはランダムな訓練データにも完全に適合する(実験1)
• 正則化は汎化性能を改善するが決定的でも必須でもない
• 実験2: 明示的な正則化無しでも良い汎化性能
• 実験3: 早期終了やバッチ正規化の影響は軽微
結局何がDLの汎化性能を高めているのか?
21
24. まとめ
• 主張
• DLの汎化性能は従来の枠組みで説明できない
• サポート
• DLはランダムな訓練データにもほぼ完璧にフィットする
(データを完全に記憶している)
• DLにおいて正則化は汎化性能を改善するが,正則化ゼロでも良い
(モデル構造や学習方法などその他の部分に鍵がありそう)
• 含まれないこと
• 良い汎化性能を達成する方法,達成するための将来課題
24
28. 関連研究
• [Hardt 2016]
• Uniform stabilityに基づく分析
• => uniform stabilityはランダムなラベルと正しいラベルの結果を区別
できない
• [Cybenko, 1989;Mhaskar, 1993]など
• これらの研究は関数レベルの近似能力
• => 有限サンプルの近似能力を検証
28