SlideShare a Scribd company logo
1 of 36
Romero, Adriana, et al. "Diet Networks: Thin
Parameters for Fat Genomic." arXiv preprint
arXiv:1611.09340 (2016).
@St_Hakky
本論文の概要
• Bengio先生の研究グループによる研究。
• ICLR 2017で採択された
• 「変数の数>>データ数」によるDeep Learningの
学習パラメーターの数が大きくなる問題を解決
した
– 遺伝子関係のデータではよくある状況
– SNPから遺伝的系統をDeepLearningを用いて予測する
のは初めての試み
– 今回の研究対象はバイオであり、 SNPを扱う
Deep Learningのバイオデータでの活躍
• Deep Learningを生物データに適用させて成功し
た研究は既にある
– Using Convolutional Neural Networks (CNNs) to learn the functional activity of DNA sequences
(Basset package, Kelley et al. (2016)
– Predicting effects of noncoding DNA (DeepSEA, Zhou & Troyanskaya (2015))
– Investigating the regulatory role of RNA binding proteins in alternative splicing (Alipanahi et al.,
2015)
• こういった研究はシーケンスデータ対象であり、
CNNやRNNが適用しやすい
SNPとは
• SNPは、DNAの中の1つの塩基が別の塩基に置
き換わったもの
– 人間の遺伝的変異を表す
– 個々人の病気や体質の違いを生む要因と言われている
– ヒトゲノムでは約300~500万個あると言われている
• このSNPデータにDeep Learningを適用すること
で、個々人の薬のリスク等を特定する
– しかし、 SNPは遺伝的変異に着目しているため、
シーケンスなコンテキストを利用できない、高次元
なデータである
SNPデータの問題点
• シーケンスでないデータはCNNなどの手法は利
用できない
• 変数の数 ≫ データ数
– 患者特有の特徴を捉える時に高次元の変数を使いた
い時がある
– この時、過学習の問題はもちろんのこと、学習をう
まく行うこと自体が難しい
– このようなデータに対して、Deep Learningを使う時、
パラメーター数が多くなり、問題になる
Problem
目的 • SNPから個々人の遺伝的系統を予測することを行いたい
問題点
• シーケンスデータでないので、CNNなどの手法が使えない
• 「変数の数 ≫ データ数」な時のNeural Networkにおける問
題点
• 第一層目のパラメーターの数が異常なまでに多くなる
• 学習するパラメータ数が多すぎて過学習が発生する上に、
学習速度も遅くなる
提案手法
• Diet Networksを用いて、パラメーター数を圧倒的に削減する
Method:Diet Network
• 入力が超高次元で且つデータ数よりも次元の
オーダーが大きい場合に、パラメーターの数を
劇的に減らし学習する方法を提案
記号 意味
𝑁 サンプル数
𝑁 𝑑 次元数
𝑁 ≪ 𝑁 𝑑 サンプル数が次元数よりも圧倒的に小さい
𝑋 ∈ 𝑅 𝑁×𝑁 𝑑 データ
𝑌 予測した値(出力)
𝑋 次元圧縮後、復元した値
Fat Hidden/Reconstruction Layer
• 高次元のデータの場合、最初の隠れ層と最後の
隠れ層のパラメーター数が非常に大きくなる
– 例:𝑁𝑑 = 300𝐾で、 最初の層のノード数が100だと、
パラメーター数は30M
– 最初の隠れ層をFat Hidden Layerと言う
– 最後の隠れ層をFat Reconstruction Layerと言う
この重みが非常に大きくなる。
Modelの工夫点
• Fat Hidden/Reconstruction Layerのパラメーター
数を減らすためにModelを工夫する
– 工夫点1:重み学習する補助Networkを導入
– 工夫点2:入力を転置
– 工夫点3:Embedding表現
– 工夫点4:目的関数の工夫
工夫点1:Base Network / Auxiliary Network
• パラメーター数を減らすため、次の2つの
Networkを導入する
– Base Network(図:a)
– Auxiliary(補助) Network (図:b, c)
MLP:Multi Layer Perceptron
工夫点1:Base Network / Auxiliary Network
• (b)のネットワークは最初の隠れ層のパラメー
ターを予測するNetwork
工夫点1:Base Network / Auxiliary Network
• (c)のネットワークはデータの復元を行う層のパ
ラメーターを予測するNetwork
工夫2:入力を転置
• 補助Networkの入力に、転置した値を入れる。こ
れにより、次元削減を行う。
工夫3:Embedding表現
• 特徴のEmbedding(埋め込み)を学習する
工夫3:Embedding表現
• 補助ネットワークで使われるEmbeddingは、事
前に計算しておくかオフラインで学習が出来る
• 理論上はどのような種類のEmbeddingを用いて
も良い
– もちろん、当初の目的であるパラメーターを削減す
るということを忘れなければ大丈夫
Embeddingの種類
• 次の4種類が論文では紹介されていた。
– Random projection
– Per class histogram
– SNPtoVec
– Embedding learnt end-to-end from raw data
Random projection
• MLPを使用
– ただし、学習するわけではなくて、ランダムに初期
化したものをそのまま使用する
• 学習すると、それはそれでまたパラメーターが増えるので
– 普通にデータをそのまま利用するよりは、Random
Projectionでもまだ扱えるレベルの次元に落とす
Per class histogram
• SNPデータに対して、ヒストグラムを作成
• 正規化した後、SNPは3つの値に割り振られる
– しかし、この方法では粗すぎることがわかった
• 代わりに、今回使用する1000 Genome datasetで
は、26のクラスを考え、それぞれで3つの値に分
けるようにした
– そのため、各特徴量は78次元にまで落とせる
– 𝑋 𝑇の次元が、𝑁𝑑 × 78まで落とせる(凄い)
SNPtoVec
• Mikolovらの研究(2013)により、Neural Networkによる単
語の分脈の再現を精度良く可能にした単語の特徴の埋め
込み方法が提案された
• SNPは文章ほど良い位置的な分脈を持たない
– SNPはほぼ独立な位置関係
• そのため、𝑋 から学習したDenoising AutoEncoder(DAE)
を用いて特徴の埋め込みを獲得することにした
– DAEの一つの特徴のInputによるautoencoderの隠れ層の表現が補
助ネットワークのEmbeddingとして用いられる
Embedding learnt end-to-end from raw data
• 普通にMLPを使用するというもの
• これは補助ネットワークのMLPと完全に同一の
ものになる
工夫点4:目的関数の工夫
目的関数
目的関数にReconstruction Errorを入れる
工夫点4:目的関数の工夫
目的関数
目的関数にReconstruction Errorを入れる
クロスエントロピー Reconstruction Error
𝛾はハイパーパラメーター
Modelの工夫点のまとめ
• 以上のような工夫を行い、高次元の入力による
パラメーター数の増加に対応する。
– 工夫点1:重み学習する補助Networkを導入
– 工夫点2:入力を転置
– 工夫点3:Embedding表現
– 工夫点4:目的関数の工夫
Data : The 1000 Genomes Project
• 1000 Genomes Projectは世界中の人種の、多くの
人のシーケンスデータを集めるプロジェクト
– 人間の遺伝的変異のカタログの中では最も大きいパ
ブリックデータを生み出した
– 26人種、5地域からのデータを取得
Data : The 1000 Genomes Project
• (a) : 1000のGenome Dataを人種ごとに分けたヒ
ストグラム
• (b) : 地域ごとの人数
Experiments
• 今回はこのデータセットを用いてSNPから人種
や地域を分類分けする問題を解く
Model Architecture
• 基本のNetwork
– 隠れ層2つ
– 活性化関数はsoftmax
• 補助ネットワーク
– 紹介したEmbeddingを用いつつ、MLPをその上に載せる形
– 中間層のノード数は100
• 実験における学習
– 補助ネットワークありとなしの両方で学習
– Adaptive learning rate ありのSGDで勾配更新
– 𝛾 : 0,10
– Dropoutを使用
– 1に重みを正規化 and/or 重み減衰を使用
実験方法
• 5-foldクロスバリデーション適用
– 1つはテスト用
– 3つは学習用
– 1つはバリデーション用
• 5回繰り返し、平均と標準偏差を取得した
Experiments : Results
• Reconstruction Errorを入れたほうが精度が良い
• 平均はもちろん、標準偏差の値を小さい傾向が
ある
• ロバストな結果を得れていることがわかる
• Reconstruction Errorを入れたほうが精度が良い
• 平均はもちろん、標準偏差の値を小さい傾向が
ある
• ロバストな結果を得れていることがわかる
• Embeddingで、より少ないエラーを獲得できてい
る傾向がある
Experiments : Results
• 最も良いモデルでの結果(Histgram Embeddingを
使用)
Experiments : Results
• 今回の実験結果をまとめる
– Reconstruction Errorを入れたほうが精度が良い
• 平均はもちろん、標準偏差の値を小さい傾向がある
– これから、ロバストな結果を得れていることがわかる
– Embeddingで、より少ないエラーを獲得できている傾向がある
• これにより、パラメーター数も少なくなっている
• また、Random projectionが良い結果を示している
– これは学習するパラメータの数が少ない形で住むことを示している
• SNP2Vecは、SNP間の類似度や共起性を抽出することを学習する
– これはrandom projectionよりも少し性能が良い
– Reconstruction Errorをいれることで平均的な精度はかわっていないが、標準偏差
が低くなっている
• Reconstruction Error込みのPer class histogram encodingが単純でありな
がら、良い精度を出している
– これがもっとも自由パラメーターとしては少ない
– 誤りを起こしているところも似たような民族性を持つところが多い
» BritishはEngland,やScotlandから来ている人が多いなど
– 5つの地域的な分類を行うときはほぼ100%の精度を出している
– PCAとも比較した
• Linear classifierを主成分のトップ10と50, 100, 200のそれぞれで学習した
Conclusion
• 今回、Diet Networkというものを提案した
• 圧倒的にパラメーターを削減できた
• Embeddingというのが良い効果をもたらす
Fin

More Related Content

What's hot

[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−Deep Learning JP
 
Active Learning from Imperfect Labelers @ NIPS読み会・関西
Active Learning from Imperfect Labelers @ NIPS読み会・関西Active Learning from Imperfect Labelers @ NIPS読み会・関西
Active Learning from Imperfect Labelers @ NIPS読み会・関西Taku Tsuzuki
 
読解支援@2015 06-26
読解支援@2015 06-26読解支援@2015 06-26
読解支援@2015 06-26sekizawayuuki
 
Approximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLPApproximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLPKoji Matsuda
 
Multi reference training with pseudo-references for neural translation and te...
Multi reference training with pseudo-references for neural translation and te...Multi reference training with pseudo-references for neural translation and te...
Multi reference training with pseudo-references for neural translation and te...ryoma yoshimura
 
Paper: clinically accuratechestx-rayreport generation_noself
Paper: clinically accuratechestx-rayreport generation_noselfPaper: clinically accuratechestx-rayreport generation_noself
Paper: clinically accuratechestx-rayreport generation_noselfYusuke Fujimoto
 
Noise or signal the role of image backgrounds in object recognition
Noise or signal the role of image backgrounds in object recognitionNoise or signal the role of image backgrounds in object recognition
Noise or signal the role of image backgrounds in object recognitionharmonylab
 

What's hot (7)

[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
 
Active Learning from Imperfect Labelers @ NIPS読み会・関西
Active Learning from Imperfect Labelers @ NIPS読み会・関西Active Learning from Imperfect Labelers @ NIPS読み会・関西
Active Learning from Imperfect Labelers @ NIPS読み会・関西
 
読解支援@2015 06-26
読解支援@2015 06-26読解支援@2015 06-26
読解支援@2015 06-26
 
Approximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLPApproximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLP
 
Multi reference training with pseudo-references for neural translation and te...
Multi reference training with pseudo-references for neural translation and te...Multi reference training with pseudo-references for neural translation and te...
Multi reference training with pseudo-references for neural translation and te...
 
Paper: clinically accuratechestx-rayreport generation_noself
Paper: clinically accuratechestx-rayreport generation_noselfPaper: clinically accuratechestx-rayreport generation_noself
Paper: clinically accuratechestx-rayreport generation_noself
 
Noise or signal the role of image backgrounds in object recognition
Noise or signal the role of image backgrounds in object recognitionNoise or signal the role of image backgrounds in object recognition
Noise or signal the role of image backgrounds in object recognition
 

Viewers also liked

Hands-On Machine Learning with Scikit-Learn and TensorFlow - Chapter8
Hands-On Machine Learning with Scikit-Learn and TensorFlow - Chapter8Hands-On Machine Learning with Scikit-Learn and TensorFlow - Chapter8
Hands-On Machine Learning with Scikit-Learn and TensorFlow - Chapter8Hakky St
 
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章Hakky St
 
劣モジュラ最適化と機械学習 3章
劣モジュラ最適化と機械学習 3章劣モジュラ最適化と機械学習 3章
劣モジュラ最適化と機械学習 3章Hakky St
 
劣モジュラ最適化と機械学習 2.5節
劣モジュラ最適化と機械学習 2.5節劣モジュラ最適化と機械学習 2.5節
劣モジュラ最適化と機械学習 2.5節Hakky St
 
『劣モジュラ最適化と機械学習』 4章
『劣モジュラ最適化と機械学習』 4章『劣モジュラ最適化と機械学習』 4章
『劣モジュラ最適化と機械学習』 4章ayato shimada
 
劣モジュラ最適化と機械学習 2.4節
劣モジュラ最適化と機械学習 2.4節劣モジュラ最適化と機械学習 2.4節
劣モジュラ最適化と機械学習 2.4節Hakky St
 
Tensorflow
TensorflowTensorflow
TensorflowHakky St
 
Boosting probabilistic graphical model inference by incorporating prior knowl...
Boosting probabilistic graphical model inference by incorporating prior knowl...Boosting probabilistic graphical model inference by incorporating prior knowl...
Boosting probabilistic graphical model inference by incorporating prior knowl...Hakky St
 
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 4.2節
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 4.2節スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 4.2節
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 4.2節Hakky St
 
強くなるロボティック・ ゲームプレイヤーの作り方3章
強くなるロボティック・ ゲームプレイヤーの作り方3章強くなるロボティック・ ゲームプレイヤーの作り方3章
強くなるロボティック・ ゲームプレイヤーの作り方3章Hakky St
 
Creating basic workflows as Jupyter Notebooks to use Cytoscape programmatically.
Creating basic workflows as Jupyter Notebooks to use Cytoscape programmatically.Creating basic workflows as Jupyter Notebooks to use Cytoscape programmatically.
Creating basic workflows as Jupyter Notebooks to use Cytoscape programmatically.Hakky St
 
Reducing the dimensionality of data with neural networks
Reducing the dimensionality of data with neural networksReducing the dimensionality of data with neural networks
Reducing the dimensionality of data with neural networksHakky St
 
[DL輪読会]Xception: Deep Learning with Depthwise Separable Convolutions
[DL輪読会]Xception: Deep Learning with Depthwise Separable Convolutions[DL輪読会]Xception: Deep Learning with Depthwise Separable Convolutions
[DL輪読会]Xception: Deep Learning with Depthwise Separable ConvolutionsDeep Learning JP
 
【機械学習プロフェッショナルシリーズ】グラフィカルモデル2章
【機械学習プロフェッショナルシリーズ】グラフィカルモデル2章 【機械学習プロフェッショナルシリーズ】グラフィカルモデル2章
【機械学習プロフェッショナルシリーズ】グラフィカルモデル2章 Hakky St
 
Deep Recurrent Q-Learning(DRQN) for Partially Observable MDPs
Deep Recurrent Q-Learning(DRQN) for Partially Observable MDPsDeep Recurrent Q-Learning(DRQN) for Partially Observable MDPs
Deep Recurrent Q-Learning(DRQN) for Partially Observable MDPsHakky St
 
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 3.3節と3.4節
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 3.3節と3.4節スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 3.3節と3.4節
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 3.3節と3.4節Hakky St
 
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 2.3節〜2.5節
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 2.3節〜2.5節スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 2.3節〜2.5節
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 2.3節〜2.5節Hakky St
 
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 1章
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 1章スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 1章
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 1章Hakky St
 
【機械学習プロフェッショナルシリーズ】グラフィカルモデル1章
【機械学習プロフェッショナルシリーズ】グラフィカルモデル1章【機械学習プロフェッショナルシリーズ】グラフィカルモデル1章
【機械学習プロフェッショナルシリーズ】グラフィカルモデル1章Hakky St
 
スパース性に基づく機械学習 2章 データからの学習
スパース性に基づく機械学習 2章 データからの学習スパース性に基づく機械学習 2章 データからの学習
スパース性に基づく機械学習 2章 データからの学習hagino 3000
 

Viewers also liked (20)

Hands-On Machine Learning with Scikit-Learn and TensorFlow - Chapter8
Hands-On Machine Learning with Scikit-Learn and TensorFlow - Chapter8Hands-On Machine Learning with Scikit-Learn and TensorFlow - Chapter8
Hands-On Machine Learning with Scikit-Learn and TensorFlow - Chapter8
 
劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章劣モジュラ最適化と機械学習1章
劣モジュラ最適化と機械学習1章
 
劣モジュラ最適化と機械学習 3章
劣モジュラ最適化と機械学習 3章劣モジュラ最適化と機械学習 3章
劣モジュラ最適化と機械学習 3章
 
劣モジュラ最適化と機械学習 2.5節
劣モジュラ最適化と機械学習 2.5節劣モジュラ最適化と機械学習 2.5節
劣モジュラ最適化と機械学習 2.5節
 
『劣モジュラ最適化と機械学習』 4章
『劣モジュラ最適化と機械学習』 4章『劣モジュラ最適化と機械学習』 4章
『劣モジュラ最適化と機械学習』 4章
 
劣モジュラ最適化と機械学習 2.4節
劣モジュラ最適化と機械学習 2.4節劣モジュラ最適化と機械学習 2.4節
劣モジュラ最適化と機械学習 2.4節
 
Tensorflow
TensorflowTensorflow
Tensorflow
 
Boosting probabilistic graphical model inference by incorporating prior knowl...
Boosting probabilistic graphical model inference by incorporating prior knowl...Boosting probabilistic graphical model inference by incorporating prior knowl...
Boosting probabilistic graphical model inference by incorporating prior knowl...
 
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 4.2節
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 4.2節スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 4.2節
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 4.2節
 
強くなるロボティック・ ゲームプレイヤーの作り方3章
強くなるロボティック・ ゲームプレイヤーの作り方3章強くなるロボティック・ ゲームプレイヤーの作り方3章
強くなるロボティック・ ゲームプレイヤーの作り方3章
 
Creating basic workflows as Jupyter Notebooks to use Cytoscape programmatically.
Creating basic workflows as Jupyter Notebooks to use Cytoscape programmatically.Creating basic workflows as Jupyter Notebooks to use Cytoscape programmatically.
Creating basic workflows as Jupyter Notebooks to use Cytoscape programmatically.
 
Reducing the dimensionality of data with neural networks
Reducing the dimensionality of data with neural networksReducing the dimensionality of data with neural networks
Reducing the dimensionality of data with neural networks
 
[DL輪読会]Xception: Deep Learning with Depthwise Separable Convolutions
[DL輪読会]Xception: Deep Learning with Depthwise Separable Convolutions[DL輪読会]Xception: Deep Learning with Depthwise Separable Convolutions
[DL輪読会]Xception: Deep Learning with Depthwise Separable Convolutions
 
【機械学習プロフェッショナルシリーズ】グラフィカルモデル2章
【機械学習プロフェッショナルシリーズ】グラフィカルモデル2章 【機械学習プロフェッショナルシリーズ】グラフィカルモデル2章
【機械学習プロフェッショナルシリーズ】グラフィカルモデル2章
 
Deep Recurrent Q-Learning(DRQN) for Partially Observable MDPs
Deep Recurrent Q-Learning(DRQN) for Partially Observable MDPsDeep Recurrent Q-Learning(DRQN) for Partially Observable MDPs
Deep Recurrent Q-Learning(DRQN) for Partially Observable MDPs
 
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 3.3節と3.4節
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 3.3節と3.4節スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 3.3節と3.4節
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 3.3節と3.4節
 
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 2.3節〜2.5節
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 2.3節〜2.5節スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 2.3節〜2.5節
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 2.3節〜2.5節
 
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 1章
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 1章スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 1章
スパース性に基づく機械学習(機械学習プロフェッショナルシリーズ) 1章
 
【機械学習プロフェッショナルシリーズ】グラフィカルモデル1章
【機械学習プロフェッショナルシリーズ】グラフィカルモデル1章【機械学習プロフェッショナルシリーズ】グラフィカルモデル1章
【機械学習プロフェッショナルシリーズ】グラフィカルモデル1章
 
スパース性に基づく機械学習 2章 データからの学習
スパース性に基づく機械学習 2章 データからの学習スパース性に基づく機械学習 2章 データからの学習
スパース性に基づく機械学習 2章 データからの学習
 

Similar to Diet networks thin parameters for fat genomic

Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門Shuyo Nakatani
 
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...Deep Learning JP
 
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for PredictionDeep Learning JP
 
非定常データストリームにおける適応的決定木を用いたアンサンブル学習
非定常データストリームにおける適応的決定木を用いたアンサンブル学習非定常データストリームにおける適応的決定木を用いたアンサンブル学習
非定常データストリームにおける適応的決定木を用いたアンサンブル学習Yu Sugawara
 
Using Deep Learning for Recommendation
Using Deep Learning for RecommendationUsing Deep Learning for Recommendation
Using Deep Learning for RecommendationEduardo Gonzalez
 
関西CVPRML勉強会資料20150627
関西CVPRML勉強会資料20150627関西CVPRML勉強会資料20150627
関西CVPRML勉強会資料20150627tsunekawas
 
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochiDeep learning勉強会20121214ochi
Deep learning勉強会20121214ochiOhsawa Goodfellow
 
[DL輪読会]Training RNNs as Fast as CNNs
[DL輪読会]Training RNNs as Fast as CNNs[DL輪読会]Training RNNs as Fast as CNNs
[DL輪読会]Training RNNs as Fast as CNNsDeep Learning JP
 
論文紹介:Beyond Short Clips: End-to-End Video-Level Learning With Collaborative M...
論文紹介:Beyond Short Clips: End-to-End Video-Level Learning With Collaborative M...論文紹介:Beyond Short Clips: End-to-End Video-Level Learning With Collaborative M...
論文紹介:Beyond Short Clips: End-to-End Video-Level Learning With Collaborative M...Toru Tamaki
 
バイオインフォ講義1
バイオインフォ講義1バイオインフォ講義1
バイオインフォ講義1Mas Kot
 
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)Toru Fujino
 
Combinatorial optimization with graph convolutional networks and guided
Combinatorial optimization with graph convolutional networks and guidedCombinatorial optimization with graph convolutional networks and guided
Combinatorial optimization with graph convolutional networks and guidedShuntaro Ohno
 
Combinatorial optimization with graph convolutional networks and guided ver20...
Combinatorial optimization with graph convolutional networks and guided ver20...Combinatorial optimization with graph convolutional networks and guided ver20...
Combinatorial optimization with graph convolutional networks and guided ver20...Shuntaro Ohno
 
ISMB読み会 2nd graph kernel
ISMB読み会 2nd graph kernelISMB読み会 2nd graph kernel
ISMB読み会 2nd graph kernel弘毅 露崎
 
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores,  Clusters and Cloudsの解説LCCC2010:Learning on Cores,  Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説Preferred Networks
 
第3回NIPS読み会・関西発表資料
第3回NIPS読み会・関西発表資料第3回NIPS読み会・関西発表資料
第3回NIPS読み会・関西発表資料Takato Horii
 
【DL輪読会】Learning Instance-Specific Adaptation for Cross-Domain Segmentation (E...
【DL輪読会】Learning Instance-Specific Adaptation for Cross-Domain Segmentation (E...【DL輪読会】Learning Instance-Specific Adaptation for Cross-Domain Segmentation (E...
【DL輪読会】Learning Instance-Specific Adaptation for Cross-Domain Segmentation (E...Deep Learning JP
 
論文紹介:Facial Action Unit Detection using Active Learning and an Efficient Non-...
論文紹介:Facial Action Unit Detection using Active Learning and an Efficient Non-...論文紹介:Facial Action Unit Detection using Active Learning and an Efficient Non-...
論文紹介:Facial Action Unit Detection using Active Learning and an Efficient Non-...Kazuki Adachi
 
[Dl輪読会]semi supervised learning with context-conditional generative adversari...
[Dl輪読会]semi supervised learning with context-conditional generative adversari...[Dl輪読会]semi supervised learning with context-conditional generative adversari...
[Dl輪読会]semi supervised learning with context-conditional generative adversari...Deep Learning JP
 

Similar to Diet networks thin parameters for fat genomic (20)

Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門
 
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
 
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
 
非定常データストリームにおける適応的決定木を用いたアンサンブル学習
非定常データストリームにおける適応的決定木を用いたアンサンブル学習非定常データストリームにおける適応的決定木を用いたアンサンブル学習
非定常データストリームにおける適応的決定木を用いたアンサンブル学習
 
Using Deep Learning for Recommendation
Using Deep Learning for RecommendationUsing Deep Learning for Recommendation
Using Deep Learning for Recommendation
 
関西CVPRML勉強会資料20150627
関西CVPRML勉強会資料20150627関西CVPRML勉強会資料20150627
関西CVPRML勉強会資料20150627
 
NeurIPS2019参加報告
NeurIPS2019参加報告NeurIPS2019参加報告
NeurIPS2019参加報告
 
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochiDeep learning勉強会20121214ochi
Deep learning勉強会20121214ochi
 
[DL輪読会]Training RNNs as Fast as CNNs
[DL輪読会]Training RNNs as Fast as CNNs[DL輪読会]Training RNNs as Fast as CNNs
[DL輪読会]Training RNNs as Fast as CNNs
 
論文紹介:Beyond Short Clips: End-to-End Video-Level Learning With Collaborative M...
論文紹介:Beyond Short Clips: End-to-End Video-Level Learning With Collaborative M...論文紹介:Beyond Short Clips: End-to-End Video-Level Learning With Collaborative M...
論文紹介:Beyond Short Clips: End-to-End Video-Level Learning With Collaborative M...
 
バイオインフォ講義1
バイオインフォ講義1バイオインフォ講義1
バイオインフォ講義1
 
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
 
Combinatorial optimization with graph convolutional networks and guided
Combinatorial optimization with graph convolutional networks and guidedCombinatorial optimization with graph convolutional networks and guided
Combinatorial optimization with graph convolutional networks and guided
 
Combinatorial optimization with graph convolutional networks and guided ver20...
Combinatorial optimization with graph convolutional networks and guided ver20...Combinatorial optimization with graph convolutional networks and guided ver20...
Combinatorial optimization with graph convolutional networks and guided ver20...
 
ISMB読み会 2nd graph kernel
ISMB読み会 2nd graph kernelISMB読み会 2nd graph kernel
ISMB読み会 2nd graph kernel
 
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
LCCC2010:Learning on Cores,  Clusters and Cloudsの解説LCCC2010:Learning on Cores,  Clusters and Cloudsの解説
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
 
第3回NIPS読み会・関西発表資料
第3回NIPS読み会・関西発表資料第3回NIPS読み会・関西発表資料
第3回NIPS読み会・関西発表資料
 
【DL輪読会】Learning Instance-Specific Adaptation for Cross-Domain Segmentation (E...
【DL輪読会】Learning Instance-Specific Adaptation for Cross-Domain Segmentation (E...【DL輪読会】Learning Instance-Specific Adaptation for Cross-Domain Segmentation (E...
【DL輪読会】Learning Instance-Specific Adaptation for Cross-Domain Segmentation (E...
 
論文紹介:Facial Action Unit Detection using Active Learning and an Efficient Non-...
論文紹介:Facial Action Unit Detection using Active Learning and an Efficient Non-...論文紹介:Facial Action Unit Detection using Active Learning and an Efficient Non-...
論文紹介:Facial Action Unit Detection using Active Learning and an Efficient Non-...
 
[Dl輪読会]semi supervised learning with context-conditional generative adversari...
[Dl輪読会]semi supervised learning with context-conditional generative adversari...[Dl輪読会]semi supervised learning with context-conditional generative adversari...
[Dl輪読会]semi supervised learning with context-conditional generative adversari...
 

Diet networks thin parameters for fat genomic