SlideShare a Scribd company logo
1 of 13
Download to read offline
3. 確率的勾配降下法
3章概要
順伝搬型ネットワークの学習 → 誤差関数を最小化すること
その方法として誤差関数の傾き(勾配)を用いる↓
勾配降下法:訓練データをまとめて一括で学習(バッチ学習)
確率的勾配降下法:訓練データを個別に逐次学習
一括だと学習が早い(計算量が少ない)けど
↓
確率的勾配降下法の方が、局所極小解に陥りにくいなど、メリットたくさん
ので、確率的勾配降下法を使うのが一般的
→ 計算量の問題から、間をとったミニバッチ学習が人気
3章概要
正則化の手法 → 1.重みに制約をつける ex. 重み減衰
2.使うユニットを制約する:ドロップアウト
さらに、性能を上げる様々な工夫が↓
データの正規化・学習係数の決定・モメンタム・データ拡張
複数ネットの平均・重みの初期値・サンプルの順序
→でも… 学習しすぎて性能が下がることも:過学習
正則化:重みの自由度に制約を設ける
対策
・勾配降下法
順伝搬型ネットワークの教師あり学習では誤差関数𝐸 𝒘 の最小化が目標。
↓
それを実現する簡単な方法として、誤差関数の勾配を用いるのが勾配降下法。
勾配とは
勾配降下法は重みを負の勾配方向(−𝛻𝐸 )に少し動かしていくことを
繰り返して最小値を求めていく方法。
式で表すと
𝒘 (𝑡)
が今の重み、 𝒘 (𝑡+1)
が更新後の重み、𝜀は動かす量
3. 確率的勾配降下法
𝛻𝐸 ≡
𝜕𝐸
𝜕𝒘
=
𝜕𝐸
𝜕𝑤1
, ⋯ ,
𝜕𝐸
𝜕𝑤 𝑀
𝑇
𝒘 (𝑡+𝟏) = 𝒘 (𝑡) − 𝜀𝛻𝐸
𝜀は更新量を決めるパラメータで、学習係数と呼ぶ。
※学習係数は小さすぎると計算量が増え、大きいとtの増加に従って十分に減少しない
※勾配降下法より、ニュートン法など他の手法が使えるならそちらを優先すべき
3. 確率的勾配降下法
・確率的勾配降下法(Stochastic Gradient Descent)
勾配降下法では訓練サンプル 𝑛 = 1, … , 𝑁に対して誤差関数
を最小化するように勾配を計算していた。(バッチ学習という)
対して、各サンプルの誤差を用いて更新するのが確率的勾配降下法
E 𝒘 = � 𝐸 𝑛(𝒘)
𝑁
𝑛=1
サンプル1個毎の誤差
確率的勾配降下法はバッチ学習より優れた点がある
・ 訓練データに冗長性があっても効率を向上できる
・ 局所的な極小解に陥りにくい …など
ニューラルネットの学習は計算量が多いので、並列処理をしたい
1つずつではなく、少数のサンプル集合単位で更新を行う。
この集合をミニバッチという。このとき、t回目の更新時の誤差関数は
𝐸𝑡 𝒘 =
1
𝑁𝑡
� 𝐸 𝑛(𝒘)
𝑛∈𝐷𝑡
𝐷𝑡はミニバッチ、𝑁𝑡はミニバッチのサイズである
※ミニバッチのサイズは大きすぎると確率的勾配降下法のメリットを失う
3. 確率的勾配降下法
ここまで、訓練データの誤差を減らすことを考えてきた。
しかし、実際は未知のデータを推定することが目標である。そのため
訓練誤差:訓練データとの誤差 汎化誤差:推定対象の母集団との誤差
は区別される。実際には推定対象の母集団との誤差は統計的な期待値なので、
テスト誤差:訓練集合と別に用意したサンプル集合、テスト集合との誤差
を汎化誤差の目安とする。
学習を進めていくと一般に訓練誤差は小さくなっていくが、テスト誤差は
時に増えたりなど訓練誤差と乖離する時がある。
これを、過学習(過適合、過剰適合とも)という。
過学習を防ぐために、学習を早期で終了するなどの学習テクニックがある。
・汎化性能と過学習
3. 確率的勾配降下法
・過学習の緩和
過学習は、局所解に陥った状況である。これはネットワークの自由度(主に重みの数)
が高いほど可能性が高くなるが、自由度を下げるのは表現能力を下げることに
なるので、自由度に制約をつける(正則化)が過学習への対策として挙げられる。
1. 重みの制約
重み(自由度)に何らかの制約をつける方法。
例えば、重み減衰。これは、誤差関数に重みの二乗和(二乗ノルム)を
というように加えることで、重みの大きさに比例した速さで減衰するように
なり、重みの小さいものが選ばれやすくなる。
※ バイアスには重み減衰は一般に適用しない
ほかに、入力側の重みに上限をつける重み上限という方法もある。
上記の不等式を満たさない場合、重みに1以下の定数をかけて調整する
� 𝑤2
𝑗𝑗 < 𝑐
𝑖
𝐸𝑡 𝒘 =
1
𝑁𝑡
� 𝐸 𝑛(𝒘)
𝑛∈𝐷𝑡
+
𝜆
2
𝒘 𝟐
3. 確率的勾配降下法
2. ドロップアウト
ネットワークの各ユニットを確率的に無効化する方法。自由度を強制的に
制限することで過学習を避ける。
学習時に、各ユニットを確率pで選んで無効化し、残されたユニットの
ネットワークで今まで通り重みを更新する。このユニット選出は重み更新の
度に行う。ユニットの選出確率は各層で異なっていても良い。
学習後の推論時には、すべてのユニットを用いるがその際ドロップアウトを
適用した層のユニットの出力(または重み)は一律に選出確率 p 倍する。
ドロップアウトは一部無効化したネットワークの平均をとる処理とも言える。
※複数ネットワークの平均をとることは推論性能の向上に繋がる
※ドロップアウトはその優れた性能と、実装が容易であることからネットワーク
の一部を無効化する手法においてはおおむね優れた手法である。
3. 確率的勾配降下法
・汎化性能向上の様々な工夫
1.データの正規化(標準化)
訓練データの偏りを無くすための変換処理の一つ。各サンプルに線形処理を施して
各成分の平均や分散を揃える。各サンプルを𝒙 𝑛 = (𝑥 𝑛𝑛, … , 𝑥 𝑛𝑛, … ) とすると、
として各サンプルの平均が0になるようにしその後、各成分の標準偏差 𝜎𝑖 で
𝑥 𝑛𝑛 ←
𝑥 𝑛𝑛 − 𝑥𝑖�
𝜎𝑖
と割り算することで各成分の平均0、分散1になるように変換する。
※分散を揃えない場合や、正則化以外の前処理も多々ある。
2.データの拡張
訓練サンプルの足りない時に、手持ちのサンプルデータに何らかの処理を加えて
「水増し」する手法。サンプルのばらつきが予想できるとき特に有効。
𝑥 𝑛𝑛 ← 𝑥 𝑛𝑛 − 𝑥𝑖�
3. 確率的勾配降下法
3.複数ネットの平均
複数の異なるネットワークに同じ入力を与えた時の平均をとる手法。
モデル平均と呼ばれる考え方。各ネットワークは同じ問題を解くために
訓練されたものであるが、初期値や構造などを変えたものを用いる。
4.学習係数の決定法
学習係数は手動で決めることが多い。決め方としては以下が多い。
1. 初期は大きく設定し、学習が進むほど小さくしていく
2. 各層ごとに別の係数を決める
自動で決める方法で一般的なのはAdaGradである。
誤差関数の勾配を𝛻𝐸𝑡 ≡ 𝒈 𝑡とし、更新量が−𝜀𝑔𝑡,𝑖であった部分を
−
𝜀
∑ 𝑔2
𝑡′,𝑖
𝑡
𝑡′=1
𝑔𝑡,𝑖
とする手法。直感的には稀に表れる成分を重視してパラメータを更新する
ことになる。
3. 確率的勾配降下法
5.モメンタム
前回の重みの修正量を更新時に加算することで、勾配降下法の収束性能を
向上する方法。ミニバッチ t の更新は
𝒘 (𝑡+1)
= 𝒘 (𝑡)
− 𝜀𝛻𝐸𝑡 + 𝜇∆𝒘(𝑡−1)
と表せる。𝜇 は加算の割合を制御するハイパーパラメータ。学習効率が悪くなる、
深い谷状で谷底の高低差の少ない誤差関数であっても効率が向上する。
6.重みの初期値
学習開始時の重みの初期値は平均0、標準偏差 σ のガウス分布から生成するのが
一般的。(バイアスは初期値0が一般的)
標準偏差は大きくしすぎると初期の学習は速く進むが、誤差関数の減少が早く
停止してしまう傾向にある。標準偏差は活性化関数を踏まえ、ユニットへの
総入力が丁度よい分散を持つように決定するのがよいとされる。
※他にも事前学習によって初期値を決定する方法もある。 3. 確率的勾配降下法
7.サンプルの順序
確率的勾配降下法やミニバッチ法において選ぶサンプルには自由度が存在する。
一般にはネットワークが「見慣れない」サンプルを提示する方が学習には
良いため、誤差が大きいサンプルから学習させるなどの工夫が考えられる。
3. 確率的勾配降下法

More Related Content

What's hot

RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習Masayuki Tanaka
 
ラビットチャレンジレポート 深層学習Day3
ラビットチャレンジレポート 深層学習Day3ラビットチャレンジレポート 深層学習Day3
ラビットチャレンジレポート 深層学習Day3HiroyukiTerada4
 
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法Kenichi Hironaka
 
ベイズ機械学習(an introduction to bayesian machine learning)
ベイズ機械学習(an introduction to bayesian machine learning)ベイズ機械学習(an introduction to bayesian machine learning)
ベイズ機械学習(an introduction to bayesian machine learning)医療IT数学同好会 T/T
 
[DL輪読会]Energy-based generative adversarial networks
[DL輪読会]Energy-based generative adversarial networks[DL輪読会]Energy-based generative adversarial networks
[DL輪読会]Energy-based generative adversarial networksDeep Learning JP
 
深層学習 勉強会第5回 ボルツマンマシン
深層学習 勉強会第5回 ボルツマンマシン深層学習 勉強会第5回 ボルツマンマシン
深層学習 勉強会第5回 ボルツマンマシンYuta Sugii
 
CatBoost on GPU のひみつ
CatBoost on GPU のひみつCatBoost on GPU のひみつ
CatBoost on GPU のひみつTakuji Tahara
 
[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANs[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANsDeep Learning JP
 
[DL輪読会]Multi-Agent Cooperation and the Emergence of (Natural) Language
[DL輪読会]Multi-Agent Cooperation and the Emergence of (Natural) Language[DL輪読会]Multi-Agent Cooperation and the Emergence of (Natural) Language
[DL輪読会]Multi-Agent Cooperation and the Emergence of (Natural) LanguageDeep Learning JP
 
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜Yuki Matsubara
 
[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural NetworksDeep Learning JP
 
[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景Deep Learning JP
 
【DL輪読会】Trajectory Prediction with Latent Belief Energy-Based Model
【DL輪読会】Trajectory Prediction with Latent Belief Energy-Based Model【DL輪読会】Trajectory Prediction with Latent Belief Energy-Based Model
【DL輪読会】Trajectory Prediction with Latent Belief Energy-Based ModelDeep Learning JP
 
On the Convergence of Adam and Beyond
On the Convergence of Adam and BeyondOn the Convergence of Adam and Beyond
On the Convergence of Adam and Beyondharmonylab
 
ラビットチャレンジレポート 深層学習Day2
ラビットチャレンジレポート 深層学習Day2ラビットチャレンジレポート 深層学習Day2
ラビットチャレンジレポート 深層学習Day2HiroyukiTerada4
 
大学3年生の僕に伝えたいことをつらつらと
大学3年生の僕に伝えたいことをつらつらと大学3年生の僕に伝えたいことをつらつらと
大学3年生の僕に伝えたいことをつらつらとToshinori Sato
 
あなたの心にBridgeSampling
あなたの心にBridgeSamplingあなたの心にBridgeSampling
あなたの心にBridgeSamplingdaiki hojo
 
劣モジュラ最適化と機械学習 2.0-2.3 劣モジュラ関数の基本性質・例・最適化
劣モジュラ最適化と機械学習 2.0-2.3 劣モジュラ関数の基本性質・例・最適化劣モジュラ最適化と機械学習 2.0-2.3 劣モジュラ関数の基本性質・例・最適化
劣モジュラ最適化と機械学習 2.0-2.3 劣モジュラ関数の基本性質・例・最適化Akiyoshi Hara
 

What's hot (20)

RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習
 
Alliomの説明
Alliomの説明Alliomの説明
Alliomの説明
 
ラビットチャレンジレポート 深層学習Day3
ラビットチャレンジレポート 深層学習Day3ラビットチャレンジレポート 深層学習Day3
ラビットチャレンジレポート 深層学習Day3
 
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
渡辺澄夫著「ベイズ統計の理論と方法」5.1 マルコフ連鎖モンテカルロ法
 
ベイズ機械学習(an introduction to bayesian machine learning)
ベイズ機械学習(an introduction to bayesian machine learning)ベイズ機械学習(an introduction to bayesian machine learning)
ベイズ機械学習(an introduction to bayesian machine learning)
 
[DL輪読会]Energy-based generative adversarial networks
[DL輪読会]Energy-based generative adversarial networks[DL輪読会]Energy-based generative adversarial networks
[DL輪読会]Energy-based generative adversarial networks
 
深層学習 勉強会第5回 ボルツマンマシン
深層学習 勉強会第5回 ボルツマンマシン深層学習 勉強会第5回 ボルツマンマシン
深層学習 勉強会第5回 ボルツマンマシン
 
CatBoost on GPU のひみつ
CatBoost on GPU のひみつCatBoost on GPU のひみつ
CatBoost on GPU のひみつ
 
[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANs[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANs
 
[DL輪読会]Multi-Agent Cooperation and the Emergence of (Natural) Language
[DL輪読会]Multi-Agent Cooperation and the Emergence of (Natural) Language[DL輪読会]Multi-Agent Cooperation and the Emergence of (Natural) Language
[DL輪読会]Multi-Agent Cooperation and the Emergence of (Natural) Language
 
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜
 
[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
 
[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景
 
【DL輪読会】Trajectory Prediction with Latent Belief Energy-Based Model
【DL輪読会】Trajectory Prediction with Latent Belief Energy-Based Model【DL輪読会】Trajectory Prediction with Latent Belief Energy-Based Model
【DL輪読会】Trajectory Prediction with Latent Belief Energy-Based Model
 
On the Convergence of Adam and Beyond
On the Convergence of Adam and BeyondOn the Convergence of Adam and Beyond
On the Convergence of Adam and Beyond
 
ラビットチャレンジレポート 深層学習Day2
ラビットチャレンジレポート 深層学習Day2ラビットチャレンジレポート 深層学習Day2
ラビットチャレンジレポート 深層学習Day2
 
大学3年生の僕に伝えたいことをつらつらと
大学3年生の僕に伝えたいことをつらつらと大学3年生の僕に伝えたいことをつらつらと
大学3年生の僕に伝えたいことをつらつらと
 
あなたの心にBridgeSampling
あなたの心にBridgeSamplingあなたの心にBridgeSampling
あなたの心にBridgeSampling
 
深層学習入門
深層学習入門深層学習入門
深層学習入門
 
劣モジュラ最適化と機械学習 2.0-2.3 劣モジュラ関数の基本性質・例・最適化
劣モジュラ最適化と機械学習 2.0-2.3 劣モジュラ関数の基本性質・例・最適化劣モジュラ最適化と機械学習 2.0-2.3 劣モジュラ関数の基本性質・例・最適化
劣モジュラ最適化と機械学習 2.0-2.3 劣モジュラ関数の基本性質・例・最適化
 

More from okku apot

深層学習(講談社)のまとめ 第8章
深層学習(講談社)のまとめ 第8章深層学習(講談社)のまとめ 第8章
深層学習(講談社)のまとめ 第8章okku apot
 
深層学習(講談社)のまとめ 第7章
深層学習(講談社)のまとめ 第7章深層学習(講談社)のまとめ 第7章
深層学習(講談社)のまとめ 第7章okku apot
 
深層学習(講談社)のまとめ 第6章
深層学習(講談社)のまとめ 第6章深層学習(講談社)のまとめ 第6章
深層学習(講談社)のまとめ 第6章okku apot
 
深層学習(講談社)のまとめ 第5章
深層学習(講談社)のまとめ 第5章深層学習(講談社)のまとめ 第5章
深層学習(講談社)のまとめ 第5章okku apot
 
深層学習(講談社)のまとめ 第4章
深層学習(講談社)のまとめ 第4章深層学習(講談社)のまとめ 第4章
深層学習(講談社)のまとめ 第4章okku apot
 
深層学習(講談社)のまとめ(1章~2章)
深層学習(講談社)のまとめ(1章~2章)深層学習(講談社)のまとめ(1章~2章)
深層学習(講談社)のまとめ(1章~2章)okku apot
 

More from okku apot (6)

深層学習(講談社)のまとめ 第8章
深層学習(講談社)のまとめ 第8章深層学習(講談社)のまとめ 第8章
深層学習(講談社)のまとめ 第8章
 
深層学習(講談社)のまとめ 第7章
深層学習(講談社)のまとめ 第7章深層学習(講談社)のまとめ 第7章
深層学習(講談社)のまとめ 第7章
 
深層学習(講談社)のまとめ 第6章
深層学習(講談社)のまとめ 第6章深層学習(講談社)のまとめ 第6章
深層学習(講談社)のまとめ 第6章
 
深層学習(講談社)のまとめ 第5章
深層学習(講談社)のまとめ 第5章深層学習(講談社)のまとめ 第5章
深層学習(講談社)のまとめ 第5章
 
深層学習(講談社)のまとめ 第4章
深層学習(講談社)のまとめ 第4章深層学習(講談社)のまとめ 第4章
深層学習(講談社)のまとめ 第4章
 
深層学習(講談社)のまとめ(1章~2章)
深層学習(講談社)のまとめ(1章~2章)深層学習(講談社)のまとめ(1章~2章)
深層学習(講談社)のまとめ(1章~2章)
 

Recently uploaded

Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Gamesatsushi061452
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイスCRI Japan, Inc.
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Hiroshi Tomioka
 
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsUtilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsWSO2
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルCRI Japan, Inc.
 
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptxsn679259
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...Toru Tamaki
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video UnderstandingToru Tamaki
 

Recently uploaded (11)

Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
 
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsUtilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native Integrations
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
 

深層学習(講談社)のまとめ 第3章