Submit Search
Upload
ゼロから作るDeepLearning 3.3~3.6章 輪読
•
2 likes
•
694 views
K
KCS Keio Computer Society
Follow
ゼロから作るDeepLearning 3.3~3.6章 輪読
Read less
Read more
Technology
Report
Share
Report
Share
1 of 17
Download now
Download to read offline
Recommended
ResNetの説明資料
ResNetの仕組み
ResNetの仕組み
Kota Nagasato
2023/2/03 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
Deep Learning JP
2017年12月に開催されたパターン認識・メディア理解研究会(PRMU)にて発表した畳み込みニューラルネットワークのサーベイ 「2012年の画像認識コンペティションILSVRCにおけるAlexNetの登場以降,画像認識においては畳み込みニューラルネットワーク (CNN) を用いることがデファクトスタンダードとなった.ILSVRCでは毎年のように新たなCNNのモデルが提案され,一貫して認識精度の向上に寄与してきた.CNNは画像分類だけではなく,セグメンテーションや物体検出など様々なタスクを解くためのベースネットワークとしても広く利用されてきている. 本稿では,AlexNet以降の代表的なCNNの変遷を振り返るとともに,近年提案されている様々なCNNの改良手法についてサーベイを行い,それらを幾つかのアプローチに分類し,解説する.更に,代表的なモデルについて複数のデータセットを用いて学習および網羅的な精度評価を行い,各モデルの精度および学習時間の傾向について議論を行う.」
畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向
Yusuke Uchida
4/16に行われた筑波大の手塚若林研合同ゼミでの発表スライドです。
Optimizer入門&最新動向
Optimizer入門&最新動向
Motokawa Tetsuya
2019/05/17 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]Few-Shot Unsupervised Image-to-Image Translation
[DL輪読会]Few-Shot Unsupervised Image-to-Image Translation
Deep Learning JP
M.Imaizumi, K.Fukumizu, “Deep Neural Networks Learn Non-Smooth Functions Effectively”, http://arxiv.org/abs/1802.04474 の説明スライドです。
深層学習による非滑らかな関数の推定
深層学習による非滑らかな関数の推定
Masaaki Imaizumi
2020/11/13 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Deep Learning JP
分散学習についてから始まり、データパラレルとモデルパラレルの説明、Chainerでの両者の実装についてのスライドとなっております。
分散学習のあれこれ~データパラレルからモデルパラレルまで~
分散学習のあれこれ~データパラレルからモデルパラレルまで~
Hideki Tsunashima
Recommended
ResNetの説明資料
ResNetの仕組み
ResNetの仕組み
Kota Nagasato
2023/2/03 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
Deep Learning JP
2017年12月に開催されたパターン認識・メディア理解研究会(PRMU)にて発表した畳み込みニューラルネットワークのサーベイ 「2012年の画像認識コンペティションILSVRCにおけるAlexNetの登場以降,画像認識においては畳み込みニューラルネットワーク (CNN) を用いることがデファクトスタンダードとなった.ILSVRCでは毎年のように新たなCNNのモデルが提案され,一貫して認識精度の向上に寄与してきた.CNNは画像分類だけではなく,セグメンテーションや物体検出など様々なタスクを解くためのベースネットワークとしても広く利用されてきている. 本稿では,AlexNet以降の代表的なCNNの変遷を振り返るとともに,近年提案されている様々なCNNの改良手法についてサーベイを行い,それらを幾つかのアプローチに分類し,解説する.更に,代表的なモデルについて複数のデータセットを用いて学習および網羅的な精度評価を行い,各モデルの精度および学習時間の傾向について議論を行う.」
畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向
Yusuke Uchida
4/16に行われた筑波大の手塚若林研合同ゼミでの発表スライドです。
Optimizer入門&最新動向
Optimizer入門&最新動向
Motokawa Tetsuya
2019/05/17 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]Few-Shot Unsupervised Image-to-Image Translation
[DL輪読会]Few-Shot Unsupervised Image-to-Image Translation
Deep Learning JP
M.Imaizumi, K.Fukumizu, “Deep Neural Networks Learn Non-Smooth Functions Effectively”, http://arxiv.org/abs/1802.04474 の説明スライドです。
深層学習による非滑らかな関数の推定
深層学習による非滑らかな関数の推定
Masaaki Imaizumi
2020/11/13 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Deep Learning JP
分散学習についてから始まり、データパラレルとモデルパラレルの説明、Chainerでの両者の実装についてのスライドとなっております。
分散学習のあれこれ~データパラレルからモデルパラレルまで~
分散学習のあれこれ~データパラレルからモデルパラレルまで~
Hideki Tsunashima
Hyperoptの原論文を読んでHyperoptを解説した資料です。 概要だけでなく細かいところもできるだけ説明するようにしています。
Hyperoptとその周辺について
Hyperoptとその周辺について
Keisuke Hosaka
Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object Detection
Deep Learning JP
Deep-Q Networkに関するNatureの論文"Human-level control through deep reinforcement learning"を社内論文輪読会で読みました
Deep Q-Network 論文輪読会
Deep Q-Network 論文輪読会
Kotaro Tanahashi
2019年の関東CV勉強会で発表した資料です。 Coherent Point Drift, GMMReg, FilterRegなど確率モデルを用いた点群レジストレーションについてのまとめです。
確率モデルを用いた3D点群レジストレーション
確率モデルを用いた3D点群レジストレーション
Kenta Tanaka
ベイズ最適化によるハイパーパラメータ探索についてざっくりと解説しました。 今回紹介する内容の元となった論文 Bergstra, James, et al. "Algorithms for hyper-parameter optimization." 25th annual conference on neural information processing systems (NIPS 2011). Vol. 24. Neural Information Processing Systems Foundation, 2011. https://hal.inria.fr/hal-00642998/
ベイズ最適化によるハイパラーパラメータ探索
ベイズ最適化によるハイパラーパラメータ探索
西岡 賢一郎
研究室で説明した「パターン認識と機械学習(下)」の第9章混合モデルとEMアルゴリズムについてです.
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)
Takao Yamanaka
7月2日 於 MLSE夏合宿2020 https://mlxse.connpass.com/event/175970/
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
MLSE
ゼロから作るDeepLearning 2~3章 輪読
ゼロから作るDeepLearning 2~3章 輪読
ゼロから作るDeepLearning 2~3章 輪読
KCS Keio Computer Society
2020/03/27 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
Deep Learning JP
2020/6/11 画像センシングシンポジウム オーガナイズドセッション2 「限られたデータからの深層学習」 https://confit.atlas.jp/guide/event/ssii2020/static/organized#OS2 での招待講演資料です。 コンピュータビジョン分野を中心とした転移学習についての講演です。 パブリックなデータセットも増えていて、物体検出や領域分割などの研究も盛んですが、実際に社会実装しようとするときのデータは学習データと異なる性質(異なるドメイン)のデータである場合も非常に多いです。 本講演では、そのような場合に有効なドメイン適応の原理となるアプローチ2つと応用としての物体検出と領域分割の事例を紹介しています。
ドメイン適応の原理と応用
ドメイン適応の原理と応用
Yoshitaka Ushiku
マルチモーダル深層学習の研究動向をまとめました。
マルチモーダル深層学習の研究動向
マルチモーダル深層学習の研究動向
Koichiro Mori
はてなの社内勉強会で話した構造学習についてのスライドです。
今日からできる構造学習(主に構造化パーセプトロンについて)
今日からできる構造学習(主に構造化パーセプトロンについて)
syou6162
2019/02/01 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]Meta Reinforcement Learning
[DL輪読会]Meta Reinforcement Learning
Deep Learning JP
2018/10/12 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]Pixel2Mesh: Generating 3D Mesh Models from Single RGB Images
[DL輪読会]Pixel2Mesh: Generating 3D Mesh Models from Single RGB Images
Deep Learning JP
はじめてのKrylov部分空間法
はじめてのKrylov部分空間法
tmaehara
続編はこちら https://www.slideshare.net/ryuz88/lutnetwork-revision2 fpgax 2019/02/02発表資料 (Web公開版) https://fpgax.connpass.com/event/115446/
LUT-Network ~本物のリアルタイムコンピューティングを目指して~
LUT-Network ~本物のリアルタイムコンピューティングを目指して~
ryuz88
物体検出やセグメンテーションタスクに利用可能な階層的Vision Transformerのサーベイ
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
Yusuke Uchida
ResNetに代表されるSkip Connectionについて理論と有効性をまとめました。
Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)
Yamato OKAMOTO
条件付き確率場の推論と学習
条件付き確率場の推論と学習
Masaki Saito
Quantum Computational Materials Science RoundtableとDeep learning and Physicsの共催セミナーでの講演資料です。 - https://shinaoka.github.io/QCMSR/ - https://cometscome.github.io/DLAP2020/ Matlantisの製品でも使用されている、PFPを理解するための研究を紹介していきます。 Neural Network Potential (NNP)は、Neural Network を用いて分子動力学ポテンシャルを表現するものである。本セミナーではNNP研究の流れを振り返り、どのようにNNP開発のためのデータセット収集やNeural Networkの取扱いが発展してきたのかを紹介する。 後半では、多種多様な系に対して適用可能となるように開発した汎用NNPであるPFP [1]についての解説を行う。また、PFPを用いた事例としてどのような材料探索が行えるかをその応用的な使い方とともに紹介する。 [1] PFP: Universal Neural Network Potential for Material Discovery
PFP:材料探索のための汎用Neural Network Potential - 2021/10/4 QCMSR + DLAP共催
PFP:材料探索のための汎用Neural Network Potential - 2021/10/4 QCMSR + DLAP共催
Preferred Networks
These slides were presented in Yagami-ai seminar.
Large scale gan training for high fidelity natural
Large scale gan training for high fidelity natural
KCS Keio Computer Society
These slides were presented in Yagami-ai seminar.
Imagenet trained cnns-are_biased_towards
Imagenet trained cnns-are_biased_towards
KCS Keio Computer Society
More Related Content
What's hot
Hyperoptの原論文を読んでHyperoptを解説した資料です。 概要だけでなく細かいところもできるだけ説明するようにしています。
Hyperoptとその周辺について
Hyperoptとその周辺について
Keisuke Hosaka
Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object Detection
Deep Learning JP
Deep-Q Networkに関するNatureの論文"Human-level control through deep reinforcement learning"を社内論文輪読会で読みました
Deep Q-Network 論文輪読会
Deep Q-Network 論文輪読会
Kotaro Tanahashi
2019年の関東CV勉強会で発表した資料です。 Coherent Point Drift, GMMReg, FilterRegなど確率モデルを用いた点群レジストレーションについてのまとめです。
確率モデルを用いた3D点群レジストレーション
確率モデルを用いた3D点群レジストレーション
Kenta Tanaka
ベイズ最適化によるハイパーパラメータ探索についてざっくりと解説しました。 今回紹介する内容の元となった論文 Bergstra, James, et al. "Algorithms for hyper-parameter optimization." 25th annual conference on neural information processing systems (NIPS 2011). Vol. 24. Neural Information Processing Systems Foundation, 2011. https://hal.inria.fr/hal-00642998/
ベイズ最適化によるハイパラーパラメータ探索
ベイズ最適化によるハイパラーパラメータ探索
西岡 賢一郎
研究室で説明した「パターン認識と機械学習(下)」の第9章混合モデルとEMアルゴリズムについてです.
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)
Takao Yamanaka
7月2日 於 MLSE夏合宿2020 https://mlxse.connpass.com/event/175970/
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
MLSE
ゼロから作るDeepLearning 2~3章 輪読
ゼロから作るDeepLearning 2~3章 輪読
ゼロから作るDeepLearning 2~3章 輪読
KCS Keio Computer Society
2020/03/27 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
Deep Learning JP
2020/6/11 画像センシングシンポジウム オーガナイズドセッション2 「限られたデータからの深層学習」 https://confit.atlas.jp/guide/event/ssii2020/static/organized#OS2 での招待講演資料です。 コンピュータビジョン分野を中心とした転移学習についての講演です。 パブリックなデータセットも増えていて、物体検出や領域分割などの研究も盛んですが、実際に社会実装しようとするときのデータは学習データと異なる性質(異なるドメイン)のデータである場合も非常に多いです。 本講演では、そのような場合に有効なドメイン適応の原理となるアプローチ2つと応用としての物体検出と領域分割の事例を紹介しています。
ドメイン適応の原理と応用
ドメイン適応の原理と応用
Yoshitaka Ushiku
マルチモーダル深層学習の研究動向をまとめました。
マルチモーダル深層学習の研究動向
マルチモーダル深層学習の研究動向
Koichiro Mori
はてなの社内勉強会で話した構造学習についてのスライドです。
今日からできる構造学習(主に構造化パーセプトロンについて)
今日からできる構造学習(主に構造化パーセプトロンについて)
syou6162
2019/02/01 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]Meta Reinforcement Learning
[DL輪読会]Meta Reinforcement Learning
Deep Learning JP
2018/10/12 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]Pixel2Mesh: Generating 3D Mesh Models from Single RGB Images
[DL輪読会]Pixel2Mesh: Generating 3D Mesh Models from Single RGB Images
Deep Learning JP
はじめてのKrylov部分空間法
はじめてのKrylov部分空間法
tmaehara
続編はこちら https://www.slideshare.net/ryuz88/lutnetwork-revision2 fpgax 2019/02/02発表資料 (Web公開版) https://fpgax.connpass.com/event/115446/
LUT-Network ~本物のリアルタイムコンピューティングを目指して~
LUT-Network ~本物のリアルタイムコンピューティングを目指して~
ryuz88
物体検出やセグメンテーションタスクに利用可能な階層的Vision Transformerのサーベイ
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
Yusuke Uchida
ResNetに代表されるSkip Connectionについて理論と有効性をまとめました。
Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)
Yamato OKAMOTO
条件付き確率場の推論と学習
条件付き確率場の推論と学習
Masaki Saito
Quantum Computational Materials Science RoundtableとDeep learning and Physicsの共催セミナーでの講演資料です。 - https://shinaoka.github.io/QCMSR/ - https://cometscome.github.io/DLAP2020/ Matlantisの製品でも使用されている、PFPを理解するための研究を紹介していきます。 Neural Network Potential (NNP)は、Neural Network を用いて分子動力学ポテンシャルを表現するものである。本セミナーではNNP研究の流れを振り返り、どのようにNNP開発のためのデータセット収集やNeural Networkの取扱いが発展してきたのかを紹介する。 後半では、多種多様な系に対して適用可能となるように開発した汎用NNPであるPFP [1]についての解説を行う。また、PFPを用いた事例としてどのような材料探索が行えるかをその応用的な使い方とともに紹介する。 [1] PFP: Universal Neural Network Potential for Material Discovery
PFP:材料探索のための汎用Neural Network Potential - 2021/10/4 QCMSR + DLAP共催
PFP:材料探索のための汎用Neural Network Potential - 2021/10/4 QCMSR + DLAP共催
Preferred Networks
What's hot
(20)
Hyperoptとその周辺について
Hyperoptとその周辺について
[DL輪読会]Focal Loss for Dense Object Detection
[DL輪読会]Focal Loss for Dense Object Detection
Deep Q-Network 論文輪読会
Deep Q-Network 論文輪読会
確率モデルを用いた3D点群レジストレーション
確率モデルを用いた3D点群レジストレーション
ベイズ最適化によるハイパラーパラメータ探索
ベイズ最適化によるハイパラーパラメータ探索
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
ゼロから作るDeepLearning 2~3章 輪読
ゼロから作るDeepLearning 2~3章 輪読
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
ドメイン適応の原理と応用
ドメイン適応の原理と応用
マルチモーダル深層学習の研究動向
マルチモーダル深層学習の研究動向
今日からできる構造学習(主に構造化パーセプトロンについて)
今日からできる構造学習(主に構造化パーセプトロンについて)
[DL輪読会]Meta Reinforcement Learning
[DL輪読会]Meta Reinforcement Learning
[DL輪読会]Pixel2Mesh: Generating 3D Mesh Models from Single RGB Images
[DL輪読会]Pixel2Mesh: Generating 3D Mesh Models from Single RGB Images
はじめてのKrylov部分空間法
はじめてのKrylov部分空間法
LUT-Network ~本物のリアルタイムコンピューティングを目指して~
LUT-Network ~本物のリアルタイムコンピューティングを目指して~
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)
条件付き確率場の推論と学習
条件付き確率場の推論と学習
PFP:材料探索のための汎用Neural Network Potential - 2021/10/4 QCMSR + DLAP共催
PFP:材料探索のための汎用Neural Network Potential - 2021/10/4 QCMSR + DLAP共催
More from KCS Keio Computer Society
These slides were presented in Yagami-ai seminar.
Large scale gan training for high fidelity natural
Large scale gan training for high fidelity natural
KCS Keio Computer Society
These slides were presented in Yagami-ai seminar.
Imagenet trained cnns-are_biased_towards
Imagenet trained cnns-are_biased_towards
KCS Keio Computer Society
機械学習ゼミにおいて発表されたプレゼンテーション資料
機械学習ゼミ: Area attenttion
機械学習ゼミ: Area attenttion
KCS Keio Computer Society
機械学習ゼミにおいて発表されたプレゼンテーション資料
機械学習ゼミ 2018/10/17
機械学習ゼミ 2018/10/17
KCS Keio Computer Society
機械学習ゼミで行われた 深層学習第7.1~7.2の解説です。
機械学習ゼミ2018 06 15
機械学習ゼミ2018 06 15
KCS Keio Computer Society
機械学習ゼミでの発表内容です 2018_06_15
Control by deep learning
Control by deep learning
KCS Keio Computer Society
深層学習 第6章
深層学習 第6章
深層学習 第6章
KCS Keio Computer Society
Vector-Based navigation using grid-like representations in artificial agents
Vector-Based navigation using grid-like representations in artificial agents
Vector-Based navigation using grid-like representations in artificial agents
KCS Keio Computer Society
機械学習ゼミ 5月11日発表
文章生成の未解決問題
文章生成の未解決問題
KCS Keio Computer Society
Word2Vec周りの解説です。
Word2vec alpha
Word2vec alpha
KCS Keio Computer Society
深層学習、第7章を理解するためのテンソル代数の導入
テンソル代数
テンソル代数
KCS Keio Computer Society
Hindsight Experience Replay
Hindsight experience replay
Hindsight experience replay
KCS Keio Computer Society
Kml 輪読514
Kml 輪読514
Kml 輪読514
KCS Keio Computer Society
ゼロから作るDeepLearning 5章 輪読
ゼロから作るDeepLearning 5章 輪読
ゼロから作るDeepLearning 5章 輪読
KCS Keio Computer Society
ELBO型VAEのダメなところ
ELBO型VAEのダメなところ
ELBO型VAEのダメなところ
KCS Keio Computer Society
ゼロから作るDeepLearning 4章 輪読
ゼロから作るDeepLearning 4章 輪読
ゼロから作るDeepLearning 4章 輪読
KCS Keio Computer Society
Soft Actor Critic 解説
Soft Actor Critic 解説
Soft Actor Critic 解説
KCS Keio Computer Society
Stochastic Thermodynamics Interpretation of Information Geometryを個人的に説明したものです.
[論文略説]Stochastic Thermodynamics Interpretation of Information Geometry
[論文略説]Stochastic Thermodynamics Interpretation of Information Geometry
KCS Keio Computer Society
Graph Convolutional Network について基礎的な所を簡単にまとめたスライドです. This slide explains basic of Graph Convolutional Netwrork simply.
Graph Convolutional Network 概説
Graph Convolutional Network 概説
KCS Keio Computer Society
2017年度第3回定例会(2017年4月22日)発表。
AIを作ることと理解すること
AIを作ることと理解すること
KCS Keio Computer Society
More from KCS Keio Computer Society
(20)
Large scale gan training for high fidelity natural
Large scale gan training for high fidelity natural
Imagenet trained cnns-are_biased_towards
Imagenet trained cnns-are_biased_towards
機械学習ゼミ: Area attenttion
機械学習ゼミ: Area attenttion
機械学習ゼミ 2018/10/17
機械学習ゼミ 2018/10/17
機械学習ゼミ2018 06 15
機械学習ゼミ2018 06 15
Control by deep learning
Control by deep learning
深層学習 第6章
深層学習 第6章
Vector-Based navigation using grid-like representations in artificial agents
Vector-Based navigation using grid-like representations in artificial agents
文章生成の未解決問題
文章生成の未解決問題
Word2vec alpha
Word2vec alpha
テンソル代数
テンソル代数
Hindsight experience replay
Hindsight experience replay
Kml 輪読514
Kml 輪読514
ゼロから作るDeepLearning 5章 輪読
ゼロから作るDeepLearning 5章 輪読
ELBO型VAEのダメなところ
ELBO型VAEのダメなところ
ゼロから作るDeepLearning 4章 輪読
ゼロから作るDeepLearning 4章 輪読
Soft Actor Critic 解説
Soft Actor Critic 解説
[論文略説]Stochastic Thermodynamics Interpretation of Information Geometry
[論文略説]Stochastic Thermodynamics Interpretation of Information Geometry
Graph Convolutional Network 概説
Graph Convolutional Network 概説
AIを作ることと理解すること
AIを作ることと理解すること
Recently uploaded
2024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
iPride Co., Ltd.
2024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
iPride Co., Ltd.
Jue Wang, Wentao Zhu, Pichao Wang, Xiang Yu, Linda Liu, Mohamed Omar, Raffay Hamid, " Selective Structured State-Spaces for Long-Form Video Understanding" CVPR2023 https://openaccess.thecvf.com/content/CVPR2023/html/Wang_Selective_Structured_State-Spaces_for_Long-Form_Video_Understanding_CVPR_2023_paper.html
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
Toru Tamaki
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
CRI Japan, Inc.
LoRaWANスマート距離検出センサー DS20Lカタログ
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
CRI Japan, Inc.
NewSQLの可用性構成パターン (OCHaCafe Season 8 #4 発表資料) 2024年5月8日(水) NTTデータグループ 技術開発本部 小林 隆浩
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NTT DATA Technology & Innovation
This is an introduction to MAPPO's paper.
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
atsushi061452
2022年10月27日に社内向けに開催した勉強会資料の社外公開版です(発表8分程度)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Hiroshi Tomioka
2024年5月8日 Power Platform 勉強会 #1 LT資料
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
sn679259
Key topics covered: - Understanding Ballerina's role in integrations: features and advantages - Designing and implementing REST APIs for integration - Designing and implementing GraphQL services with Ballerina - Monitoring and observing applications - Introduction to data integration
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native Integrations
WSO2
2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
iPride Co., Ltd.
Syed Talal Wasim, Muzammal Naseer, Salman Khan, Ming-Hsuan Yang, Fahad Shahbaz Khan , "Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Grounding" arXiv2024 https://arxiv.org/abs/2401.00901v2
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
Toru Tamaki
Recently uploaded
(12)
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native Integrations
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
ゼロから作るDeepLearning 3.3~3.6章 輪読
1.
ゼロから作る Deep Learning §3.3 ~
§3.6 今井研究室 永吉秋平
2.
多次元配列 ・数字の集合 ・数字をN次元に並べる ・PythonではNumpyを用いる 5 7 1 3 5
7
3.
行列 ・Numpyの二次元配列は行列に対応する 行 列
4.
行列の積 ・行列の積の計算方法 1 × 5
+ 2 × 7 = 19 3 × 5 + 4 × 7 = 43
5.
行列の積における要素数の一致 3 × 2
2 × 2 3 × 2 ・隣接する要素の数は同じ
6.
ニューラルネットワークと行列の積 1 2 3 4 5 X × W
= Y 2 2 × 3 3 𝑥1 𝑥2 𝑦1 𝑦2 𝑦3
7.
バイアス 1 b1 b2 b3 左図のようにバイアスも ニューロンとすることで, まとめて表す
8.
活性化関数 ・重み付き和に 活性化関数を適用 したものを出力とする ・シグモイド関数や ステップ関数など h() h() h() h() h()
9.
出力層の活性化関数
10.
ソフトマックス関数 ・実装上の注意 ・オーバーフロー対策 ※exp(x)は𝑒 𝑥 を表す
11.
ソフトマックス関数の特徴 ・ソフトマックス関数の出力は0 ~ 1.0 ・出力の総和は1 ・出力を確率とみなせる ・分類問題に用いる
12.
出力層のニューロンの数 ・クラス分類では,出力層のニューロンの数はクラス数 ・例:0~9のどれなのか知りたい→10クラス 何らかの 計算 0 9 5 …… 10個
13.
MNISTデータセット ・手書き文字セットを用いる ・28×28ピクセル ・形式は1×28×28の3次元 または784の1次元
14.
ニューラルネットワークの推論処理 ・入力はMNIST で28×28=784 ・中間層は50, 100個のニューロ ンの2つ ・出力は10 (0~9の数字に 分類する) ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ 入力層 中間層1 中間層2
出力層
15.
ニューラルネットワークの推論処理 ・入力はMNISTで28×28=784 ・中間層は50,100個のニューロンの2つ ・ここでは3層なので重みは3つ ・出力は10(0~9の数字に分類する) X × W1
× W2 × W3 = Y 784 784×50 50×100 100×10 10
16.
バッチ処理 ・複数のデータをまとめて処理 ・例:100件のデータをまとめて処理 X × W1
× W2 × W3 = Y 100×784 784×50 50×100 100×10 100×10
17.
まとめ ・多次元配列や行列を用いると,効率的に実装ができる ・出力層の活性関数 ・回帰問題→恒等関数 ・分類問題→ソフトマックス関数 ・分類問題の出力層のニューロンはクラスの数 ・バッチ単位で処理を行うと計算が高速
Download now