SlideShare a Scribd company logo
1 of 67
Download to read offline
山崎和博
これから始める人のための
ディープラーニング基礎講座
NVIDIA Deep Learning Solution Architect
AGENDA
ディープラーニングとは
ニューラルネットの基本構造と処理の流れ
性能改善のための考え方・テクニック
さまざまなネットワークと応用例
ディープラーニングを実装するために
ディープラーニングとは
4
様々な分野で活用されるディープラーニング
インターネットとクラウド
画像分類
音声認識
言語翻訳
言語処理
感情分析
推薦
メディアとエンターテイメント
字幕
ビデオ検索
リアルタイム翻訳
機械の自動化
歩行者検出
白線のトラッキング
信号機の認識
セキュリティと防衛
顔検出
ビデオ監視
衛星画像
医学と生物学
癌細胞の検出
糖尿病のランク付け
創薬
ディープラーニングは機械学習の一分野
5
人工知能(AI)
ディープラーニング
(深層学習)
マシンラーニング
(機械学習)
ディープラーニングの歴史
機械学習の一手法として
6
2012:画像認識コンペでの圧勝
2011:音声認識コンペでの圧勝
2006:事前学習と
autoencoderによる
多層ネットワークの学習
1992~:非線形
SVM等の流行
1989:畳み込み
ニューラルネットワークの提案
1986:誤差逆伝播法の提案
1980:ネオコグニトロンの提案
1969:(単純)パーセプトロンの
限界が明らかになる
1958:パーセプトロンの発表
1940~50年代:
人工知能の提唱
第一次ブーム: ~1970 第二次ブーム: ~1990 第三次ブーム: ~20??
ディープラーニングとは
多数の層から構成されるニューラルネットワーク
7
入力層 出力層
隠れ層
十分なトレーニングデータを与え学習させることで
複雑な問題を解くことができるようになる
ディープラーニングを加速する3つの要因
8
“Google’s AI engine also reflects how the world of computer hardware is changing.
(It) depends on machines equipped with GPUs… And it depends on these chips more
than the larger tech universe realizes.”
DNN GPUBIG DATA
ニューラルネットワークの基本と処理の流れ
人工ニューラルネットワーク
人工ニューロンを基本単位とするネットワーク構造
10
w1 w2 w3
x1 x2 x3
y
y=w1x1+w2x2+w3x3
人工ニューロン(パーセプトロン)
人工ニューラルネットワーク
人工ニューロンを
たくさんの層として並べる
各層にそれぞれ
重みパラメータを持つ
人工ニューラルネットワーク
活性化関数
11
w1
w2
w3
x1
x2
x3
y=w1x1+w2x2+w3x3
人工ニューロン(パーセプトロン)
y F
z=F(y)
F: activation function
活性化関数
(activation function)
z 次の層
tanh
ReLU
sigmoid
人工ニューラルネットワーク
基本構造のまとめ
12
各ノードは
入力された値を合計して出力
各ユニット(ノードとも)の出力は、
各層の重みと積算され次の層へ
活性化関数による変換
ディープラーニングの2つのフェーズ
13
モデル
犬
推論(inference):
蜜穴熊
学習(training):
モデル
犬
狸
猫
フィードバックにより
重みを調整
学習した結果を用いる
犬
猫
ディープラーニングの学習フロー
14
トレーニングデータ
出力
“dog”
“cat”
“human”
“tiger”
正解ラベル
“cat”
“dog”
“monkey”
“lion”
1.入力されたデータに
したがい結果を出力
誤差
2.期待結果との違い
を誤差として計算
4.誤差が小さくなる
まで繰り返す
3.誤差を用いて
ネットワークを更新
ディープラーニングの学習フロー
15
トレーニングデータ
1.入力されたデータに
したがい結果を出力
4.誤差が小さくなる
まで繰り返す
3.誤差を用いて
ネットワークを更新
出力
“dog”
“cat”
“human”
“tiger”
正解ラベル
“cat”
“dog”
“monkey”
“lion”誤差
2.期待結果との違い
を誤差として計算
誤差の計算
16
出力
“tiger”
出力
“tiger” 80%
“lion” 20%
“tiger”
“lion”
誤差
期待結果との差などを
誤差として計算
出力
80%
20%
正解ラベル
0%
100%
トレーニングデータ
ディープラーニングの学習フロー
17
トレーニングデータ
1.入力されたデータに
したがい結果を出力
4.誤差が小さくなる
まで繰り返す
2.期待結果との違い
を誤差として計算
出力
“dog”
“cat”
“human”
“tiger”
正解ラベル
“cat”
“dog”
“monkey”
“lion”誤差
3.誤差を用いて
ネットワークを更新
重み更新
勾配法による更新
18重み w
誤差 E
最適解 現在値
誤差を最小化する
重みが最適解
ニューラルネットワークの
内部状態(=重み)に応じて
誤差は変動
重み更新
勾配法による更新
19重み w
誤差 E
最適解
傾きが正(=右上がり)
なら値を減少させる
傾きが負(=右下がり)
なら値を増加させる
wn wm
重み更新
勾配法による更新
20重み w
誤差 E
最適解
傾きが正(=右上がり)
なら値を減少させる
傾きが負(=右下がり)
なら値を増加させる
wn wm
傾き(=勾配ベクトル)により
重みを逐次更新
重み更新
勾配法による更新
21重み w
誤差 E
wnwn+1
wn+2
最適解
(ゴール)
少しずつ更新
ディープラーニングの学習フロー
22
トレーニングデータ
1.入力されたデータに
したがい結果を出力
4.誤差が小さくなる
まで繰り返す
2.期待結果との違い
を誤差として計算
出力
“dog”
“cat”
“human”
“tiger”
正解ラベル
“cat”
“dog”
“monkey”
“lion”誤差
3.誤差を用いて
ネットワークを更新
誤差逆伝播法
処理のイメージ
23
誤差
誤差を逆方向に伝えて、各層の重み行列を更新する
トレーニングデータ
誤差逆伝播法
24
重み に関する
誤差の傾き
を更新したいある層の重み
直接計算することが
容易ではない
誤差逆伝播法
25
直前の層の出力
に関する誤差の傾き
次の層への出力
重み に関する
誤差の傾き に関する誤差の傾き
さらに次の層への出力
を更新したいある層の重み
ディープラーニングの学習フロー
26
トレーニングデータ
1.入力されたデータに
したがい結果を出力
2.期待結果との違い
を誤差として計算
出力
“dog”
“cat”
“human”
“tiger”
正解ラベル
“cat”
“dog”
“monkey”
“lion”誤差
3.誤差を用いて
ネットワークを更新
4.誤差が小さくなる
まで繰り返す
学習プロセスの単位: ミニバッチ
27
全トレーニングデータ(バッチ)
ミニバッチ#3
ミニバッチ#2
ミニバッチ#1
ミニバッチ#1
誤差
誤差
誤差
誤差
ミニバッチ単位で
誤差を計算し更新
学習プロセスの単位: エポック
28
全トレーニングデータ(バッチ)
ミニバッチ#3
ミニバッチ#2
ミニバッチ#1
ミニバッチ#3
誤差
誤差
誤差
誤差
ミニバッチ#2
誤差
誤差
誤差
誤差
ミニバッチ#1
誤差
誤差
誤差
誤差
全トレーニングデータを使った1サイクルを
エポック(epoch)と呼ぶ
性能改善のための考え方・テクニック
学習経過の確認
30
トレーニングデータから計算した
誤差の変化量が一定範囲以下になる
=「学習が収束」
誤差
エポック
training
学習が収束すると、うまく入力に対して予測できるニューラルネットになっている……
とは限らない
学習結果の妥当性チェック
31
データを訓練データと検証データに分割し、学習結果を評価することが重要
収集したデータ
訓練データ(training data)
重みの更新
(学習)に使用
検証データ(validation data)
汎化性能の
確認に使用
学習結果の妥当性チェック
32
エポック
training
validation
誤差
エポック
training
validation
誤差
学習がうまく進んだ場合
→訓練データ、検証データとも
誤差が下がっていく
学習が失敗した場合
→訓練データのみ誤差が下がり、
検証データは十分な精度が出ない
右の状態は「過学習(overfitting)」などと表現され、汎化性能が低い状態
(汎化性能=訓練データに含まれていないデータへの予測性能)
学習率
重みの更新量を調整するパラメータ
33重み w
誤差 E
wnwn+1 wn+2
学習率が大きすぎると
最適解付近を往復
誤差 E
wnwn+1wn+2
学習率が小さすぎると
学習の進みが遅い
学習率
局所解の存在
34
スタート
重み w
誤差 E
局所解
ゴール?
最適解
真のゴール
学習率
局所解の存在
35
最適解
3
2
5
6
スタート
重み w
誤差 E
7
8
大きな学習率で
大きく更新
ゴール
途中から学習率を下げ
小さく更新
41
DROPOUT
過学習回避のテクニック
36
z1
z2
z3
x1
x2
x3
y1
y2
y3
y4
y1
y4
隠れ層の一部ノードを
ランダムに無効化
BATCH NORMALIZATION
学習を収束しやすくするテクニック
37
x1
x2
x3
y1
y2
y3
y4
z1
z2
z3
bn1
bn2
bn3
bn4
隠れ層などへの入力を
ミニバッチ単位で正規化
その他のテクニック
• Pretraining
• Fine-tuning(Transfer learningを一部含む)
• Optimizers(AdaGrad, Adam, etc...)
• Learning rate scheduling
• など……
深いネットワークを学習するために
38
さまざまなネットワークと応用例
基本的なネットワーク
多層ニューラルネットワーク
40
前層の全ノードが次層のノードに
接続されている状態
↓
全結合している
畳み込みニューラルネットワーク
(CONVOLUTIONAL NEURAL NETWORK)
画像を扱うことに長けたネットワーク
41
畳み込み層&
プーリング層
全結合層
畳み込みニューラルネットワーク
(CONVOLUTIONAL NEURAL NETWORK)
重み共有による局所構造の獲得
42
生データ 低レベルの特徴 中間レベルの特徴 高レベルの特徴
入力 結果
CNN: 畳み込み層
43
0
0
0
0
0
0
0
0
1
1
1
0
0
0
0
1
2
2
1
1
1
0
1
2
2
2
1
1
0
1
2
2
2
1
1
0
0
1
1
1
1
1
0
0
0
0
0
0
0
4
0
0
0
0
0
0
0
-4
1
0
-8
入力ピクセル
コンボリューション
カーネル
出力ピクセル
入力とカーネルとで
要素同士の積を計算し、
全て足したものが出力
カーネルの重みも
学習によって調整される
CNN: 畳み込み層
44
vdumoulin/conv_arithmetic, https://github.com/vdumoulin/conv_arithmetic
入力
コンボリューションカーネル
出力
CNN: 畳み込み層
45
元画像
畳み込みカーネル
出力
畳み込みの計算例
CNNの応用
46
画像分類
物体検出
領域分割/
セマンティックセグメンテーション
などなど……
リカレントニューラルネットワーク
(RECURRENT NEURAL NETWORK)
系列データを自然に扱うためのネットワーク
47
隠れ層の出力を
隠れ層の入力として戻す
出力層
隠れ層
入力層
リカレントニューラルネットワーク
(RECURRENT NEURAL NETWORK)
系列データを自然に扱うためのネットワーク
48
出力層
隠れ層
入力層
展
開
出力層
隠れ層
入力層
出力層
隠れ層
入力層
t = 1 t = 2
前の出力を次の入力に
することで、依存関係を考慮
長い系列ほど深い
ネットワークになる
LSTM: LONG SHORT-TERM MEMORY
RNNの欠点を解消するネットワーク
49
出力層
隠れ層
入力層
RNNの隠れ層を
LSTMブロックで置き換え
いくつかのゲートによって
長期の依存関係を
学習できるように
RNN/LSTMの応用
50
系列データ予測
次が上がるのか
下がるのかを予測 異常予測
定常的なふるまいと
異なる動作を予測
などなど……
ディープラーニングを実装するために
ディープラーニングフレームワーク
GPUで高速化されたフレームワークが、アルゴリズムの実装を強力にサポート
52
ディープラーニング フレームワーク
https://developer.nvidia.com/deep-learning-frameworks
Mocha.jl
NVIDIA DEEP LEARNING プラットフォーム
53
COMPUTER VISION SPEECH AND AUDIO BEHAVIOR
Object Detection Voice Recognition Translation
Recommendation
Engines
Sentiment Analysis
DEEP LEARNING
cuDNN
MATH LIBRARIES
cuBLAS cuSPARSE
MULTI-GPU
NCCL
cuFFT
Mocha.jl
Image Classification
ディープラーニング
SDK
フレームワーク
アプリケーション
GPU プラットフォーム
CLOUD GPU
Tesla
V100
Tesla
P40/P4
Jetson TX2
SERVER
DGX-1
TensorRT
DRIVEPX2
CUDA
どのフレームワークを使うべきか?
用途などに応じて使い分ける
54
C++? Python?
Define-and-run? Define-by-run?
Popular? Unpopular?
? ?
etc…
計算グラフによるネットワーク構築
多くのフレームワークに共通する考え方
55
input
conv1 h1 pool1 h2 conv2 h3
pool2 h4 fc1 h5 relu1 h6
fc2 h7 softmax
prob.
loss
label
error
計算 データ
計算グラフによるネットワーク構築
多くのフレームワークに共通する考え方
56
input
conv1 h1 pool1 h2 conv2 h3
pool2 h4 fc1 h5 relu1 h6
fc2 h7 softmax
prob.
loss
label
error
計算 データ
順方向に処理:
forward propagation Forward propagationで行われる処理
• ネットワークに入力データ(=input)を渡して、
順番に計算を進める
主に学習時のみの処理
• 教師データ(=label)と、ネットワークの出力
(=prob.)から、目的関数(=loss)を計算し誤
差(=error)として定量化
計算グラフによるネットワーク構築
多くのフレームワークに共通する考え方
57
input
conv1 h1 pool1 h2 conv2 h3
pool2 h4 fc1 h5 relu1 h6
fc2 h7 softmax
prob.
loss
label
error
計算 データ
Backward propagationで行われる処理
• Forwardで計算した誤差を使って、出力層側
から各層の勾配を計算
(計算完了後に、各層の重みを更新)
逆方向に処理:
backward propagation
計算グラフの構築方法
Define-and-run vs. Define-by-run
58
# Define-and-Run
# 計算グラフを構築後に、計算を実行
x = Variable(‘x’)
w = Variable(‘w’)
y = x * w
for xi, wi in data:
eval(y, (xi, wi))
# Define-by-Run
# 計算グラフの構築と実行が同時
for xi, wi in data:
x = Variable(xi)
w = Variable(wi)
y = x * w
この時点では、
何も計算されていない
この時点で、
計算結果を出力できる
計算グラフの構築方法
Define-and-run vs. Define-by-run
59
# Define-and-Run
# 計算グラフを構築後に、計算を実行
x = Variable(‘x’)
w = Variable(‘w’)
y = x * w
for xi, wi in data:
eval(y, (xi, wi))
# Define-by-Run
# 計算グラフの構築と実行が同時
for i, (xi, wi) in enumerate(data):
x = Variable(xi)
w = Variable(wi)
if i % 2 == 0:
y = x * w
else:
y = x + w
データに応じた
処理の分岐が楽
処理の分岐には
工夫が必要
計算グラフの構築方法
Define-and-run vs. Define-by-run
60
# Define-and-Run
# 計算グラフを構築後に、計算を実行
x = Variable(‘x’)
w = Variable(‘w’)
y = x * w
for xi, wi in data:
eval(y, (xi, wi))
# Define-by-Run
# 計算グラフの構築と実行が同時
for i, (xi, wi) in enumerate(data):
x = Variable(xi)
w = Variable(wi)
if i % 2 == 0:
y = x * w
else:
y = x + w
ソフトウェアスタックの管理は大変
例: フレームワークを利用するアプリケーションのソフトウェアスタック
61
OS
NVIDIA driver
CUDA
cuDNN cuBLAS …
Applications
Frameworks
ソフトウェアスタックの管理は大変
例: フレームワークを利用するアプリケーションのソフトウェアスタック
62
OS
NVIDIA driver
CUDA
cuDNN 7cuBLAS…
Applications
FrameworkA 1.1
OS
NVIDIA driver
CUDA
cuDNN 6 cuBLAS …
Applications
FrameworkB 1.1
フレームワークごとにGPUへの
対応状況が異なる場合、
複数バージョンが必要
ソフトウェアスタックの管理は大変
例: フレームワークを利用するアプリケーションのソフトウェアスタック
63
NVIDIA driver
OS
FrameworkA container
CUDA
cuDNN 7cuBLAS…
FrameworkA 1.1
FrameworkB container
CUDA
cuDNN 6 cuBLAS …
FrameworkB 1.1
うまくまとめられれば、
複数バージョンの
共存を容易にできる
64
NVIDIA DOCKER
コンテナによるポータビリティ
コンテナのメリット:
GPU 対応アプリケーションの展開を容易に
個々のフレームワークやアプリケーションをコンテナで隔離
同一モジュールの異なるバージョンが混在可能
複数環境でのアプリケーション共有・コラボレーションを促進
SUMMARY
KEY TAKEAWAYS
1. ディープラーニングは、ニューラルネットワークがベースとなる手法
2. ネットワークの学習には、主に勾配法と誤差逆伝播法が用いられる
3. 学習が適切に行われたか、十分に検証することが重要
4. データの構造や特性に応じて、さまざまな構造のネットワークがある
5. フレームワークなどを利用することで、実装を効率化することができる
ディープラーニングの実践に向けて
66
www.nvidia.com/dli

More Related Content

What's hot

Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門Shuyo Nakatani
 
強化学習の分散アーキテクチャ変遷
強化学習の分散アーキテクチャ変遷強化学習の分散アーキテクチャ変遷
強化学習の分散アーキテクチャ変遷Eiji Sekiya
 
動画認識サーベイv1(メタサーベイ )
動画認識サーベイv1(メタサーベイ )動画認識サーベイv1(メタサーベイ )
動画認識サーベイv1(メタサーベイ )cvpaper. challenge
 
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化Yusuke Uchida
 
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜Jun Okumura
 
深層学習によるHuman Pose Estimationの基礎
深層学習によるHuman Pose Estimationの基礎深層学習によるHuman Pose Estimationの基礎
深層学習によるHuman Pose Estimationの基礎Takumi Ohkuma
 
[DL輪読会]大規模分散強化学習の難しい問題設定への適用
[DL輪読会]大規模分散強化学習の難しい問題設定への適用[DL輪読会]大規模分散強化学習の難しい問題設定への適用
[DL輪読会]大規模分散強化学習の難しい問題設定への適用Deep Learning JP
 
ディープラーニングのフレームワークと特許戦争
ディープラーニングのフレームワークと特許戦争ディープラーニングのフレームワークと特許戦争
ディープラーニングのフレームワークと特許戦争Yosuke Shinya
 
3D CNNによる人物行動認識の動向
3D CNNによる人物行動認識の動向3D CNNによる人物行動認識の動向
3D CNNによる人物行動認識の動向Kensho Hara
 
モデル高速化百選
モデル高速化百選モデル高速化百選
モデル高速化百選Yusuke Uchida
 
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence ModelingDeep Learning JP
 
ドメイン適応の原理と応用
ドメイン適応の原理と応用ドメイン適応の原理と応用
ドメイン適応の原理と応用Yoshitaka Ushiku
 
Res netと派生研究の紹介
Res netと派生研究の紹介Res netと派生研究の紹介
Res netと派生研究の紹介masataka nishimori
 
Deep Learning による視覚×言語融合の最前線
Deep Learning による視覚×言語融合の最前線Deep Learning による視覚×言語融合の最前線
Deep Learning による視覚×言語融合の最前線Yoshitaka Ushiku
 
DLLab 異常検知ナイト 資料 20180214
DLLab 異常検知ナイト 資料 20180214DLLab 異常検知ナイト 資料 20180214
DLLab 異常検知ナイト 資料 20180214Kosuke Nakago
 
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)Deep Learning JP
 
[DL Hacks]Visdomを使ったデータ可視化
[DL Hacks]Visdomを使ったデータ可視化[DL Hacks]Visdomを使ったデータ可視化
[DL Hacks]Visdomを使ったデータ可視化Deep Learning JP
 
[DL輪読会]DropBlock: A regularization method for convolutional networks
[DL輪読会]DropBlock: A regularization method for convolutional networks[DL輪読会]DropBlock: A regularization method for convolutional networks
[DL輪読会]DropBlock: A regularization method for convolutional networksDeep Learning JP
 
CMA-ESサンプラーによるハイパーパラメータ最適化 at Optuna Meetup #1
CMA-ESサンプラーによるハイパーパラメータ最適化 at Optuna Meetup #1CMA-ESサンプラーによるハイパーパラメータ最適化 at Optuna Meetup #1
CMA-ESサンプラーによるハイパーパラメータ最適化 at Optuna Meetup #1Masashi Shibata
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情Yuta Kikuchi
 

What's hot (20)

Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門
 
強化学習の分散アーキテクチャ変遷
強化学習の分散アーキテクチャ変遷強化学習の分散アーキテクチャ変遷
強化学習の分散アーキテクチャ変遷
 
動画認識サーベイv1(メタサーベイ )
動画認識サーベイv1(メタサーベイ )動画認識サーベイv1(メタサーベイ )
動画認識サーベイv1(メタサーベイ )
 
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
 
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜
 
深層学習によるHuman Pose Estimationの基礎
深層学習によるHuman Pose Estimationの基礎深層学習によるHuman Pose Estimationの基礎
深層学習によるHuman Pose Estimationの基礎
 
[DL輪読会]大規模分散強化学習の難しい問題設定への適用
[DL輪読会]大規模分散強化学習の難しい問題設定への適用[DL輪読会]大規模分散強化学習の難しい問題設定への適用
[DL輪読会]大規模分散強化学習の難しい問題設定への適用
 
ディープラーニングのフレームワークと特許戦争
ディープラーニングのフレームワークと特許戦争ディープラーニングのフレームワークと特許戦争
ディープラーニングのフレームワークと特許戦争
 
3D CNNによる人物行動認識の動向
3D CNNによる人物行動認識の動向3D CNNによる人物行動認識の動向
3D CNNによる人物行動認識の動向
 
モデル高速化百選
モデル高速化百選モデル高速化百選
モデル高速化百選
 
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
 
ドメイン適応の原理と応用
ドメイン適応の原理と応用ドメイン適応の原理と応用
ドメイン適応の原理と応用
 
Res netと派生研究の紹介
Res netと派生研究の紹介Res netと派生研究の紹介
Res netと派生研究の紹介
 
Deep Learning による視覚×言語融合の最前線
Deep Learning による視覚×言語融合の最前線Deep Learning による視覚×言語融合の最前線
Deep Learning による視覚×言語融合の最前線
 
DLLab 異常検知ナイト 資料 20180214
DLLab 異常検知ナイト 資料 20180214DLLab 異常検知ナイト 資料 20180214
DLLab 異常検知ナイト 資料 20180214
 
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
 
[DL Hacks]Visdomを使ったデータ可視化
[DL Hacks]Visdomを使ったデータ可視化[DL Hacks]Visdomを使ったデータ可視化
[DL Hacks]Visdomを使ったデータ可視化
 
[DL輪読会]DropBlock: A regularization method for convolutional networks
[DL輪読会]DropBlock: A regularization method for convolutional networks[DL輪読会]DropBlock: A regularization method for convolutional networks
[DL輪読会]DropBlock: A regularization method for convolutional networks
 
CMA-ESサンプラーによるハイパーパラメータ最適化 at Optuna Meetup #1
CMA-ESサンプラーによるハイパーパラメータ最適化 at Optuna Meetup #1CMA-ESサンプラーによるハイパーパラメータ最適化 at Optuna Meetup #1
CMA-ESサンプラーによるハイパーパラメータ最適化 at Optuna Meetup #1
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
 

Similar to これから始める人のためのディープラーニング基礎講座

ハンズオン セッション 3: リカレント ニューラル ネットワーク入門
ハンズオン セッション 3: リカレント ニューラル ネットワーク入門ハンズオン セッション 3: リカレント ニューラル ネットワーク入門
ハンズオン セッション 3: リカレント ニューラル ネットワーク入門NVIDIA Japan
 
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化RCCSRENKEI
 
NVIDIA ディープラーニング入門
NVIDIA ディープラーニング入門NVIDIA ディープラーニング入門
NVIDIA ディープラーニング入門Seong-Hun Choe
 
Cvim saisentan-6-4-tomoaki
Cvim saisentan-6-4-tomoakiCvim saisentan-6-4-tomoaki
Cvim saisentan-6-4-tomoakitomoaki0705
 
エヌビディアが加速するディープラーニング ~進化するニューラルネットワークとその開発方法について~
エヌビディアが加速するディープラーニング ~進化するニューラルネットワークとその開発方法について~エヌビディアが加速するディープラーニング ~進化するニューラルネットワークとその開発方法について~
エヌビディアが加速するディープラーニング ~進化するニューラルネットワークとその開発方法について~NVIDIA Japan
 
エヌビディアが加速するディープラーニング~進化するニューラルネットワークとその開発方法について~
エヌビディアが加速するディープラーニング~進化するニューラルネットワークとその開発方法について~エヌビディアが加速するディープラーニング~進化するニューラルネットワークとその開発方法について~
エヌビディアが加速するディープラーニング~進化するニューラルネットワークとその開発方法について~NVIDIA Japan
 
ADVENTUREの他のモジュール・関連プロジェクトの紹介
ADVENTUREの他のモジュール・関連プロジェクトの紹介ADVENTUREの他のモジュール・関連プロジェクトの紹介
ADVENTUREの他のモジュール・関連プロジェクトの紹介ADVENTURE Project
 
GTC 2016 ディープラーニング最新情報
GTC 2016 ディープラーニング最新情報GTC 2016 ディープラーニング最新情報
GTC 2016 ディープラーニング最新情報NVIDIA Japan
 
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGAAn Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGALeapMind Inc
 
20171206 Sony Neural Network Console 活用テクニック
20171206 Sony Neural Network Console 活用テクニック20171206 Sony Neural Network Console 活用テクニック
20171206 Sony Neural Network Console 活用テクニックSony Network Communications Inc.
 
Iot algyan jhirono 20190111
Iot algyan jhirono 20190111Iot algyan jhirono 20190111
Iot algyan jhirono 20190111Hirono Jumpei
 
はじめての人のためのDeep Learning
はじめての人のためのDeep Learningはじめての人のためのDeep Learning
はじめての人のためのDeep LearningTadaichiro Nakano
 
これから始める人の為のディープラーニング基礎講座
これから始める人の為のディープラーニング基礎講座これから始める人の為のディープラーニング基礎講座
これから始める人の為のディープラーニング基礎講座NVIDIA Japan
 
2値化CNN on FPGAでGPUとガチンコバトル(公開版)
2値化CNN on FPGAでGPUとガチンコバトル(公開版)2値化CNN on FPGAでGPUとガチンコバトル(公開版)
2値化CNN on FPGAでGPUとガチンコバトル(公開版)Hiroki Nakahara
 
DeNAにおける機械学習・深層学習活用
DeNAにおける機械学習・深層学習活用DeNAにおける機械学習・深層学習活用
DeNAにおける機械学習・深層学習活用Kazuki Fujikawa
 
01 idea table3.2
01 idea table3.201 idea table3.2
01 idea table3.2umisuzume
 
Deeplearning bank marketing dataset
Deeplearning bank marketing datasetDeeplearning bank marketing dataset
Deeplearning bank marketing datasetTellSun
 

Similar to これから始める人のためのディープラーニング基礎講座 (20)

ハンズオン セッション 3: リカレント ニューラル ネットワーク入門
ハンズオン セッション 3: リカレント ニューラル ネットワーク入門ハンズオン セッション 3: リカレント ニューラル ネットワーク入門
ハンズオン セッション 3: リカレント ニューラル ネットワーク入門
 
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
 
マイクロソフトが考えるAI活用のロードマップ
マイクロソフトが考えるAI活用のロードマップマイクロソフトが考えるAI活用のロードマップ
マイクロソフトが考えるAI活用のロードマップ
 
NVIDIA ディープラーニング入門
NVIDIA ディープラーニング入門NVIDIA ディープラーニング入門
NVIDIA ディープラーニング入門
 
Cvim saisentan-6-4-tomoaki
Cvim saisentan-6-4-tomoakiCvim saisentan-6-4-tomoaki
Cvim saisentan-6-4-tomoaki
 
エヌビディアが加速するディープラーニング ~進化するニューラルネットワークとその開発方法について~
エヌビディアが加速するディープラーニング ~進化するニューラルネットワークとその開発方法について~エヌビディアが加速するディープラーニング ~進化するニューラルネットワークとその開発方法について~
エヌビディアが加速するディープラーニング ~進化するニューラルネットワークとその開発方法について~
 
エヌビディアが加速するディープラーニング~進化するニューラルネットワークとその開発方法について~
エヌビディアが加速するディープラーニング~進化するニューラルネットワークとその開発方法について~エヌビディアが加速するディープラーニング~進化するニューラルネットワークとその開発方法について~
エヌビディアが加速するディープラーニング~進化するニューラルネットワークとその開発方法について~
 
MIRU_Preview_JSAI2019
MIRU_Preview_JSAI2019MIRU_Preview_JSAI2019
MIRU_Preview_JSAI2019
 
ADVENTUREの他のモジュール・関連プロジェクトの紹介
ADVENTUREの他のモジュール・関連プロジェクトの紹介ADVENTUREの他のモジュール・関連プロジェクトの紹介
ADVENTUREの他のモジュール・関連プロジェクトの紹介
 
GTC 2016 ディープラーニング最新情報
GTC 2016 ディープラーニング最新情報GTC 2016 ディープラーニング最新情報
GTC 2016 ディープラーニング最新情報
 
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGAAn Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
 
Ldd13 present
Ldd13 presentLdd13 present
Ldd13 present
 
20171206 Sony Neural Network Console 活用テクニック
20171206 Sony Neural Network Console 活用テクニック20171206 Sony Neural Network Console 活用テクニック
20171206 Sony Neural Network Console 活用テクニック
 
Iot algyan jhirono 20190111
Iot algyan jhirono 20190111Iot algyan jhirono 20190111
Iot algyan jhirono 20190111
 
はじめての人のためのDeep Learning
はじめての人のためのDeep Learningはじめての人のためのDeep Learning
はじめての人のためのDeep Learning
 
これから始める人の為のディープラーニング基礎講座
これから始める人の為のディープラーニング基礎講座これから始める人の為のディープラーニング基礎講座
これから始める人の為のディープラーニング基礎講座
 
2値化CNN on FPGAでGPUとガチンコバトル(公開版)
2値化CNN on FPGAでGPUとガチンコバトル(公開版)2値化CNN on FPGAでGPUとガチンコバトル(公開版)
2値化CNN on FPGAでGPUとガチンコバトル(公開版)
 
DeNAにおける機械学習・深層学習活用
DeNAにおける機械学習・深層学習活用DeNAにおける機械学習・深層学習活用
DeNAにおける機械学習・深層学習活用
 
01 idea table3.2
01 idea table3.201 idea table3.2
01 idea table3.2
 
Deeplearning bank marketing dataset
Deeplearning bank marketing datasetDeeplearning bank marketing dataset
Deeplearning bank marketing dataset
 

More from NVIDIA Japan

HPC 的に H100 は魅力的な GPU なのか?
HPC 的に H100 は魅力的な GPU なのか?HPC 的に H100 は魅力的な GPU なのか?
HPC 的に H100 は魅力的な GPU なのか?NVIDIA Japan
 
NVIDIA cuQuantum SDK による量子回路シミュレーターの高速化
NVIDIA cuQuantum SDK による量子回路シミュレーターの高速化NVIDIA cuQuantum SDK による量子回路シミュレーターの高速化
NVIDIA cuQuantum SDK による量子回路シミュレーターの高速化NVIDIA Japan
 
Physics-ML のためのフレームワーク NVIDIA Modulus 最新事情
Physics-ML のためのフレームワーク NVIDIA Modulus 最新事情Physics-ML のためのフレームワーク NVIDIA Modulus 最新事情
Physics-ML のためのフレームワーク NVIDIA Modulus 最新事情NVIDIA Japan
 
20221021_JP5.0.2-Webinar-JP_Final.pdf
20221021_JP5.0.2-Webinar-JP_Final.pdf20221021_JP5.0.2-Webinar-JP_Final.pdf
20221021_JP5.0.2-Webinar-JP_Final.pdfNVIDIA Japan
 
開発者が語る NVIDIA cuQuantum SDK
開発者が語る NVIDIA cuQuantum SDK開発者が語る NVIDIA cuQuantum SDK
開発者が語る NVIDIA cuQuantum SDKNVIDIA Japan
 
NVIDIA Modulus: Physics ML 開発のためのフレームワーク
NVIDIA Modulus: Physics ML 開発のためのフレームワークNVIDIA Modulus: Physics ML 開発のためのフレームワーク
NVIDIA Modulus: Physics ML 開発のためのフレームワークNVIDIA Japan
 
NVIDIA HPC ソフトウエア斜め読み
NVIDIA HPC ソフトウエア斜め読みNVIDIA HPC ソフトウエア斜め読み
NVIDIA HPC ソフトウエア斜め読みNVIDIA Japan
 
HPC+AI ってよく聞くけど結局なんなの
HPC+AI ってよく聞くけど結局なんなのHPC+AI ってよく聞くけど結局なんなの
HPC+AI ってよく聞くけど結局なんなのNVIDIA Japan
 
Magnum IO GPUDirect Storage 最新情報
Magnum IO GPUDirect Storage 最新情報Magnum IO GPUDirect Storage 最新情報
Magnum IO GPUDirect Storage 最新情報NVIDIA Japan
 
データ爆発時代のネットワークインフラ
データ爆発時代のネットワークインフラデータ爆発時代のネットワークインフラ
データ爆発時代のネットワークインフラNVIDIA Japan
 
Hopper アーキテクチャで、変わること、変わらないこと
Hopper アーキテクチャで、変わること、変わらないことHopper アーキテクチャで、変わること、変わらないこと
Hopper アーキテクチャで、変わること、変わらないことNVIDIA Japan
 
GPU と PYTHON と、それから最近の NVIDIA
GPU と PYTHON と、それから最近の NVIDIAGPU と PYTHON と、それから最近の NVIDIA
GPU と PYTHON と、それから最近の NVIDIANVIDIA Japan
 
GTC November 2021 – テレコム関連アップデート サマリー
GTC November 2021 – テレコム関連アップデート サマリーGTC November 2021 – テレコム関連アップデート サマリー
GTC November 2021 – テレコム関連アップデート サマリーNVIDIA Japan
 
テレコムのビッグデータ解析 & AI サイバーセキュリティ
テレコムのビッグデータ解析 & AI サイバーセキュリティテレコムのビッグデータ解析 & AI サイバーセキュリティ
テレコムのビッグデータ解析 & AI サイバーセキュリティNVIDIA Japan
 
必見!絶対におすすめの通信業界セッション 5 つ ~秋の GTC 2020~
必見!絶対におすすめの通信業界セッション 5 つ ~秋の GTC 2020~必見!絶対におすすめの通信業界セッション 5 つ ~秋の GTC 2020~
必見!絶対におすすめの通信業界セッション 5 つ ~秋の GTC 2020~NVIDIA Japan
 
2020年10月29日 プロフェッショナルAI×Roboticsエンジニアへのロードマップ
2020年10月29日 プロフェッショナルAI×Roboticsエンジニアへのロードマップ2020年10月29日 プロフェッショナルAI×Roboticsエンジニアへのロードマップ
2020年10月29日 プロフェッショナルAI×RoboticsエンジニアへのロードマップNVIDIA Japan
 
2020年10月29日 Jetson活用によるAI教育
2020年10月29日 Jetson活用によるAI教育2020年10月29日 Jetson活用によるAI教育
2020年10月29日 Jetson活用によるAI教育NVIDIA Japan
 
2020年10月29日 Jetson Nano 2GBで始めるAI x Robotics教育
2020年10月29日 Jetson Nano 2GBで始めるAI x Robotics教育2020年10月29日 Jetson Nano 2GBで始めるAI x Robotics教育
2020年10月29日 Jetson Nano 2GBで始めるAI x Robotics教育NVIDIA Japan
 
COVID-19 研究・対策に活用可能な NVIDIA ソフトウェアと関連情報
COVID-19 研究・対策に活用可能な NVIDIA ソフトウェアと関連情報COVID-19 研究・対策に活用可能な NVIDIA ソフトウェアと関連情報
COVID-19 研究・対策に活用可能な NVIDIA ソフトウェアと関連情報NVIDIA Japan
 
Jetson Xavier NX クラウドネイティブをエッジに
Jetson Xavier NX クラウドネイティブをエッジにJetson Xavier NX クラウドネイティブをエッジに
Jetson Xavier NX クラウドネイティブをエッジにNVIDIA Japan
 

More from NVIDIA Japan (20)

HPC 的に H100 は魅力的な GPU なのか?
HPC 的に H100 は魅力的な GPU なのか?HPC 的に H100 は魅力的な GPU なのか?
HPC 的に H100 は魅力的な GPU なのか?
 
NVIDIA cuQuantum SDK による量子回路シミュレーターの高速化
NVIDIA cuQuantum SDK による量子回路シミュレーターの高速化NVIDIA cuQuantum SDK による量子回路シミュレーターの高速化
NVIDIA cuQuantum SDK による量子回路シミュレーターの高速化
 
Physics-ML のためのフレームワーク NVIDIA Modulus 最新事情
Physics-ML のためのフレームワーク NVIDIA Modulus 最新事情Physics-ML のためのフレームワーク NVIDIA Modulus 最新事情
Physics-ML のためのフレームワーク NVIDIA Modulus 最新事情
 
20221021_JP5.0.2-Webinar-JP_Final.pdf
20221021_JP5.0.2-Webinar-JP_Final.pdf20221021_JP5.0.2-Webinar-JP_Final.pdf
20221021_JP5.0.2-Webinar-JP_Final.pdf
 
開発者が語る NVIDIA cuQuantum SDK
開発者が語る NVIDIA cuQuantum SDK開発者が語る NVIDIA cuQuantum SDK
開発者が語る NVIDIA cuQuantum SDK
 
NVIDIA Modulus: Physics ML 開発のためのフレームワーク
NVIDIA Modulus: Physics ML 開発のためのフレームワークNVIDIA Modulus: Physics ML 開発のためのフレームワーク
NVIDIA Modulus: Physics ML 開発のためのフレームワーク
 
NVIDIA HPC ソフトウエア斜め読み
NVIDIA HPC ソフトウエア斜め読みNVIDIA HPC ソフトウエア斜め読み
NVIDIA HPC ソフトウエア斜め読み
 
HPC+AI ってよく聞くけど結局なんなの
HPC+AI ってよく聞くけど結局なんなのHPC+AI ってよく聞くけど結局なんなの
HPC+AI ってよく聞くけど結局なんなの
 
Magnum IO GPUDirect Storage 最新情報
Magnum IO GPUDirect Storage 最新情報Magnum IO GPUDirect Storage 最新情報
Magnum IO GPUDirect Storage 最新情報
 
データ爆発時代のネットワークインフラ
データ爆発時代のネットワークインフラデータ爆発時代のネットワークインフラ
データ爆発時代のネットワークインフラ
 
Hopper アーキテクチャで、変わること、変わらないこと
Hopper アーキテクチャで、変わること、変わらないことHopper アーキテクチャで、変わること、変わらないこと
Hopper アーキテクチャで、変わること、変わらないこと
 
GPU と PYTHON と、それから最近の NVIDIA
GPU と PYTHON と、それから最近の NVIDIAGPU と PYTHON と、それから最近の NVIDIA
GPU と PYTHON と、それから最近の NVIDIA
 
GTC November 2021 – テレコム関連アップデート サマリー
GTC November 2021 – テレコム関連アップデート サマリーGTC November 2021 – テレコム関連アップデート サマリー
GTC November 2021 – テレコム関連アップデート サマリー
 
テレコムのビッグデータ解析 & AI サイバーセキュリティ
テレコムのビッグデータ解析 & AI サイバーセキュリティテレコムのビッグデータ解析 & AI サイバーセキュリティ
テレコムのビッグデータ解析 & AI サイバーセキュリティ
 
必見!絶対におすすめの通信業界セッション 5 つ ~秋の GTC 2020~
必見!絶対におすすめの通信業界セッション 5 つ ~秋の GTC 2020~必見!絶対におすすめの通信業界セッション 5 つ ~秋の GTC 2020~
必見!絶対におすすめの通信業界セッション 5 つ ~秋の GTC 2020~
 
2020年10月29日 プロフェッショナルAI×Roboticsエンジニアへのロードマップ
2020年10月29日 プロフェッショナルAI×Roboticsエンジニアへのロードマップ2020年10月29日 プロフェッショナルAI×Roboticsエンジニアへのロードマップ
2020年10月29日 プロフェッショナルAI×Roboticsエンジニアへのロードマップ
 
2020年10月29日 Jetson活用によるAI教育
2020年10月29日 Jetson活用によるAI教育2020年10月29日 Jetson活用によるAI教育
2020年10月29日 Jetson活用によるAI教育
 
2020年10月29日 Jetson Nano 2GBで始めるAI x Robotics教育
2020年10月29日 Jetson Nano 2GBで始めるAI x Robotics教育2020年10月29日 Jetson Nano 2GBで始めるAI x Robotics教育
2020年10月29日 Jetson Nano 2GBで始めるAI x Robotics教育
 
COVID-19 研究・対策に活用可能な NVIDIA ソフトウェアと関連情報
COVID-19 研究・対策に活用可能な NVIDIA ソフトウェアと関連情報COVID-19 研究・対策に活用可能な NVIDIA ソフトウェアと関連情報
COVID-19 研究・対策に活用可能な NVIDIA ソフトウェアと関連情報
 
Jetson Xavier NX クラウドネイティブをエッジに
Jetson Xavier NX クラウドネイティブをエッジにJetson Xavier NX クラウドネイティブをエッジに
Jetson Xavier NX クラウドネイティブをエッジに
 

Recently uploaded

CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?akihisamiyanaga1
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものですiPride Co., Ltd.
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineerYuki Kikuchi
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案sugiuralab
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)Hiroki Ichikura
 

Recently uploaded (9)

CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
 

これから始める人のためのディープラーニング基礎講座