SlideShare a Scribd company logo
1 of 20
Download to read offline
今日からはじめるディープラーニング
~ マルチGPUサーバー HPE Apollo 6500 と
TensorFlow 環境構築サービス ~
日本ヒューレット・パッカード株式会社
サーバー事業統括本部
サーバー製品統括本部 スケールアウト・サーバー製品部
岡野 家和
テクノロジーコンサルティング事業統括
トランスフォーメーション・コンサルティング本部 テクノロジーアーキテクト部
北山 晋吾
2016年10月5日
本日の内容
2
1. HPE Apollo 6500 System のご紹介
2. ディープラーニング開発環境構築サービスのご紹介
HPE Apollo 6500 System
今日からはじめるディープラーニング
3
HPE Apollo System ファミリー
4
HPE Apollo 2000
HPE Apollo 4000 ファミリー
Scalable Multi-node
Storage Density
HPE Apollo 6000
HPE Apollo 8000
Rack-scale Efficiency
Warm-water Supercomputer
ワークロードに最適化されたモジュラー型サーバー
HPE Apollo 6500
 2Uサーバートレイに8 GPU搭載
 4Uシャーシに2サーバー・16 GPUを稼働
 Tesla K80、M40、P100*をサポート
 「電源の外出し」で熱と温度の課題に対処
Ultra-dense GPU Server
* Tesla P100は11月販売開始予定
New
HPE Apollo 6500 とは
Ultra-dense GPU Server
5
サーバー
HPE ProLiant XL270d Gen9
シャーシ
HPE Apollo d6500 chassis
外付けパワーサプライ
HPE Apollo 6000 Power Shelf
GPU×4枚
GPU×4枚
• 最大8 GPU搭載可能な2Uラックサーバー
• 1シャーシに2サーバーを搭載
• 実績豊富な「ProLiant」 (M/BはApollo 2000)
• サーバーノードは個別メンテナンス可
• 前面抜き挿し型サーバートレイ
• 前面アクセス ホットプラグドライブ
• 冗長性のホットプラグ冷却ファン
• HPE Apollo 6000 で実績豊富な
1.5U パワーシェルフ
4U
2U
ディープラーニングを念頭にGPU搭載密度を追及したマルチノードサーバー
HPE ProLiant XL270d Gen9 基本仕様
6
項目 仕様
ラック 奥行1,200mm ラック推奨
シャーシ HPE Apollo d6500 シャーシ (4U、2台のサーバートレイ、1シャーシ最大16 GPU稼働)
プロセッサー インテル Xeon プロセッサー E5-2600 v4 ファミリー
電源 HP Apollo 6000 パワーシェルフ
メモリ 16×2,400MHz DDR4 DIMM、最大容量1,024GB (16 x 64GB DIMM)
ネットワーク
オプション
• 2×1GbE シングルポート モジュール標準搭載
• 2×PCI Express x16 LPスロットにInfiniBand、OmniPath(リリース後)、Ethernet アダプタ搭載可能
(1Gb, 10Gb, 25GbE)
I/O スロット
1サーバートレイあたり8枚の350W GPUをサポー
• 1×PCI Express x8 メザニン型スロット (Smartアレイ用)
• 2×PCE Express x16 ロープロファイル スロット
ストレージ 最大8本のホットプラグ式 SFF SAS HFF/ SATA HDD/ SSD – 前面アクセスドライブ
アクセラレータ
• NVIDIA Tesla: K80, M40 (K40 ~ 9月予定) Pascal GPU (発表され次第)
• インテル Xeon Phi KNL (PCIe用発表され次第)
• AMD : FirePro S9150
管理 HP iLO 4, HP Advance Power Manager
OS Red Hat Enterprise Linux 6.7, 7.2, SLES 11 SP4, 12, MS Windows Server 2012 R2
アプリ特性に応じて選択可能 : XL270d Gen9 トポロジー
7
8 GPU : 1 CPU トポロジー
P542D
PLX8796
GPU
GPU
GPU
GPU
PLX8796
GPU
GPU
GPU
GPU
CPU2
オプション
CPU1
Fabric
Fabric
x16
x16
x16
x16 x16
x16
QPI
20
GBs
25 GBs
x8
GPUサポート(1サーバーノードあたり):
• 8枚 Tesla M40
• 4枚 Tesla K80
• 8枚 Tesla K40
• 8枚 Tesla P100 (販売開始次第)
4 GPU : 1 CPU トポロジー
GPU
GPU
GPU
GPU
PLX
8747
GPU
GPU
GPU
GPU
CPU2 CPU1
Fabric
Fabric
x16 x16
x16 x16
x16
QPI
25 GBs
14
GBs
PLX
8764
PLX
8747
x16
PLX
8764
20 GBs
P542D
x8
GPUサポート(1サーバーノードあたり):
• 8枚 Tesla M40
• 8枚 Tesla K80
• 8枚 Tesla K40
• 8枚 Tesla P100 (販売開始次第)
HPE Apollo 6500 Overview
8
クラス最高のノードあたりGPU搭載密度
• 最大 8 GPU を2Uサーバートレイに
• アプリケーションに応じて最大4:1 または8:1 のGPU:CPU構成を選べる柔軟性
ラックスケールのGPUコンピューティング
• アクセラレータ、トップビンCPU、高速HPCクラスタなどHPCパフォーマンスを念頭に設計
• ストレージの柔軟性と豊富なI/Oオプションによるワークロードへの最適化が可能
拡張性とシンプルさを実現 – あくまでもProLiant Gen9
• HPE ProLiant のエンタープライズクラス管理・運用ツール
• HPE iLO が管理者の時間とコストを削減
• HPE Advanced Power Manager (APM) がラックあたりの効率を最大化
Designed for GPUHigh Density ProLiant
スモールスタートならHPE Apollo 2000
今日からはじめるディープラーニング
9
HPE Apollo 2000
ProLiant XL170r Gen9
1U サーバートレイ
ProLiant XL190r Gen9
2Uハーフワイド サーバートレイ
• 1サーバー2 GPU搭載
• Tesla M40, M60, K40, K80, P100*をサポート
• 2Uスペースに2サーバー4 GPU搭載可能
• XL190r でのTesla M60国内実績 400枚以上
* Tesla P100は11月販売開始予定
HPEブースでお待ちしいます – ぜひ現物をご覧ください
10
4サーバー 32 GPU構成 in 9.5U
ディープラーニング開発環境構築サービス
今日からはじめるディープラーニング
11
サービス利用モデル開発
機械学習/ディープラーニングの利用と分類
手元のデータから独自のモデルを開発する
ディープラーニングフレームワークの利用
・TensorFlow
・Chainer
・Caffe
データ分析
すでに効果が見えているデータ群から、リソース
を利用して機械学習モデルを設計する
・Google Cloud Machine Learning
・Microsoft Azure Machine Learning
トレーニング済みの機械学習サービスを利用し
たモデル適用を行う
・Google Cloud Vision API
・Microsoft Project Oxford
・HPE Haven OnDemand
ディープラーニングは、利用目的に応じて3つの利用形態が存在する。
GPU/CUDAを利用した自社モデル開発
拡張性の高さ 敏捷性の高さ
クラウドリソースを利用したモデル開発 既存モデルを利用したSaaS利用
モデル開発におけるディープラーニングフレームワーク
ディープラーニングを始めるためには、わかりやすいフレームワークを活用することが重要。
また、ディープラーニングフレームワークを用いることで、GPUを意識することなくモデル構築することが可能。
ディープラーニング アプリケーション
Caffe Torch Chainer
Tensor
Flow
Theano
CUDA
ディープラーニングフレームワーク
GPU (NVIDIA)
※CUDA最適化ライブラリ
cuDNN
ディープラーニング用ライブラリ
cuBLAS
密行列演算ライブラリ
cuSPARSE
疎行列演算ライブラリ
(深層学習を使ったデータモデリングをするためのライブラリ)
クライアントアプリケーションは、
PythonやC++などで実装
ディープラーニングフレームワーク
によって、複雑なDeep Neutral
Network構造を容易に実装
CUDAライブラリによって、GPUプ
ログラミングは容易に実装可能
14
Open Source化された機械学習ライブラリ
・Python言語で複雑なDeep Neutral Network構造を容易に実装可能
・計算処理をグラフ構造で表現した、直感的に理解しやすいフレームワーク体系
・マルチGPUに対応。コードの変更なく、GPUリソースを最大限に活用可能
Googleの商用サービスでの利用実績
・Google PhotosなどのGoogle商用サービスでもすでに豊富な利用実績があり、多数の開発者がTensorFlowを使
用して開発を実施
TensorBoardによるデータフローや学習過程の可視化にも対応
・付属のTensorBoardを使い、複雑なデータフロー構造や学習過程でのエントロピー低減の状態が可視化可能
Tensorflowによるディープラーニング開発環境の特徴
学習課程 データフロー構造
15
Tensorflowの利用シェア拡大
2015年11月のローンチ後、最も多く利用されているディープラーニングフレームワーク
16
Tensorflow構築支援サービス
•サンプルプログラムの操作に
関する技術移管
(オンサイト)
•Q&A対応
(1週間のリモート対応)
•Ubuntu14.04LTSインストール
•nvidiaドライバインストール
•Cuda7.0、cuDNN6.5インストール
•tensorflowインストール
•サンプルプログラムの動作確認
(MNIST, CIFAR-10)
設計・構築 技術移管 納品
•導入作業報告書
本サービスは、ディープラーニング開発環境としてHPE Apollo 6500サーバ上にTensorFlowを導入し、NVIDIA GPUを最
大限活用した高速機械学習環境を構築するサービスです。画像認識精度の飛躍的な向上、あるいは、お客様の保有する
データを利用した全く新しいInsight(気づき)の獲得など、これまで実現できなかったビジネスモデルを作り上げるための基
盤となるディープラーニング環境の導入をご支援いたします。
サービス概要
サービス内容
※ 正式見積は詳細を確認させていただいた上で提示いたします。
※ その他、個別のご相談にも応じます
HPE Apollo + GPU 「まるごと半額」キャンペーン
HPE Apollo 6500発表記念
17
キャンペーン内容
 対象製品を購入の場合は一律 50% Off
 GPUタイプ、購入台数、一切の制限なし
 2017年1月31日まで
対象製品
 HPE Apollo 2000 + GPU
• NVIDIA Tesla M40, M60, K40, K80
• NVIDIA Quadro M4000
 HPE Apollo 6500 + GPU
• NVIDIA Tesla M40, K40, K80
まとめ
サーバーHWから開発環境構築サービスまで、HPEが一括で提供
18
HPE Apollo + GPUで「まるごと半額」。始めるなら今!
HPE Apollo 6500
高密度GPU搭載サーバー
ディープラーニング
環境構築サービス
技術移管
• サンプルプログラムの操作に関する技術移管 (オンサイト)
• Q&A(1週間のリモート対応)
構築・試験
• Ubuntu14.04LTS インストール
• NVIDIAドライバ インストール
• Cuda7.0, cuDNN6.5 インストール
• TensorFlow インストール
• サンプルプログラム (MNIST, CIFAR-10) 動作確認
提出物
• 導入作業報告書の提出TensorFlow : Googleが開発
し、オープンソース化された機械
学習ライブラリ
サービス内容 作業期間 2週間程度
Apollo + GPU 「まるごと半額キャンペーン」実施中
専用4Uシャーシに8 GPU搭載マシンを2台搭載可能なマルチノードサーバー
アンケートご協力のお願い
19
セッションアンケートは
ここ!
ブースNo. ⑲ ⑳
日本ヒューレット・パッカード ブース
ぜひ、ブースにも
お立ち寄りください!
Thank you
facebook.com/HPEJapan
twitter.com/HPEJapan
youtube.com/HPEJapan
20
是非、サーバを導入したその日から
ディープラーニング始めてみませんか

More Related Content

What's hot

OpenStack超入門シリーズ Novaのディスク周りあれこれ
OpenStack超入門シリーズ Novaのディスク周りあれこれOpenStack超入門シリーズ Novaのディスク周りあれこれ
OpenStack超入門シリーズ Novaのディスク周りあれこれ
Toru Makabe
 
OpenStack超入門シリーズ いまさら聞けないSwiftの使い方
OpenStack超入門シリーズ いまさら聞けないSwiftの使い方OpenStack超入門シリーズ いまさら聞けないSwiftの使い方
OpenStack超入門シリーズ いまさら聞けないSwiftの使い方
Toru Makabe
 

What's hot (19)

9/26 CUPA Cafe ~押し寄せる海外クラウド~
9/26 CUPA Cafe ~押し寄せる海外クラウド~9/26 CUPA Cafe ~押し寄せる海外クラウド~
9/26 CUPA Cafe ~押し寄せる海外クラウド~
 
OpenStack超入門シリーズ Novaのディスク周りあれこれ
OpenStack超入門シリーズ Novaのディスク周りあれこれOpenStack超入門シリーズ Novaのディスク周りあれこれ
OpenStack超入門シリーズ Novaのディスク周りあれこれ
 
How to contribute AWX
How to contribute AWXHow to contribute AWX
How to contribute AWX
 
Ansible+Docker
Ansible+DockerAnsible+Docker
Ansible+Docker
 
[Red Hat Forum 2017] Ansible Towerの実践!!エンタープライズのInfrastructure as Codeの現在(イマ)
[Red Hat Forum 2017] Ansible Towerの実践!!エンタープライズのInfrastructure as Codeの現在(イマ)[Red Hat Forum 2017] Ansible Towerの実践!!エンタープライズのInfrastructure as Codeの現在(イマ)
[Red Hat Forum 2017] Ansible Towerの実践!!エンタープライズのInfrastructure as Codeの現在(イマ)
 
Terraformで始めるInfrastructure as Code
Terraformで始めるInfrastructure as CodeTerraformで始めるInfrastructure as Code
Terraformで始めるInfrastructure as Code
 
CEDEC2015_OpenStack で運用する Private Cloud の泥臭い(リアル)な話
CEDEC2015_OpenStack で運用する Private Cloud の泥臭い(リアル)な話CEDEC2015_OpenStack で運用する Private Cloud の泥臭い(リアル)な話
CEDEC2015_OpenStack で運用する Private Cloud の泥臭い(リアル)な話
 
Chefのエンタープライズ事例 ossミドルウェアスタックishigakiテンプレートにおける事例-
Chefのエンタープライズ事例 ossミドルウェアスタックishigakiテンプレートにおける事例-Chefのエンタープライズ事例 ossミドルウェアスタックishigakiテンプレートにおける事例-
Chefのエンタープライズ事例 ossミドルウェアスタックishigakiテンプレートにおける事例-
 
これからのOpenShiftの話をしよう
これからのOpenShiftの話をしようこれからのOpenShiftの話をしよう
これからのOpenShiftの話をしよう
 
OpenStackSDK with Ansible
OpenStackSDK with AnsibleOpenStackSDK with Ansible
OpenStackSDK with Ansible
 
コンテナ時代にインフラエンジニアは何をするのか
コンテナ時代にインフラエンジニアは何をするのかコンテナ時代にインフラエンジニアは何をするのか
コンテナ時代にインフラエンジニアは何をするのか
 
go-apt-cacher/mirror
go-apt-cacher/mirrorgo-apt-cacher/mirror
go-apt-cacher/mirror
 
OpenStack超入門シリーズ いまさら聞けないSwiftの使い方
OpenStack超入門シリーズ いまさら聞けないSwiftの使い方OpenStack超入門シリーズ いまさら聞けないSwiftの使い方
OpenStack超入門シリーズ いまさら聞けないSwiftの使い方
 
Docker ホスティングサービス 'Arukas' での Mesos + Marathon の活用について(Mesos勉強会)
Docker ホスティングサービス 'Arukas' での Mesos + Marathon の活用について(Mesos勉強会)Docker ホスティングサービス 'Arukas' での Mesos + Marathon の活用について(Mesos勉強会)
Docker ホスティングサービス 'Arukas' での Mesos + Marathon の活用について(Mesos勉強会)
 
Terraform Bootcamp - Azure Infrastructure as Code隊
Terraform Bootcamp - Azure Infrastructure as Code隊Terraform Bootcamp - Azure Infrastructure as Code隊
Terraform Bootcamp - Azure Infrastructure as Code隊
 
インフラエンジニア勉強会hbstudyについて
インフラエンジニア勉強会hbstudyについてインフラエンジニア勉強会hbstudyについて
インフラエンジニア勉強会hbstudyについて
 
OpenStackとTerraformで作る Phoenix Environments
OpenStackとTerraformで作る Phoenix EnvironmentsOpenStackとTerraformで作る Phoenix Environments
OpenStackとTerraformで作る Phoenix Environments
 
テスト駆動インフラ構築-Chefとserverspecを使ったインフラ自動化のすすめ-
テスト駆動インフラ構築-Chefとserverspecを使ったインフラ自動化のすすめ-テスト駆動インフラ構築-Chefとserverspecを使ったインフラ自動化のすすめ-
テスト駆動インフラ構築-Chefとserverspecを使ったインフラ自動化のすすめ-
 
[SAPPORO CEDEC] サービスの効果を高めるグリー内製ツールの技術と紹介
[SAPPORO CEDEC] サービスの効果を高めるグリー内製ツールの技術と紹介[SAPPORO CEDEC] サービスの効果を高めるグリー内製ツールの技術と紹介
[SAPPORO CEDEC] サービスの効果を高めるグリー内製ツールの技術と紹介
 

Viewers also liked

Understanding PHP memory
Understanding PHP memoryUnderstanding PHP memory
Understanding PHP memory
julien pauli
 

Viewers also liked (7)

仮想化環境の設計手法 〜プロのテクニック教えます〜
仮想化環境の設計手法 〜プロのテクニック教えます〜仮想化環境の設計手法 〜プロのテクニック教えます〜
仮想化環境の設計手法 〜プロのテクニック教えます〜
 
運用のためのPlaybook (Playbook for Operation)
運用のためのPlaybook (Playbook for Operation)運用のためのPlaybook (Playbook for Operation)
運用のためのPlaybook (Playbook for Operation)
 
デブサミ2017【17-E-5】エンタープライズにおけるDevOpsの実態!Cloud Native Application Platformの選択
デブサミ2017【17-E-5】エンタープライズにおけるDevOpsの実態!Cloud Native Application Platformの選択デブサミ2017【17-E-5】エンタープライズにおけるDevOpsの実態!Cloud Native Application Platformの選択
デブサミ2017【17-E-5】エンタープライズにおけるDevOpsの実態!Cloud Native Application Platformの選択
 
Linux memory
Linux memoryLinux memory
Linux memory
 
Understanding PHP memory
Understanding PHP memoryUnderstanding PHP memory
Understanding PHP memory
 
Linux KVM環境におけるGPGPU活用最新動向
Linux KVM環境におけるGPGPU活用最新動向Linux KVM環境におけるGPGPU活用最新動向
Linux KVM環境におけるGPGPU活用最新動向
 
TensorFlow を使った 機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った 機械学習ことはじめ (GDG京都 機械学習勉強会)
 

Similar to 今日からはじめるディープラーニング

[db tech showcase Sapporo 2015] A12:DBAが知っておくべき最新テクノロジー: フラッシュ, ストレージ, クラウド b...
[db tech showcase Sapporo 2015] A12:DBAが知っておくべき最新テクノロジー: フラッシュ, ストレージ, クラウド b...[db tech showcase Sapporo 2015] A12:DBAが知っておくべき最新テクノロジー: フラッシュ, ストレージ, クラウド b...
[db tech showcase Sapporo 2015] A12:DBAが知っておくべき最新テクノロジー: フラッシュ, ストレージ, クラウド b...
Insight Technology, Inc.
 

Similar to 今日からはじめるディープラーニング (20)

HPC 的に H100 は魅力的な GPU なのか?
HPC 的に H100 は魅力的な GPU なのか?HPC 的に H100 は魅力的な GPU なのか?
HPC 的に H100 は魅力的な GPU なのか?
 
HPCフォーラム2015 基調講演 HPテクニカルコンピューティング最前線 ~HP Apollo Systemディープダイブと、世界の採用事例~ Ed T...
HPCフォーラム2015 基調講演 HPテクニカルコンピューティング最前線 ~HP Apollo Systemディープダイブと、世界の採用事例~ Ed T...HPCフォーラム2015 基調講演 HPテクニカルコンピューティング最前線 ~HP Apollo Systemディープダイブと、世界の採用事例~ Ed T...
HPCフォーラム2015 基調講演 HPテクニカルコンピューティング最前線 ~HP Apollo Systemディープダイブと、世界の採用事例~ Ed T...
 
【de:code 2020】 AI とデータ サイエンスを加速する NVIDIA の最新 GPU アーキテクチャ
【de:code 2020】 AI とデータ サイエンスを加速する NVIDIA の最新 GPU アーキテクチャ【de:code 2020】 AI とデータ サイエンスを加速する NVIDIA の最新 GPU アーキテクチャ
【de:code 2020】 AI とデータ サイエンスを加速する NVIDIA の最新 GPU アーキテクチャ
 
20170421 tensor flowusergroup
20170421 tensor flowusergroup20170421 tensor flowusergroup
20170421 tensor flowusergroup
 
Cmc cmd slim
Cmc cmd slimCmc cmd slim
Cmc cmd slim
 
NVIDIA deep learning最新情報in沖縄
NVIDIA deep learning最新情報in沖縄NVIDIA deep learning最新情報in沖縄
NVIDIA deep learning最新情報in沖縄
 
What's new in open shift container platform 4.7 japan_20210318
What's new in open shift container platform 4.7 japan_20210318What's new in open shift container platform 4.7 japan_20210318
What's new in open shift container platform 4.7 japan_20210318
 
NVIDIA GPU 技術最新情報
NVIDIA GPU 技術最新情報NVIDIA GPU 技術最新情報
NVIDIA GPU 技術最新情報
 
Hadoop基盤を知る
Hadoop基盤を知るHadoop基盤を知る
Hadoop基盤を知る
 
NVIDIA 更新情報: Tesla P100 PCIe/cuDNN 5.1
NVIDIA 更新情報: Tesla P100 PCIe/cuDNN 5.1NVIDIA 更新情報: Tesla P100 PCIe/cuDNN 5.1
NVIDIA 更新情報: Tesla P100 PCIe/cuDNN 5.1
 
A100 GPU 搭載! P4d インスタンス 使いこなしのコツ
A100 GPU 搭載! P4d インスタンス使いこなしのコツA100 GPU 搭載! P4d インスタンス使いこなしのコツ
A100 GPU 搭載! P4d インスタンス 使いこなしのコツ
 
Prometech Particleworks on Rescale
Prometech Particleworks on RescalePrometech Particleworks on Rescale
Prometech Particleworks on Rescale
 
産総研AIクラウドでChainerMN
産総研AIクラウドでChainerMN産総研AIクラウドでChainerMN
産総研AIクラウドでChainerMN
 
[Oracle Cloud Days Tokyo2015]成功事例に学べ! ビッグデータ活用のための最新ベストプラクティス
[Oracle Cloud Days Tokyo2015]成功事例に学べ! ビッグデータ活用のための最新ベストプラクティス[Oracle Cloud Days Tokyo2015]成功事例に学べ! ビッグデータ活用のための最新ベストプラクティス
[Oracle Cloud Days Tokyo2015]成功事例に学べ! ビッグデータ活用のための最新ベストプラクティス
 
インフラ野郎AzureチームProX
インフラ野郎AzureチームProXインフラ野郎AzureチームProX
インフラ野郎AzureチームProX
 
GPUとSSDがPostgreSQLを加速する~クエリ処理スループット10GB/sへの挑戦~ [DB Tech Showcase Tokyo/2017]
GPUとSSDがPostgreSQLを加速する~クエリ処理スループット10GB/sへの挑戦~ [DB Tech Showcase Tokyo/2017]GPUとSSDがPostgreSQLを加速する~クエリ処理スループット10GB/sへの挑戦~ [DB Tech Showcase Tokyo/2017]
GPUとSSDがPostgreSQLを加速する~クエリ処理スループット10GB/sへの挑戦~ [DB Tech Showcase Tokyo/2017]
 
[db tech showcase Sapporo 2015] A12:DBAが知っておくべき最新テクノロジー: フラッシュ, ストレージ, クラウド b...
[db tech showcase Sapporo 2015] A12:DBAが知っておくべき最新テクノロジー: フラッシュ, ストレージ, クラウド b...[db tech showcase Sapporo 2015] A12:DBAが知っておくべき最新テクノロジー: フラッシュ, ストレージ, クラウド b...
[db tech showcase Sapporo 2015] A12:DBAが知っておくべき最新テクノロジー: フラッシュ, ストレージ, クラウド b...
 
[Cyber HPC Symposium 2019] Microsoft Azureによる、クラウド時代のハイパフォーマンスコンピューティング High...
[Cyber HPC Symposium 2019]  Microsoft Azureによる、クラウド時代のハイパフォーマンスコンピューティング High...[Cyber HPC Symposium 2019]  Microsoft Azureによる、クラウド時代のハイパフォーマンスコンピューティング High...
[Cyber HPC Symposium 2019] Microsoft Azureによる、クラウド時代のハイパフォーマンスコンピューティング High...
 
Linux on Powerの最新情報(2014年11月)
Linux on Powerの最新情報(2014年11月)Linux on Powerの最新情報(2014年11月)
Linux on Powerの最新情報(2014年11月)
 
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
 

今日からはじめるディープラーニング