SlideShare a Scribd company logo
1 of 60
Download to read offline
Windows ストレージ機能のおさらい&
専用ハードウェアとしてのストレージ未
来予想図
Interact 2018
 高野 勝( Masaru Takano )
 日本ヒューレット・パッカード エバンジェリスト
 主な専門分野:ストレージ
 Microsoft MVP - Cloud and Datacenter Management
(Jul.2012 - Jun.2017)
2
 セッションの目的
◦ Microsoft HCIやAzure StackなどのベースとなっているWindowsに実装さ
れているストレージ機能について特徴や使い方理解する
◦ 業界が抱えている問題点を再確認することでコンピュータ、ストレージの
将来像を考える
3
4
5
SMB 2.0以降とレガシーな SMB 1.0/CIFS とは別物
 より速く! FC SANと同等のパフォーマンスをシンプルに
 より安全に! 成熟した管理機能、セキュリティ、高可用性
SMB
LAN Manager
Windows 95
Windows NT
SMB 2.0
Windows Vista
& Server 2008
SMB 2.1
Windows 7
& Server 2008 R2
SMB 3.0/3.0.2
Windows 8
& Server 2012
SMB 3.1.1
Windows 10
& Server 2016
1980年代~ 2006年 2009年 2012年 2015年
・コマンドの結合
・読取/書込サイズの拡大
・切断時の透過的再接続
・メッセージ署名の改善
(HMAC SHA-256)
・スケーラビリティの向上
・シンボリックリンクのサポート
・クライアント oplock リース モデ
ル
・大きい MTU のサポート
(最大64KB → 1MB)
・スリープモード移行の強化
6
セキュリティ
管理
パフォーマンス
可用性
SMB 透過
フェールオーバー
SMB
スケールアウト
SMB
マルチチャネル
ボリューム
シャドーコピーの
SMB 共有対応
SMB 暗号化
SMB
ディレクトリース
オフロード・
データ転送(ODX)
SMB 用
Windows
PowerShell
SMB 用の新しいパ
フォーマンス
カウンター
SOFS クライアン
トの自動再配分
セッション
事前認証の強化
(SHA-512)
SMB 暗号化の
高速化
(AES-128-GCM)
クラスター環境で
の SMB Dialect 自
動判別
スケールアウト
ファイルサーバー
での複数 SMB
インスタンスの
サポート
SMB
ダイレクト
SMB イベントメッ
セージの強化
Hyper-V ライブ
マイグレーション
over SMB
SMB 1.0の
オプション化
ゲスト
クラスタリング
(VHDX)の強化
SMB
帯域幅管理の向上
3.0.2 3.1.13.0.0
7
 ローカルストレージに匹敵する超高速な低遅延ネットワーク
 I/O処理におけるサーバー CPU 負荷の削減
 SMB マルチチャネルとの併用による高速化と冗長化に対応
RDMAを活用した高速なアクセス基盤の実現
SMB
サーバー
SMB
クライアント
ユーザー
モード
RDMA サポート
のネットワーク
NTFS
SCSI
RDMA サポート
のネットワーク
RDMA (Remote Direct Memory Access)
ネットワークデータ転送を、OS を介さずに
ディスクとNIC で直接やり取りをする I/O 方式
RDMA対応ネットワーク機器が必要
※ 3 種類の RDMA 提供方式
・iWARP
・InfiniBand
・RoCE (RDMA over Converged Ethernet)
カーネル
モード
8
 記憶域スペース(仮想ディスク)
◦ 記憶域プールから必要な領域を切り出し
◦ 柔軟な回復性タイプ
 記憶域プール
◦ 複数の物理ディスクを論理的に1つに統合
◦ ディスク増設時に動的な容量拡張が可能
◦ マルチテナントを想定した管理者の定義
 記憶域スペースはWindows Sever 2012か
ら実装
SAS
SATA
USB
共有 SAS
9
10
共有ストレージあり
Active Active
記憶域
スペース
共有ストレージなし (Storage Spaces Direct)
Active Active Active Active
記憶域スペース
 各ノードの“ローカルストレージ”でSOFS の信頼性と拡張性を実現
11
Compute Node / Storage Node 分離
• 明確な管理上の境界と柔軟な拡張性
• 大規模環境に最適
Compute Node/Storage Node 同居
• シンプルなシステム構成
• 中小規模環境の最適
12
 仮想ディスク
◦ 1GB ごとのエクステント (データ領域) による構成
(100GB の仮想ディスクであれば 100個のエクステント)
 スケールアウト
◦ エクステント単位で各サーバーに分散配置
 回復性
◦ 同一構成のエクステントを別のサーバー上で保持
(3方向ミラーにより、3つのサーバーに配置される)
仮想ディスク エクステント
ノード#5ノード#2 ノード#3 ノード#4ノード#1
A A’ A’’B B’ B’’C C’C’’
13
 2 – 16 ノード構成
◦ 2ノードからサポート
◦ 最大16ノードまで拡大可能
 拡張可能な記憶域プール
◦ 仮想ディスク上のデータを複数ノードに分散配置
 高速なクラスター内通信
◦ SMB 3.1.1
◦ SMB ダイレクト (RDMA) による
CPU 負荷およびネットワーク遅延の低減
 容易なストレージ拡張
◦ ストレージノードの追加およびプールの拡張後、データを自動再配置
ノード#5ノード#2 ノード#3 ノード#4ノード#1
A A’ A’’B B’B’’C
C’
C’’
D D’ D’’
3方向ミラー
14
 SCVMMからもStorage Spaces Directの管理が可能になった(TP5からの追加)
15
 以下のパターンの構成が可能
◦ SSD + HDD
◦ NVMe + HDD
◦ NVMe + SSD
◦ SSD + SSD
◦ NVMe + SSD + HDD
16
 「NVM Express(Non-Volatile Memory Express、NVMe)」
 PCI Expressの技術を使用した接続規格
 主にSSDやメモリ用に設計された接続規格
◦ SCSIやSATA(Serial ATA)ではSSDの能力についてこれなくなってしまった
◦ SATAの転送速度は600MB/s
◦ PCI Express Gen(Generation)3 は 1レーン 当たり約1GB/sの転送速度があり、PCI Express Gen3x4レーン
の場合4GB/s
◦ たった1本のSSDで44万IOPSを出すことも可能に
http://www.intel.co.jp/content/www/jp/ja/solid-state-drives/solid-state-drives-750-series.html
17
柔軟性
• ストレージ ハードウェア非依存
• 同期モード / 非同期モード
• 4種類の複製パターン
複製機能の
提供
• ブロックレベル、ボリューム単位
• SMB 3.1.1 による転送
(SMB ダイレクト/マルチチャネル等
の活用)
統合管理
• フェールオーバークラスターマネー
ジャーまたは PowerShell による管理
• Azure Site Recovery との連携も可能
になる予定
18
アプリケーション
(local or remote)
Source Server
(複製元ノード)
Data
Log
1
t 2
Destination
Server
(複製先ノード)
Data
Log
t1 3
2
5
4
• I/O 発生時に、複製元/複製先両方のログディスクへの書き込みを保証する
19
アプリケーション
(local or remote)
Source Server
(複製元ノード)
Data
Log
1
t 2
Destination
Server
(複製先ノード)
Data
Log
t1 5
4
3
6
• 複製先ノードでの書き込みを待たずに I/O 完了とみなす
• ネットワークの帯域幅や遅延で同期モードを利用できない場合に検討
20
必須要件
Windows Server 2016 Datacenter Edition
Active Directory
ディスク [データディスク / ログディスク共通]
GPT 形式 (MBR 形式は不可)
JBOD, ローカルディスク, SAN (iSCSI /
FC) などのストレージ
(リムーバブルメディアは不可)
複製元と複製先での同一ディスク配置構成
およびパーティション
%SystemRoot%, page file, ハイバネー
ションファイル, Dump ファイルを含まない
こと
ディスク [ログディスク]
NTFS/ReFS ボリュームかつ固定サイズ
ファイアウォール ポート
SMB, WS-MAN
 ネットワーク遅延

 ネットワーク帯域幅

 ディスク [ログディスク]


 ネットワーク遅延

 ネットワーク帯域幅

 ディスク [ログディスク]

21
 機能の追加で「Storage Replica」を追加
2222
モジュール名: StorageReplica
Get-SRGroup
Get-SRPartnership
New-SRGroup
New-SRPartnership (新規作成)
Remove-SRGroup
Remove-SRPartnership
Set-SRGroup
Set-SRPartnership (複製方向の変更)
Suspend-SRGroup
Sync-SRGroup
Test-SRTopology (Storage Replica システム
要件確認テスト)
23
同期/非同期モードを選択可能
手動フェールオーバーのみ対応
(PowerShell / Azure Site Recovery)
「汎用ファイルサーバー」シナリオに最適
《Server to Server》 2つのサーバー間でのレプリケーション
《Cluster to Cluster》2つの異なるクラスター間でのレプリケーション
SRV1
SR over SMB3
SRV2
ManhattanDC
JerseyCityDC
NODE1 in FSCLUS NODE2 in DRCLUS
NODE3 in FSCLUS NODE4 in DRCLUS
NODE2 in FSCLUS
NODE4 in FSCLUS
NODE1 in DRCLUS
NODE4 in DRCLUS
SR over SMB3
ManhattanDC
JerseyCityDC
 Sever to Server のクラスター版
(機能/制約等は基本的に同一)
 クラスターによる高可用性 (HA) と、
レプリケーションによる災害対策
(DR) をそれぞれ独立した機能として提供
 「スケールアウトファイルサーバー」シナリオに最適
24
SRV1
SR over SMB3
NODE1 in HVCLUS
SR over SMB3
NODE3 in HVCLUS
NODE2 in HVCLUS NODE4 in HVCLUS
ManhattanDC
JerseyCityDC
高可用性 (HA) と災害対策 (DR)
を組み合わせて提供
自動的なフェールオーバーが可能
フェールオーバー クラスター
マネージャーによる GUI 管理が可能
同期モードのみサポート
「Hyper-V」や「汎用ファイルサーバー」に最適 (スケールアウトファイルサーバーには不適)
《Stretch Cluster》 単一クラスター内でのレプリケーション
《Server to Self》 サーバー内でのボリューム間レプリケーション
 ボリュームの移設・転送に最適
(データコピーが実施できない環境など)
25
 運用Tips
◦ 「New-SRPartnership」のログサイズが小さすぎるとコマンドが実行できない(エ
ラーになる)
◦ 初回実行には結構時間がかかる
◦ Destination側のデータVolumeは表示されなくなる
◦ Destination側を表示する場合は「Remove-SRPartnership」で一旦関連を解除
 構成Tips
◦ Workgrpoup認証 未サポート
◦ 別なWindows Domain同士のStorage Replicaは可能
◦ Cluster to Server , Server to Cluster の複製は未サポート。この場合はServer側を
シングルノードクラスタ構成にする
◦ GUIでコントロールできるのはクラスタ構成のみ
26
柔軟性
• 柔軟かつ公平なリソースの分配
 制御対象:
VHD, 仮想マシン, サービス, テナント
 制御項目:
最小IOPS, 最大 IOPS
帯域管理機
能の進化
• ストレージを共有するすべての Hyper-
V 環境を、ポリシーによって一元管理
• 帯域管理に必要なメトリクスを自動計
測(計測対象: VHD, VM, ホスト, ボリューム)
統合管理
• System Center (SCVMM / SCOM)
または PowerShell による管理
• Storage Health Provider によるすべて
のストレージレイヤーを包含した管理
仮想マシン
Rate
Limiters
Rate
Limiters
Rate
Limiters
Rate
Limiters
Hyper-V クラスター
SMB 3.x ストレージネットワーク
I/O
scheduler
I/O
scheduler
I/O
scheduler
スケールアウト ファイルサーバー
ポリシー
マネージャー
Storage
performanc
e metrics
27




120
80
0
20
40
60
80
100
120
140
160
180
200
VM1 VM2
200 200
0
20
40
60
80
100
120
140
160
180
200
VM1 VM2
28
 モジュール名: StorageQoS
◦ Get-StorageQosFlow
◦ Get-StorageQosPolicy
◦ Get-StorageQosVolume
◦ New-StorageQosPolicy
◦ Remove-StorageQosPolicy
# QoS ポリシーの作成
第二部:専用ハードウェアとしてのストレージ未来予想図
29
今何が起きているのか?
20180630 interact2018 rev1
今日のコンピューターの課題
データ爆発、要求の加速、そして向上し続けられない計算能力
33
データは2年でほぼ2倍に
(2013-2020)
Current!
Realtime!
Now!!
…
…
電気使用量
データ
メモリ主導型コンピューティング
35
I/O
銅線
DRAM
36
DRAM
銅線
37
銅線
38
GPU
ASIC
Quantum
RISC
V
メモリ
39
メモリ
メモリ
メモリ
メモリ
SoC
SoC
SoC
SoC
将来のアーキテクチャ
メモリ主導型コンピューティングへ
現在のアーキテクチャ
プロセッサー中心のコンピューティングから
メモリ主導型コンピューティングに必要な要素は?
40
処理速度の向上とエネル
ギー効率の促進のためにメ
モリとストレージを一つに
距離の制限をフォト二クス使
用して距離の制限をなくし、不
可能だったトポロジーを生成
全般的なタスクから特定のタ
スクへ処理を最適化
徹底的にプログラミングをシン
プルにしてこれまでできなかっ
た新しいアプリケーションを可
能にする
高速な永続性メモリ 高速メモリファブリック タスク特化処理 新しく順応したソフトウェア
次世代不揮発性メモリ(NVM: Non Volatile Memory)
41
電源を切ってもデータが消えないメモリ。次世代版では DRAM 並みの速度と、フラッシュ並みのビット単
価を実現することを目標としている。HPEとSanDiskが共同で開発しているメモリスタはこの次世代不揮発
性メモリの有力な候補の一つ。ストレージクラスメモリ(SCM)やユニバーサルメモリと呼ばれることも
ある。
ビット当たりのコスト
ns
L1-L4
SRAM
/eDRA
M/
STT
CP
U
DRAM
DIMM
レイテンシー
NAND
Flash
SSD
Magnetic
HDD
μs ms s
開発中
SCM
次世代不揮発性メモリ
1000倍高速
フラッシュ相当
の容量コスト
今後のメモリ/ストレージの比率の変化
10/11/2016 © Gen-Z Consortium 2016 42
3DXPointTM
Memory
メモリ
ストレージ
現在
DRAM DRAM
Disk/SSD
SCM SCM
DRAM
Disk/SSD
DRAM
SCM
SCM = ストレージ・クラス・メモリ(不揮発性メモリ)
Disk/SSD
Disk/SSD
DRAM = ダイナミック・ランダム・アクセス・メモリ
MRAM
RRAM PCM
Low
Latency
NAND
将来
現在開発中の主な不揮発性メモリ
20180630 interact2018 rev1
Gen-Z(ジェンズィー)とは
44
は
プロトコル です
プロトコル とは 伝送の決まり
DDR3
SAS 12G
Inter-Processor Links
(many variants)
SATA 24G
SAS 24G
NVLink
コンピューターの世界に溢れるプロトコル
PCIe Gen 3
PCIe Gen 2
SAS 6G
Gen-Z(じぇんじー)
プロセッサとメモリをつなぐ新たなデータアクセス規格
45
I/O
Accelerators
FPGA
GPU
CPUs
SoC SoC GPU
FPGA
MemoryMemoryMemory Memory
共有メモリ Network Storage
ダイレクト接続 / スイッチ接続
= 4096 ヨタバイト292bytes
数100GB/s
の帯域
広帯域/低遅延
広大なメモリ空間
高い互換性
オープンな
標準規格
物理層は複数の選択肢
HPEはフォトニクス
マルチパス
接続も可能
参加している企業/組織
46
参加している企業/組織
47
2018年5月現在のメンバー企業
*HPEはファウンダーですが主催はしていません
Alpha Data IDT PLDA Group
AMD IntelliProp, Inc. Qualcomm Technologies, Inc.
Amphenol Corporation Jabil Circuit Red Hat
ARM Jess-Link Products Co., Ltd. Samsung
Avery Design Systems Keysight Technologies Seagate
Broadcom Ltd. Lenovo Senko Advanced Components, Inc.
Cadence Design Systems, Inc. Lotes Ltd. Simula Research Laboratory
Cavium Inc. Luxshare-ICT SK hynix
Cisco Systems Inc. Mellanox Technologies Ltd. SMART Modular Technologies
Cray Mentor Graphics Spin Transfer Technologies
Dell EMC Micron TE Connectivity Corporation
Electronics and Telecommunications Research Institute Microsemi Storage Solutions, Inc. Toshiba Memory Corporation
Everspin Technologies Mobiveil, Inc. Tyco Electronics (Shanghai) Co., Ltd.
FoxConn Internconnect Technologies Molex University of New Hampshire InterOperability Laboratory
Hirose Electric NetApp VMware
HPE Nokia Western Digital Technologies, Inc. (Sandisk)
Huawei R&D USA Numascale Xilinx
IBM Oak Ridge National Laboratory YADRO Company
Gen-Z がやりたいことはプロセッサとメモリの分離
そしてあらゆるコンポーネントからのアクセスの提供
48
従来のシステム Gen-Z システム
プロセッサと
メモリが一体
メモリを増やすためにはプロセッサ
も増やす必要あり
プロセッサからメモリ
を分離
プロセッサを増やさなくてもメモリ
を増やせる
Gen-Z 応用例
49
Gen-Z を使うと内蔵メモリの配置が柔軟
に
Gen-Z は外部にメモリを配置することを可能
に
ラックスケールのファブリック接続メモリ
GPU
ASIC
Quantum
RISC
V
メモリ
50
メモリ
メモリ
メモリ
メモリ
SoC
SoC
SoC
SoC
メモリ主導型コンピューティング
データは常に使える状態
プロセッサは処理に合わせて都度選択
↓
用途特化型プロセッサで効率化
プロセッサー中心
プロセッサは最初から最後まで動作
何に使うか製造時には不明
↓
汎用(何でもできる)プロセッサが必要
51
豊富なメモリ
– 類似性検索
– 探索空間の最適化
– 金融先物のモデリング
メモリの不揮発性
– 拡張性の高いキーバリューストア
– マネージドデータ構造
– エネルギー消費における拡張性と保持性
メモリは共有
計算は適切な場所で
– Spark in-memory Hadoop
– ディープニューラルネットのトレーニング
– ネットワーク機能の仮想化
適用範囲の幅
– メモリ主導型コンピューティングエッジ
– ノード、エンクロージャー、ラック、複
数ラック、データセンターまで
メモリ主導型コンピューティングはアプリケーションをどう変える?
密集したデータセンターからインテリジェントエッジまで単一のアーキテクチャで拡張
52
メモリ主導型コンピューティング
導入シミュレーション結果
メモリ主導型コンピューティング向けの変更でパフォーマンス向上した例
53
インメモリ分析
15x
新たなアルゴリズム 根本から再考
既存のフレーム
ワークを変更
類似検索
40x
金融モデル
10,000x
巨大な
グラフ推論
100x
メモリ主導型コンピューティングの開発者向けツールキット
ソフトウェアは既に入手可能
‒ アプリケーション例
‒ プラグラミングと分析ツール
‒ OSサポート
‒ エミュレーション/シミュレーショ
ンのツール
ツールキットの入手先:
https://www.labs.hpe.com/the-
machine/developer-toolkit
Open sourceの要素
マシーン (原型) ハードウェア
ノードOS
不揮発性メモリライブ
ラリー(pmem.io)
Librarianのファイルシステム(LFS)
メモリアトミックライブラリーに付随し
たファブリック
メモリ主導型
コンピューティン
グ
向けのLinux
アプリケーション例
管理サービス
Librarian
データ管理とプログラミングの骨組み
管理されたデー
タ構造
Sperkle
エミュレーション/シミュレーションのツール
NVMのための
性能エミュレーション
メモリエミュレーションに付随した
ファブリック
X’86 エミュレーション (Superdome X, MC990x,
ProLiant)
フォールトトレラン
トプログラミング
高速な楽観
的エンジン
画像検索 巨大なスケールのグラフインターフェース
不揮発性メモリ
のツールキット
世界最大の単一メモリコンピューター
160テラバイトメモリ搭載のプロトタイプ
55
– 2017年5月16日発表
– コロラド州フォートコリンズにて稼働中
– LinuxベースのOSで160TBのシングルメモリ
システムを実現
– Cavium社のフラグシップThunderX2搭載
– エンクロージャ間のフォトニクスにHPEのX1
モジュールを使用
56
最初の協業:ドイツ神経変性疾患センター(DZNE)
• DZNEは特にアルツハイマーの研究に力を入れている機関:
• 患者の診断結果や遺伝子情報、MRIの画像などを総合的に比較
分析するため、大量のデータを処理することが出来る新しいコン
ピューターアーキテクチャが必要
• 大規模なデータを同時に処理することでこれまで見つけられてい
なかった隠れた相関関係を見つけ、
最終的にはアルツハイマー病の治癒に役立つ発見を期待
• 2017年6月のDiscoverで40倍以上の速度向上達成を
発表
• 機械学習の精度を上げ2017年11月のDiscoverでさら
に100倍まで高速化を発表
• SDX、SDFlexでメモリ主導型のパイロットテスト実施
ムーアの法則を超える(計算能力そのものの向上への取り組み)
メモリ主導型コンピューティングのために
デザインされた非従来型のアクセラレーター
57
ニューロモーフィックコンピューティング:
脳のような計算のための専用ハードウェア
光学コンピューティング:
光の速さで計算する
– 典型的な回路は10要素未
満である。私たちは1つ
のチップに1000以上の光
学部品を統合する – 計算
のために機能する最も大
きいフォトニック要素
– フォトニックチップデザ
インの限界を推し進める
– スピードと省エネルギー
を高める光を通して複雑
な計算を推し進める
– ニューロモーフィックコ
ンピューティングは数時
間コンピューターをト
レーニングしたタスクを
素早く扱うことができ
る。
– ドットプロダクトエンジ
ンはアルゴリズムとアプ
リケーションがこの高速
化アーキテクチャーを最
大限使用するベクターマ
トリックス乗法と学習を
使用した私たちのテスト
ベッドです。
The Machine プロジェクトの成果を製品へ適用
58
インメモリ処理の先取り
エッジもメモリ主導型へ
規模に関係なく同じコードベースが可能
シリコンフォトニクスで接続
更なるコンポーザビリティへ
プロトタイプ
インテリジェント
エッジ
の実現
アプリと
データ
ハイブリッド
IT
をシンプルに
予定
予定
既出
59
Discover Forum 東京 2018
– 日時:2018年7月25日
– 場所:ANAインターコンチネンタルホテル東京(赤坂)
お申し込みはイベント公式サイトから
hpe.com/jp/discover2018
NASAが火星探査に持っていった
コンピュータやThe Machineの試作機
展示があるかも?
ハードウェアの最新情報をココでキャッチ!
Discover Forum 東京 2018 開催決定
59
60
アンケートにご協力ください!
–Compass Interract2018ページにアンケートへのリンクとQRコードがあります
– https://interact.connpass.com/event/77420/
–アンケートリンク
– URL
–https://forms.office.com/Pages/ResponsePage.aspx?id=0emDRJ2XDkOMJVhhhABT1kY0s84rWEFMh
6lvLSQ5jRNUQkQ1NzRUV1BZVUY5T1JNUVNSWlhCMlhNMy4u
– QRコード
60
Thank you
masaru.takano@hpe.com

More Related Content

What's hot

MS Interact 2019 - Azureサービスで実現するセキュリティ全体像
MS Interact 2019 - Azureサービスで実現するセキュリティ全体像 MS Interact 2019 - Azureサービスで実現するセキュリティ全体像
MS Interact 2019 - Azureサービスで実現するセキュリティ全体像 Ai Hayakawa
 
Interact2016:Introduction of Hyper-V Network Virtualization ver.2
Interact2016:Introduction of Hyper-V Network Virtualization ver.2Interact2016:Introduction of Hyper-V Network Virtualization ver.2
Interact2016:Introduction of Hyper-V Network Virtualization ver.2wind06106
 
G tech2016 デジタルトランスフォーメーションを牽引するAzure+OSSのスキル習得ポイント
G tech2016 デジタルトランスフォーメーションを牽引するAzure+OSSのスキル習得ポイントG tech2016 デジタルトランスフォーメーションを牽引するAzure+OSSのスキル習得ポイント
G tech2016 デジタルトランスフォーメーションを牽引するAzure+OSSのスキル習得ポイントTrainocate Japan, Ltd.
 
1st step LogicFlow
1st step LogicFlow1st step LogicFlow
1st step LogicFlowTomoyuki Obi
 
20180901 community ws2019_share
20180901 community ws2019_share20180901 community ws2019_share
20180901 community ws2019_shareOsamu Takazoe
 
Nano Server First Step
Nano Server First StepNano Server First Step
Nano Server First StepKazuki Takai
 
Microsoft っぽいハイパーコンバージドって?
Microsoft っぽいハイパーコンバージドって?Microsoft っぽいハイパーコンバージドって?
Microsoft っぽいハイパーコンバージドって?Daichi Ogawa
 
Tech Summit 2017 CLD007 現場目線で Azure IaaS を解説
Tech Summit 2017 CLD007 現場目線で Azure IaaS を解説Tech Summit 2017 CLD007 現場目線で Azure IaaS を解説
Tech Summit 2017 CLD007 現場目線で Azure IaaS を解説wintechq
 
20180630 data transformationusinglogicflow
20180630 data transformationusinglogicflow20180630 data transformationusinglogicflow
20180630 data transformationusinglogicflowTomoyuki Obi
 
Azure IaaS 環境で安心してシステム開発する方法を教えます
Azure IaaS 環境で安心してシステム開発する方法を教えますAzure IaaS 環境で安心してシステム開発する方法を教えます
Azure IaaS 環境で安心してシステム開発する方法を教えますwintechq
 
Hyper-V仮想マシンをAzureへV2C移行
Hyper-V仮想マシンをAzureへV2C移行Hyper-V仮想マシンをAzureへV2C移行
Hyper-V仮想マシンをAzureへV2C移行wintechq
 
Azure IaaS 解説
Azure IaaS 解説Azure IaaS 解説
Azure IaaS 解説wintechq
 
あなたも「違いが分かる人」になりましょう! ~ Azure, AzureStack, AzureStack HCI ~
あなたも「違いが分かる人」になりましょう! ~ Azure, AzureStack, AzureStack HCI ~あなたも「違いが分かる人」になりましょう! ~ Azure, AzureStack, AzureStack HCI ~
あなたも「違いが分かる人」になりましょう! ~ Azure, AzureStack, AzureStack HCI ~Masahiko Ebisuda
 

What's hot (14)

MS Interact 2019 - Azureサービスで実現するセキュリティ全体像
MS Interact 2019 - Azureサービスで実現するセキュリティ全体像 MS Interact 2019 - Azureサービスで実現するセキュリティ全体像
MS Interact 2019 - Azureサービスで実現するセキュリティ全体像
 
Interact2016:Introduction of Hyper-V Network Virtualization ver.2
Interact2016:Introduction of Hyper-V Network Virtualization ver.2Interact2016:Introduction of Hyper-V Network Virtualization ver.2
Interact2016:Introduction of Hyper-V Network Virtualization ver.2
 
G tech2016 デジタルトランスフォーメーションを牽引するAzure+OSSのスキル習得ポイント
G tech2016 デジタルトランスフォーメーションを牽引するAzure+OSSのスキル習得ポイントG tech2016 デジタルトランスフォーメーションを牽引するAzure+OSSのスキル習得ポイント
G tech2016 デジタルトランスフォーメーションを牽引するAzure+OSSのスキル習得ポイント
 
1st step LogicFlow
1st step LogicFlow1st step LogicFlow
1st step LogicFlow
 
20180901 community ws2019_share
20180901 community ws2019_share20180901 community ws2019_share
20180901 community ws2019_share
 
Nano Server First Step
Nano Server First StepNano Server First Step
Nano Server First Step
 
Microsoft っぽいハイパーコンバージドって?
Microsoft っぽいハイパーコンバージドって?Microsoft っぽいハイパーコンバージドって?
Microsoft っぽいハイパーコンバージドって?
 
Tech Summit 2017 CLD007 現場目線で Azure IaaS を解説
Tech Summit 2017 CLD007 現場目線で Azure IaaS を解説Tech Summit 2017 CLD007 現場目線で Azure IaaS を解説
Tech Summit 2017 CLD007 現場目線で Azure IaaS を解説
 
[Japan Tech summit 2017] CLD 009
[Japan Tech summit 2017]  CLD 009[Japan Tech summit 2017]  CLD 009
[Japan Tech summit 2017] CLD 009
 
20180630 data transformationusinglogicflow
20180630 data transformationusinglogicflow20180630 data transformationusinglogicflow
20180630 data transformationusinglogicflow
 
Azure IaaS 環境で安心してシステム開発する方法を教えます
Azure IaaS 環境で安心してシステム開発する方法を教えますAzure IaaS 環境で安心してシステム開発する方法を教えます
Azure IaaS 環境で安心してシステム開発する方法を教えます
 
Hyper-V仮想マシンをAzureへV2C移行
Hyper-V仮想マシンをAzureへV2C移行Hyper-V仮想マシンをAzureへV2C移行
Hyper-V仮想マシンをAzureへV2C移行
 
Azure IaaS 解説
Azure IaaS 解説Azure IaaS 解説
Azure IaaS 解説
 
あなたも「違いが分かる人」になりましょう! ~ Azure, AzureStack, AzureStack HCI ~
あなたも「違いが分かる人」になりましょう! ~ Azure, AzureStack, AzureStack HCI ~あなたも「違いが分かる人」になりましょう! ~ Azure, AzureStack, AzureStack HCI ~
あなたも「違いが分かる人」になりましょう! ~ Azure, AzureStack, AzureStack HCI ~
 

Similar to 20180630 interact2018 rev1

20160625 cloud samuai_final
20160625 cloud samuai_final20160625 cloud samuai_final
20160625 cloud samuai_finalTakano Masaru
 
Snr005 レノボだから実現
Snr005 レノボだから実現Snr005 レノボだから実現
Snr005 レノボだから実現Tech Summit 2016
 
Cld002 windows server_2016_で作るシンプ
Cld002 windows server_2016_で作るシンプCld002 windows server_2016_で作るシンプ
Cld002 windows server_2016_で作るシンプTech Summit 2016
 
[db tech showcase Tokyo 2018] #dbts2018 #D15 『5年連続!第三者機関の評価で(圧倒的)最強のピュアストレージが...
[db tech showcase Tokyo 2018] #dbts2018 #D15 『5年連続!第三者機関の評価で(圧倒的)最強のピュアストレージが...[db tech showcase Tokyo 2018] #dbts2018 #D15 『5年連続!第三者機関の評価で(圧倒的)最強のピュアストレージが...
[db tech showcase Tokyo 2018] #dbts2018 #D15 『5年連続!第三者機関の評価で(圧倒的)最強のピュアストレージが...Insight Technology, Inc.
 
Interact2019 ws2019 s2d_IN05
Interact2019 ws2019 s2d_IN05Interact2019 ws2019 s2d_IN05
Interact2019 ws2019 s2d_IN05Hiroshi Matsumoto
 
Nutanix@Open Source Conference 2015 Hiroshima
Nutanix@Open Source Conference 2015 HiroshimaNutanix@Open Source Conference 2015 Hiroshima
Nutanix@Open Source Conference 2015 HiroshimaSatoshi Shimazaki
 
Windows Server 2016 で作るシンプルなハイパーコンバージドインフラ (Microsoft TechSummit 2016)
Windows Server 2016 で作るシンプルなハイパーコンバージドインフラ (Microsoft TechSummit 2016)Windows Server 2016 で作るシンプルなハイパーコンバージドインフラ (Microsoft TechSummit 2016)
Windows Server 2016 で作るシンプルなハイパーコンバージドインフラ (Microsoft TechSummit 2016)Takamasa Maejima
 
ASPLOS2017: Building Durable Transactions with Decoupling for Persistent Memory
ASPLOS2017: Building Durable Transactions with Decoupling for Persistent MemoryASPLOS2017: Building Durable Transactions with Decoupling for Persistent Memory
ASPLOS2017: Building Durable Transactions with Decoupling for Persistent MemoryAtsushi Koshiba
 
[db tech showcase Tokyo 2016] A12: フラッシュストレージのその先へ ~不揮発性メモリNVDIMMが拓くデータベースの世界...
[db tech showcase Tokyo 2016] A12: フラッシュストレージのその先へ ~不揮発性メモリNVDIMMが拓くデータベースの世界...[db tech showcase Tokyo 2016] A12: フラッシュストレージのその先へ ~不揮発性メモリNVDIMMが拓くデータベースの世界...
[db tech showcase Tokyo 2016] A12: フラッシュストレージのその先へ ~不揮発性メモリNVDIMMが拓くデータベースの世界...Insight Technology, Inc.
 
[INSIGHT OUT 2011] B32 open hardwareの夜明け pci express 3・infiniband fdrの登場(yama...
[INSIGHT OUT 2011] B32 open hardwareの夜明け pci express 3・infiniband fdrの登場(yama...[INSIGHT OUT 2011] B32 open hardwareの夜明け pci express 3・infiniband fdrの登場(yama...
[INSIGHT OUT 2011] B32 open hardwareの夜明け pci express 3・infiniband fdrの登場(yama...Insight Technology, Inc.
 
[db tech showcase Tokyo 2015] D13:PCIeフラッシュで、高可用性高性能データベースシステム?! by 株式会社HGSTジ...
[db tech showcase Tokyo 2015] D13:PCIeフラッシュで、高可用性高性能データベースシステム?! by 株式会社HGSTジ...[db tech showcase Tokyo 2015] D13:PCIeフラッシュで、高可用性高性能データベースシステム?! by 株式会社HGSTジ...
[db tech showcase Tokyo 2015] D13:PCIeフラッシュで、高可用性高性能データベースシステム?! by 株式会社HGSTジ...Insight Technology, Inc.
 
クラウドデザイン パターンに見る クラウドファーストな アプリケーション設計 Data Management編
クラウドデザイン パターンに見るクラウドファーストなアプリケーション設計 Data Management編クラウドデザイン パターンに見るクラウドファーストなアプリケーション設計 Data Management編
クラウドデザイン パターンに見る クラウドファーストな アプリケーション設計 Data Management編Takekazu Omi
 
BitVisor Summit 2 「BitVisorの現状と今後」
BitVisor Summit 2 「BitVisorの現状と今後」BitVisor Summit 2 「BitVisorの現状と今後」
BitVisor Summit 2 「BitVisorの現状と今後」Takahiro Shinagawa
 
Share pointを支えるsql server2014最新情報 tokyo_公開用
Share pointを支えるsql server2014最新情報 tokyo_公開用Share pointを支えるsql server2014最新情報 tokyo_公開用
Share pointを支えるsql server2014最新情報 tokyo_公開用Yukio Kumazawa
 
[db tech showcase Tokyo 2016] D15: データベース フラッシュソリューション徹底解説! 安価にデータベースを高速にする方法...
[db tech showcase Tokyo 2016] D15: データベース フラッシュソリューション徹底解説! 安価にデータベースを高速にする方法...[db tech showcase Tokyo 2016] D15: データベース フラッシュソリューション徹底解説! 安価にデータベースを高速にする方法...
[db tech showcase Tokyo 2016] D15: データベース フラッシュソリューション徹底解説! 安価にデータベースを高速にする方法...Insight Technology, Inc.
 
インフラ野郎AzureチームProX
インフラ野郎AzureチームProXインフラ野郎AzureチームProX
インフラ野郎AzureチームProXToru Makabe
 
Dell emc highperformancevirtualinfracommunitymeetup_20180621publish
Dell emc highperformancevirtualinfracommunitymeetup_20180621publishDell emc highperformancevirtualinfracommunitymeetup_20180621publish
Dell emc highperformancevirtualinfracommunitymeetup_20180621publishMakoto Ono
 
Awsのクラウドデザインパターンをwindows azureに持ってきてみた
Awsのクラウドデザインパターンをwindows azureに持ってきてみたAwsのクラウドデザインパターンをwindows azureに持ってきてみた
Awsのクラウドデザインパターンをwindows azureに持ってきてみたSunao Tomita
 
Cld018 コンテナ go_~あなた
Cld018 コンテナ go_~あなたCld018 コンテナ go_~あなた
Cld018 コンテナ go_~あなたTech Summit 2016
 

Similar to 20180630 interact2018 rev1 (20)

20160625 cloud samuai_final
20160625 cloud samuai_final20160625 cloud samuai_final
20160625 cloud samuai_final
 
Snr005 レノボだから実現
Snr005 レノボだから実現Snr005 レノボだから実現
Snr005 レノボだから実現
 
Cld002 windows server_2016_で作るシンプ
Cld002 windows server_2016_で作るシンプCld002 windows server_2016_で作るシンプ
Cld002 windows server_2016_で作るシンプ
 
[db tech showcase Tokyo 2018] #dbts2018 #D15 『5年連続!第三者機関の評価で(圧倒的)最強のピュアストレージが...
[db tech showcase Tokyo 2018] #dbts2018 #D15 『5年連続!第三者機関の評価で(圧倒的)最強のピュアストレージが...[db tech showcase Tokyo 2018] #dbts2018 #D15 『5年連続!第三者機関の評価で(圧倒的)最強のピュアストレージが...
[db tech showcase Tokyo 2018] #dbts2018 #D15 『5年連続!第三者機関の評価で(圧倒的)最強のピュアストレージが...
 
Interact2019 ws2019 s2d_IN05
Interact2019 ws2019 s2d_IN05Interact2019 ws2019 s2d_IN05
Interact2019 ws2019 s2d_IN05
 
Nutanix@Open Source Conference 2015 Hiroshima
Nutanix@Open Source Conference 2015 HiroshimaNutanix@Open Source Conference 2015 Hiroshima
Nutanix@Open Source Conference 2015 Hiroshima
 
Windows Server 2016 で作るシンプルなハイパーコンバージドインフラ (Microsoft TechSummit 2016)
Windows Server 2016 で作るシンプルなハイパーコンバージドインフラ (Microsoft TechSummit 2016)Windows Server 2016 で作るシンプルなハイパーコンバージドインフラ (Microsoft TechSummit 2016)
Windows Server 2016 で作るシンプルなハイパーコンバージドインフラ (Microsoft TechSummit 2016)
 
ASPLOS2017: Building Durable Transactions with Decoupling for Persistent Memory
ASPLOS2017: Building Durable Transactions with Decoupling for Persistent MemoryASPLOS2017: Building Durable Transactions with Decoupling for Persistent Memory
ASPLOS2017: Building Durable Transactions with Decoupling for Persistent Memory
 
[Japan Tech summit 2017] CLD 007
[Japan Tech summit 2017]  CLD 007[Japan Tech summit 2017]  CLD 007
[Japan Tech summit 2017] CLD 007
 
[db tech showcase Tokyo 2016] A12: フラッシュストレージのその先へ ~不揮発性メモリNVDIMMが拓くデータベースの世界...
[db tech showcase Tokyo 2016] A12: フラッシュストレージのその先へ ~不揮発性メモリNVDIMMが拓くデータベースの世界...[db tech showcase Tokyo 2016] A12: フラッシュストレージのその先へ ~不揮発性メモリNVDIMMが拓くデータベースの世界...
[db tech showcase Tokyo 2016] A12: フラッシュストレージのその先へ ~不揮発性メモリNVDIMMが拓くデータベースの世界...
 
[INSIGHT OUT 2011] B32 open hardwareの夜明け pci express 3・infiniband fdrの登場(yama...
[INSIGHT OUT 2011] B32 open hardwareの夜明け pci express 3・infiniband fdrの登場(yama...[INSIGHT OUT 2011] B32 open hardwareの夜明け pci express 3・infiniband fdrの登場(yama...
[INSIGHT OUT 2011] B32 open hardwareの夜明け pci express 3・infiniband fdrの登場(yama...
 
[db tech showcase Tokyo 2015] D13:PCIeフラッシュで、高可用性高性能データベースシステム?! by 株式会社HGSTジ...
[db tech showcase Tokyo 2015] D13:PCIeフラッシュで、高可用性高性能データベースシステム?! by 株式会社HGSTジ...[db tech showcase Tokyo 2015] D13:PCIeフラッシュで、高可用性高性能データベースシステム?! by 株式会社HGSTジ...
[db tech showcase Tokyo 2015] D13:PCIeフラッシュで、高可用性高性能データベースシステム?! by 株式会社HGSTジ...
 
クラウドデザイン パターンに見る クラウドファーストな アプリケーション設計 Data Management編
クラウドデザイン パターンに見るクラウドファーストなアプリケーション設計 Data Management編クラウドデザイン パターンに見るクラウドファーストなアプリケーション設計 Data Management編
クラウドデザイン パターンに見る クラウドファーストな アプリケーション設計 Data Management編
 
BitVisor Summit 2 「BitVisorの現状と今後」
BitVisor Summit 2 「BitVisorの現状と今後」BitVisor Summit 2 「BitVisorの現状と今後」
BitVisor Summit 2 「BitVisorの現状と今後」
 
Share pointを支えるsql server2014最新情報 tokyo_公開用
Share pointを支えるsql server2014最新情報 tokyo_公開用Share pointを支えるsql server2014最新情報 tokyo_公開用
Share pointを支えるsql server2014最新情報 tokyo_公開用
 
[db tech showcase Tokyo 2016] D15: データベース フラッシュソリューション徹底解説! 安価にデータベースを高速にする方法...
[db tech showcase Tokyo 2016] D15: データベース フラッシュソリューション徹底解説! 安価にデータベースを高速にする方法...[db tech showcase Tokyo 2016] D15: データベース フラッシュソリューション徹底解説! 安価にデータベースを高速にする方法...
[db tech showcase Tokyo 2016] D15: データベース フラッシュソリューション徹底解説! 安価にデータベースを高速にする方法...
 
インフラ野郎AzureチームProX
インフラ野郎AzureチームProXインフラ野郎AzureチームProX
インフラ野郎AzureチームProX
 
Dell emc highperformancevirtualinfracommunitymeetup_20180621publish
Dell emc highperformancevirtualinfracommunitymeetup_20180621publishDell emc highperformancevirtualinfracommunitymeetup_20180621publish
Dell emc highperformancevirtualinfracommunitymeetup_20180621publish
 
Awsのクラウドデザインパターンをwindows azureに持ってきてみた
Awsのクラウドデザインパターンをwindows azureに持ってきてみたAwsのクラウドデザインパターンをwindows azureに持ってきてみた
Awsのクラウドデザインパターンをwindows azureに持ってきてみた
 
Cld018 コンテナ go_~あなた
Cld018 コンテナ go_~あなたCld018 コンテナ go_~あなた
Cld018 コンテナ go_~あなた
 

More from Takano Masaru

Windows Azureストレージ機能のまとめとWindows Server 2016(vNext)のストレージ新機能
Windows Azureストレージ機能のまとめとWindows Server 2016(vNext)のストレージ新機能Windows Azureストレージ機能のまとめとWindows Server 2016(vNext)のストレージ新機能
Windows Azureストレージ機能のまとめとWindows Server 2016(vNext)のストレージ新機能Takano Masaru
 
command-shift紹介資料
command-shift紹介資料command-shift紹介資料
command-shift紹介資料Takano Masaru
 
On command shift 1.0 release
On command shift 1.0 releaseOn command shift 1.0 release
On command shift 1.0 releaseTakano Masaru
 
MSC2014_NetApp_Session
MSC2014_NetApp_SessionMSC2014_NetApp_Session
MSC2014_NetApp_SessionTakano Masaru
 
20140826 it pro_expo_rev2
20140826 it pro_expo_rev220140826 it pro_expo_rev2
20140826 it pro_expo_rev2Takano Masaru
 
Mvp road show_0830_rev1
Mvp road show_0830_rev1Mvp road show_0830_rev1
Mvp road show_0830_rev1Takano Masaru
 
Cloud os techday_0614
Cloud os techday_0614Cloud os techday_0614
Cloud os techday_0614Takano Masaru
 

More from Takano Masaru (7)

Windows Azureストレージ機能のまとめとWindows Server 2016(vNext)のストレージ新機能
Windows Azureストレージ機能のまとめとWindows Server 2016(vNext)のストレージ新機能Windows Azureストレージ機能のまとめとWindows Server 2016(vNext)のストレージ新機能
Windows Azureストレージ機能のまとめとWindows Server 2016(vNext)のストレージ新機能
 
command-shift紹介資料
command-shift紹介資料command-shift紹介資料
command-shift紹介資料
 
On command shift 1.0 release
On command shift 1.0 releaseOn command shift 1.0 release
On command shift 1.0 release
 
MSC2014_NetApp_Session
MSC2014_NetApp_SessionMSC2014_NetApp_Session
MSC2014_NetApp_Session
 
20140826 it pro_expo_rev2
20140826 it pro_expo_rev220140826 it pro_expo_rev2
20140826 it pro_expo_rev2
 
Mvp road show_0830_rev1
Mvp road show_0830_rev1Mvp road show_0830_rev1
Mvp road show_0830_rev1
 
Cloud os techday_0614
Cloud os techday_0614Cloud os techday_0614
Cloud os techday_0614
 

Recently uploaded

バイオリンの運弓動作計測による初心者と経験者の差異分析
バイオリンの運弓動作計測による初心者と経験者の差異分析バイオリンの運弓動作計測による初心者と経験者の差異分析
バイオリンの運弓動作計測による初心者と経験者の差異分析sugiuralab
 
キャラで動かすGPT ~GPTsでどんな感じに作っているとか考えていることとか~
キャラで動かすGPT ~GPTsでどんな感じに作っているとか考えていることとか~キャラで動かすGPT ~GPTsでどんな感じに作っているとか考えていることとか~
キャラで動かすGPT ~GPTsでどんな感じに作っているとか考えていることとか~honeshabri
 
AWS Lambdaと AWS API Gatewayを使ったREST API作り
AWS Lambdaと AWS API Gatewayを使ったREST API作りAWS Lambdaと AWS API Gatewayを使ったREST API作り
AWS Lambdaと AWS API Gatewayを使ったREST API作りiPride Co., Ltd.
 
00001_test_automation_portfolio_20240313
00001_test_automation_portfolio_2024031300001_test_automation_portfolio_20240313
00001_test_automation_portfolio_20240313ssuserf8ea02
 
チームで開発するための環境を整える
チームで開発するための環境を整えるチームで開発するための環境を整える
チームで開発するための環境を整えるonozaty
 
IGDA Japan SIG Audio #22 オンラインセミナー VRの知る.pdf
IGDA Japan SIG Audio #22 オンラインセミナー VRの知る.pdfIGDA Japan SIG Audio #22 オンラインセミナー VRの知る.pdf
IGDA Japan SIG Audio #22 オンラインセミナー VRの知る.pdfIGDA Japan SIG-Audio
 
SIG-AUDIO 2024 Vol.02 オンラインセミナー 「必殺使音人(ひっさつしおとにん)カットシーンを成敗せよ」
SIG-AUDIO 2024 Vol.02 オンラインセミナー 「必殺使音人(ひっさつしおとにん)カットシーンを成敗せよ」SIG-AUDIO 2024 Vol.02 オンラインセミナー 「必殺使音人(ひっさつしおとにん)カットシーンを成敗せよ」
SIG-AUDIO 2024 Vol.02 オンラインセミナー 「必殺使音人(ひっさつしおとにん)カットシーンを成敗せよ」IGDA Japan SIG-Audio
 
これからはじめるAnsible - Ansible Night Tokyo 2024
これからはじめるAnsible - Ansible Night Tokyo 2024これからはじめるAnsible - Ansible Night Tokyo 2024
これからはじめるAnsible - Ansible Night Tokyo 2024Hideki Saito
 
The 86th National Convention of IPSJ (Student Encouragement Award))
The 86th National Convention of IPSJ (Student Encouragement Award))The 86th National Convention of IPSJ (Student Encouragement Award))
The 86th National Convention of IPSJ (Student Encouragement Award))yoshidakids7
 
AWS_Bedrock入門 このスライドは2024/03/08の勉強会で発表されたものです。
AWS_Bedrock入門 このスライドは2024/03/08の勉強会で発表されたものです。AWS_Bedrock入門 このスライドは2024/03/08の勉強会で発表されたものです。
AWS_Bedrock入門 このスライドは2024/03/08の勉強会で発表されたものです。iPride Co., Ltd.
 
JAWS DAYS 2024 E-3 ランチにまつわるちょっといい話 〜給食がない町の小中学生に温かい昼食を〜
JAWS DAYS 2024 E-3 ランチにまつわるちょっといい話 〜給食がない町の小中学生に温かい昼食を〜JAWS DAYS 2024 E-3 ランチにまつわるちょっといい話 〜給食がない町の小中学生に温かい昼食を〜
JAWS DAYS 2024 E-3 ランチにまつわるちょっといい話 〜給食がない町の小中学生に温かい昼食を〜Naomi Yamasaki
 
キンドリル_ネットワーク自動化成熟度診断サービス ご紹介資料 2024年3月版
キンドリル_ネットワーク自動化成熟度診断サービス ご紹介資料 2024年3月版キンドリル_ネットワーク自動化成熟度診断サービス ご紹介資料 2024年3月版
キンドリル_ネットワーク自動化成熟度診断サービス ご紹介資料 2024年3月版Takayuki Nakayama
 

Recently uploaded (12)

バイオリンの運弓動作計測による初心者と経験者の差異分析
バイオリンの運弓動作計測による初心者と経験者の差異分析バイオリンの運弓動作計測による初心者と経験者の差異分析
バイオリンの運弓動作計測による初心者と経験者の差異分析
 
キャラで動かすGPT ~GPTsでどんな感じに作っているとか考えていることとか~
キャラで動かすGPT ~GPTsでどんな感じに作っているとか考えていることとか~キャラで動かすGPT ~GPTsでどんな感じに作っているとか考えていることとか~
キャラで動かすGPT ~GPTsでどんな感じに作っているとか考えていることとか~
 
AWS Lambdaと AWS API Gatewayを使ったREST API作り
AWS Lambdaと AWS API Gatewayを使ったREST API作りAWS Lambdaと AWS API Gatewayを使ったREST API作り
AWS Lambdaと AWS API Gatewayを使ったREST API作り
 
00001_test_automation_portfolio_20240313
00001_test_automation_portfolio_2024031300001_test_automation_portfolio_20240313
00001_test_automation_portfolio_20240313
 
チームで開発するための環境を整える
チームで開発するための環境を整えるチームで開発するための環境を整える
チームで開発するための環境を整える
 
IGDA Japan SIG Audio #22 オンラインセミナー VRの知る.pdf
IGDA Japan SIG Audio #22 オンラインセミナー VRの知る.pdfIGDA Japan SIG Audio #22 オンラインセミナー VRの知る.pdf
IGDA Japan SIG Audio #22 オンラインセミナー VRの知る.pdf
 
SIG-AUDIO 2024 Vol.02 オンラインセミナー 「必殺使音人(ひっさつしおとにん)カットシーンを成敗せよ」
SIG-AUDIO 2024 Vol.02 オンラインセミナー 「必殺使音人(ひっさつしおとにん)カットシーンを成敗せよ」SIG-AUDIO 2024 Vol.02 オンラインセミナー 「必殺使音人(ひっさつしおとにん)カットシーンを成敗せよ」
SIG-AUDIO 2024 Vol.02 オンラインセミナー 「必殺使音人(ひっさつしおとにん)カットシーンを成敗せよ」
 
これからはじめるAnsible - Ansible Night Tokyo 2024
これからはじめるAnsible - Ansible Night Tokyo 2024これからはじめるAnsible - Ansible Night Tokyo 2024
これからはじめるAnsible - Ansible Night Tokyo 2024
 
The 86th National Convention of IPSJ (Student Encouragement Award))
The 86th National Convention of IPSJ (Student Encouragement Award))The 86th National Convention of IPSJ (Student Encouragement Award))
The 86th National Convention of IPSJ (Student Encouragement Award))
 
AWS_Bedrock入門 このスライドは2024/03/08の勉強会で発表されたものです。
AWS_Bedrock入門 このスライドは2024/03/08の勉強会で発表されたものです。AWS_Bedrock入門 このスライドは2024/03/08の勉強会で発表されたものです。
AWS_Bedrock入門 このスライドは2024/03/08の勉強会で発表されたものです。
 
JAWS DAYS 2024 E-3 ランチにまつわるちょっといい話 〜給食がない町の小中学生に温かい昼食を〜
JAWS DAYS 2024 E-3 ランチにまつわるちょっといい話 〜給食がない町の小中学生に温かい昼食を〜JAWS DAYS 2024 E-3 ランチにまつわるちょっといい話 〜給食がない町の小中学生に温かい昼食を〜
JAWS DAYS 2024 E-3 ランチにまつわるちょっといい話 〜給食がない町の小中学生に温かい昼食を〜
 
キンドリル_ネットワーク自動化成熟度診断サービス ご紹介資料 2024年3月版
キンドリル_ネットワーク自動化成熟度診断サービス ご紹介資料 2024年3月版キンドリル_ネットワーク自動化成熟度診断サービス ご紹介資料 2024年3月版
キンドリル_ネットワーク自動化成熟度診断サービス ご紹介資料 2024年3月版
 

20180630 interact2018 rev1

Editor's Notes

  1. さてそれではなぜこのような研究が始まったのでしょうか。
  2. Two curves on chart build from left to right. Numbers appear over each data point. “Capability gap” arrow appears once the two curves start to diverge Every two years, we’re creating more data than through all of history Our ambitions are growing faster than our computers can improve. The definition of real time is changing The old world analyzes the past, which gives us hindsight Real time means analyzing the new while it’s still new Real time means insight and foresight For example, Walmart’s transactional database is about 40 petabytes. And they changed not just the face, but the entire practice of in-store retail. By May 2016, Facebook was processing 4 petabytes of data a day. That’s the size of Walmart’s database every ten days. We’re about to take another leap in magnitude in the amount of data available to give us insight.  By 2020, the driver assistance  systems alone of 10 million autonomous cars will generate 40,000 petabytes every day. And that’s just self-driving cars. We’ll be generating such levels of data from IoT sensors all over our “physical world”.   Can you capitalize on the data explosion?   99% of data created at the edge is discarded today Deciding what to keep introduces bias Bias precludes new insight Raw data is priceless.  Someone is going to work this out and create whole new industries.   Will it be you, or your competition? Data Source: K. Rupp, http://www.karlrupp.net/2015/06/40-years-of-microprocessor-trend-data/ DC’s Data Age 2025 study, sponsored by Seagate, April 2017 [Next slide: The New Normal if you want to go deeper into the this graph]
  3. The point here is that hardware stopped getting better a while ago and can’t keep up with the data explosion nearly doubling every couple of years. The IEEE Computer Society, International Technology Roadmap of Semiconductor (ITRS), R&D investments and capital expenses through government consortiums’ come together to help shape the development of modern fab structure of semiconductors and computer architecture. They’ve also been saying the same thing. The graph on the left shows the different aspect of the microprocessor improvement performance since the dawn of Moore’s Law. Every time you go up the graph, the performance is 10 times better. The orange line is transistors per square unit and will start to flatten out when Moore’s law ends (about 4-5 years out if things don’t change). This is called, Dennard Scaling, a scaling law that as transistors get smaller their power density stays constant, so that the power use stays in proportion with area. You can see that the single-thread performance, frequency and typical power has already flattening out in 2015. It started flattening out approximately a decade ago, which in turn led to the rise of multicore processors. Since one processor could no longer be run faster, successive generations of Moore’s law transistors were consumed by making copies of the processor core. This increased the demands on memory systems because of the increase in voracious consumers of data as well as multiple independent access patterns to memory, which defeated decades’ worth of hierarchy-hiding techniques. Additionally, memory is closer to the end of scaling than processors, due to the physical characteristics of semiconductor memory devices. There are a few more generations left to processor designers, but as they eke out those last few generations, the increases in performance are stagnating and the operational and capital costs associated with these penultimate systems are rising. (FYI: Penultimate is the next to last, as in 7nm is the penultimate silicon process step, while 5nm is the ultimate or terminal improvement, but neither offer the step over step improvement of prior years.) The only thing that is not flattening out is the data growth graph on the right. We generate zettabytes of data which nearly doubles every two years according to IDC. There is an exponential growth curve in rich data that conventional technology with linear responses just can’t keep up with. Link: but it’s not just about the sheer size of the data. You’ve all heard that story a million times. It’s about new use cases that use data in a whole different way. [Next: systems of record, engagement and action]
  4. Detail dive on “The End of Cheap Hardware”. The point here is that hardware stopped getting better a while ago. Dennard Scaling ended approximately a decade ago, which in turn led to the rise of multicore processors. Since one processor could no longer be run faster, successive generations of Moore’s law transistors were consumed by making copies of the processor core. This increased the demands on memory systems because of the increase in voracious consumers of data as well as multiple independent access patterns to memory, which defeated decades’ worth of hierarchy-hiding techniques. Additionally, memory is closer to the end of scaling than processors, due to the physical characteristics of semiconductor memory devices. There are a few more generations left to processor designers, but as they eke out those last few generations, the increases in performance are stagnating and the operational and capital costs associated with these penultimate systems are rising.
  5. So what are we actually going to do? Let’s start with this picture, one that would be very familiar to Dr. von Neumann and one that you’ll find in everything from a smartphone to a supercomputer. We have compute on the left, attached to a precious amount of high performance volatile memory on a dedicated connection and then connected over a copper interconnect we have I/O devices that allow us to send information through time (storage) or through space (network), but when we do it is thousands to tens of thousands of times slower than getting to memory, so we do it by blocking and copying, we do it with file opens, seeks and sockets, hundreds of thousands of lines of library, kernel and driver software. [Next: MDC concept build out…]
  6. So the first step is to look at where the data lives, where are we going to contain that exponential growth? We start by pooling the vast majority of information in a high performance pool with the performance characteristics of memory and the cost characteristics of storage. [Next: MDC concept build out…]
  7. We pool the memory and place it on a memory-semantic fabric, and interconnection that is specifically designed to access memory as memory, directly from individual load and store instructions from the microprocessor. You’ll see that we’ve drawn here the symbol for the Memristor, the fourth fundamental electrical device first theorized by Leon Chua at UC Berkeley and first realized as a practical device by our senior Fellow Stan Williams and now being co-developed for production by HPE and Western Digital, but it is one of a new class of memory devices, Intel 3D Xpoint, Phase Change, Spin Torque, Resistive RAM, that share breakthroughs in capacity and cost and are also natively non-volatile. When you can’t shrink devices any more in X or Y, there is only one way to continue to grow and that is up and the regular arrays of rows and columns these new memory devices are much more amenable to Z axis scaling than the high power random logic of computation. [Next: MDC concept build out…]
  8. The next step is to look at the interconnect and here is where we bring in the photonics. Now we’ve had fiber optic communications for decades, it’s the basic technology for the global telecommunications backbone. Whenever we examine a point to point communications link and we want to decide between photons and electrons, we compute a ratio: how many bits do you want to send versus how much time (seconds), money (dollars), energy (watts) and distance(meters) do you have.    Think of trying to talk to someone in a crowded bar.   You can talk slower [seconds], you can lean in [meters], you can talk louder [watts] or you can go to better place [$$$$].  Plug in all those numbers for electronics and photonics and you’ll come up with two ratios and you’ll pick the best.   At top end Ethernet or IB speeds, if you’re going over 10m you’ll want at least an active optical electrical cable. With our VCSEL and Silicon Photonics and the ability to integrated these with both computation and memory devices, that crossover point at top end speeds will drop from tens of meters to tens of centimeters. But the real win isn’t in individual point to point link efficiency, it is in design freedom. If all you do is adjudicated point-to-point connections between electronics and photonics, you’ll get an ROI, but the real payoff comes when you fully capitalize on the relatively lossless nature of photonics.  What’s really amazing is that whether a photon travels 10cm or 1000m, it does it for the same energy profile. The only difference is 5 nanoseconds per meter of fiber travelled. Lossless also means no emissions or interference. It all adds up to enabling topologies that simply cannot be execute in electronic communications and that ends up being fundamental because when the software teams look at that memory pool they have only two questions “what’s the capacity and what’s the latency?” There isn’t a firm line, but most software teams begin to lose interest in memory if it’s more than 300ns to 500ns away, beyond that they’ll treat it as an I/O device. Photonics allows us to realize the memory pool accessible as memory at every scale we find interesting, rack to aisle to datacenter. Now the last bit is the compute and here the electron is still king. But when the transistors stop getting smaller (and they’ve already stopped getting cooler, faster, and cheaper) there has to be something better to do with them than stamp out yet another copy of a general purpose standard instruction set core. We need to be able to quickly and economically add application specific accelerators to compute, and the memory semantic fabric allows us to do just that. Heterogeneous compute with GPUs, DSPs, ASICs, FPGAs as peers with general purpose compute all sharing access to the same massive memory pools. And we still have networks, but we’ve now re-established the I/O in the role it was originally designed for, I/O as a peripheral because it’s at the periphery of the system. So much of the “I/O” we do today is actually memory sharing between those isolated islands of memory segregated behind compute. With memory emancipated away from compute, we can now let all the compute elements share memory structures directly, never having to copy, serialize, buffer or expose information to corruption or compromise. [Next: MDC concept build out…]
  9. [This is why メモリ-Driven Computing is “Powerful” (addressing the first pillar). Note, this slide contains the single most important concept in the Memory-Driven Computing architecture.] The challenges are always on building enough memory to keep up with compute. Memory has always been the scarce resource (never enough volume/resources). Traditional computers chop up your information – the data – to match the limitations of the processor Processor as gatekeeper We flip that around and puts the data first – bringing processing to the data Processor almost irrelevant – can swap out to suit task We call this Memory-Driven Computing SoC, universal memory and photonics are the key parts of the architecture of the future With this architecture, we can ingest, store and manipulate truly massive datasets while simultaneously achieving multiple orders of magnitude less energy/bit Q: What is HPE doing here that is truly different? A: New technologies are not substitutional - we’re re-architecting [Next: Memory-Driven Computing concept build out…]
  10. The point of this slide is that that you have to have all of these in order to be MDC [Next: MDC is Open]
  11. What is Gen-Z and how does it set the stage for true Memory-Driven Computing for HPE? Gen-Z is an open systems interconnect designed to provide memory semantic access to data and devices via direct attached, switched or fabric topologies. We need a new standard because existing interconnects have critical limitations that prevent them being useful in future computing architecture. Basically, we need more speed, the ability to address a bigger memory space, and more flexibility. Today, each computer component is connected using a different type of interconnect. Memory connects using DDR, hard drives via SATA, flash drives and graphics processing units via PCIe, and so on.   This technology will also set the stage for true Memory-Driven Computing. Computing, allowing the manipulation of huge data sets residing in large pools of fast, persistent memory. We also see Gen-Z as a critical component of HPE’s Memory-Driven Computing architecture. The memory fabric for The Machine program will contribute to shaping specifications of Gen-Z. This work will also innovate the future of High-Performance Computing platforms, as well as extending our composable infrastructure technology will contribute to. Referring back to how Photonics Fabric destroys distance and how 100 of racks can behave as a single server. The Gen-Z protocol can address a flat fabric of 16 million components. Gen-Z could theoretical address 292 bytes, or 4,096 yottabytes. Or a thousand times bigger than our digital universe today." Please avoid characterizing Gen-Z as an HPE-led initiative or driving The Machine research project HPE is a founding member, but is one of the many companies participating in the Gen-Z Consortium HPE hopes to benefit from the consortium just as any other participating consortium member – Gen-Z is owned by the consortium The Machine prototype is where we’ve been working out our memory-semantic fabric ideas and this has shaped our contributions into the Gen-Z consortium. We don’t want to and shouldn’t claim that it is Gen-Z because that specification is still in draft form and we can’t claim compliance to it. [Next: Gen-Z Consortium]
  12. The point here is that HPE isn’t the only one seeing the need for a new interconnect. Industry leaders across the value chain agree with us. A consortium called Gen-Z was unveiled on Oct. 11, 2016, which comprises of leading technology companies dedicated to creating and commercializing the Gen-Z technology. HPE is a member of the consortium, which includes: AMD, ARM, Broadcom, Cray, Dell, Hewlett Packard Enterprise, Huawei, IDT, Micron, Samsung, SK Hynix, and Xilinx and is constantly expanding and recruiting the list of members. Please avoid characterizing Gen-Z as an HPE-led initiative or driving The Machine research project HPE is a founding member, but is one of the many companies participating in the Gen-Z Consortium HPE hopes to benefit from the consortium just as any other participating consortium member – Gen-Z is owned by the consortium The Machine prototype is where we’ve been working out our memory-semantic fabric ideas and this has shaped our contributions into the Gen-Z consortium. We don’t want to and shouldn’t claim that it is Gen-Z because that specification is still in draft form and we can’t claim compliance to it. For more information… Gen-Z Consortium Press Release http://genzconsortium.org/news-type/press-release/ Gen-Z Website http://genzconsortium.org/ Alpha Data Jabil Circuit Red Hat AMD Jess-Link Products Co., Ltd. Samsung Amphenol Corporation Keysight Technologies Seagate ARM Lenovo Senko Advanced Components, Inc. Avery Design Systems Lotes Ltd. Simula Research Laboratory Broadcom Ltd. Luxshare-ICT SK hynix Cadence Design Systems, Inc. Mellanox Technologies Ltd. SMART Modular Technologies Cavium Inc. Mentor Graphics Spin Transfer Technologies Cray Micron TE Connectivity Corporation Dell EMC Microsemi Storage Solutions, Inc. Toshiba Memory Corporation Everspin Technologies Mobiveil, Inc. Tyco Electronics (Shanghai) Co., Ltd. FoxxConn Internconnect Technologies Molex University of New Hampshire InterOperability Laboratory Hirose Electric NetApp VMware HPE Nokia Western Digital Technologies, Inc. (Sandisk) Huawei R&D USA Numascale Xilinx IBM Oak Ridge National Laboratory YADRO Company IDT PLDA Group IntelliProp, Inc. Qualcomm Technologies, Inc. [Next: Memory-Driven security framework]
  13. [This is why メモリ-Driven Computing is “Powerful” (addressing the first pillar). Note, this slide contains the single most important concept in the Memory-Driven Computing architecture.] The challenges are always on building enough memory to keep up with compute. Memory has always been the scarce resource (never enough volume/resources). Traditional computers chop up your information – the data – to match the limitations of the processor Processor as gatekeeper We flip that around and puts the data first – bringing processing to the data Processor almost irrelevant – can swap out to suit task We call this Memory-Driven Computing SoC, universal memory and photonics are the key parts of the architecture of the future With this architecture, we can ingest, store and manipulate truly massive datasets while simultaneously achieving multiple orders of magnitude less energy/bit Q: What is HPE doing here that is truly different? A: New technologies are not substitutional - we’re re-architecting [Next: Memory-Driven Computing concept build out…]
  14. Enabling new software to accomplish the (hitherto) impossible Changing physics to enable Memory-Driven Computing to create optimal algorithms to take advantage of the new architecture: Memory abundance. Memory was scarce, now it’s abundant, how can we attack a problem differently? Precompute and look up, not recalculate. Much faster, but also more energy efficient: One energy expenditure per answer – sustainability. Need non-volatility to make this work – want the “energy tax of storing” to be zero. Memory shared with just the right compute– Heterogeneous compute – right compute the right distance from memory – all looking at the same memory simultaneously. No passing data around. Neural net teams are “in love” with this concept Non-volatility of memory – store in perpetuity with no energy except when accessing Dynamic range – one code from gigabytes to petabytes – no re-implementing as you scale up Different problems will find one or more of these axes transformational [Next: Memory-Driven Computing for Machine Learning]
  15. How do we get t MDC? The Machine project Introduction to The Machine program – This is an example of how we’re making MDC happen from HPE/Hewlett Packard Labs. [Next: First instantiation of The Machine prototype unveiled]
  16. This is what you can achieve if you throw away 60 years of software assumptions and legacy. Spark is one of the leading open source tools to do in-memory analytics on a cluster of servers. As part of another project, we wanted to see what we could do with Spark if we adapted to a large memory system. The results were astounding. 15X s compared to “vanilla” Spark. We can also run 20x bigger data sets that won’t run all at all normally. All from rewriting a couple of hundred lines of code. [harnesses the “well-connected” vector. Not big memory, just many processing elements on the pool of memory] [The other three harnesses abundance: need all the memory the same “distance” away] Similarity search is used for things like image search, genomics etc. and is outpacing supercomputer development today. Comparison is with standard disk-based scale-out Map/Reduce. This is also on a 20x bigger data set. Graphs increasingly represent our connected world today. Graph inference is how you make predictions using a small known set of data. Comparison is with GraphLab, the state-of-the-art today. Financial modelling is Monte Carlo simulations used to predict things like derivatives pricing and portfolio risk management. Comparison is with open source QuantLib package. [Next: What makes up MDC]
  17. Developer Experience for The Machine Programming and analytics tools: Sparkle: Optimized Spark to run 10x faster on large-memory systems. Managed Data Structures (MDS): Enables developers to declare in-memory data structures as persistent, and directly reuse them across programming languages and processes. Fabric optimistic engine for data unification: A database engine that speeds up applications by taking advantage of a large number of CPU cores and persistent memory. Fault-tolerant programming model for NVM: Adapts existing multi-threaded code to store and use data directly in persistent memory. Provides simple, efficient fault-tolerance in the event of power failures or program crashes. Persistent memory toolkit: We have tools that support memory whose contents outlive the processes that allocate, populate, and manipulate the memory. Operating system support: Linux for Memory-Driven Computing: Modifications to the Linux operating system necessary to support Memory-Driven Computing. LFS: Exposes Fabric-attached memory as a memory-mapped shared file system. FAM-Atomics Library: Provides synchronization and locking capabilities that are atomic across the whole fabric attached system. Librarian: Manages cross-node allocation of fabric memory. Emulation/simulation tools: Fabric Attached Memory Emulation: An environment designed to allow users to explore the new architectural paradigm of The Machine Performance emulation for NVM latency and bandwidth: A DRAM-based performance emulation platform that leverages features available in commodity hardware to emulate different latency and bandwidth characteristics of future byte-addressable NVM technologies. [Next: The Machine User Group]
  18. On May 16, 2017, Hewlett Packard Enterprise announced prototype of the first Memory-Driven Computing is the largest single-memory system on the planet, It’s capable of working with up to 160 terabytes (TB) of data at the same time.  Linux-based operating system running on ThunderX2 Cavium’s flagship ARMv8-A workload optimized System on a Chip. Interconnect between enclosures are using photnics with our new X1 photonics module. The image on this slide is the real 40 nodes that lives in Ft. Collins, CO. Here are other assets that you might find helpful to show:
  19. Memory-driven computing using large volumes of nonvolatile memory is expected to dramatically increase the ability to analyze very large and various types of data. In the German Center for Neurodegenerative Diseases (DZNE) is an organization focused on the research of Alzheimer's, which is said to be suffering by 1 in 10 people aged over 65 in the world. In order to comprehensively analyze patient's diagnosis, genetic information, MRI images and so on They thought that this research required a new computer architecture capable of processing large amounts of data. with one component of their overall data analytics pipeline and are already getting over 40X speed improvements. Furthermore, it is thought that there is a possibility to speed up to 100 times by raising the accuracy of machine learning. DZNE has not been able to handle large amounts of data at once, But By processing large-scale data at the same time, enables to find hidden correlations that have not been found so far For more technical explanation: For that application, we saw an improvement of getting over 40x speed improvements (on the Superdome X) over published results. Thus some of the advantage we saw was from better hardware (Superdome X), and some was from our code refactoring to Memory-Driven Computing principles. Our results on the 40-Node Prototype showed that as number of nodes are increased, we can increase the number of application instances linearly. This means that the overall work DZNE can do will scale linearly as number of nodes are added for their pipeline. This is just one of many applications that are used by DZNE. If other applications show similar results, we believe that the overall computational pipeline can be made up to two orders of magnitude (100x) faster. [Next: talk about our The Machine prototype node boards]
  20. This is our longer term research. After several years of intense activity from the big key players, all indicators show that cognitive research and development, tools and applications for business solutions are accelerating. While many of the trends focus on machine and deep learning, the whole field of artificial intelligence and cognitive systems is attracting high interest. At Hewlett Packard Labs we’re explore futuristic research in silicon photonics, neuromorphic computing and optical computing. Here are 2 examples of the types of accelerators that would highly benefit from Memory-Driven Computing. Neuromorphic Computing: Images of memristor array & the Dot Product Engine testbed (at the bottom) At Hewlett Packard Labs, we’re doing research based on brain inspired architectures, not to replace humans, but to replicate the tricks the brain uses. We call this “Neuromorphic Computing”. Our goal is to duplicate the fact that humans consume very little energy to do the computations that we do. Tens to thousands times less energy than digital computers. And brains don’t look like the processor units in computers. They are tremendous networks of neurons and synapses – vast webs of interconnections. We are taking advantage of an emerging technology developed at HPE over the past few years – Memristor. It turns out that the brain’s interconnectedness can be duplicated perfectly in Memristor crossbar arrays They are very low power and shrinkable devices in order to build lower power computing systems. According to our forecasts, this will have 5 orders of magnitude improvement in processing throughput divided by power for some important applications. Matrix multiplication lies at the heart of many computationally intensive applications and algorithms today – everything from signal processing, image processing, fraud detection, language transcription and translation Most of these applications are performing very similar computations (or matrix multiplications) over and over again. Instead of moving those stored values around every time we want to do this multiplication, we are bringing the computation to the data in memory. This can be incredibly power efficient, save time and reduce computing complexity.   We’ve developed our Memristor technology to mimic brains synapses in our Dot Product Engine to perform these parallel operations and complex computations at lower power and faster speeds. The key behind the Dot Product Engine is what we are doing with in-memory computing. This ties into the Memory-Driven Computing path where we go from high density memory, non-volatile memory, that is accessible to every accelerator to perform computation in memory. This way it can plug into the Memory-Driven Computing architecture. It is not general purpose and part of general cores and system of accelerators that tackle problems for intelligent system workloads to handle changing workloads for the business. The notion of a system having heterogeneous types of processors ties into the BIG advantages of Memory-Driven Computing. Ultimately, we want to build systems that determine the best type of processing for the task at hand. It is about having the right processing for what is needed, and we are positioning this next phase of computing architecture to be open to what comes along the way in the future. The Memory-Driven Computing architecture is designed for this; a future neuromorphic chip could slot right in. Optical Computing: Images of a mock up of an optical neuromorphic chip and optical computing chip (at the bottom) Optical computing is the attempt to use photons instead of electrons for computation, in other words: we process data signals in the optical domain instead of the traditional electronic domain. This is what is cool about Optical Computing! The data is processed in the optical domain while it is travelling, instead of transferring the data to where we can do processing on it. Similar to Memory-Driven Computing, you process data in memory, but here you can process the data while it is in flight. You don’t have to stop the data movement and reconvert the data. We are bringing processing closer to data, instead of data to the processor. Today, every time we send and receive optical information through optical fibers, when we want to process it, we need to convert it to the electronic domain, process the data there and then convert the result back to the optical domain.   With over 1,000 optical parts in chip, a record number of photonics components working together to compute with light. This is what is cool about Optical Computing. The data is processed in the optical domain while it is travelling, instead of transferring the data to where we can do processing on it. Similar to Memory-Driven Computing, you process data in memory, but here you can process the data while it is in flight. You don’t have to stop the data movement and reconvert the data. We are bringing processing closer to data, instead of data to the processor.   Today, every time we send and receive optical information through optical fibers, when we want to process it, we need to convert it to the electronic domain, process the data there and then convert the result back to the optical domain. [Next: Roadmap for Persistent Memory]
  21. https://hpe.sharepoint.com/sites/F5/CTO/Office/Pages/index.aspx