SlideShare a Scribd company logo
1 of 48
Download to read offline
分散仮想ストレージシステム 
またはSoftware Defined Storage 
ご紹介資料 
OSSラボ株式会社 
2014/10/30 
14/10/30Copyright 2014(C) OSS Laboratories Inc. All Rights 1 
Reserved  
http://www.ossl.co.jp 
TWITTER: http://twitter.com/satoruf 
LINKEDIN: http://jp.linkedin.com/in/satorufunai/ja 
SLIDESHARE: http://www.slideshare.net/sfunai 
FACEBOOK: http://www.facebook.com/satoru.funai
仮想ストレージとは 
l 仮想ストレージの階層 
l Disk Virtualization (ディスクの仮想化):論理ブロック(LBA) 
l Block Virtualization (ブロックの仮想化):LVM/RAID 
l File Virtualization (ファイルの仮想化):VFS 
l File System Virtualization (ファイルシステムの仮想化)  
(SNIA(Storage Network Industry Association)が作成したストレージ仮想化技術の分類) 
l ファイルシステムの仮想化: 
l クラスタ/グリッドファイルシステム/仮想ストレージ/Software Defined Storage, etc. 
l ユーザからはサーバや記憶装置の多様性と分散が隠蔽され、単なるボリュームや 
ファイルとして扱える透過性を持つ。 
l 商⽤用製品例 
l EMC ViPR, scaleIO 
l VMware VSAN 
l Datacore SANSymphony-V 
l NexentaStor 
l Cleversafe/Amplidata 
l 分散ファイルシステムは、レプリケーションによるフォールトトレラント性強化 
を⽬目指したもの、並列化による性能強化を⽬目指したもの、両⽅方を同時に実現しよ 
うと設計されたものがある。 
14/10/30 
Copyright 2014(C) OSS Laboratories Inc. All Rights 2 
Reserved
分散仮想ストレージのアーキテクチャ 
l メタデータ管理 
l 集中管理型/分散管理型、フォールトトレランス、スケールアウト 
l ネーミング 
l データ格納場所とオブジェクトIDのマッピングアルゴリズム 
l クライアントアクセス 
l POSIX/FUSE/Block/REST 
l キャッシングと⼀一貫性保持 
l WORM/Transactional locking/Leasing 
l レプリケーション/同期⽅方式 
l 同期/⾮非同期、Read only/Read/Write、CAP定理、PAXOS 
l ロードバランス 
l データ偏在の⾃自動修正 
l ⾃自⼰己修復機能(Self Healing) 
14/10/30 
Copyright 2014(C) OSS Laboratories Inc. All Rights 3 
Reserved
いろいろあります 
14/10/30 
Copyright 2014(C) OSS Laboratories Inc. All Rights 
Reserved  
4 
製品名 開発主体 ライセンス 
Amage クリエーションライン株式会社 プロプライエタリ 
Ceph Inktank LGPL2 
Chiron FS luisfurquim@gmail.com GPL3 
Cloudian クラウディアン株式会社 プロプライエタリ 
CloudStore/Kosmosfs/Quantcastfs Quantcast Apache License 2.0 
Cosmos Microsoft internal 非公開 
dCache DESY and others プロプライエタリ 
FraunhoferFS (FhGFS) Competence Center for High Performance Computing FhGFS license 
FS-Manager CDNetworks プロプライエタリ 
General Parallel File System(GPFS) IBM プロプライエタリ 
Gfarm file system 筑波大学/産業技術総合研究所 BSD 
GlusterFS Gluster, a company acquired by Red Hat GPL3 
Google File System(GFS) Google 非公開 
Hadoop Distributed File System ASF, Cloudera, Pivot, Hortonworks, WANdisco, Intel Apache License 2.0 
IBRIX Fusion IBRIX プロプライエタリ 
LeoFS 楽天技術研究所 Apache License 2.0 
Lustre 
originally developed byCluster File System and currently supported 
by Intel(formerly Whamcloud) 
GPL
分散ファイルシステムの種類 
14/10/30 
Copyright 2014(C) OSS Laboratories Inc. All Rights 
Reserved  
5 
分類概要例 
分散ファイルシステム複数のホストがコンピュータネットワークを経 
由して共有しつつファイルにアクセスすること 
を可能にする。複数のサーバ上に配置された 
ファイルを、論理的に構造化された 1つ以上の 
名前空間で透過的にアクセスできる。 
Amazon S3 
Andrew File System 
(AFS) etc. 
分散フォールト 
トレラント 
ファイルシステム 
データを複製する事により、分散ファイルシス 
テムを構成する要素に障害が発⽣生しても、デー 
タ喪失する事なくアクセスが継続できる。 
Microsoft DFS 
Moose FS, etc. 
分散並列 
ファイルシステム 
データを細かく分割し、分散ファイルシステム 
上の各ホストに分散配置する事により、性能を 
スケールアウトできる。 
FraunhoferFS 
(FhGFS) 
PVFS/OrangeFS 
etc. 
分散並列フォールト 
トレラント 
ファイルシステム 
上記全ての機能を備えたファイルシステムCeph 
GlusterFS 
sheepdog, XtreemFS 
etc.
Cephの歴史 
6 
RHEL-OSP 
Certification 
FEB 2014 
OpenStack 
Integratio 
n 2011 
MAY 2012 
Launch of 
Inktank 
2010 
Mainline 
Linux 
Kernel 
Open 
Source 
2006  
2004 
Project 
Starts 
at 
UCSC 
Production 
Ready 
Ceph SEPT 
2012 
Xen 
Integration 
2013 
2012 
CloudStack 
Integration 
OCT 2013 
Inktank Ceph 
Enterprise 
Launch 
APR 2014 
Inktank 
Acquired by 
Red Hat 
Copyright © 2014 by Inktank
Ceph開発者数の推移 
14/10/30 
Copyright 2014(C) OSS Laboratories Inc. All Rights 
Reserved  
7
Cephの特徴 
l ベンダフリー 
l 汎⽤用PCサーバ/汎⽤用OS(Linux)を使⽤用 
l 特別なハードウェア不要 
l オープンソース 
l フォールトトレラント 
l スケールアウト 
l 汎⽤用プロトコル 
l POSIXファイルシステム 
l ブロックデバイス 
l REST(AWS S3/SWIFT互換) 
l WAN越しリモートレプリケーション(RGWのみ) 
l RW同期(LANのみ) 
14/10/30 
Copyright 2014(C) OSS Laboratories Inc. All Rights 8 
Reserved
Cephのアーキテクチャ 
APIKernel 
Client 
RADOS 
Reliable, Autonomous, Distributed Object Store 
 
MonitorsOSDsMDS 
MonitorsOSDsMDS 
MonitorsOSDsMDS 
vfs 
ブロックデバイ 
スドライバ 
ブロック 
デバイス 
9 
CephFS 
 
POSIX互換ファイ 
ルシステム 
Kernel-client及び 
FUSE-clientから 
使⽤用できる 
Librados 
 
C, C++, java, 
Python, Ruby, PHP 
からRADOSに 
アクセスできるAPI 
ライブラリ 
RADOSGW 
(RADOS 
Gateway) 
 
AWS S3及び 
OpenStack 
SWIFT互換の 
REST APIを提供 
するhttpプロキシ 
RBD 
(RADOS Block 
Device) 
 
Linuxカーネルか 
らRADOSをブロッ 
クデバイスとして 
使⽤用できる  
ノード 
ブロック 
デバイス 
APIQEMU 
/KVM 
Kernel 
Client 
FUSE 
Client 
File system 
ノード 
File system 
vfs 
ブロックデバイ 
スドライバ 
ブロック 
デバイス 
ブロック 
デバイス
CALAMARI 
10 
Copyright © 2014 by Inktank
従来型ストレージとの違い 
14/10/30 
従来型ストレージCephストレージ 
TCP/IPTCPが通れば 
Copyright 2014(C) OSS Laboratories Inc. All Rights 
Reserved  
11 
Hypervisor 
VM 
⾼高価 
VM 
VM 
FC/iSCSI SAN 
RAID 
ストレージ 
Hypervisor 
VM 
VM 
VM 
RAID 
ストレージ 
筐体障害対応には 
⼆二重化必要 
スケールアップ 
拡張に1ヶ⽉月? 
Hypervisor 
VM 
安価 
VM 
VM 
汎⽤用サーバ 
Linux 
Hypervisor 
VM 
VM 
VM 
汎⽤用サーバ 
Linux 
筐体障害対応は、不要 
(最低3台以上) 
スケールアウト 
追加に数分 
良い 
ローリング 
アップグレード 
無停⽌止保守 
FWアップ 
グレード時 
停⽌止
ブロックデバイスのマウント⽅方法 
物理サーバ 
QEMU/KVM 
14/10/30 
物理サーバ 
Hypervisor 
VM 
Linux 
Kernel 
Kernel 
ClientClient 
librbd 
Copyright 2014(C) OSS Laboratories Inc. All Rights 
Reserved  
12 
RBD 
(RADOS Block Device) 
VM 
物理サーバ 
Linux 
アプリケー 
ションアプリケー 
ション 
アプリケー 
ション 
Linuxページ 
キャッシュを使⽤用ユーザースペース 
モジュール 
LinuxのみサポートRBD Cacheを使⽤用 
カーネルスペース 
モジュール 
Hypervisorの種類 
は問わない 
VM OSの種類は 
問わない 
Hypervisorの種類は 
QEMU/KVMのみ
キャッシュ・ティアリング 
Read/WriteWriteRead 
CEPH STORAGE CLUSTER 
SSD 
HDD
Erasure coding(イレージャーコーディング) 
l Erasure Coding:定訳はないが、「消失符号」あるいは「消失訂正符号」という訳語も⼀一 
部で使われている。 
l オブジェクトを分割して消失訂正符号を付加し、物理的に異なるノードに分散して格納す 
ることで、その分割したデータのいくつかが消失した場合でも、元のオブジェクトを復元 
することができる⼿手法で、マイクロソフトのAzureストレージにも採⽤用されている技術。 
l 実装の仕組みは複数のアルゴリズムが⽤用意されているが、⼀一般的にオブジェクトの容量に 
対して20%~40%程度の符号を付加すれば良いことから、レプリケーション(複製)に⽐比 
べ物理的なディスクの利⽤用効率(実効容量)が⾼高い。 
l ただし、オブジェクトの書き込みの都度、符号化処理を⾏行行うので、パフォーマンスが劣化 
する可能性があり、ディスクの利⽤用効率を優先する⼤大規模案件やパフォーマンスを要求し 
ないアーカイブ⽤用途などに適している。 
Erasure Codingレプリケーション 
利⽤用効率(2ディスク障害 
での保証) 
約140%200% 
CPU使⽤用率HighLow 
読み書き速度遅い速い
Replication vs ERASURE CODING 
15 
CEPH STORAGE CLUSTERCEPH STORAGE CLUSTER 
Full copies of stored objects 
One copy plus parity 
§ Very high durability 
§ Cost-effective durability 
§ Quicker recovery 
§ Expensive recovery 
Copyright © 2014 by Inktank
Multi-site Replication 
オブジェクトストレージ(RADOSGW) 
のみ対応 
l 物理的ロケーションの離れた別ク 
ラスターにメタデータとデータを 
複製。 
l 複製⽅方式は、マスター/スレーブ、 
スレーブはRead Only 
l 複製先は複数可能 
l ディザスタリカバリー⽤用のバック 
アップデータを保証する。 
l ⼀一貫性はAP(Eventually 
consistency) 
 
14/10/30 
Copyright 2014(C) OSS Laboratories Inc. All Rights 16 
Reserved
Cephのユースケース 
Traditional 
14/10/30 
Ceph 
Target 
NAS  Object 
Content Store 
(traditional NAS) 
Copyright 2014(C) OSS Laboratories Inc. All Rights 
Reserved  
17 
Virtualization and 
Private Cloud 
(traditional SAN/NAS) 
 
High Performance 
(traditional SAN) 
CapacityPerformance 
IT 
Cloud 
Application 
s 
XaaS Compute Cloud 
Open Source Block 
XaaS Content Store 
Open Source NAS/Object 
Ceph Target
Webオブジェクトストア 
18 
S3/SwiftS3/SwiftS3/SwiftS3/Swift 
Copyright © 2014 by Inktank
共有ファイルシステム 
19 
Native 
Protocol 
Native 
Protocol 
Native 
Protocol 
Native 
Protocol 
Copyright © 2014 by Inktank
バックアップ/コールド ストア 
CEPH STORAGE CLUSTER 
Copyright © 2014 by Inktank20
災害対策 
21 
CEPH STORAGE CLUSTERCEPH STORAGE CLUSTER 
Site ASite B 
Copyright © 2014 by Inktank
VMイメージ 
22 
Native 
Protocol 
Native 
Protocol 
Native 
Protocol 
Native 
Protocol 
Copyright © 2014 by Inktank
参考情報 
14/10/30 
Copyright 2014(C) OSS Laboratories Inc. All Rights 
Reserved  
23 
http://www.mellanox.com/related-docs/whitepapers/ 
WP_Deploying_Ceph_over_High_Performance_Networks.pdf
参考情報 
14/10/30 
2,419MB/sec (8M Seq. READ) 
110k IOPS (4k Seq. READ) 
Copyright 2014(C) OSS Laboratories Inc. All Rights 
Reserved  
24
Incremental Object size test One Client ‒ 
180 OSDs, 1 x replicated pool 
Monitor Nodes 
Private Network (192.168.50) 
Client Node 
OSD Nodes 
Public Network (172.27.50) 
3GB/s 
1GB/s 
12GB/s 6GB/s 
http://www.slideshare.net/Inktank_Ceph/06-ceph-day-october-8th-2014-smc?qid=34fdee3f-a686-4738-b0b1- 
a02032480876v=qf1b=from_search=5
Incremental Object size test One Client ‒ 180 OSDs, 
1 x erasure coded pool (k=4,m=2) 
Monitor Nodes 
Private Network (192.168.50) 
Client Node 
OSD Nodes 
Public Network (172.27.50) 
3GB/s 
1GB/s 
12GB/s 6GB/s
CEPH+OPENSTACKインテグレーション 
27 
VolumesEphemeral 
Copy-on-Write Snapshots 
RADOS CLUSTER
OPENSTACK USER SURVEY, 05/2014 
28 
DEV / QAPROOF OF CONCEPTPRODUCTION
Glance(イメージサービス)連携 
RBD 
 
/etc/glance/glance-api.conf 
 
default_store=rbd 
rbd_store_user=glance 
rbd_store_pool=images 
Store, Download 
Glance Server 
Image
Ceph COW clone 
l COW:Copy-on-write 
l ⾼高速なボリューム作成、低容量消費 
14/10/30 
Copyright 2014(C) OSS Laboratories Inc. All Rights 
Reserved  
30 
READ 
クライアント 
WRITE
Cinderボリューム作成 
l Ceph COW cloneを使⽤用するため、⾼高速 
14/10/30 
Copyright 2014(C) OSS Laboratories Inc. All Rights 
Reserved  
31
Cinder snapshot/backup on Ceph 
l CephのRBD Snapshotを使⽤用 
l RBD snapshotは、読み込み専⽤用 
l Snapshotから、ブート可能なボリュームを作成(COW 
clone) 
l Cinder backup on Ceph 
l 差分バックアップサポート(Ceph RBD snapshot) 
l 異なるPG(ラック/ゾーン)を指定 
14/10/30 
Copyright 2014(C) OSS Laboratories Inc. All Rights 
Reserved  
32
Cinder/Nova連携 
ライブマイグレーション 
VM 
librbd 
RBD 
 
Nova/compute 
VM 
Libvirt 
(QEMU/KVM) 
Cinder Server 
VM 
Boot from volume 
ボリューム作成/接続 
VolumeImage 
Copy-on-write clone 
librbd 
VM 
Libvirt 
(QEMU/KVM)
SWIFT/Keystone連携 
SWIFTのバックエンドとしてCeph RADOS GWを使⽤用 
Keystone Server 
RADOSGW 
RESTful Object Store 
Query token 
Access with token 
Grant/revoke
OpenstackでのCeph使いどころ 
プロダクション構成例 
外部HA Proxy 
NW 
14/10/30 
Public管理ストレージ 
Ceph 
Copyright 2014(C) OSS Laboratories Inc. All Rights 
Reserved  
35 
l コントローラノード 
l RBDカーネルクライアントを使⽤用し、 
下記ファイルをCeph上にマウント 
l データベースファイル 
l 各種テンポラリファイル 
l 各種設定ファイル 
l ログ 
l Cinder/Glance 
l 各コンピュートノードにlibrbdを設定 
し、イメージ、ボリュームとして使⽤用 
する 
l Swift 
l RADOS GWを使⽤用し、バックアップ 
置き場とする 
HA Proxy 
コントローラ 
10gb 
同期 
コントローラ 
Ceph 
ネットワーク 
Ceph 
ネットワーク 
コンピュート
OpenStack+Cephのメリット 
l OpenStack 全体の可⽤用性の向上 
l MySQL のデータさえダンプ取得すれば、 リストア可能 
l OS イメージ・スナップショットは Ceph 上にあ 
るのでバックアップ不要 
l Compute ノード上のインスタンスデータは 
Ceph のスナップショットから復旧 
l Network ノードは分散・冗⻑⾧長可能、データのバッ 
クアップは不要 
l 最⼩小構成(3ノード)から始めて、スケールアウ 
ト可能 
14/10/30 
Copyright 2014(C) OSS Laboratories Inc. All Rights 
Reserved  
36
OPENSTACK ADDITIONS 
l JUNO 
l Enable Cloning for rbd-backed ephemeral disks 
l KILO 
l Volume Migration from One Backend to Another 
l Implement proper snapshotting for Ceph-based ephemeral 
disks 
l Improve Backup in Cinder 
Copyright © 2014 by Inktank
CoreOS とCeph 
l CoreOSとは 
l CoreOS は Alex Polvi が設⽴立立した会社であり、OS、新しい Linux Distribution である。OSS で公開されている。 
l CoreOS は Google や Facebook などの環境を参考にしており、柔軟にスケールし、さらにはインフラ構築そのもの 
のプロセス⾃自体も効率よく合理的に⾏行行えるよう設計されている。 
l また運⽤用、管理(セキュリティ)におけるコストを必要最低限に抑えるようにも考えられている。 
l CoreOS の⼤大きな特徴 
l ⼩小さくかつ堅牢なコア 
l 安全なアップデート 
l アプリケーションコンテナ ( Docker専⽤用 ) 
l クラスタリング 
l 分散システムツール 
l カスタマイズ可能な SDK 
l Docker環境ではDBファイル等を保存する永続データストアは、各ホストのローカ 
ルストレージに置いてしまうとコンテナがホストを移動できなくなってしまうので、 
外部共有ストレージを使う必要がある 
l AWS/GCP等のパブリッククラウドでは、⽬目的に応じてストレージサービスを選べ 
ばいい訳だが、ローカル環境では耐障害性を考慮した外部共有ストレージを⽤用意す 
る必要がある 
l ⼀一番簡単なのは、Ceph-FUSEを使ってPOSIXファイルシステムとして直接マウン 
トする⽅方法だが、CoreOSでは423.0.0からCephブロックデバイスカーネルモ 
ジュールが追加された 
14/10/30 
Copyright 2014(C) OSS Laboratories Inc. All Rights 
Reserved  
38
CoreOS インテグレーション 
http://qiita.com/satoruf/items/437d634c70bb8e501b69 
14/10/30 
Kernel 
Client 
Kernel 
Client 
フェイルオーバ 
マウント 
Copyright 2014(C) OSS Laboratories Inc. All Rights 
Reserved  
39 
RBD 
(RADOS Block Device) 
CoreOS 
Docker 
コンテナ 
librbd 
CoreOS 
Docker 
コンテナ 
librbd 
/dev/rbd
CEPH ROADMAP as of 2014/10 
40 
2014/11 
2015/3? 
GiantHammerI-Release 
Copyright © 2014 by Inktank
GIANT 
41 
§ Tree frozen September 9 
§ 0.85 dev release includes 
§ RDMA support groundwork 
§ Improved SSD performance 
§ Improvements to stand alone 
civetweb-based RGW frontend 
§ New ‘osd blocked by’ command 
§ 0.86 released 07 Oct (Giant 
RC) 
§ Low level OSD debugging tool 
§ Local repairable codes (LRC) 
§ Librados locking refactor 
§ MDS and mon improvements
RBD 
42 
l Client-side caching 
l (Now enabled by default!) 
l New option that makes cache 
write-through until “flushed” 
l Eucalyptus support 
l https:// 
mdshaonimran.wordpress.com/ 
2014/09/17/eucalyptus-block-storage- 
service-with-ceph-rbd/
RGW 
43 
l Stand-alone civetweb 
front end 
l Civetweb ‒ embedded C/C+ 
+ web server 
l No need for Apache 
overhead, dependencies, etc
CEPHFS 
44 
l Lots of activity! 
l 1/3 of core team assigned here 
l A lot of outside commits 
l Inktank / Red Hat team using 
CephFS internally on QA 
infrastructure 
l Sanding rough edges 
l “Not Supported” vs “Not 
Ready” 
l Feedback encouraged
CephFS Dogfooding 
l Using CephFS for internal build/test lab 
l 80 TB (80 x 1 TB HDDs, 10 hosts) 
l Old, crummy hardware with lots of failures 
l Linux kernel clients (ceph.ko, bleeding edge kernels) 
l Lots of good lessons 
l Several kernel bugs found 
l Recovery performance issues 
l Lots of painful admin processes identified 
l Several fat fingers, facepalms 
14/10/30 
Copyright 2014(C) OSS Laboratories Inc. All Rights 
Reserved  
45
参考資料 
l Openstack+Cephインテグレーション紹介 
l http://www.slideshare.net/sfunai/openstackceph 
l Cephベンチマークをしました 
l http://www.slideshare.net/sfunai/ceph-33123790 
l Openstack+Ceph設定ガイド 
l http://www.slideshare.net/sfunai/ 
openstackceph-39609805 
l Ceph/GlusterFS/XtreemFSの検証報告 
l https://s3-ap-northeast-1.amazonaws.com/cloudconductorwpupdate/whitepaper/ 
%E5%88%86%E6%95%A3%E3%83%95%E3%82%A1%E3%82%A4%E3%83%AB 
%E3%82%B7%E3%82%B9%E3%83%86%E3%83%A0%E3%81%AEWAN%E8%B6%8A 
%E3%81%88%E5%90%8C%E6%9C%9F%E3%83%AC%E3%83%97%E3%83%AA 
%E3%82%B1%E3%83%BC%E3%82%B7%E3%83%A7%E3%83%B3%E3%81%AE 
%E6%A4%9C%E8%A8%BC.pdf 
14/10/30 
Copyright 2014(C) OSS Laboratories Inc. All Rights 
Reserved  
46
⽇日本Cephユーザー会 
l メーリングリスト 
l https://groups.google.com/forum/#!forum/ 
ceph-jp 
l cephユーザー会で検索して下さい。 
14/10/30 
Copyright 2014(C) OSS Laboratories Inc. All Rights 
Reserved  
47
Cephアプライアンス登場!! 
14/10/30 
Copyright 2014(C) OSS Laboratories Inc. All Rights 
Reserved  
最小構成標準価格(税別): 
4,409万7,000円から 
48

More Related Content

What's hot

Using Kubernetes on Google Container Engine
Using Kubernetes on Google Container EngineUsing Kubernetes on Google Container Engine
Using Kubernetes on Google Container EngineEtsuji Nakai
 
フルオープンソースでここまで出来る。OpenStackの構築と運用
フルオープンソースでここまで出来る。OpenStackの構築と運用フルオープンソースでここまで出来る。OpenStackの構築と運用
フルオープンソースでここまで出来る。OpenStackの構築と運用Ikuo Kumagai
 
オープンソースNW監視ツールのご紹介
オープンソースNW監視ツールのご紹介オープンソースNW監視ツールのご紹介
オープンソースNW監視ツールのご紹介OSSラボ株式会社
 
Pgcon2012 ori-20120224
Pgcon2012 ori-20120224Pgcon2012 ori-20120224
Pgcon2012 ori-20120224Manabu Ori
 
分散ストレージ技術Cephの最新情報
分散ストレージ技術Cephの最新情報分散ストレージ技術Cephの最新情報
分散ストレージ技術Cephの最新情報Emma Haruka Iwao
 
OSSラボ様講演 OpenStack最新情報セミナー 2014年6月
OSSラボ様講演 OpenStack最新情報セミナー 2014年6月OSSラボ様講演 OpenStack最新情報セミナー 2014年6月
OSSラボ様講演 OpenStack最新情報セミナー 2014年6月VirtualTech Japan Inc.
 
Cephベンチマーク kvm
Cephベンチマーク kvmCephベンチマーク kvm
Cephベンチマーク kvmToshimi Kawabata
 
10年効く分散ファイルシステム技術 GlusterFS & Red Hat Storage
10年効く分散ファイルシステム技術 GlusterFS & Red Hat Storage10年効く分散ファイルシステム技術 GlusterFS & Red Hat Storage
10年効く分散ファイルシステム技術 GlusterFS & Red Hat StorageEtsuji Nakai
 
Cloud founryインストール手順
Cloud founryインストール手順Cloud founryインストール手順
Cloud founryインストール手順Kotaro Noyama
 
OpenStack Object Storage; Usage
OpenStack Object Storage; UsageOpenStack Object Storage; Usage
OpenStack Object Storage; Usageirix_jp
 
知っておくべきCephのIOアクセラレーション技術とその活用方法 - OpenStack最新情報セミナー 2015年9月
知っておくべきCephのIOアクセラレーション技術とその活用方法 - OpenStack最新情報セミナー 2015年9月知っておくべきCephのIOアクセラレーション技術とその活用方法 - OpenStack最新情報セミナー 2015年9月
知っておくべきCephのIOアクセラレーション技術とその活用方法 - OpenStack最新情報セミナー 2015年9月VirtualTech Japan Inc.
 
ONIC-Japan-2019-OVN public
ONIC-Japan-2019-OVN publicONIC-Japan-2019-OVN public
ONIC-Japan-2019-OVN publicManabu Ori
 
Cephを用いたwordpressの構築[LT版]
Cephを用いたwordpressの構築[LT版] Cephを用いたwordpressの構築[LT版]
Cephを用いたwordpressの構築[LT版] Kat 0gm
 
OpenStackクラウド基盤構築ハンズオンセミナー 第2日:ハンズオンNo1
OpenStackクラウド基盤構築ハンズオンセミナー 第2日:ハンズオンNo1OpenStackクラウド基盤構築ハンズオンセミナー 第2日:ハンズオンNo1
OpenStackクラウド基盤構築ハンズオンセミナー 第2日:ハンズオンNo1Etsuji Nakai
 
ソフトウェア・デファインドが再定義するストレージ -- OpenStackデファクト標準ストレージCeph - OpenStack最新情報セミナー 201...
ソフトウェア・デファインドが再定義するストレージ -- OpenStackデファクト標準ストレージCeph - OpenStack最新情報セミナー 201...ソフトウェア・デファインドが再定義するストレージ -- OpenStackデファクト標準ストレージCeph - OpenStack最新情報セミナー 201...
ソフトウェア・デファインドが再定義するストレージ -- OpenStackデファクト標準ストレージCeph - OpenStack最新情報セミナー 201...VirtualTech Japan Inc.
 
OpenStack超入門シリーズ いまさら聞けないSwiftの使い方
OpenStack超入門シリーズ いまさら聞けないSwiftの使い方OpenStack超入門シリーズ いまさら聞けないSwiftの使い方
OpenStack超入門シリーズ いまさら聞けないSwiftの使い方Toru Makabe
 
CloudStack Ecosystem Day - OpenStack/Swift
CloudStack Ecosystem Day - OpenStack/SwiftCloudStack Ecosystem Day - OpenStack/Swift
CloudStack Ecosystem Day - OpenStack/Swiftirix_jp
 
TripleOの光と闇
TripleOの光と闇TripleOの光と闇
TripleOの光と闇Manabu Ori
 
CloudFoundry 2 on Apache CloudStack 4.2.1
CloudFoundry 2 on Apache CloudStack 4.2.1CloudFoundry 2 on Apache CloudStack 4.2.1
CloudFoundry 2 on Apache CloudStack 4.2.1Kotaro Noyama
 

What's hot (19)

Using Kubernetes on Google Container Engine
Using Kubernetes on Google Container EngineUsing Kubernetes on Google Container Engine
Using Kubernetes on Google Container Engine
 
フルオープンソースでここまで出来る。OpenStackの構築と運用
フルオープンソースでここまで出来る。OpenStackの構築と運用フルオープンソースでここまで出来る。OpenStackの構築と運用
フルオープンソースでここまで出来る。OpenStackの構築と運用
 
オープンソースNW監視ツールのご紹介
オープンソースNW監視ツールのご紹介オープンソースNW監視ツールのご紹介
オープンソースNW監視ツールのご紹介
 
Pgcon2012 ori-20120224
Pgcon2012 ori-20120224Pgcon2012 ori-20120224
Pgcon2012 ori-20120224
 
分散ストレージ技術Cephの最新情報
分散ストレージ技術Cephの最新情報分散ストレージ技術Cephの最新情報
分散ストレージ技術Cephの最新情報
 
OSSラボ様講演 OpenStack最新情報セミナー 2014年6月
OSSラボ様講演 OpenStack最新情報セミナー 2014年6月OSSラボ様講演 OpenStack最新情報セミナー 2014年6月
OSSラボ様講演 OpenStack最新情報セミナー 2014年6月
 
Cephベンチマーク kvm
Cephベンチマーク kvmCephベンチマーク kvm
Cephベンチマーク kvm
 
10年効く分散ファイルシステム技術 GlusterFS & Red Hat Storage
10年効く分散ファイルシステム技術 GlusterFS & Red Hat Storage10年効く分散ファイルシステム技術 GlusterFS & Red Hat Storage
10年効く分散ファイルシステム技術 GlusterFS & Red Hat Storage
 
Cloud founryインストール手順
Cloud founryインストール手順Cloud founryインストール手順
Cloud founryインストール手順
 
OpenStack Object Storage; Usage
OpenStack Object Storage; UsageOpenStack Object Storage; Usage
OpenStack Object Storage; Usage
 
知っておくべきCephのIOアクセラレーション技術とその活用方法 - OpenStack最新情報セミナー 2015年9月
知っておくべきCephのIOアクセラレーション技術とその活用方法 - OpenStack最新情報セミナー 2015年9月知っておくべきCephのIOアクセラレーション技術とその活用方法 - OpenStack最新情報セミナー 2015年9月
知っておくべきCephのIOアクセラレーション技術とその活用方法 - OpenStack最新情報セミナー 2015年9月
 
ONIC-Japan-2019-OVN public
ONIC-Japan-2019-OVN publicONIC-Japan-2019-OVN public
ONIC-Japan-2019-OVN public
 
Cephを用いたwordpressの構築[LT版]
Cephを用いたwordpressの構築[LT版] Cephを用いたwordpressの構築[LT版]
Cephを用いたwordpressの構築[LT版]
 
OpenStackクラウド基盤構築ハンズオンセミナー 第2日:ハンズオンNo1
OpenStackクラウド基盤構築ハンズオンセミナー 第2日:ハンズオンNo1OpenStackクラウド基盤構築ハンズオンセミナー 第2日:ハンズオンNo1
OpenStackクラウド基盤構築ハンズオンセミナー 第2日:ハンズオンNo1
 
ソフトウェア・デファインドが再定義するストレージ -- OpenStackデファクト標準ストレージCeph - OpenStack最新情報セミナー 201...
ソフトウェア・デファインドが再定義するストレージ -- OpenStackデファクト標準ストレージCeph - OpenStack最新情報セミナー 201...ソフトウェア・デファインドが再定義するストレージ -- OpenStackデファクト標準ストレージCeph - OpenStack最新情報セミナー 201...
ソフトウェア・デファインドが再定義するストレージ -- OpenStackデファクト標準ストレージCeph - OpenStack最新情報セミナー 201...
 
OpenStack超入門シリーズ いまさら聞けないSwiftの使い方
OpenStack超入門シリーズ いまさら聞けないSwiftの使い方OpenStack超入門シリーズ いまさら聞けないSwiftの使い方
OpenStack超入門シリーズ いまさら聞けないSwiftの使い方
 
CloudStack Ecosystem Day - OpenStack/Swift
CloudStack Ecosystem Day - OpenStack/SwiftCloudStack Ecosystem Day - OpenStack/Swift
CloudStack Ecosystem Day - OpenStack/Swift
 
TripleOの光と闇
TripleOの光と闇TripleOの光と闇
TripleOの光と闇
 
CloudFoundry 2 on Apache CloudStack 4.2.1
CloudFoundry 2 on Apache CloudStack 4.2.1CloudFoundry 2 on Apache CloudStack 4.2.1
CloudFoundry 2 on Apache CloudStack 4.2.1
 

Similar to 141030ceph

[日本仮想化技術] 2014/6/5 OpenStack最新情報セミナー資料
[日本仮想化技術] 2014/6/5 OpenStack最新情報セミナー資料[日本仮想化技術] 2014/6/5 OpenStack最新情報セミナー資料
[日本仮想化技術] 2014/6/5 OpenStack最新情報セミナー資料OSSラボ株式会社
 
B 8スポンサー講演資料 osnexus steven umbehocker (アファーム・ビジネスパートナーズ株)
B 8スポンサー講演資料 osnexus steven umbehocker (アファーム・ビジネスパートナーズ株)B 8スポンサー講演資料 osnexus steven umbehocker (アファーム・ビジネスパートナーズ株)
B 8スポンサー講演資料 osnexus steven umbehocker (アファーム・ビジネスパートナーズ株)softlayerjp
 
B 8スポンサー講演資料 osnexus steven umbehocker (アファーム・ビジネスパートナーズ株)
B 8スポンサー講演資料 osnexus steven umbehocker (アファーム・ビジネスパートナーズ株)B 8スポンサー講演資料 osnexus steven umbehocker (アファーム・ビジネスパートナーズ株)
B 8スポンサー講演資料 osnexus steven umbehocker (アファーム・ビジネスパートナーズ株)chenree3
 
Cloudianの構築と運用の基礎 (Cloudian Summit 2012)
Cloudianの構築と運用の基礎 (Cloudian Summit 2012)Cloudianの構築と運用の基礎 (Cloudian Summit 2012)
Cloudianの構築と運用の基礎 (Cloudian Summit 2012)CLOUDIAN KK
 
SQL Server 使いのための Azure Synapse Analytics - Spark 入門
SQL Server 使いのための Azure Synapse Analytics - Spark 入門SQL Server 使いのための Azure Synapse Analytics - Spark 入門
SQL Server 使いのための Azure Synapse Analytics - Spark 入門Daiyu Hatakeyama
 
SaaS/クラウドコンピューティングでのオープンソース活用とセキュリティ
SaaS/クラウドコンピューティングでのオープンソース活用とセキュリティSaaS/クラウドコンピューティングでのオープンソース活用とセキュリティ
SaaS/クラウドコンピューティングでのオープンソース活用とセキュリティKuniyasu Suzaki
 
Red Hat OpenShift Container Storage
Red Hat OpenShift Container StorageRed Hat OpenShift Container Storage
Red Hat OpenShift Container StorageTakuya Utsunomiya
 
[db tech showcase Tokyo 2015] D13:PCIeフラッシュで、高可用性高性能データベースシステム?! by 株式会社HGSTジ...
[db tech showcase Tokyo 2015] D13:PCIeフラッシュで、高可用性高性能データベースシステム?! by 株式会社HGSTジ...[db tech showcase Tokyo 2015] D13:PCIeフラッシュで、高可用性高性能データベースシステム?! by 株式会社HGSTジ...
[db tech showcase Tokyo 2015] D13:PCIeフラッシュで、高可用性高性能データベースシステム?! by 株式会社HGSTジ...Insight Technology, Inc.
 
2010 04クラウド技術講座
2010 04クラウド技術講座2010 04クラウド技術講座
2010 04クラウド技術講座sisawa
 
OpenStack base public cloud service by GMO Internet Inc., at 2013/12/12 Okin...
OpenStack base public cloud service by GMO Internet Inc.,  at 2013/12/12 Okin...OpenStack base public cloud service by GMO Internet Inc.,  at 2013/12/12 Okin...
OpenStack base public cloud service by GMO Internet Inc., at 2013/12/12 Okin...Naoto Gohko
 
Google Compute EngineとPipe API
Google Compute EngineとPipe APIGoogle Compute EngineとPipe API
Google Compute EngineとPipe APImaruyama097
 
Google Compute EngineとGAE Pipeline API
Google Compute EngineとGAE Pipeline APIGoogle Compute EngineとGAE Pipeline API
Google Compute EngineとGAE Pipeline APImaruyama097
 
Oci file storage service deep dive 20181001 ss
Oci file storage service deep dive 20181001 ssOci file storage service deep dive 20181001 ss
Oci file storage service deep dive 20181001 ssKenichi Sonoda
 
Apache Bigtop3.2 (仮)(Open Source Conference 2022 Online/Hiroshima 発表資料)
Apache Bigtop3.2 (仮)(Open Source Conference 2022 Online/Hiroshima 発表資料)Apache Bigtop3.2 (仮)(Open Source Conference 2022 Online/Hiroshima 発表資料)
Apache Bigtop3.2 (仮)(Open Source Conference 2022 Online/Hiroshima 発表資料)NTT DATA Technology & Innovation
 
CloudStack概要と最新動向_JulyTechFesta
CloudStack概要と最新動向_JulyTechFestaCloudStack概要と最新動向_JulyTechFesta
CloudStack概要と最新動向_JulyTechFestasamemoon
 
Try andstudy cloud_20120509_nagoya
Try andstudy cloud_20120509_nagoyaTry andstudy cloud_20120509_nagoya
Try andstudy cloud_20120509_nagoyaEtsuji Nakai
 
Azure上の データベース 機能の選び方。KVSからDWHまで
Azure上の データベース 機能の選び方。KVSからDWHまでAzure上の データベース 機能の選び方。KVSからDWHまで
Azure上の データベース 機能の選び方。KVSからDWHまでDaisuke Masubuchi
 
Open stack reference architecture v1 2
Open stack reference architecture v1 2Open stack reference architecture v1 2
Open stack reference architecture v1 2Dell TechCenter Japan
 

Similar to 141030ceph (20)

[日本仮想化技術] 2014/6/5 OpenStack最新情報セミナー資料
[日本仮想化技術] 2014/6/5 OpenStack最新情報セミナー資料[日本仮想化技術] 2014/6/5 OpenStack最新情報セミナー資料
[日本仮想化技術] 2014/6/5 OpenStack最新情報セミナー資料
 
B 8スポンサー講演資料 osnexus steven umbehocker (アファーム・ビジネスパートナーズ株)
B 8スポンサー講演資料 osnexus steven umbehocker (アファーム・ビジネスパートナーズ株)B 8スポンサー講演資料 osnexus steven umbehocker (アファーム・ビジネスパートナーズ株)
B 8スポンサー講演資料 osnexus steven umbehocker (アファーム・ビジネスパートナーズ株)
 
B 8スポンサー講演資料 osnexus steven umbehocker (アファーム・ビジネスパートナーズ株)
B 8スポンサー講演資料 osnexus steven umbehocker (アファーム・ビジネスパートナーズ株)B 8スポンサー講演資料 osnexus steven umbehocker (アファーム・ビジネスパートナーズ株)
B 8スポンサー講演資料 osnexus steven umbehocker (アファーム・ビジネスパートナーズ株)
 
Cloudianの構築と運用の基礎 (Cloudian Summit 2012)
Cloudianの構築と運用の基礎 (Cloudian Summit 2012)Cloudianの構築と運用の基礎 (Cloudian Summit 2012)
Cloudianの構築と運用の基礎 (Cloudian Summit 2012)
 
SQL Server 使いのための Azure Synapse Analytics - Spark 入門
SQL Server 使いのための Azure Synapse Analytics - Spark 入門SQL Server 使いのための Azure Synapse Analytics - Spark 入門
SQL Server 使いのための Azure Synapse Analytics - Spark 入門
 
SaaS/クラウドコンピューティングでのオープンソース活用とセキュリティ
SaaS/クラウドコンピューティングでのオープンソース活用とセキュリティSaaS/クラウドコンピューティングでのオープンソース活用とセキュリティ
SaaS/クラウドコンピューティングでのオープンソース活用とセキュリティ
 
Red Hat OpenShift Container Storage
Red Hat OpenShift Container StorageRed Hat OpenShift Container Storage
Red Hat OpenShift Container Storage
 
[db tech showcase Tokyo 2015] D13:PCIeフラッシュで、高可用性高性能データベースシステム?! by 株式会社HGSTジ...
[db tech showcase Tokyo 2015] D13:PCIeフラッシュで、高可用性高性能データベースシステム?! by 株式会社HGSTジ...[db tech showcase Tokyo 2015] D13:PCIeフラッシュで、高可用性高性能データベースシステム?! by 株式会社HGSTジ...
[db tech showcase Tokyo 2015] D13:PCIeフラッシュで、高可用性高性能データベースシステム?! by 株式会社HGSTジ...
 
2010 04クラウド技術講座
2010 04クラウド技術講座2010 04クラウド技術講座
2010 04クラウド技術講座
 
OpenStack base public cloud service by GMO Internet Inc., at 2013/12/12 Okin...
OpenStack base public cloud service by GMO Internet Inc.,  at 2013/12/12 Okin...OpenStack base public cloud service by GMO Internet Inc.,  at 2013/12/12 Okin...
OpenStack base public cloud service by GMO Internet Inc., at 2013/12/12 Okin...
 
Google Compute EngineとPipe API
Google Compute EngineとPipe APIGoogle Compute EngineとPipe API
Google Compute EngineとPipe API
 
Google Compute EngineとGAE Pipeline API
Google Compute EngineとGAE Pipeline APIGoogle Compute EngineとGAE Pipeline API
Google Compute EngineとGAE Pipeline API
 
Oci file storage service deep dive 20181001 ss
Oci file storage service deep dive 20181001 ssOci file storage service deep dive 20181001 ss
Oci file storage service deep dive 20181001 ss
 
Apache Bigtop3.2 (仮)(Open Source Conference 2022 Online/Hiroshima 発表資料)
Apache Bigtop3.2 (仮)(Open Source Conference 2022 Online/Hiroshima 発表資料)Apache Bigtop3.2 (仮)(Open Source Conference 2022 Online/Hiroshima 発表資料)
Apache Bigtop3.2 (仮)(Open Source Conference 2022 Online/Hiroshima 発表資料)
 
EditShare システムの紹介
EditShare システムの紹介EditShare システムの紹介
EditShare システムの紹介
 
CloudStack概要と最新動向_JulyTechFesta
CloudStack概要と最新動向_JulyTechFestaCloudStack概要と最新動向_JulyTechFesta
CloudStack概要と最新動向_JulyTechFesta
 
Try andstudy cloud_20120509_nagoya
Try andstudy cloud_20120509_nagoyaTry andstudy cloud_20120509_nagoya
Try andstudy cloud_20120509_nagoya
 
Azure上の データベース 機能の選び方。KVSからDWHまで
Azure上の データベース 機能の選び方。KVSからDWHまでAzure上の データベース 機能の選び方。KVSからDWHまで
Azure上の データベース 機能の選び方。KVSからDWHまで
 
VIOPS03: VMware参考資料
VIOPS03: VMware参考資料VIOPS03: VMware参考資料
VIOPS03: VMware参考資料
 
Open stack reference architecture v1 2
Open stack reference architecture v1 2Open stack reference architecture v1 2
Open stack reference architecture v1 2
 

More from OSSラボ株式会社

ジョブストリーム紹介資料
ジョブストリーム紹介資料ジョブストリーム紹介資料
ジョブストリーム紹介資料OSSラボ株式会社
 
Site Reliability Engineering (SRE)を可能にするOpenPIEのご紹介
Site Reliability Engineering (SRE)を可能にするOpenPIEのご紹介Site Reliability Engineering (SRE)を可能にするOpenPIEのご紹介
Site Reliability Engineering (SRE)を可能にするOpenPIEのご紹介OSSラボ株式会社
 
CMDBuildを中心とした運用管理自動化基盤OpenPIEの事例紹介
CMDBuildを中心とした運用管理自動化基盤OpenPIEの事例紹介CMDBuildを中心とした運用管理自動化基盤OpenPIEの事例紹介
CMDBuildを中心とした運用管理自動化基盤OpenPIEの事例紹介OSSラボ株式会社
 
「今、ヨーロッパのオープンソースがアツい!」 クラウドの構成管理を自動化する基盤CMDBuild
「今、ヨーロッパのオープンソースがアツい!」クラウドの構成管理を自動化する基盤CMDBuild「今、ヨーロッパのオープンソースがアツい!」クラウドの構成管理を自動化する基盤CMDBuild
「今、ヨーロッパのオープンソースがアツい!」 クラウドの構成管理を自動化する基盤CMDBuildOSSラボ株式会社
 
Zabbix監視運用業務の自動化事例
Zabbix監視運用業務の自動化事例Zabbix監視運用業務の自動化事例
Zabbix監視運用業務の自動化事例OSSラボ株式会社
 
Excelからのクラウドオーケストレーション
ExcelからのクラウドオーケストレーションExcelからのクラウドオーケストレーション
ExcelからのクラウドオーケストレーションOSSラボ株式会社
 

More from OSSラボ株式会社 (20)

220523JS7.pdf
220523JS7.pdf220523JS7.pdf
220523JS7.pdf
 
JS7 JobScheduler プレビュー
JS7 JobScheduler プレビューJS7 JobScheduler プレビュー
JS7 JobScheduler プレビュー
 
201023 jobscheduler os_cfall
201023 jobscheduler os_cfall201023 jobscheduler os_cfall
201023 jobscheduler os_cfall
 
ジョブストリーム紹介資料
ジョブストリーム紹介資料ジョブストリーム紹介資料
ジョブストリーム紹介資料
 
191010 opie2
191010 opie2191010 opie2
191010 opie2
 
CMDBuild V.3 update [Japanese]
CMDBuild V.3 update [Japanese]CMDBuild V.3 update [Japanese]
CMDBuild V.3 update [Japanese]
 
180729 jtf open-audit
180729 jtf open-audit180729 jtf open-audit
180729 jtf open-audit
 
170827 jtf garafana
170827 jtf garafana170827 jtf garafana
170827 jtf garafana
 
NMIS overview
NMIS overviewNMIS overview
NMIS overview
 
JobSchedulerアップデート2016
JobSchedulerアップデート2016JobSchedulerアップデート2016
JobSchedulerアップデート2016
 
Site Reliability Engineering (SRE)を可能にするOpenPIEのご紹介
Site Reliability Engineering (SRE)を可能にするOpenPIEのご紹介Site Reliability Engineering (SRE)を可能にするOpenPIEのご紹介
Site Reliability Engineering (SRE)を可能にするOpenPIEのご紹介
 
160901 osce2016sre
160901 osce2016sre160901 osce2016sre
160901 osce2016sre
 
160724 jtf2016sre
160724 jtf2016sre160724 jtf2016sre
160724 jtf2016sre
 
Ansible2.0と実用例
Ansible2.0と実用例Ansible2.0と実用例
Ansible2.0と実用例
 
CMDBuildを中心とした運用管理自動化基盤OpenPIEの事例紹介
CMDBuildを中心とした運用管理自動化基盤OpenPIEの事例紹介CMDBuildを中心とした運用管理自動化基盤OpenPIEの事例紹介
CMDBuildを中心とした運用管理自動化基盤OpenPIEの事例紹介
 
「今、ヨーロッパのオープンソースがアツい!」 クラウドの構成管理を自動化する基盤CMDBuild
「今、ヨーロッパのオープンソースがアツい!」クラウドの構成管理を自動化する基盤CMDBuild「今、ヨーロッパのオープンソースがアツい!」クラウドの構成管理を自動化する基盤CMDBuild
「今、ヨーロッパのオープンソースがアツい!」 クラウドの構成管理を自動化する基盤CMDBuild
 
150726cmdbuild jtf2015
150726cmdbuild jtf2015150726cmdbuild jtf2015
150726cmdbuild jtf2015
 
CMDBuild Ready2Use紹介資料
CMDBuild Ready2Use紹介資料CMDBuild Ready2Use紹介資料
CMDBuild Ready2Use紹介資料
 
Zabbix監視運用業務の自動化事例
Zabbix監視運用業務の自動化事例Zabbix監視運用業務の自動化事例
Zabbix監視運用業務の自動化事例
 
Excelからのクラウドオーケストレーション
ExcelからのクラウドオーケストレーションExcelからのクラウドオーケストレーション
Excelからのクラウドオーケストレーション
 

Recently uploaded

論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...Toru Tamaki
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A surveyToru Tamaki
 
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略Ryo Sasaki
 
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Danieldanielhu54
 
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Yuma Ohgami
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムsugiuralab
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものですiPride Co., Ltd.
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdftaisei2219
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNetToru Tamaki
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)Hiroki Ichikura
 

Recently uploaded (10)

論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey
 
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
 
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Daniel
 
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システム
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdf
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
 

141030ceph

  • 1. 分散仮想ストレージシステム またはSoftware Defined Storage ご紹介資料 OSSラボ株式会社 2014/10/30 14/10/30Copyright 2014(C) OSS Laboratories Inc. All Rights 1 Reserved http://www.ossl.co.jp TWITTER: http://twitter.com/satoruf LINKEDIN: http://jp.linkedin.com/in/satorufunai/ja SLIDESHARE: http://www.slideshare.net/sfunai FACEBOOK: http://www.facebook.com/satoru.funai
  • 2. 仮想ストレージとは l 仮想ストレージの階層 l Disk Virtualization (ディスクの仮想化):論理ブロック(LBA) l Block Virtualization (ブロックの仮想化):LVM/RAID l File Virtualization (ファイルの仮想化):VFS l File System Virtualization (ファイルシステムの仮想化) (SNIA(Storage Network Industry Association)が作成したストレージ仮想化技術の分類) l ファイルシステムの仮想化: l クラスタ/グリッドファイルシステム/仮想ストレージ/Software Defined Storage, etc. l ユーザからはサーバや記憶装置の多様性と分散が隠蔽され、単なるボリュームや ファイルとして扱える透過性を持つ。 l 商⽤用製品例 l EMC ViPR, scaleIO l VMware VSAN l Datacore SANSymphony-V l NexentaStor l Cleversafe/Amplidata l 分散ファイルシステムは、レプリケーションによるフォールトトレラント性強化 を⽬目指したもの、並列化による性能強化を⽬目指したもの、両⽅方を同時に実現しよ うと設計されたものがある。 14/10/30 Copyright 2014(C) OSS Laboratories Inc. All Rights 2 Reserved
  • 3. 分散仮想ストレージのアーキテクチャ l メタデータ管理 l 集中管理型/分散管理型、フォールトトレランス、スケールアウト l ネーミング l データ格納場所とオブジェクトIDのマッピングアルゴリズム l クライアントアクセス l POSIX/FUSE/Block/REST l キャッシングと⼀一貫性保持 l WORM/Transactional locking/Leasing l レプリケーション/同期⽅方式 l 同期/⾮非同期、Read only/Read/Write、CAP定理、PAXOS l ロードバランス l データ偏在の⾃自動修正 l ⾃自⼰己修復機能(Self Healing) 14/10/30 Copyright 2014(C) OSS Laboratories Inc. All Rights 3 Reserved
  • 4. いろいろあります 14/10/30 Copyright 2014(C) OSS Laboratories Inc. All Rights Reserved 4 製品名 開発主体 ライセンス Amage クリエーションライン株式会社 プロプライエタリ Ceph Inktank LGPL2 Chiron FS luisfurquim@gmail.com GPL3 Cloudian クラウディアン株式会社 プロプライエタリ CloudStore/Kosmosfs/Quantcastfs Quantcast Apache License 2.0 Cosmos Microsoft internal 非公開 dCache DESY and others プロプライエタリ FraunhoferFS (FhGFS) Competence Center for High Performance Computing FhGFS license FS-Manager CDNetworks プロプライエタリ General Parallel File System(GPFS) IBM プロプライエタリ Gfarm file system 筑波大学/産業技術総合研究所 BSD GlusterFS Gluster, a company acquired by Red Hat GPL3 Google File System(GFS) Google 非公開 Hadoop Distributed File System ASF, Cloudera, Pivot, Hortonworks, WANdisco, Intel Apache License 2.0 IBRIX Fusion IBRIX プロプライエタリ LeoFS 楽天技術研究所 Apache License 2.0 Lustre originally developed byCluster File System and currently supported by Intel(formerly Whamcloud) GPL
  • 5. 分散ファイルシステムの種類 14/10/30 Copyright 2014(C) OSS Laboratories Inc. All Rights Reserved 5 分類概要例 分散ファイルシステム複数のホストがコンピュータネットワークを経 由して共有しつつファイルにアクセスすること を可能にする。複数のサーバ上に配置された ファイルを、論理的に構造化された 1つ以上の 名前空間で透過的にアクセスできる。 Amazon S3 Andrew File System (AFS) etc. 分散フォールト トレラント ファイルシステム データを複製する事により、分散ファイルシス テムを構成する要素に障害が発⽣生しても、デー タ喪失する事なくアクセスが継続できる。 Microsoft DFS Moose FS, etc. 分散並列 ファイルシステム データを細かく分割し、分散ファイルシステム 上の各ホストに分散配置する事により、性能を スケールアウトできる。 FraunhoferFS (FhGFS) PVFS/OrangeFS etc. 分散並列フォールト トレラント ファイルシステム 上記全ての機能を備えたファイルシステムCeph GlusterFS sheepdog, XtreemFS etc.
  • 6. Cephの歴史 6 RHEL-OSP Certification FEB 2014 OpenStack Integratio n 2011 MAY 2012 Launch of Inktank 2010 Mainline Linux Kernel Open Source 2006 2004 Project Starts at UCSC Production Ready Ceph SEPT 2012 Xen Integration 2013 2012 CloudStack Integration OCT 2013 Inktank Ceph Enterprise Launch APR 2014 Inktank Acquired by Red Hat Copyright © 2014 by Inktank
  • 7. Ceph開発者数の推移 14/10/30 Copyright 2014(C) OSS Laboratories Inc. All Rights Reserved 7
  • 8. Cephの特徴 l ベンダフリー l 汎⽤用PCサーバ/汎⽤用OS(Linux)を使⽤用 l 特別なハードウェア不要 l オープンソース l フォールトトレラント l スケールアウト l 汎⽤用プロトコル l POSIXファイルシステム l ブロックデバイス l REST(AWS S3/SWIFT互換) l WAN越しリモートレプリケーション(RGWのみ) l RW同期(LANのみ) 14/10/30 Copyright 2014(C) OSS Laboratories Inc. All Rights 8 Reserved
  • 9. Cephのアーキテクチャ APIKernel Client RADOS Reliable, Autonomous, Distributed Object Store MonitorsOSDsMDS MonitorsOSDsMDS MonitorsOSDsMDS vfs ブロックデバイ スドライバ ブロック デバイス 9 CephFS POSIX互換ファイ ルシステム Kernel-client及び FUSE-clientから 使⽤用できる Librados C, C++, java, Python, Ruby, PHP からRADOSに アクセスできるAPI ライブラリ RADOSGW (RADOS Gateway) AWS S3及び OpenStack SWIFT互換の REST APIを提供 するhttpプロキシ RBD (RADOS Block Device) Linuxカーネルか らRADOSをブロッ クデバイスとして 使⽤用できる ノード ブロック デバイス APIQEMU /KVM Kernel Client FUSE Client File system ノード File system vfs ブロックデバイ スドライバ ブロック デバイス ブロック デバイス
  • 10. CALAMARI 10 Copyright © 2014 by Inktank
  • 11. 従来型ストレージとの違い 14/10/30 従来型ストレージCephストレージ TCP/IPTCPが通れば Copyright 2014(C) OSS Laboratories Inc. All Rights Reserved 11 Hypervisor VM ⾼高価 VM VM FC/iSCSI SAN RAID ストレージ Hypervisor VM VM VM RAID ストレージ 筐体障害対応には ⼆二重化必要 スケールアップ 拡張に1ヶ⽉月? Hypervisor VM 安価 VM VM 汎⽤用サーバ Linux Hypervisor VM VM VM 汎⽤用サーバ Linux 筐体障害対応は、不要 (最低3台以上) スケールアウト 追加に数分 良い ローリング アップグレード 無停⽌止保守 FWアップ グレード時 停⽌止
  • 12. ブロックデバイスのマウント⽅方法 物理サーバ QEMU/KVM 14/10/30 物理サーバ Hypervisor VM Linux Kernel Kernel ClientClient librbd Copyright 2014(C) OSS Laboratories Inc. All Rights Reserved 12 RBD (RADOS Block Device) VM 物理サーバ Linux アプリケー ションアプリケー ション アプリケー ション Linuxページ キャッシュを使⽤用ユーザースペース モジュール LinuxのみサポートRBD Cacheを使⽤用 カーネルスペース モジュール Hypervisorの種類 は問わない VM OSの種類は 問わない Hypervisorの種類は QEMU/KVMのみ
  • 14. Erasure coding(イレージャーコーディング) l Erasure Coding:定訳はないが、「消失符号」あるいは「消失訂正符号」という訳語も⼀一 部で使われている。 l オブジェクトを分割して消失訂正符号を付加し、物理的に異なるノードに分散して格納す ることで、その分割したデータのいくつかが消失した場合でも、元のオブジェクトを復元 することができる⼿手法で、マイクロソフトのAzureストレージにも採⽤用されている技術。 l 実装の仕組みは複数のアルゴリズムが⽤用意されているが、⼀一般的にオブジェクトの容量に 対して20%~40%程度の符号を付加すれば良いことから、レプリケーション(複製)に⽐比 べ物理的なディスクの利⽤用効率(実効容量)が⾼高い。 l ただし、オブジェクトの書き込みの都度、符号化処理を⾏行行うので、パフォーマンスが劣化 する可能性があり、ディスクの利⽤用効率を優先する⼤大規模案件やパフォーマンスを要求し ないアーカイブ⽤用途などに適している。 Erasure Codingレプリケーション 利⽤用効率(2ディスク障害 での保証) 約140%200% CPU使⽤用率HighLow 読み書き速度遅い速い
  • 15. Replication vs ERASURE CODING 15 CEPH STORAGE CLUSTERCEPH STORAGE CLUSTER Full copies of stored objects One copy plus parity § Very high durability § Cost-effective durability § Quicker recovery § Expensive recovery Copyright © 2014 by Inktank
  • 16. Multi-site Replication オブジェクトストレージ(RADOSGW) のみ対応 l 物理的ロケーションの離れた別ク ラスターにメタデータとデータを 複製。 l 複製⽅方式は、マスター/スレーブ、 スレーブはRead Only l 複製先は複数可能 l ディザスタリカバリー⽤用のバック アップデータを保証する。 l ⼀一貫性はAP(Eventually consistency) 14/10/30 Copyright 2014(C) OSS Laboratories Inc. All Rights 16 Reserved
  • 17. Cephのユースケース Traditional 14/10/30 Ceph Target NAS Object Content Store (traditional NAS) Copyright 2014(C) OSS Laboratories Inc. All Rights Reserved 17 Virtualization and Private Cloud (traditional SAN/NAS) High Performance (traditional SAN) CapacityPerformance IT Cloud Application s XaaS Compute Cloud Open Source Block XaaS Content Store Open Source NAS/Object Ceph Target
  • 19. 共有ファイルシステム 19 Native Protocol Native Protocol Native Protocol Native Protocol Copyright © 2014 by Inktank
  • 20. バックアップ/コールド ストア CEPH STORAGE CLUSTER Copyright © 2014 by Inktank20
  • 21. 災害対策 21 CEPH STORAGE CLUSTERCEPH STORAGE CLUSTER Site ASite B Copyright © 2014 by Inktank
  • 22. VMイメージ 22 Native Protocol Native Protocol Native Protocol Native Protocol Copyright © 2014 by Inktank
  • 23. 参考情報 14/10/30 Copyright 2014(C) OSS Laboratories Inc. All Rights Reserved 23 http://www.mellanox.com/related-docs/whitepapers/ WP_Deploying_Ceph_over_High_Performance_Networks.pdf
  • 24. 参考情報 14/10/30 2,419MB/sec (8M Seq. READ) 110k IOPS (4k Seq. READ) Copyright 2014(C) OSS Laboratories Inc. All Rights Reserved 24
  • 25. Incremental Object size test One Client ‒ 180 OSDs, 1 x replicated pool Monitor Nodes Private Network (192.168.50) Client Node OSD Nodes Public Network (172.27.50) 3GB/s 1GB/s 12GB/s 6GB/s http://www.slideshare.net/Inktank_Ceph/06-ceph-day-october-8th-2014-smc?qid=34fdee3f-a686-4738-b0b1- a02032480876v=qf1b=from_search=5
  • 26. Incremental Object size test One Client ‒ 180 OSDs, 1 x erasure coded pool (k=4,m=2) Monitor Nodes Private Network (192.168.50) Client Node OSD Nodes Public Network (172.27.50) 3GB/s 1GB/s 12GB/s 6GB/s
  • 27. CEPH+OPENSTACKインテグレーション 27 VolumesEphemeral Copy-on-Write Snapshots RADOS CLUSTER
  • 28. OPENSTACK USER SURVEY, 05/2014 28 DEV / QAPROOF OF CONCEPTPRODUCTION
  • 29. Glance(イメージサービス)連携 RBD /etc/glance/glance-api.conf default_store=rbd rbd_store_user=glance rbd_store_pool=images Store, Download Glance Server Image
  • 30. Ceph COW clone l COW:Copy-on-write l ⾼高速なボリューム作成、低容量消費 14/10/30 Copyright 2014(C) OSS Laboratories Inc. All Rights Reserved 30 READ クライアント WRITE
  • 31. Cinderボリューム作成 l Ceph COW cloneを使⽤用するため、⾼高速 14/10/30 Copyright 2014(C) OSS Laboratories Inc. All Rights Reserved 31
  • 32. Cinder snapshot/backup on Ceph l CephのRBD Snapshotを使⽤用 l RBD snapshotは、読み込み専⽤用 l Snapshotから、ブート可能なボリュームを作成(COW clone) l Cinder backup on Ceph l 差分バックアップサポート(Ceph RBD snapshot) l 異なるPG(ラック/ゾーン)を指定 14/10/30 Copyright 2014(C) OSS Laboratories Inc. All Rights Reserved 32
  • 33. Cinder/Nova連携 ライブマイグレーション VM librbd RBD Nova/compute VM Libvirt (QEMU/KVM) Cinder Server VM Boot from volume ボリューム作成/接続 VolumeImage Copy-on-write clone librbd VM Libvirt (QEMU/KVM)
  • 34. SWIFT/Keystone連携 SWIFTのバックエンドとしてCeph RADOS GWを使⽤用 Keystone Server RADOSGW RESTful Object Store Query token Access with token Grant/revoke
  • 35. OpenstackでのCeph使いどころ プロダクション構成例 外部HA Proxy NW 14/10/30 Public管理ストレージ Ceph Copyright 2014(C) OSS Laboratories Inc. All Rights Reserved 35 l コントローラノード l RBDカーネルクライアントを使⽤用し、 下記ファイルをCeph上にマウント l データベースファイル l 各種テンポラリファイル l 各種設定ファイル l ログ l Cinder/Glance l 各コンピュートノードにlibrbdを設定 し、イメージ、ボリュームとして使⽤用 する l Swift l RADOS GWを使⽤用し、バックアップ 置き場とする HA Proxy コントローラ 10gb 同期 コントローラ Ceph ネットワーク Ceph ネットワーク コンピュート
  • 36. OpenStack+Cephのメリット l OpenStack 全体の可⽤用性の向上 l MySQL のデータさえダンプ取得すれば、 リストア可能 l OS イメージ・スナップショットは Ceph 上にあ るのでバックアップ不要 l Compute ノード上のインスタンスデータは Ceph のスナップショットから復旧 l Network ノードは分散・冗⻑⾧長可能、データのバッ クアップは不要 l 最⼩小構成(3ノード)から始めて、スケールアウ ト可能 14/10/30 Copyright 2014(C) OSS Laboratories Inc. All Rights Reserved 36
  • 37. OPENSTACK ADDITIONS l JUNO l Enable Cloning for rbd-backed ephemeral disks l KILO l Volume Migration from One Backend to Another l Implement proper snapshotting for Ceph-based ephemeral disks l Improve Backup in Cinder Copyright © 2014 by Inktank
  • 38. CoreOS とCeph l CoreOSとは l CoreOS は Alex Polvi が設⽴立立した会社であり、OS、新しい Linux Distribution である。OSS で公開されている。 l CoreOS は Google や Facebook などの環境を参考にしており、柔軟にスケールし、さらにはインフラ構築そのもの のプロセス⾃自体も効率よく合理的に⾏行行えるよう設計されている。 l また運⽤用、管理(セキュリティ)におけるコストを必要最低限に抑えるようにも考えられている。 l CoreOS の⼤大きな特徴 l ⼩小さくかつ堅牢なコア l 安全なアップデート l アプリケーションコンテナ ( Docker専⽤用 ) l クラスタリング l 分散システムツール l カスタマイズ可能な SDK l Docker環境ではDBファイル等を保存する永続データストアは、各ホストのローカ ルストレージに置いてしまうとコンテナがホストを移動できなくなってしまうので、 外部共有ストレージを使う必要がある l AWS/GCP等のパブリッククラウドでは、⽬目的に応じてストレージサービスを選べ ばいい訳だが、ローカル環境では耐障害性を考慮した外部共有ストレージを⽤用意す る必要がある l ⼀一番簡単なのは、Ceph-FUSEを使ってPOSIXファイルシステムとして直接マウン トする⽅方法だが、CoreOSでは423.0.0からCephブロックデバイスカーネルモ ジュールが追加された 14/10/30 Copyright 2014(C) OSS Laboratories Inc. All Rights Reserved 38
  • 39. CoreOS インテグレーション http://qiita.com/satoruf/items/437d634c70bb8e501b69 14/10/30 Kernel Client Kernel Client フェイルオーバ マウント Copyright 2014(C) OSS Laboratories Inc. All Rights Reserved 39 RBD (RADOS Block Device) CoreOS Docker コンテナ librbd CoreOS Docker コンテナ librbd /dev/rbd
  • 40. CEPH ROADMAP as of 2014/10 40 2014/11 2015/3? GiantHammerI-Release Copyright © 2014 by Inktank
  • 41. GIANT 41 § Tree frozen September 9 § 0.85 dev release includes § RDMA support groundwork § Improved SSD performance § Improvements to stand alone civetweb-based RGW frontend § New ‘osd blocked by’ command § 0.86 released 07 Oct (Giant RC) § Low level OSD debugging tool § Local repairable codes (LRC) § Librados locking refactor § MDS and mon improvements
  • 42. RBD 42 l Client-side caching l (Now enabled by default!) l New option that makes cache write-through until “flushed” l Eucalyptus support l https:// mdshaonimran.wordpress.com/ 2014/09/17/eucalyptus-block-storage- service-with-ceph-rbd/
  • 43. RGW 43 l Stand-alone civetweb front end l Civetweb ‒ embedded C/C+ + web server l No need for Apache overhead, dependencies, etc
  • 44. CEPHFS 44 l Lots of activity! l 1/3 of core team assigned here l A lot of outside commits l Inktank / Red Hat team using CephFS internally on QA infrastructure l Sanding rough edges l “Not Supported” vs “Not Ready” l Feedback encouraged
  • 45. CephFS Dogfooding l Using CephFS for internal build/test lab l 80 TB (80 x 1 TB HDDs, 10 hosts) l Old, crummy hardware with lots of failures l Linux kernel clients (ceph.ko, bleeding edge kernels) l Lots of good lessons l Several kernel bugs found l Recovery performance issues l Lots of painful admin processes identified l Several fat fingers, facepalms 14/10/30 Copyright 2014(C) OSS Laboratories Inc. All Rights Reserved 45
  • 46. 参考資料 l Openstack+Cephインテグレーション紹介 l http://www.slideshare.net/sfunai/openstackceph l Cephベンチマークをしました l http://www.slideshare.net/sfunai/ceph-33123790 l Openstack+Ceph設定ガイド l http://www.slideshare.net/sfunai/ openstackceph-39609805 l Ceph/GlusterFS/XtreemFSの検証報告 l https://s3-ap-northeast-1.amazonaws.com/cloudconductorwpupdate/whitepaper/ %E5%88%86%E6%95%A3%E3%83%95%E3%82%A1%E3%82%A4%E3%83%AB %E3%82%B7%E3%82%B9%E3%83%86%E3%83%A0%E3%81%AEWAN%E8%B6%8A %E3%81%88%E5%90%8C%E6%9C%9F%E3%83%AC%E3%83%97%E3%83%AA %E3%82%B1%E3%83%BC%E3%82%B7%E3%83%A7%E3%83%B3%E3%81%AE %E6%A4%9C%E8%A8%BC.pdf 14/10/30 Copyright 2014(C) OSS Laboratories Inc. All Rights Reserved 46
  • 47. ⽇日本Cephユーザー会 l メーリングリスト l https://groups.google.com/forum/#!forum/ ceph-jp l cephユーザー会で検索して下さい。 14/10/30 Copyright 2014(C) OSS Laboratories Inc. All Rights Reserved 47
  • 48. Cephアプライアンス登場!! 14/10/30 Copyright 2014(C) OSS Laboratories Inc. All Rights Reserved 最小構成標準価格(税別): 4,409万7,000円から 48