SlideShare a Scribd company logo
1 of 34
Download to read offline
Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.     1 
!    自己紹介
!    GlusterFSについて
!    GlusterFSとInfiniBand
!     検証してみた(ことがある)
!      まとめ


                Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.     2 
!    自己紹介
!    GlusterFSについて
!    GlusterFSとInfiniBand
!     検証してみた(ことがある)
!      まとめ


                Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.     3 
自己紹介


!    高橋敬祐  (  @keithseahus  )
!     ソフトウェア開発@NTTPC
!      分散ストレージ技術屋
!       自宅InfiniBander  (DDR)




                  Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.     4 
!    自己紹介
!    GlusterFSについて
!    GlusterFSとInfiniBand
!     検証してみた(ことがある)
!      まとめ


                Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.     5 
GlusterFSについて


!  分散ファイルシステム
  v3.3からは”Unified  File  and  Object  
  Storage”
!  オープンソース
  https://github.com/gluster/glusterfs
! RedHatが買収
  開発はコミュニティベースで継続


                      Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.     6 
GlusterFSについて

世界2位の性能を達成したスパコンの開発者たちと、インド人の開発コミュニティ。




                       Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.     7 
GlusterFSについて

                              システム全体でのシーケンス
各機能がモジュールで実装されている
のがポイント。

 OS上でのシーケンス




          ※古い図なので、現行バージョンとは実装が若干異なります。                                                                    8 
                          Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.  
!    自己紹介
!    GlusterFSについて
!    GlusterFSとInfiniBand
!     検証してみた(ことがある)
!      まとめ


                Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.     9 
GlusterFSとInfiniBand


!  オープンソース当初のリリース
  (v1.3.0)から対応
!  IB-VERBs  APIでRDMAでのデー
  タトランスポートを実現
!  クライアントとサーバのトランス
  ポート用モジュール内でTCPから
  RDMAに切り替えるだけ
                     Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.     10 
GlusterFSとInfiniBand


protocol/clientモジュール定義と…
    protocol/serverモジュール定義を…
                     下記のように変更するだけ
volume volume01-client-0
  volume protocol/client
    type volume01-server
    option remote-host server01
      type protocol/server
    option remote-subvolume /mnt/gluster
      option transport-type rdma
    option transport-type rdma
      option auth.addr./mnt/gluster.allow *
end-volume
      subvolumes /mnt/gluster
  end-volume
                         Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.     11 
GlusterFSとInfiniBand


protocol/clientモジュール定義と…
    protocol/serverモジュール定義を…
                     下記のように変更するだけ
           !    CAUTION!
volume volume01-client-0
           3.1以降のバージョンでは
    type protocol/client
  volume volume01-server
    option設定ファイルをエディタ等で
      type remote-host server01
             protocol/server
         勝手に書き換えないで下さい
    option remote-subvolume /mnt/gluster
      option transport-type rdma
    option transport-type rdma
      option auth.addr./mnt/gluster.allow *
end-volume
      subvolumes /mnt/gluster
  end-volume
                         Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.     12 
GlusterFSとInfiniBand


volumeを作る際にコマンド引数で定義しましょう



# gluster volume create volume01 
replica 2 
transport rdma 
server01:/mnt/gluster 
server02:/mnt/gluster


                        Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.     13 
!    自己紹介
!    GlusterFSについて
!    GlusterFSとInfiniBand
!     検証してみた(ことがある)
!      まとめ


                Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.     14 
検証環境1(Gigabit Ethernet)                                    ※2010年当時の情報です。




                                                                                      サーバ
                                                                                      CPU: Intel(R) Xeon(R)
                                                                                      E5405 @ 2.00GHz
                                                                                      L2: 12MB
                                                                                      RAM: 1GB
                          client01
                                                                                      GbE L2スイッチ
              GbE
              Segment A
                            GbE
                            Segment B
                                        GbE
                                        Segment C
                                                                                      Throughput: 1Gbps /
                                                                                      port
switch01                  switch02                     switch03
                                                                                      サーバ
  GbE
  Segment A
                            GbE
                            Segment B
                                                           GbE
                                                           Segment C
                                                                                      CPU: Intel(R) Xeon(R)
                                                                                      E5405 @ 2.00GHz
                                                                                      L2: 12MB
                                                                                      RAM: 1GB
storage01                 storage02                   storage03
                                                                                      HDD: SATA 6.7TB
                                                                                      RAID5




                                           Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.     15 
検証環境2(IB, Coreアーキテクチャ)                                        ※2010年当時の情報です。




                                                                                       サーバ
                                                                                       CPU1: Intel Xeon E5504
                                                                                       @ 2.00GHz ×2
                                                                                       RAM: 72GB
                                                                                       HCA: 40Gbps ×2
                        client02
                                                                                       IB L2スイッチ
                   IB              IB
                   QDR 4x          QDR 4x                                              Throughput: 40Gbps /
                                                                                       port
                        switch04
        IB                                        IB
        QDR 4x   サーバ                              QDR 4x                               サーバ
                 CPU: Intel(R) Xeon(R)                                                 CPU: Intel(R) Xeon(R)
                 E5405 @ 2.00GHz                                                       E5405 @ 2.00GHz
storage04        L2: 12MB                              storage05                       L2: 12MB
                 RAM: 10GB                                                             RAM: 8GB
                 HDD: 2.1TB RAID5                                                      HDD: SATA 2.1TB
                 HCA: 40Gbps                                                           RAID5
                                                                                       HCA: 40Gbps




                                            Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.     16 
検証環境3(IB, Nehalemアーキテクチャ)                        ※2010年当時の情報です。




                                                            サーバ
                                                            CPU1: Intel Xeon E5504
                                                            @ 2.00GHz ×2
                                                            RAM: 72GB
       client02                                             HCA: 40Gbps ×2

        IB
        QDR 4x
                                                            IB L2スイッチ
                                                            Throughput: 40Gbps /
       switch04                                             port
        IB
        QDR 4x
                                                            サーバ
                                                            CPU: Intel(R) Xeon(R)
       storage06                                            E5620 @ 2.40GHz ×2
                                                            L2: 12MB
                                                            RAM: 6GB
                                                            HCA: 40Gbps
                                                            HDD: SATA 0.9 TB RAID5




                                                                                   17
                   Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.     17 
検証環境4(その他)                                          ※2010年当時の情報です。


本検証のデータと比較するため、一部検証において、以下のマシンに関するデータを取得した。


berga-dalas (自作IAサーバ)
CPU: Intel Core i7 920 2.66 GHz
メモリ: DDR3 1333MHz, 12 GB (2GB×6)
ストレージ: 3.5インチ SATA HDD 500 GB ×2基
ネットワーク: Gigabit Ethernet ×5ポート
(オンボード×1, IntelデュアルポートNIC×2)




zwei (ベアボーンPC)
CPU: Intel Atom 330 2.00 GHz
メモリ: DDR2 533MHz, 2GB (2GB×1)
ストレージ: 2.5インチ SATA SSD 32 GB
ネットワーク: Gigabit Ethernet ×1ポート
(オンボード)


                                 Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.     18 
参考: CoreとNehalem                                                                                    ※2010年当時の情報です。

                                 FSB (Front Side Bus)                                   QPI (QuickPath Interconnect)
               メモリ制御             チップセット                                                 メモリコントローラ内蔵CPU
               伝送方式              パラレル                                                   シリアル
                                 共有バス                                                   デファレンシャル信号による
                                                                                        片方向ポイントツーポイント
               インターコネクト          5.3 GBytes/sec (667MHzの場合)                             19.2 GBytes/sec ※1
               速度                (最大10.6 GB/sec)                                        (最大25.6 GBytes/sec) ※2

Intel Coreマイクロアーキテクチャ                                                   ※1 計算式は以下の通り。                                     Intel Nehalemマイクロアーキテクチャ
                                                                        2.4 Giga-Transfers/sec
                                                                        ×2 bits/Hz (double data rate)
                                                                        ×20 (QPI link width)
                                                                        × (64/80) (data bits/flit bits)
                                                                        ×2 (two links to achieve bidirectionality)
                                                                        / 8 (bits/byte)


                                                                        ※2 ハイエンドCPUでは
                                                                        QPI Link Speedが
 5.3 GBytes/
 sec
                                                                        最大で3.2 ×2 = 6.4 Giga-Transfers/sec
                                                                        となる。
                                                                                                                               19.2 GBytes/
                                                                                                                               sec




                                   32 Gbps
                                   (= 4 GBytes/sec)                    InfiniBand HCA



                                                                                                40 Gbps
                          1.5 GBytes/sec                                                        (= 5 GBytes/sec)
                          (150 MBytes/sec×10)
                                                                                                                                                          32 Gbps
                                                                                                                                                          (= 4 GBytes/sec)


                                                                                                                                3.0 GBytes/sec (300 MBytes/
                                                                                                                                sec×10)

                               出典: Intel 5100 Chipset ( http://ark.intel.com/chipset.aspx?familyID=32717 ), Intel 5520 Chipset ( http://ark.intel.com/chipset.aspx?familyID=32423 )

                                                                                Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.                    19 
!    自己紹介
!    GlusterFSについて
!    GlusterFSとInfiniBand
!     検証してみた(ことがある)
!      まとめ 1. メモリ・バス性能測定
          2. InfiniBand RDMA性能測定
          3. GlusterFS RDMA性能測定

                 Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.     20 
メモリ・バス性能測定                                   ※2010年当時の情報です。


“stream”を使用した、メモリ内単純データコピー速度の測定。

            全体の帯域幅                                         本検証における
                           Nehalem                         CPU数×CPUコ
                           アーキテク                           ア数×HTスレッド
                           チャ                              数の範囲




                    Core(又はそ
                    れ以前の)アー
                    キテクチャ




                Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.     21 
メモリ・バス性能測定                                       ※2010年当時の情報です。


Nehalemでは、マルチコアがマルチスレッドでの並列I/O処理性能に貢献していることがわかる。

            シングルスレッド時の速度に対するスレッドあたり速度比の推移




                           Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.     22 
!    自己紹介
!    GlusterFSについて
!    GlusterFSとInfiniBand
!     検証してみた(ことがある)
!      まとめ 1. メモリ・バス性能測定
          2. InfiniBand RDMA性能測定
          3. GlusterFS RDMA性能測定

                 Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.     23 
InfiniBand RDMA性能測定                                           ※2010年当時の情報です。


            “qperf”を使用した、RC_RDMAでの書き込み速度の測定。




                        client02
                        2.78 GB/sec
                   IB              IB
                   QDR 4x          QDR 4x


                        switch04
              1.55 GB/sec                    1.67 GB/sec
        IB                                        IB
        QDR 4x    1.67 GB/sec                     QDR 4x




storage04                   1.55 GB/sec                storage05
1.50 GB/sec      1.55 MB/sec                           1.50 GB/sec




                                            Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.     24 
InfiniBand RDMA性能測定                              ※2010年当時の情報です。


 “qperf”を使用した、RC_RDMAでの書き込み速度の測定。
NehalemはCoreアーキテクチャの2倍以上の性能となっている。




        client02
         IB
         QDR 4x


        switch04
         IB
         QDR 4x   3.38 GB/sec
        storage06




                    Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.     25 
!    自己紹介
!    GlusterFSについて
!    GlusterFSとInfiniBand
!     検証してみた(ことがある)
!      まとめ 1. メモリ・バス性能測定
          2. InfiniBand RDMA性能測定
          3. GlusterFS RDMA性能測定

                 Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.     26 
GlusterFS RDMA性能測定                              ※2010年当時の情報です。


Coreアーキテクチャ (Gigabit Ethernet)     Nehalemアーキテクチャ (Gigabit Ethernet)




       Seq. Write                                Seq. Write
       Med. 115.294 MB/sec                       Med. 116.168 MB/sec




       Seq. Read                                   Seq. Read
       Med. 114.914 MB/sec                         Med. 114.882 MB/sec




                                 Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.     27 
GlusterFS RDMA性能測定                           ※2010年当時の情報です。


Coreアーキテクチャ (IB RDMA)         Nehalemアーキテクチャ (IB RDMA)




      Seq. Write                             Seq. Write
      Med. 173.310 MB/sec                    Med. 170.393 MB/sec




      Seq. Read                               Seq. Read
      Med. 389.863 MB/sec                     Med. 828.014 MB/sec




                            Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.     28 
GlusterFS RDMA性能測定                           ※2010年当時の情報です。


Nehalemアーキテクチャ (IB RDMA)      Nehalemアーキテクチャ (IPoIB)




      Seq. Write                               Seq. Write
      Med. 170.393 MB/sec                      Med. 171.841 MB/sec




      Seq. Read                                 Seq. Read
      Med. 828.014 MB/sec                       Med. 428.418 MB/sec




                            Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.     29 
もう一度、この図。

                           システム全体でのシーケンス
RDMAの導入効果は確かにある。しかし、
高速化したのは全シーケンスのうちの一
部分だけ。
 OS上でのシーケンス




          ※古い図なので、現行バージョンとは実装が若干異なります。                                                                 30 
                       Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.  
GlusterFSの性能に関する補足(フォロー)

当然、ストレージサーバを追加すればトータルのスループットが向上します。




                                                                                    処理A
                                                                                    処理B




                  Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.     31 
!    自己紹介
!    GlusterFSについて
!    GlusterFSとInfiniBand
!     検証してみた(ことがある)
!      まとめ


                Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.     32 
まとめ


! GlusterFSはInfiniBand  RDMAをサポートし
   ています。
!  Nehalem以降のアーキテクチャでは、RDMA
   での読み書き速度が大幅アップしています。
! GlusterFSでもRDMAの恩恵は大きいですが、
   実際のところゼロコピーではなく、オーバー
   ヘッドも大きいので、ネイティブなRDMAほど
   の速度は出ません。
!  でも、「ネットワーク負荷ガー」と嘆くぐらいな
   ら、InfiniBandの導入をおすすめします。

                 Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.     33 
PR


!  分散ストレージに関するご用命は、こちらの
   メールアドレスまで!
   storage-contact@nttpc.co.jp
! LinuxCon  Japan  2011  Gluster  Workshop
  で講演します!
   https://events.linuxfoundation.org/
   events/linuxcon-japan/ovirt-gluster-
   workshops
!  過去のプレゼン資料はこちら。
   http://www.slideshare.net/keithseahus
                      Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.     34 

More Related Content

What's hot

hitach flora 220fx 9911
hitach flora 220fx 9911hitach flora 220fx 9911
hitach flora 220fx 9911u_0
 
ネットワークプログラマビリティ勉強会
ネットワークプログラマビリティ勉強会ネットワークプログラマビリティ勉強会
ネットワークプログラマビリティ勉強会Tomoya Hibi
 
プロトコル変換ゲートウェイPTGWの 実証実験と評価
プロトコル変換ゲートウェイPTGWの実証実験と評価プロトコル変換ゲートウェイPTGWの実証実験と評価
プロトコル変換ゲートウェイPTGWの 実証実験と評価Takashi Kishida
 
Running lagopus on Xeon D
Running lagopus on Xeon DRunning lagopus on Xeon D
Running lagopus on Xeon DMasaru Oki
 
ネットワーク通信入門
ネットワーク通信入門ネットワーク通信入門
ネットワーク通信入門Yuki Suga
 
Osc2018tokyo spring-20180224
Osc2018tokyo spring-20180224Osc2018tokyo spring-20180224
Osc2018tokyo spring-20180224Tomoya Hibi
 
MAP 実装してみた
MAP 実装してみたMAP 実装してみた
MAP 実装してみたMasakazu Asama
 
ハードウェア技術の動向 2015/02/02
ハードウェア技術の動向 2015/02/02ハードウェア技術の動向 2015/02/02
ハードウェア技術の動向 2015/02/02maruyama097
 
NVIDIA TESLA V100・CUDA 9 のご紹介
NVIDIA TESLA V100・CUDA 9 のご紹介NVIDIA TESLA V100・CUDA 9 のご紹介
NVIDIA TESLA V100・CUDA 9 のご紹介NVIDIA Japan
 
Tremaで試すFirewall
Tremaで試すFirewallTremaで試すFirewall
Tremaで試すFirewallM Hagiwara
 
SDN Japan: ovs-hw
SDN Japan: ovs-hwSDN Japan: ovs-hw
SDN Japan: ovs-hwykuga
 
DPDKによる高速コンテナネットワーキング
DPDKによる高速コンテナネットワーキングDPDKによる高速コンテナネットワーキング
DPDKによる高速コンテナネットワーキングTomoya Hibi
 
Lagopus workshop@Internet weekのそば
Lagopus workshop@Internet weekのそばLagopus workshop@Internet weekのそば
Lagopus workshop@Internet weekのそばYoshihiro Nakajima
 
FPGA+SoC+Linux実践勉強会資料
FPGA+SoC+Linux実践勉強会資料FPGA+SoC+Linux実践勉強会資料
FPGA+SoC+Linux実践勉強会資料一路 川染
 
Linux Kernel Seminar in tripodworks
Linux Kernel Seminar in tripodworksLinux Kernel Seminar in tripodworks
Linux Kernel Seminar in tripodworkstripodworks
 

What's hot (20)

hitach flora 220fx 9911
hitach flora 220fx 9911hitach flora 220fx 9911
hitach flora 220fx 9911
 
ネットワークプログラマビリティ勉強会
ネットワークプログラマビリティ勉強会ネットワークプログラマビリティ勉強会
ネットワークプログラマビリティ勉強会
 
プロトコル変換ゲートウェイPTGWの 実証実験と評価
プロトコル変換ゲートウェイPTGWの実証実験と評価プロトコル変換ゲートウェイPTGWの実証実験と評価
プロトコル変換ゲートウェイPTGWの 実証実験と評価
 
Running lagopus on Xeon D
Running lagopus on Xeon DRunning lagopus on Xeon D
Running lagopus on Xeon D
 
ネットワーク通信入門
ネットワーク通信入門ネットワーク通信入門
ネットワーク通信入門
 
不揮発WALバッファ
不揮発WALバッファ不揮発WALバッファ
不揮発WALバッファ
 
Osc2018tokyo spring-20180224
Osc2018tokyo spring-20180224Osc2018tokyo spring-20180224
Osc2018tokyo spring-20180224
 
MAP 実装してみた
MAP 実装してみたMAP 実装してみた
MAP 実装してみた
 
ハードウェア技術の動向 2015/02/02
ハードウェア技術の動向 2015/02/02ハードウェア技術の動向 2015/02/02
ハードウェア技術の動向 2015/02/02
 
Lagos running on small factor machine
Lagos running on small factor machineLagos running on small factor machine
Lagos running on small factor machine
 
V6 unix vol.2 in okinawa
V6 unix vol.2 in okinawaV6 unix vol.2 in okinawa
V6 unix vol.2 in okinawa
 
Kernel vm-2014-05-25
Kernel vm-2014-05-25Kernel vm-2014-05-25
Kernel vm-2014-05-25
 
NVIDIA TESLA V100・CUDA 9 のご紹介
NVIDIA TESLA V100・CUDA 9 のご紹介NVIDIA TESLA V100・CUDA 9 のご紹介
NVIDIA TESLA V100・CUDA 9 のご紹介
 
Tremaで試すFirewall
Tremaで試すFirewallTremaで試すFirewall
Tremaで試すFirewall
 
SDN Japan: ovs-hw
SDN Japan: ovs-hwSDN Japan: ovs-hw
SDN Japan: ovs-hw
 
DPDKによる高速コンテナネットワーキング
DPDKによる高速コンテナネットワーキングDPDKによる高速コンテナネットワーキング
DPDKによる高速コンテナネットワーキング
 
Lagopus workshop@Internet weekのそば
Lagopus workshop@Internet weekのそばLagopus workshop@Internet weekのそば
Lagopus workshop@Internet weekのそば
 
Dpdk pmd
Dpdk pmdDpdk pmd
Dpdk pmd
 
FPGA+SoC+Linux実践勉強会資料
FPGA+SoC+Linux実践勉強会資料FPGA+SoC+Linux実践勉強会資料
FPGA+SoC+Linux実践勉強会資料
 
Linux Kernel Seminar in tripodworks
Linux Kernel Seminar in tripodworksLinux Kernel Seminar in tripodworks
Linux Kernel Seminar in tripodworks
 

Viewers also liked

Big Data入門に見せかけたFluentd入門
Big Data入門に見せかけたFluentd入門Big Data入門に見せかけたFluentd入門
Big Data入門に見せかけたFluentd入門Keisuke Takahashi
 
IIJにおけるGlusterFS利用事例 GlusterFSの詳解と2年間の運用ノウハウ
IIJにおけるGlusterFS利用事例 GlusterFSの詳解と2年間の運用ノウハウIIJにおけるGlusterFS利用事例 GlusterFSの詳解と2年間の運用ノウハウ
IIJにおけるGlusterFS利用事例 GlusterFSの詳解と2年間の運用ノウハウIIJ
 
クラウドで消耗してませんか?
クラウドで消耗してませんか?クラウドで消耗してませんか?
クラウドで消耗してませんか?IIJ
 
パーフェクト"Elixir情報収集"
パーフェクト"Elixir情報収集"パーフェクト"Elixir情報収集"
パーフェクト"Elixir情報収集"Keisuke Takahashi
 
分散ストレージソフトウェアCeph・アーキテクチャー概要
分散ストレージソフトウェアCeph・アーキテクチャー概要分散ストレージソフトウェアCeph・アーキテクチャー概要
分散ストレージソフトウェアCeph・アーキテクチャー概要Etsuji Nakai
 
Jetson TK1でSemi-Global Matching
Jetson TK1でSemi-Global MatchingJetson TK1でSemi-Global Matching
Jetson TK1でSemi-Global MatchingRyo Sakamoto
 
音声認識の基礎
音声認識の基礎音声認識の基礎
音声認識の基礎Akinori Ito
 

Viewers also liked (7)

Big Data入門に見せかけたFluentd入門
Big Data入門に見せかけたFluentd入門Big Data入門に見せかけたFluentd入門
Big Data入門に見せかけたFluentd入門
 
IIJにおけるGlusterFS利用事例 GlusterFSの詳解と2年間の運用ノウハウ
IIJにおけるGlusterFS利用事例 GlusterFSの詳解と2年間の運用ノウハウIIJにおけるGlusterFS利用事例 GlusterFSの詳解と2年間の運用ノウハウ
IIJにおけるGlusterFS利用事例 GlusterFSの詳解と2年間の運用ノウハウ
 
クラウドで消耗してませんか?
クラウドで消耗してませんか?クラウドで消耗してませんか?
クラウドで消耗してませんか?
 
パーフェクト"Elixir情報収集"
パーフェクト"Elixir情報収集"パーフェクト"Elixir情報収集"
パーフェクト"Elixir情報収集"
 
分散ストレージソフトウェアCeph・アーキテクチャー概要
分散ストレージソフトウェアCeph・アーキテクチャー概要分散ストレージソフトウェアCeph・アーキテクチャー概要
分散ストレージソフトウェアCeph・アーキテクチャー概要
 
Jetson TK1でSemi-Global Matching
Jetson TK1でSemi-Global MatchingJetson TK1でSemi-Global Matching
Jetson TK1でSemi-Global Matching
 
音声認識の基礎
音声認識の基礎音声認識の基礎
音声認識の基礎
 

Similar to GlusterFSとInfiniBandの小話

プログラマ目線から見たRDMAのメリットと その応用例について
プログラマ目線から見たRDMAのメリットとその応用例についてプログラマ目線から見たRDMAのメリットとその応用例について
プログラマ目線から見たRDMAのメリットと その応用例についてMasanori Itoh
 
ワンチップAndroidの紹介(ABC2013s)
ワンチップAndroidの紹介(ABC2013s)ワンチップAndroidの紹介(ABC2013s)
ワンチップAndroidの紹介(ABC2013s)博宣 今村
 
cloudpackサーバ仕様書(サンプル)
cloudpackサーバ仕様書(サンプル)cloudpackサーバ仕様書(サンプル)
cloudpackサーバ仕様書(サンプル)iret, Inc.
 
透過 L2 BRIDGE NAT
透過 L2 BRIDGE NAT透過 L2 BRIDGE NAT
透過 L2 BRIDGE NATh-otter
 
低遅延10Gb EthernetによるGPUクラスタの構築と性能向上手法について
低遅延10Gb EthernetによるGPUクラスタの構築と性能向上手法について低遅延10Gb EthernetによるGPUクラスタの構築と性能向上手法について
低遅延10Gb EthernetによるGPUクラスタの構築と性能向上手法についてAtsushi Suzuki
 
RDMA for Windows Server 2012
RDMA for Windows Server 2012RDMA for Windows Server 2012
RDMA for Windows Server 2012Naoto MATSUMOTO
 
Openstack neutron vtjseminar_20160302
Openstack neutron vtjseminar_20160302Openstack neutron vtjseminar_20160302
Openstack neutron vtjseminar_20160302Takehiro Kudou
 
Lagopusで試すL3ルーティング + α (Lagopusの設定方法いろいろ)
Lagopusで試すL3ルーティング + α (Lagopusの設定方法いろいろ)Lagopusで試すL3ルーティング + α (Lagopusの設定方法いろいろ)
Lagopusで試すL3ルーティング + α (Lagopusの設定方法いろいろ)Tomoya Hibi
 
SMFを用いたVyatta構成管理システムの開発
SMFを用いたVyatta構成管理システムの開発SMFを用いたVyatta構成管理システムの開発
SMFを用いたVyatta構成管理システムの開発SEIL SMF
 
『どうする?どうやる? データセンター間ネット ワーク』 - 802.1aq(SPB)/TRILL@JANOG29
『どうする?どうやる?  データセンター間ネット ワーク』 - 802.1aq(SPB)/TRILL@JANOG29『どうする?どうやる?  データセンター間ネット ワーク』 - 802.1aq(SPB)/TRILL@JANOG29
『どうする?どうやる? データセンター間ネット ワーク』 - 802.1aq(SPB)/TRILL@JANOG29Yukihiro Kikuchi
 
知っているようで知らないNeutron -仮想ルータの冗長と分散- - OpenStack最新情報セミナー 2016年3月
知っているようで知らないNeutron -仮想ルータの冗長と分散- - OpenStack最新情報セミナー 2016年3月 知っているようで知らないNeutron -仮想ルータの冗長と分散- - OpenStack最新情報セミナー 2016年3月
知っているようで知らないNeutron -仮想ルータの冗長と分散- - OpenStack最新情報セミナー 2016年3月 VirtualTech Japan Inc.
 
ネットワークプロトコル探索隊 LLDP-Link Layer Discovery Protocol-
ネットワークプロトコル探索隊 LLDP-Link Layer Discovery Protocol-ネットワークプロトコル探索隊 LLDP-Link Layer Discovery Protocol-
ネットワークプロトコル探索隊 LLDP-Link Layer Discovery Protocol-ZenSekibe
 
【たぶん日本初導入!】Azure Stack Hub with GPUの性能と機能紹介
【たぶん日本初導入!】Azure Stack Hub with GPUの性能と機能紹介【たぶん日本初導入!】Azure Stack Hub with GPUの性能と機能紹介
【たぶん日本初導入!】Azure Stack Hub with GPUの性能と機能紹介NTT Communications Technology Development
 
Lagopus Project (Open Source Conference)
Lagopus Project (Open Source Conference)Lagopus Project (Open Source Conference)
Lagopus Project (Open Source Conference)Tomoya Hibi
 
[db tech showcase Tokyo 2014] B23: SSDとHDDの混在環境でのOracleの超効率的利用方法 by 株式会社日立製作...
[db tech showcase Tokyo 2014] B23: SSDとHDDの混在環境でのOracleの超効率的利用方法  by 株式会社日立製作...[db tech showcase Tokyo 2014] B23: SSDとHDDの混在環境でのOracleの超効率的利用方法  by 株式会社日立製作...
[db tech showcase Tokyo 2014] B23: SSDとHDDの混在環境でのOracleの超効率的利用方法 by 株式会社日立製作...Insight Technology, Inc.
 
Lagopus & NFV with Vhost (Tremaday#9)
Lagopus & NFV with Vhost (Tremaday#9)Lagopus & NFV with Vhost (Tremaday#9)
Lagopus & NFV with Vhost (Tremaday#9)Tomoya Hibi
 
GPUディープラーニング最新情報
GPUディープラーニング最新情報GPUディープラーニング最新情報
GPUディープラーニング最新情報ReNom User Group
 
[db tech showcase Sapporo 2015] A12:DBAが知っておくべき最新テクノロジー: フラッシュ, ストレージ, クラウド b...
[db tech showcase Sapporo 2015] A12:DBAが知っておくべき最新テクノロジー: フラッシュ, ストレージ, クラウド b...[db tech showcase Sapporo 2015] A12:DBAが知っておくべき最新テクノロジー: フラッシュ, ストレージ, クラウド b...
[db tech showcase Sapporo 2015] A12:DBAが知っておくべき最新テクノロジー: フラッシュ, ストレージ, クラウド b...Insight Technology, Inc.
 

Similar to GlusterFSとInfiniBandの小話 (20)

プログラマ目線から見たRDMAのメリットと その応用例について
プログラマ目線から見たRDMAのメリットとその応用例についてプログラマ目線から見たRDMAのメリットとその応用例について
プログラマ目線から見たRDMAのメリットと その応用例について
 
ワンチップAndroidの紹介(ABC2013s)
ワンチップAndroidの紹介(ABC2013s)ワンチップAndroidの紹介(ABC2013s)
ワンチップAndroidの紹介(ABC2013s)
 
cloudpackサーバ仕様書(サンプル)
cloudpackサーバ仕様書(サンプル)cloudpackサーバ仕様書(サンプル)
cloudpackサーバ仕様書(サンプル)
 
透過 L2 BRIDGE NAT
透過 L2 BRIDGE NAT透過 L2 BRIDGE NAT
透過 L2 BRIDGE NAT
 
低遅延10Gb EthernetによるGPUクラスタの構築と性能向上手法について
低遅延10Gb EthernetによるGPUクラスタの構築と性能向上手法について低遅延10Gb EthernetによるGPUクラスタの構築と性能向上手法について
低遅延10Gb EthernetによるGPUクラスタの構築と性能向上手法について
 
RDMA for Windows Server 2012
RDMA for Windows Server 2012RDMA for Windows Server 2012
RDMA for Windows Server 2012
 
Lagopus Router
Lagopus RouterLagopus Router
Lagopus Router
 
Openstack neutron vtjseminar_20160302
Openstack neutron vtjseminar_20160302Openstack neutron vtjseminar_20160302
Openstack neutron vtjseminar_20160302
 
Lagopusで試すL3ルーティング + α (Lagopusの設定方法いろいろ)
Lagopusで試すL3ルーティング + α (Lagopusの設定方法いろいろ)Lagopusで試すL3ルーティング + α (Lagopusの設定方法いろいろ)
Lagopusで試すL3ルーティング + α (Lagopusの設定方法いろいろ)
 
SMFを用いたVyatta構成管理システムの開発
SMFを用いたVyatta構成管理システムの開発SMFを用いたVyatta構成管理システムの開発
SMFを用いたVyatta構成管理システムの開発
 
『どうする?どうやる? データセンター間ネット ワーク』 - 802.1aq(SPB)/TRILL@JANOG29
『どうする?どうやる?  データセンター間ネット ワーク』 - 802.1aq(SPB)/TRILL@JANOG29『どうする?どうやる?  データセンター間ネット ワーク』 - 802.1aq(SPB)/TRILL@JANOG29
『どうする?どうやる? データセンター間ネット ワーク』 - 802.1aq(SPB)/TRILL@JANOG29
 
知っているようで知らないNeutron -仮想ルータの冗長と分散- - OpenStack最新情報セミナー 2016年3月
知っているようで知らないNeutron -仮想ルータの冗長と分散- - OpenStack最新情報セミナー 2016年3月 知っているようで知らないNeutron -仮想ルータの冗長と分散- - OpenStack最新情報セミナー 2016年3月
知っているようで知らないNeutron -仮想ルータの冗長と分散- - OpenStack最新情報セミナー 2016年3月
 
ネットワークプロトコル探索隊 LLDP-Link Layer Discovery Protocol-
ネットワークプロトコル探索隊 LLDP-Link Layer Discovery Protocol-ネットワークプロトコル探索隊 LLDP-Link Layer Discovery Protocol-
ネットワークプロトコル探索隊 LLDP-Link Layer Discovery Protocol-
 
【たぶん日本初導入!】Azure Stack Hub with GPUの性能と機能紹介
【たぶん日本初導入!】Azure Stack Hub with GPUの性能と機能紹介【たぶん日本初導入!】Azure Stack Hub with GPUの性能と機能紹介
【たぶん日本初導入!】Azure Stack Hub with GPUの性能と機能紹介
 
Lagopus Project (Open Source Conference)
Lagopus Project (Open Source Conference)Lagopus Project (Open Source Conference)
Lagopus Project (Open Source Conference)
 
[db tech showcase Tokyo 2014] B23: SSDとHDDの混在環境でのOracleの超効率的利用方法 by 株式会社日立製作...
[db tech showcase Tokyo 2014] B23: SSDとHDDの混在環境でのOracleの超効率的利用方法  by 株式会社日立製作...[db tech showcase Tokyo 2014] B23: SSDとHDDの混在環境でのOracleの超効率的利用方法  by 株式会社日立製作...
[db tech showcase Tokyo 2014] B23: SSDとHDDの混在環境でのOracleの超効率的利用方法 by 株式会社日立製作...
 
Multi Chassis LAG for Cloud builders
Multi Chassis LAG for Cloud buildersMulti Chassis LAG for Cloud builders
Multi Chassis LAG for Cloud builders
 
Lagopus & NFV with Vhost (Tremaday#9)
Lagopus & NFV with Vhost (Tremaday#9)Lagopus & NFV with Vhost (Tremaday#9)
Lagopus & NFV with Vhost (Tremaday#9)
 
GPUディープラーニング最新情報
GPUディープラーニング最新情報GPUディープラーニング最新情報
GPUディープラーニング最新情報
 
[db tech showcase Sapporo 2015] A12:DBAが知っておくべき最新テクノロジー: フラッシュ, ストレージ, クラウド b...
[db tech showcase Sapporo 2015] A12:DBAが知っておくべき最新テクノロジー: フラッシュ, ストレージ, クラウド b...[db tech showcase Sapporo 2015] A12:DBAが知っておくべき最新テクノロジー: フラッシュ, ストレージ, クラウド b...
[db tech showcase Sapporo 2015] A12:DBAが知っておくべき最新テクノロジー: フラッシュ, ストレージ, クラウド b...
 

More from Keisuke Takahashi

Azure Database for PostgreSQL 入門 (PostgreSQL Conference Japan 2021)
Azure Database for PostgreSQL 入門 (PostgreSQL Conference Japan 2021)Azure Database for PostgreSQL 入門 (PostgreSQL Conference Japan 2021)
Azure Database for PostgreSQL 入門 (PostgreSQL Conference Japan 2021)Keisuke Takahashi
 
GlusterFS Updates (and more) in 第六回クラウドストレージ研究会
GlusterFS Updates (and more) in 第六回クラウドストレージ研究会GlusterFS Updates (and more) in 第六回クラウドストレージ研究会
GlusterFS Updates (and more) in 第六回クラウドストレージ研究会Keisuke Takahashi
 
Trying and evaluating the new features of GlusterFS 3.5
Trying and evaluating the new features of GlusterFS 3.5Trying and evaluating the new features of GlusterFS 3.5
Trying and evaluating the new features of GlusterFS 3.5Keisuke Takahashi
 
Gluster Cloud Night in Tokyo 2013 -- Tips for getting started
Gluster Cloud Night in Tokyo 2013 -- Tips for getting startedGluster Cloud Night in Tokyo 2013 -- Tips for getting started
Gluster Cloud Night in Tokyo 2013 -- Tips for getting startedKeisuke Takahashi
 
Creating a shared storage service with GlusterFS
Creating a shared storage service with GlusterFSCreating a shared storage service with GlusterFS
Creating a shared storage service with GlusterFSKeisuke Takahashi
 
最新技術動向 GlusterFS (仮想化DAY, Internet Week 2011)
最新技術動向 GlusterFS (仮想化DAY, Internet Week 2011)最新技術動向 GlusterFS (仮想化DAY, Internet Week 2011)
最新技術動向 GlusterFS (仮想化DAY, Internet Week 2011)Keisuke Takahashi
 
GlusterFS As an Object Storage
GlusterFS As an Object StorageGlusterFS As an Object Storage
GlusterFS As an Object StorageKeisuke Takahashi
 
GlusterFS モジュール超概論
GlusterFS モジュール超概論GlusterFS モジュール超概論
GlusterFS モジュール超概論Keisuke Takahashi
 
GlusterFS座談会テクニカルセッション
GlusterFS座談会テクニカルセッションGlusterFS座談会テクニカルセッション
GlusterFS座談会テクニカルセッションKeisuke Takahashi
 

More from Keisuke Takahashi (11)

Azure Database for PostgreSQL 入門 (PostgreSQL Conference Japan 2021)
Azure Database for PostgreSQL 入門 (PostgreSQL Conference Japan 2021)Azure Database for PostgreSQL 入門 (PostgreSQL Conference Japan 2021)
Azure Database for PostgreSQL 入門 (PostgreSQL Conference Japan 2021)
 
GlusterFS Masakari Talks
GlusterFS Masakari TalksGlusterFS Masakari Talks
GlusterFS Masakari Talks
 
GlusterFS Updates (and more) in 第六回クラウドストレージ研究会
GlusterFS Updates (and more) in 第六回クラウドストレージ研究会GlusterFS Updates (and more) in 第六回クラウドストレージ研究会
GlusterFS Updates (and more) in 第六回クラウドストレージ研究会
 
Trying and evaluating the new features of GlusterFS 3.5
Trying and evaluating the new features of GlusterFS 3.5Trying and evaluating the new features of GlusterFS 3.5
Trying and evaluating the new features of GlusterFS 3.5
 
Gluster Cloud Night in Tokyo 2013 -- Tips for getting started
Gluster Cloud Night in Tokyo 2013 -- Tips for getting startedGluster Cloud Night in Tokyo 2013 -- Tips for getting started
Gluster Cloud Night in Tokyo 2013 -- Tips for getting started
 
Gluster in Japan 2012-2013
Gluster in Japan 2012-2013Gluster in Japan 2012-2013
Gluster in Japan 2012-2013
 
Creating a shared storage service with GlusterFS
Creating a shared storage service with GlusterFSCreating a shared storage service with GlusterFS
Creating a shared storage service with GlusterFS
 
最新技術動向 GlusterFS (仮想化DAY, Internet Week 2011)
最新技術動向 GlusterFS (仮想化DAY, Internet Week 2011)最新技術動向 GlusterFS (仮想化DAY, Internet Week 2011)
最新技術動向 GlusterFS (仮想化DAY, Internet Week 2011)
 
GlusterFS As an Object Storage
GlusterFS As an Object StorageGlusterFS As an Object Storage
GlusterFS As an Object Storage
 
GlusterFS モジュール超概論
GlusterFS モジュール超概論GlusterFS モジュール超概論
GlusterFS モジュール超概論
 
GlusterFS座談会テクニカルセッション
GlusterFS座談会テクニカルセッションGlusterFS座談会テクニカルセッション
GlusterFS座談会テクニカルセッション
 

GlusterFSとInfiniBandの小話

  • 1. Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.   1 
  • 2. !  自己紹介 ! GlusterFSについて ! GlusterFSとInfiniBand !  検証してみた(ことがある) !  まとめ Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.   2 
  • 3. !  自己紹介 ! GlusterFSについて ! GlusterFSとInfiniBand !  検証してみた(ことがある) !  まとめ Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.   3 
  • 4. 自己紹介 !  高橋敬祐  (  @keithseahus  ) !  ソフトウェア開発@NTTPC !  分散ストレージ技術屋 !  自宅InfiniBander  (DDR) Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.   4 
  • 5. !  自己紹介 ! GlusterFSについて ! GlusterFSとInfiniBand !  検証してみた(ことがある) !  まとめ Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.   5 
  • 6. GlusterFSについて !  分散ファイルシステム  v3.3からは”Unified  File  and  Object   Storage” !  オープンソース  https://github.com/gluster/glusterfs ! RedHatが買収  開発はコミュニティベースで継続 Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.   6 
  • 7. GlusterFSについて 世界2位の性能を達成したスパコンの開発者たちと、インド人の開発コミュニティ。 Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.   7 
  • 8. GlusterFSについて システム全体でのシーケンス 各機能がモジュールで実装されている のがポイント。 OS上でのシーケンス ※古い図なので、現行バージョンとは実装が若干異なります。 8  Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.  
  • 9. !  自己紹介 ! GlusterFSについて ! GlusterFSとInfiniBand !  検証してみた(ことがある) !  まとめ Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.   9 
  • 10. GlusterFSとInfiniBand !  オープンソース当初のリリース (v1.3.0)から対応 !  IB-VERBs  APIでRDMAでのデー タトランスポートを実現 !  クライアントとサーバのトランス ポート用モジュール内でTCPから RDMAに切り替えるだけ Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.   10 
  • 11. GlusterFSとInfiniBand protocol/clientモジュール定義と… protocol/serverモジュール定義を… 下記のように変更するだけ volume volume01-client-0 volume protocol/client type volume01-server option remote-host server01 type protocol/server option remote-subvolume /mnt/gluster option transport-type rdma option transport-type rdma option auth.addr./mnt/gluster.allow * end-volume subvolumes /mnt/gluster end-volume Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.   11 
  • 12. GlusterFSとInfiniBand protocol/clientモジュール定義と… protocol/serverモジュール定義を… 下記のように変更するだけ ! CAUTION! volume volume01-client-0 3.1以降のバージョンでは type protocol/client volume volume01-server option設定ファイルをエディタ等で type remote-host server01 protocol/server 勝手に書き換えないで下さい option remote-subvolume /mnt/gluster option transport-type rdma option transport-type rdma option auth.addr./mnt/gluster.allow * end-volume subvolumes /mnt/gluster end-volume Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.   12 
  • 13. GlusterFSとInfiniBand volumeを作る際にコマンド引数で定義しましょう # gluster volume create volume01 replica 2 transport rdma server01:/mnt/gluster server02:/mnt/gluster Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.   13 
  • 14. !  自己紹介 ! GlusterFSについて ! GlusterFSとInfiniBand !  検証してみた(ことがある) !  まとめ Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.   14 
  • 15. 検証環境1(Gigabit Ethernet) ※2010年当時の情報です。 サーバ CPU: Intel(R) Xeon(R) E5405 @ 2.00GHz L2: 12MB RAM: 1GB client01 GbE L2スイッチ GbE Segment A GbE Segment B GbE Segment C Throughput: 1Gbps / port switch01 switch02 switch03 サーバ GbE Segment A GbE Segment B GbE Segment C CPU: Intel(R) Xeon(R) E5405 @ 2.00GHz L2: 12MB RAM: 1GB storage01 storage02 storage03 HDD: SATA 6.7TB RAID5 Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.   15 
  • 16. 検証環境2(IB, Coreアーキテクチャ) ※2010年当時の情報です。 サーバ CPU1: Intel Xeon E5504 @ 2.00GHz ×2 RAM: 72GB HCA: 40Gbps ×2 client02 IB L2スイッチ IB IB QDR 4x QDR 4x Throughput: 40Gbps / port switch04 IB IB QDR 4x サーバ QDR 4x サーバ CPU: Intel(R) Xeon(R) CPU: Intel(R) Xeon(R) E5405 @ 2.00GHz E5405 @ 2.00GHz storage04 L2: 12MB storage05 L2: 12MB RAM: 10GB RAM: 8GB HDD: 2.1TB RAID5 HDD: SATA 2.1TB HCA: 40Gbps RAID5 HCA: 40Gbps Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.   16 
  • 17. 検証環境3(IB, Nehalemアーキテクチャ) ※2010年当時の情報です。 サーバ CPU1: Intel Xeon E5504 @ 2.00GHz ×2 RAM: 72GB client02 HCA: 40Gbps ×2 IB QDR 4x IB L2スイッチ Throughput: 40Gbps / switch04 port IB QDR 4x サーバ CPU: Intel(R) Xeon(R) storage06 E5620 @ 2.40GHz ×2 L2: 12MB RAM: 6GB HCA: 40Gbps HDD: SATA 0.9 TB RAID5 17 Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.   17 
  • 18. 検証環境4(その他) ※2010年当時の情報です。 本検証のデータと比較するため、一部検証において、以下のマシンに関するデータを取得した。 berga-dalas (自作IAサーバ) CPU: Intel Core i7 920 2.66 GHz メモリ: DDR3 1333MHz, 12 GB (2GB×6) ストレージ: 3.5インチ SATA HDD 500 GB ×2基 ネットワーク: Gigabit Ethernet ×5ポート (オンボード×1, IntelデュアルポートNIC×2) zwei (ベアボーンPC) CPU: Intel Atom 330 2.00 GHz メモリ: DDR2 533MHz, 2GB (2GB×1) ストレージ: 2.5インチ SATA SSD 32 GB ネットワーク: Gigabit Ethernet ×1ポート (オンボード) Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.   18 
  • 19. 参考: CoreとNehalem ※2010年当時の情報です。 FSB (Front Side Bus) QPI (QuickPath Interconnect) メモリ制御 チップセット メモリコントローラ内蔵CPU 伝送方式 パラレル シリアル 共有バス デファレンシャル信号による 片方向ポイントツーポイント インターコネクト 5.3 GBytes/sec (667MHzの場合) 19.2 GBytes/sec ※1 速度 (最大10.6 GB/sec) (最大25.6 GBytes/sec) ※2 Intel Coreマイクロアーキテクチャ ※1 計算式は以下の通り。 Intel Nehalemマイクロアーキテクチャ 2.4 Giga-Transfers/sec ×2 bits/Hz (double data rate) ×20 (QPI link width) × (64/80) (data bits/flit bits) ×2 (two links to achieve bidirectionality) / 8 (bits/byte) ※2 ハイエンドCPUでは QPI Link Speedが 5.3 GBytes/ sec 最大で3.2 ×2 = 6.4 Giga-Transfers/sec となる。 19.2 GBytes/ sec 32 Gbps (= 4 GBytes/sec) InfiniBand HCA 40 Gbps 1.5 GBytes/sec (= 5 GBytes/sec) (150 MBytes/sec×10) 32 Gbps (= 4 GBytes/sec) 3.0 GBytes/sec (300 MBytes/ sec×10) 出典: Intel 5100 Chipset ( http://ark.intel.com/chipset.aspx?familyID=32717 ), Intel 5520 Chipset ( http://ark.intel.com/chipset.aspx?familyID=32423 ) Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.   19 
  • 20. !  自己紹介 ! GlusterFSについて ! GlusterFSとInfiniBand !  検証してみた(ことがある) !  まとめ 1. メモリ・バス性能測定 2. InfiniBand RDMA性能測定 3. GlusterFS RDMA性能測定 Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.   20 
  • 21. メモリ・バス性能測定 ※2010年当時の情報です。 “stream”を使用した、メモリ内単純データコピー速度の測定。 全体の帯域幅 本検証における Nehalem CPU数×CPUコ アーキテク ア数×HTスレッド チャ 数の範囲 Core(又はそ れ以前の)アー キテクチャ Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.   21 
  • 22. メモリ・バス性能測定 ※2010年当時の情報です。 Nehalemでは、マルチコアがマルチスレッドでの並列I/O処理性能に貢献していることがわかる。 シングルスレッド時の速度に対するスレッドあたり速度比の推移 Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.   22 
  • 23. !  自己紹介 ! GlusterFSについて ! GlusterFSとInfiniBand !  検証してみた(ことがある) !  まとめ 1. メモリ・バス性能測定 2. InfiniBand RDMA性能測定 3. GlusterFS RDMA性能測定 Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.   23 
  • 24. InfiniBand RDMA性能測定 ※2010年当時の情報です。 “qperf”を使用した、RC_RDMAでの書き込み速度の測定。 client02 2.78 GB/sec IB IB QDR 4x QDR 4x switch04 1.55 GB/sec 1.67 GB/sec IB IB QDR 4x 1.67 GB/sec QDR 4x storage04 1.55 GB/sec storage05 1.50 GB/sec 1.55 MB/sec 1.50 GB/sec Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.   24 
  • 25. InfiniBand RDMA性能測定 ※2010年当時の情報です。 “qperf”を使用した、RC_RDMAでの書き込み速度の測定。 NehalemはCoreアーキテクチャの2倍以上の性能となっている。 client02 IB QDR 4x switch04 IB QDR 4x 3.38 GB/sec storage06 Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.   25 
  • 26. !  自己紹介 ! GlusterFSについて ! GlusterFSとInfiniBand !  検証してみた(ことがある) !  まとめ 1. メモリ・バス性能測定 2. InfiniBand RDMA性能測定 3. GlusterFS RDMA性能測定 Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.   26 
  • 27. GlusterFS RDMA性能測定 ※2010年当時の情報です。 Coreアーキテクチャ (Gigabit Ethernet) Nehalemアーキテクチャ (Gigabit Ethernet) Seq. Write Seq. Write Med. 115.294 MB/sec Med. 116.168 MB/sec Seq. Read Seq. Read Med. 114.914 MB/sec Med. 114.882 MB/sec Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.   27 
  • 28. GlusterFS RDMA性能測定 ※2010年当時の情報です。 Coreアーキテクチャ (IB RDMA) Nehalemアーキテクチャ (IB RDMA) Seq. Write Seq. Write Med. 173.310 MB/sec Med. 170.393 MB/sec Seq. Read Seq. Read Med. 389.863 MB/sec Med. 828.014 MB/sec Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.   28 
  • 29. GlusterFS RDMA性能測定 ※2010年当時の情報です。 Nehalemアーキテクチャ (IB RDMA) Nehalemアーキテクチャ (IPoIB) Seq. Write Seq. Write Med. 170.393 MB/sec Med. 171.841 MB/sec Seq. Read Seq. Read Med. 828.014 MB/sec Med. 428.418 MB/sec Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.   29 
  • 30. もう一度、この図。 システム全体でのシーケンス RDMAの導入効果は確かにある。しかし、 高速化したのは全シーケンスのうちの一 部分だけ。 OS上でのシーケンス ※古い図なので、現行バージョンとは実装が若干異なります。 30  Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.  
  • 31. GlusterFSの性能に関する補足(フォロー) 当然、ストレージサーバを追加すればトータルのスループットが向上します。 処理A 処理B Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.   31 
  • 32. !  自己紹介 ! GlusterFSについて ! GlusterFSとInfiniBand !  検証してみた(ことがある) !  まとめ Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.   32 
  • 33. まとめ ! GlusterFSはInfiniBand  RDMAをサポートし ています。 !  Nehalem以降のアーキテクチャでは、RDMA での読み書き速度が大幅アップしています。 ! GlusterFSでもRDMAの恩恵は大きいですが、 実際のところゼロコピーではなく、オーバー ヘッドも大きいので、ネイティブなRDMAほど の速度は出ません。 !  でも、「ネットワーク負荷ガー」と嘆くぐらいな ら、InfiniBandの導入をおすすめします。 Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.   33 
  • 34. PR !  分散ストレージに関するご用命は、こちらの メールアドレスまで!  storage-contact@nttpc.co.jp ! LinuxCon  Japan  2011  Gluster  Workshop で講演します!  https://events.linuxfoundation.org/ events/linuxcon-japan/ovirt-gluster- workshops !  過去のプレゼン資料はこちら。  http://www.slideshare.net/keithseahus Copyright  (C)  2012,  NTTPC  Communications,  Inc.  All  Rights  Reserved.   34