SlideShare a Scribd company logo
1 of 76
Download to read offline
1
Miracle Linux ZBX/Hatohol セミナー
Feb 17, 2017
Naoto Gohko (@naoto_gohko)
GMO Internet, Inc.
How to use opensource monitoring tools Hatohol and zabbix
on GMO Ineternet using OpenStack
for Public Cloud
Slide URL
http://www.slideshare.net/chroum/miracle-linux-seminer-hatohol-and-conoha
ConoHa public cloud
https://www.conoha.jp/
GMOインターネットのOpenStack public cloud
“ConoHa”におけるオープンソース監視ツール “Hatohol”
と”zabbix”の適⽤について
2
内容(アジェンダ)
š 0) GMOインターネットのOpenStack public Cloudサービスについて
š 1) 運⽤管理とはなんぞや
š 2) これまで運⽤管理に使っていたツールについて
š 3) ConoHaをマルチロケーションで運⽤するにあたって再検討した最近の
運⽤監視ツールについて
š 4) Hatohol + zabbixを選択した理由について
š 5) Hatohol + zabbix構成について
š 6) (参考資料) OpenStack Japan Ops Workshop 2015/12 でのOpenStack
を運⽤している各社の運⽤管理について
3
0) GMOインターネットの
OpenStack public cloudサービス
について
4
Public Clouds
We are offering multiple public cloud services.
5
Physical Servers
Running VMPhysical Server
1508
25294
Created VM
Running Infrastructure (2015/10)
137223
6
OpenStack service development team
7
Cloud service development team: (abount 30 people)
– OpenStack Neutron team: 4 people
• Neutron driver / modification / engineering
– Cloud API development team: 5 people
• Public API validation program
• OpenStack modification / scaduler programing / keystone
– Cloud Infra. development team: 11 people
• Security engineering / glance driver / cinder driver / nova additional
extensions / construction of OpenStack infra.
– Applicatoin cloud service development team: 5 people
• Billing engineering / staff tools / GMO AppsCloud web GUI
Additional engineering team: many people (30 ~)
– QA Team / Server Engineering Team / GUI development Team
– Network Engineering Team / SaaS development Team
– CRM backend and billing Team
Cloud service development team: Now(2016)
8
Cloud service development team: Office(2016) #1
Neutron Team
And
Cloud API Team
Cloud Infra. Team
And
AppsCloud Team
9
Cloud service development team: Office(2016) #2
Neutron Team
And
Cloud API Team
Cloud Infra. Team
And
AppsCloud Team
10
Limied number of people.
But, we have to run a lot of OpenStack
service clusters.
11
Service developmemt history
by OpenStack
12
Swift cluster
GMO Internet, Inc.: VPS and Cloud services
Onamae.com VPS (2012/03) :
http://www.onamae-server.com/
Forcus: global IPs; provided by simple "nova-network"
tenten VPS (2012/12)
http://www.tenten.vn/
Share of OSS by Group companies in Vietnam
ConoHa VPS (2013/07) :
http://www.conoha.jp/
Forcus: Quantam(Neutron) overlay tenant network
GMO AppsCloud (2014/04) : http://cloud.gmo.jp/
OpenStack Havana based 1st region
Enterprise grade IaaS with block storage, object storage,
LBaaS and baremetal compute was provided
Onamae.com Cloud (2014/11)
http://www.onamae-cloud.com/
Forcus: Low price VM instances, baremetal compute and object storage
ConoHa Cloud (2015/05/18) http://www.conoha.jp/
Forcus: ML2 vxlan overlay, LBaaS, block storage, DNSaaS(Designate)
and original services by keystone auth
OpenStack Diablo
on CentOS 6.x
Nova
Keystone
Glance
Nova network
Shared codes
Quantam
OpenStack Glizzly
on Ubuntu 12.04
Nova
Keystone
Glance
OpenStack Havana
on CentOS 6.x
Keystone
Glance
Cinder
Swift
Swift
Shared cluster
Shared codes KeystoneGlance
Neutron
Nova Swift
Baremetal compute
Nova
Ceilometer
Baremetal compute
Neutron LBaaS
ovs + gre tunnel overlay
Ceilometer
Designate
SwiftOpenStack Juno
on CentOS 7.x
NovaKeystone
Glance
Cinder
Ceilometer
Neutron
LBaaS
GMO AppsCloud (2015/09/27) : http://cloud.gmo.jp/
2nd region by OpenStack Juno based
Enterprise grade IaaS with High IOPS Ironic Compute and Neutron LBaaS
Upgrade
Juno
GSLB
Swift
Keystone Glance
CinderCeilometer
Nova
Neutron
Ironic
LBaaS
13
OpenStack Juno cluster:
• ConoHa (Juno) and Z.com cloud
• AppsCloud (Juno)
14
Tokyo
Singapore Sanjose
# ConoHa has data centers in 3 Locations
15
Tokyo Singapole
User/tenant User/tenant
API	Management
Keystone API
API	Management
Keystone APIAPI	Management
Keystone API
Token Token
Tokyo SanJoseSingapore
API	Management
Keystone API
API	Management
Keystone API
READ/WRITEREAD READ
TokenToken Token
Do not
create/delete
users
Do not
create/delete
users
Our Customer base
User administration
# User-registration is possible in Japan only
DB Replication DB Replication
User/tenant User/tenantUser/tenant
R/W R/W
16
Tokyo
Singapore Sanjose
# Now(2017); data centers in 5 Locations
VN
Thai
17
OpenStack: we have many cluster
Mikumo ConoHa Mikumo Anzu
Mikumo =	美雲 =	
Beautiful	cloud
18
• Service model: Public cloud by KVM
• Network: 10Gbps wired(10GBase SFP+)
• Network model:
– Flat-VLAN + Neutron ML2 ovs-VXLAN
overlay + ML2 LinuxBridge(SaaS only)
– IPv6/IPv4 dualstack
• LBaaS: LVS-DSR(original)
• Public API
– Provided the public API (v2 Domain)
• Compute node: ALL SSD for booting OS
– Without Cinder boot
• Glance: provided
• Cinder: SSD NexentaStore zfs (SDS)
• Swift (shared Juno cluster)
• Cobbler deply on under-cloud
– Ansible configuration
• SaaS original service with keystone auth
– Email, web, CPanel and WordPress
OpenStack Juno: 2 service cluster, released
• Service model: Public cloud by KVM
• Network: 10Gbps wired(10GBase SFP+)
• Network model:
– L4-LB-Nat + Neutron ML2 LinuxBridge VLAN
– IPv4 only
• LBaaS: Brocade ADX L4-NAT-LB(original)
• Public API
– Provided the public API
• Compute node: Flash cached or SSD
• Glance: provided (NetApp offload)
• Cinder: NetApp storage
• Swift (shared Juno cluster)
• Ironic on under-cloud
– Compute server deploy with Ansible config
• Ironic baremetal compute
– Nexsus Cisco for Tagged VLAN module
– ioMemory configuration
19
20
1) 運⽤管理とはなんぞや
21
1) (システム)運⽤管理 とは?
š システム運⽤に関する管理
š è ITIL (Information Technology Infrastructure Library) などの例
šほぼデファクトのツール
šITサービスを管理するために、
ITサービスの品質向上を⽬指す、
中⻑期的なコスト削減を⽬指す(⼈的、⾦銭的)
š いわゆる “PDCA” サイクル的なものを、回していく必要がある
22
システム運⽤管理 と カイゼン
23
システム運⽤管理 と PDCA
「えっ、なんで?」
24
Ex) とある障害発⽣
お客のVPSのwebサーバのコンテンツが⾒えないと連絡
On call … …
お客のVPSのネットワークにDDoS攻撃来ていた!!
IPを上位ネットワークで⽌めてもらう
On call終了
ふぅっ
25
Ex) とある障害発⽣
お客のVPSのwebサーバのコンテンツが⾒えないと連絡
On call … …
お客のVPSのネットワークにDDoS攻撃来ていた!!
IPを上位ネットワークで⽌めてもらう
On call終了
ふぅっ
ちょっ、まぁっ、ここ
で終わったら、次に
DDoS来た時にどうす
るんだ!!
26
Ex) とある障害発⽣ + 記録 + 改善策 + 記録
お客のVPSのwebサーバのコンテンツが⾒えないと連絡
On call … …
お客のVPSのネットワークにDDoS攻撃来ていた!!
IPを上位ネットワークで⽌めてもらう
è対応内容を記載
On call終了
è対策を調査 è http://blog.sflow.com/2013/03/ddos.html
VPSのovs sflow をElasticSearchに⼊れて、AlertAction設定
AlertActionで上位ルータにdev nullに3分間落とす
対策内容を共有、類似のトラブルですぐに確認できるように
27
PDCA: (Plan, Do, Check, Action(Adjust))
š 継続的改善
DevOpsへの道
28
システム運⽤管理ソフトウェア とは?
š システム運⽤に関する管理 è カイゼンを回して効率化などを得る
この場では、事例、⽅法論などの知⾒を得ることで、何らかの改善ができればよいと思いま
す
以下の内容(要素)を含みます è ネタはたくさんあります
š Monitoring System, Security System
š Notification(ChatOps, PushNotify), redmine(Tiket), RTFM
š CMDB, IPAM, SDN, OpenStack, CloudStack
š Automation Tools, Infra-spec Tools, Jenkins(Job)
š Documentation Tools (Wiki, RTFM, Jupyter)
š … …
29
2) これまで運⽤管理に使っていた
ツールについて
30
2) これまでの運⽤管理に使っていたツール
š 1) 監視ツール: Nagios
š Version: 2.0b6(Solaris), 3.0(Solaris), 3.5.1(Nagios Core)
š OS環境が様々
š Solaris 9, 10, OpenSolaris
š Linux: CentOS 5.x, CentOS 6.x, CentOS 7.x, Ubuntu 14.04
š Notification:
šMail:
šIRC: #nagios channel へのircbot (
šNagstamon: (Windows): https://nagstamon.ifw-dresden.de)
https://github.com/HenriWahl/Nagstamon
š Graph: nagiosgraph (rrd files)
⼊社したときに初めてさわったNagios(ver. 2.0b6)が現役監視 è Solarisのシステム
31
2) なぜNagios 2.0b6とか残っているの?
なぜ?
š Nagios⾃体がほとんど進化していない?
š Nagiosの残念な開発体制と、たくさんのForkの発⽣
š Nagios⾃体、仕様がほとんど変わらないので、
稼働が始まればupgradeする必要性を運⽤的に感じなかった
š APIなどの不統⼀、オレオレFork
š 監視対象もSolarisでgccでコンパイルが通れば問題ない
š 監視数が増えないので、スケールアウトとか必要なかった
š グラフもrrdデータなので
なので、問題なかった(いままでは)
32
Nagios plugin(監視)はシンプル
Nrpe agentプログラムを使う場合、監視スクリプトは以下のステータスコードとテキスト標
準出⼒を返せばよい
Nagios Exit Codes
Exit Code status
0 OK
1 WARNING
2 CRITICAL
3 UNKNOWN
Nrpe agent è Nagiosクロールへの通信も、同様な処理
監視が作りやすい
Exit code status
0 OK
1 WARNING
2 CRITICAL
3 UNKNOWN
33
2-2) これまでの運⽤管理に使っていたツール
š 2) Hardware監視ツール:
š Director (IBM, Lenovo)
š SIM [System Insight Manager] (HPE)
š OpenManage (Dell)
導⼊されたのは、お名前VPSサービス開始後(初めてLinux採⽤)
>> IBM IA Serverが初めて導⼊された
製品のDefaultでIMMというIPMIの拡張管理ポートがあった
IPMI関連ツールやコンソールの有⽤性から、ここから広まった
Hardware監視ツールが無料で利⽤できたというメリットも
34
2-2) HW監視ツール
š IBM Director
š DB(IBM DB2 or MS SQLなど)の負荷などで、構成の⼯夫は⼊ります
š Agent less監視 <<= ここ重要
š SIM (HP)
š PostgreSQL
š Agent必要 (HP ProLiant Gen9 あたりで、できるようになった?)
š HPは買わなくなりましたw
š Dell
š MS SQL Server
š Agent less監視 <<= ここ重要
35
2-2) Agentがあると、なにが問題か?
š SIM (HP)
š HPは買わなくなりましたw ç なぜ?
š Agentが強制再起動を発動 (ASR)
š Hung upを検知した時に、強制再起動
š 外部の温度で、強制再起動
š 思わぬDefault設定 www
š è 結局Agentを停⽌することに
š その他、SmartArrayトラブル等、みんな運⽤疲れ
36
2) これまでの運⽤管理に使っていたツール
š 3) RTFM: Request Tracker
š ⼊社当初のドキュメント/チケット管理ツール(2007, 2008)
š Read the Fucking Manual
š Site: https://bestpractical.com/rt-and-rtir
š Document: https://docs.bestpractical.com/rt/4.4.0/index.html
š Apache + mod_perl (環境はもちろんSolaris)
š ドキュメント管理とチケット管理、Task Flowのツール
程なくして、redmineのチケット管理が⼊ったので、しばらくドキュメント共有ツールとし
てつかつていました
37
2) これまでの運⽤管理に使っていたツール
š 4) redmine:
š チケット、Task Flow管理
šそもさん(お問い合わせ管理ツール)
šSQIP2 (障害管理ツール)
šLiveup/メンテナンス管理
šチーム間業務依頼管理
šAbuse管理
šQAバグチケット管理
šプロジェクト管理システム(⼯数管理)
APIでチケットを投⼊したり、参照したりでいろいろ他のシステム連携
⼊社してからIDC OPEチームが導⼊
現在のシステム本部と事業部のTask Flow基盤として
38
2) これまでの運⽤管理に使っていたツール
š 5) dokuwiki:
š プロジェクトのドキュメント、作業メモ、仕様書記載
š RTのテキストのみから、画像、添付書類がつかえるように
š XML-RPC (JSONは標準では無い)
⼊社してからIDC OPEチームが導⼊
RTからはドキュメント・データ移⾏
39
2) これまでの運⽤管理に使っていたツール
š *) その他:
š 設備機器管理ツール(開発部作成 .Net)
š 開発部で作成: ラックの管理なども含む
š オンコール管理ツール(開発部作成 .Net)
š 電話/メールの連絡先と、ローテーションスケジュールの管理
š IRC
š ChatOpsの原点、作業時の連絡など
š NagiosからAlert Notification
40
3) “ConoHa”をマルチロケーションで
運⽤するにあたって、再検討した最新の
運⽤管理ツールについて
41
3) ConoHaをマルチロケーションで運⽤時の再検討
š A) 監視ツールのNagiosの数がサービスごとに発⽣
š NotifyにMailを使っているので、莫⼤なWARN, ALERTメールが発⽣
šMialをNotifyにすると、通常業務のMailに負荷がかかり、Mailの障害という⼆重障
害が発⽣
š ロケーションが違うと、メールの到達性に疑問
š B) マルチロケーションをどう管理しやすくするのか
š 画⾯上統⼀管理できるか
š C) 遠隔地は⾃社で運⽤するとは限らなくなる(⽇本だけじゃない、現地法⼈)
š グループ会社、協⼒会社が使っても良いようにユーザ管理できる
š Html5 SSHなど、web画⾯で作業が終端できる、証跡 (記録)
42
3) 再検討ツールたち
š 1) Nagios fork系、インスパイア系
š Nagios監視プラグインが流⽤できる
š 2) 新たな構成
š Hatohol + zabbix / Monascaつかえる?
š Hatoholにより、統合できそう
š Gateone pluginとか作れるかも(zabbixからclick to html5 ssh)
šhttp://tech-sketch.github.io/hyclops/jp/
TISが作ったFork : HyClops for Zabbix
š 3) そのままNagiosを個別に⽴てる
š ⽅法論は同じだが、「カイゼン」全く無し <<= 抵抗勢⼒はこれが良いとw
43
3) 再検討: A) Nagiosインスパイア系: Ichinga
š Ichinga
š https://www.icinga.org/
š CLIも強⼒、分散監視できる
š Nagios pluginをそのままつかえる (pluginが多い)
š Webと本体がわかれている、Timelineてきなインターフェースもよさ気
š 有償サポートあり、HPE Helion OpenStackもIchingaを採⽤
š WebはPHP ?
š 以外にインストール⾯倒
š 監視設定処理の概念がNagiosを引き継いでいるので、以外に⾯倒
š DBを使う
44
3) 再検討: A) Nagiosインスパイア系: Sensu
š Sensu
š https://github.com/sensu/sensu/
š Ruby、RabbitMQ, Redis, JSON
š メッセージ志向 (スケールアウトできるように)
š メトリックス送信先で、グラフ書いたりする(Graphite, Librato, etc)
šグラフ機能は内蔵されていない
š Chef, puppet, ansibleでのWorkFlowで監視を投⼊できる
š GUIは “uchiwa.io” : https://uchiwa.io/
š HandlersでNotifyアクション, GraphiteなどへのメトリクスPOST(グラフ更新)
š 素晴らしいんだけど、学習コストいまは⾼そう(ConoHaリニューアル時)、Yahoo Japanは
使っている
45
3) 再検討: A) Nagiosインスパイア系: Shinken
š Shinken
š http://www.shinken-monitoring.org/ shinken.io
š https://github.com/naparuba/shinken/
š PythonでNagiosをよりEnterpriseに作りなおした感じ
š マルチデータセンタに適合しやすい構成
š Graphite, Nagvis, PNG4Nagios, Nagios OLD cgi webにも!! 対応
š Livestatus based API対応
š あぁ、普通にNagiosの新しいバージョンとしては良いかも
š Nagios過ぎて、若⼲引く感じ
46
3) 再検討: Hatohol + zabbix, Nagios
š Hatohol
š http://www.hatohol.org/
š https://github.com/project-hatohol/hatohol
š Miracle Linuxが主要メンバーで開発しているOpensource
šなので、githubも⽇本語のissueがある
š Zabbix or NagiosのFrontendとなる
š Metricを実際にするzabbix, NagiosをまとめるFrontendであり、Notify、Actionを統合
できるツール
š OpenStack連携の話をイベントの時に聞いた
è あ、よさそう
47
4) Hatohol + zabbix 構成を選択した理由
48
4) Hatohol + zabbixを選択した理由
š A) 監視ツールのNagiosの数がサービスごとに発⽣
š Notifyの場所をHatohol⼀箇所にすることで、Action(ex: チケットを作ったり、chatに
通知したり、メールに投げたり)を作りやすくする
š NagiosもZabbixもCeilometerもメトリックとして⼀元化できる、だろう
š B) マルチロケーションをどう管理しやすくするのか
š Hatoholに情報ポータルを⼀元化でき、zabbixのスケールアウトとして活⽤できる
(zabbix APIで接続) (取得結果はHatohol内部のDBにcache)
š C) 遠隔地は⾃社で運⽤するとは限らなくなる(⽇本だけじゃない)
š HAPI(Hatohol Arm Plugin Interface)経由で認証を作ればできる、らしい
šグループ企業は、web auth APIに対応すれば良い
49
zabbix
š エージェントレスでssh baseでもいけますよ(by ⼯藤) (zabbix ver. 2.2系当時)
š GUIはモダンでもないけど、APIが公式である (zabbix API)
š ライブラリ結構ある: https://www.zabbix.org/wiki/Docs/api/libraries
š Ex) Php: PhpZabbixApi : http://github.com/confirm/PhpZabbixApi
š Nagiosみたいに分裂、発散せず、zabbix.org としてまとまっているのが良い
š 情報も探しやすい (オープンソース版、商⽤版) 、情報が多い重要
š オープンソース活⽤において、商⽤とコミュニティが活発である (重要)
š Forkしたくはないけど、pluginぐらいなら作るのはOK
š まあ、そろそろ他の監視ツールも使ってみたい
50
Hatohol + zabbix, nagios
š Hatoholにより、監視ツールは異なっても、おなじようにいけるだろう
š Nagiosのところは、Sensu(ruby), Shinken(python), Ichingaになっても、なんとかなるか
もとかんがえられる (置換可能)
š Nagiosのところは、 live status api がよいかな(2015/05 導⼊当時)
51
52
Hatohol + nagios livestatus API
⽉⽇は流れ、秋ごろ
53
Hatohol + zabbix or nagios
š (2015/Sep) Issueが上がる
š https://github.com/project-hatohol/hatohol/issues/1549
š Mnakagawa-san作る
š 実装された:
https://github.com/project-hatohol/hatohol/blob/master/server/README.md
š これにより、NagiosをNDOUtilsにマイグレしなくても、Nagios Livestatus APIの設定
のみで連携できるように
(我々は、zabbix導⼊後ですが、OKだなと)
54
5) Hatohol + zabbix構成
55
5) Hatohol + zabbix構成 (2017/02/17現在)
š 各リージョンのOpenStack cloud clusterの監視 : zabbix
š JP (Tokyo)
š US (San Jose)
š Singapore
š Vietnam (Hanoi)
š Thailand (Bangkok)
š 情報の集約 : Hatohol (JP (Tokyo))
š Notification Action : redmine
š 1 AlertごとにHatoholがredmineにアラートチケットを発⾏(Action)
š 証跡 : redmine
š アラートをチケット =>> メールとしてNotify
56
Tokyo
Singapore Sanjose
# Now(2017); data centers in 5 Locations
VN
Thai
57
5) zabbix
š zabbix単体でのalert通知は利⽤しない
š ZabbixはバックエンドがDatabaseであり、alert履歴など貯めないことでなるべく軽く
することを考えておく
š Zabbixの古い履歴は、Databaseが肥⼤化する
šDB (MySQL, PostgreSQL など)が膨れるので、履歴データを定期的に削除
š 履歴はredmineに「証跡」として残すので、気軽に消せる
šグラフも紐付いているので、グラフを残したい場合には、別途グラフツールを考え
る
šZabbix è Graphite + Graphana など
šOpenStack clusterのリージョン(ロケーション)ごとに設置する
58
5) Hatohol
š Zabbixからの情報の集約とActionの⽣成に専念させる
š Action :
š 現在は 「Alert発⽣アクション」をredmine チケットに
š 「Alert収束(終了)アクション」を通知してほしいとのユーザリクエスト
šNagiosにはある機能 (今後の課題)
š 今後の活⽤
š Hatohol APIとchatops (chatworks, slack)との組み合わせ
š オープンソースであるので、開発コミュニティに参加して機能改善していく
š 運⽤監視の改善プロジェクト
59
60
61
62
Fin.
63
Appendix: OpenStackの運⽤管理
64
6) (参考) OpenStack Japan Ops Workshop 2015/12
š 2015年はじめて東京でOpenStack Summitが開催(10⽉)
š Ops Workshop⾃体はSummitの中でもこれまでは開催されていたが、セッションが同時開
催だと参加しづらいという側⾯も
š Mid-Cycleとして Summitとの中間時期にも開催されることに
š OpenStackの開発へのFeedback(blueprintを書けないopsの意⾒取り込み)や、ドキュメン
ト開発(ドキュメント作成は開発と同等となった)への取り組みへの反映
š OpenStack Summitとは⽇本ではずらして開催
š 東京(7⽉)、沖縄(12⽉)
š 次回開催は OpenStack Days Tokyo in July 2016
Appendix
65
OpenStack ops docs (ドキュメント)
š Ops Guide
š HA Guide
š Security Guide
š New Architecture Design Guide
š Networking Guide
http://docs.openstack.org/ops/
電⼦書籍データ(無料)
http://docs.openstack.org/ja/openstack-ops/content/
html閲覧 オペレーションガイド(ja)
http://docs/openstack.org/sec/
html閲覧 セキュリティガイド(en)
Appendix
66
OpenStack ops ⽇本でどんなツールを使って運⽤しているか
http://superuser.openstack.org/articles/okinawa-openstack-ops-workshop-rides-wave-of-interest
Okinawa OpenStack Ops Workshop rides wave of interest
Etherpad (議事録まとめ)
https://etherpad.openstack.org/p/JP-Ops-workshop
Appendix
67
ELKつかってますか? (⽇本のユーザ向け)
Noooooooo.
è なぜか?
⽇本では Logstash よりも Fluentd が好まれます
š つまりELK(E: ElasticSearch, L: Logstash, K: Kibana)ではなく、
EFK(E: ElasticSearch, F: Fluentd, K: Kibana)である
š 最近は”Beats”というものもある(Goで書かれているのでちっさく、ツールが⽤途別に
なっている) >> EBK ?
説明スライド
http://www.slideshare.net/td-nttcom/collect-summarize-and-notify-of-openstacks-log
Collect, summarize and notify of OpenStack's log
Appendix
68
Logstash vs. Fluentd
Logstash
š Javaである (メモリがっ…) “JRuby” runtime、スケールしない?
š Logのcollect + forward
š Plugin
š Input/Output/codec/filterなどのpluginがある(ruby)
Fluentd
š ちっさい、軽い? Norikraなど中間処理に渡して再処理などgateway
š Plugin
š Online processingがある è Norikra (ここは”JRuby”なんだが)
š Collectorでcounter組み込み(grep counter, datacalculator, etc.)
Appendix
69
opsツール(Workshopアンケートより)
Log monitoring tol
š Logstash: 0
š Fluentd: 4
š Beaver: 0 << https://github.com/josegonzalez/python-beaver
š Rsyslog: 6
š Splunk: 4
š ELK:
Splunkは有償ソフトだが、4社も使っているとのこと(使いやすい)
Appendix
70
log処理で何をやると便利か?
š 串刺しで検索して動きを⾒る: 共通IDの検索
š Request ID
š Tenant ID
š User ID
š その他 object(flavor, volume, image) ID
Appendix
71
OpenStackの監視系、アンケートより
š Kibana: 1
š Grafana: 2
š Collectd: 1
š Nagios: 1
š Zabbix: 9
š << スケールしない(170,000 metrics)、グラフがpoor
š Sensu: 2
š Monasca: 0
š HRForcast: 1 (data visualizer,
š GrowthForcastがRRDToolに依存しているが、
HPForcastはCSV(TSV)とかでOK、
Appendix
72
OpenStackの監視系、アンケートより
Ceilometerはつかつている?: 4 企業 yes
š Backend: Mongodb
š なににつかっているの?
š Billing: 1 (GMOのみ)
š HeatでのAutoscaleのAlertingに使っている
VMの中⾝の監視は?
š Nagios, Sensuなどの通常監視
š Libvirtdからの外部からの監視
š Guest agent
š Qemu-guest-agent (qemu経由でguestの情報取得)
š https://github.com/rackerlabs/openstack-guest-agents-unix
Appendix
73
OpenStackの監視系、アンケートより
CMDB(構成管理DB)とか使っている?
š 開発CI, alerting, notification system
š ⾃社CMDB : 3 企業
š CMDBでインフラを管理(NW(IPAM), Server)
š << dynamic Inventory?
その他使っているもの
š Spark
š ElasticSearch
š InfluxDB +1
š graphite
Appendix
74
OpenStackのlogのこれから
š “oslo.log” という共通ライブラリ化により、標準フォーマット化
š Traceback logは複数⾏にまたがっている << Parseしづらい
š Error codeのoslo.logでの統⼀化
Appendix
75
OpenStack deployment tips
š Puppet : 3
š OS-puppet : 0
š Chef : 4
š OS-Chef : 0
š Ansible : 7
š OS-ansible : 1
š Juju : 2
š Fuel : 1
それぞれ、運⽤管理ツールを兼ねているものがある
Fuelなど
Appendix
76
その他
詳しくは、以下を⾒てください。箇条書きになっています
Etherpad (議事録まとめ)
https://etherpad.openstack.org/p/JP-Ops-workshop
Appendix

More Related Content

What's hot

RDOを使ったOpenStack Havana - Neutron 構築編
RDOを使ったOpenStack Havana - Neutron 構築編RDOを使ったOpenStack Havana - Neutron 構築編
RDOを使ったOpenStack Havana - Neutron 構築編VirtualTech Japan Inc.
 
OpenStack QuickStart - Icehouse
OpenStack QuickStart - IcehouseOpenStack QuickStart - Icehouse
OpenStack QuickStart - IcehouseHideki Saito
 
NTTデータ様講演 OpenStack最新情報セミナー 2014年6月
NTTデータ様講演 OpenStack最新情報セミナー 2014年6月NTTデータ様講演 OpenStack最新情報セミナー 2014年6月
NTTデータ様講演 OpenStack最新情報セミナー 2014年6月VirtualTech Japan Inc.
 
OpenStack勉強会
OpenStack勉強会OpenStack勉強会
OpenStack勉強会Yuki Obara
 
Canonical様講演 OpenStack最新情報セミナー 2013年11月
Canonical様講演 OpenStack最新情報セミナー 2013年11月Canonical様講演 OpenStack最新情報セミナー 2013年11月
Canonical様講演 OpenStack最新情報セミナー 2013年11月VirtualTech Japan Inc.
 
OpenStackで始めるクラウド環境構築入門(Horizon 基礎編)
OpenStackで始めるクラウド環境構築入門(Horizon 基礎編)OpenStackで始めるクラウド環境構築入門(Horizon 基礎編)
OpenStackで始めるクラウド環境構築入門(Horizon 基礎編)VirtualTech Japan Inc.
 
OpenStackクラウド基盤構築ハンズオンセミナー 第1日:講義No1
OpenStackクラウド基盤構築ハンズオンセミナー 第1日:講義No1OpenStackクラウド基盤構築ハンズオンセミナー 第1日:講義No1
OpenStackクラウド基盤構築ハンズオンセミナー 第1日:講義No1Etsuji Nakai
 
OpenStack ComputingはHyper-Convergedの夢を見るのか?
OpenStack ComputingはHyper-Convergedの夢を見るのか?OpenStack ComputingはHyper-Convergedの夢を見るのか?
OpenStack ComputingはHyper-Convergedの夢を見るのか?Naoto Gohko
 
OpenStack 最新動向 2016/11
OpenStack 最新動向 2016/11OpenStack 最新動向 2016/11
OpenStack 最新動向 2016/11Akira Yoshiyama
 
OpenStackをさらに”使う”技術 概要と基礎操作
OpenStackをさらに”使う”技術 概要と基礎操作OpenStackをさらに”使う”技術 概要と基礎操作
OpenStackをさらに”使う”技術 概要と基礎操作irix_jp
 
日本HP様講演 OpenStack最新情報セミナー 2014年12月
日本HP様講演 OpenStack最新情報セミナー 2014年12月日本HP様講演 OpenStack最新情報セミナー 2014年12月
日本HP様講演 OpenStack最新情報セミナー 2014年12月VirtualTech Japan Inc.
 
OpenStack検証環境構築・トラブルシューティング入門 - OpenStack最新情報セミナー 2014年8月
OpenStack検証環境構築・トラブルシューティング入門 - OpenStack最新情報セミナー 2014年8月OpenStack検証環境構築・トラブルシューティング入門 - OpenStack最新情報セミナー 2014年8月
OpenStack検証環境構築・トラブルシューティング入門 - OpenStack最新情報セミナー 2014年8月VirtualTech Japan Inc.
 
OpenStack Grizzly Release
OpenStack Grizzly ReleaseOpenStack Grizzly Release
OpenStack Grizzly ReleaseAkira Yoshiyama
 
OpenStack最新動向と構築のポイント - EMC様セミナー 「あなたのビジネスを高速化! OpenStackが実現する戦略的なクラウドインフラ」
OpenStack最新動向と構築のポイント - EMC様セミナー 「あなたのビジネスを高速化! OpenStackが実現する戦略的なクラウドインフラ」OpenStack最新動向と構築のポイント - EMC様セミナー 「あなたのビジネスを高速化! OpenStackが実現する戦略的なクラウドインフラ」
OpenStack最新動向と構築のポイント - EMC様セミナー 「あなたのビジネスを高速化! OpenStackが実現する戦略的なクラウドインフラ」Nobuyuki Tamaoki
 
Canonicalが支える、さくっと使えるUbuntu OpenStack - OpenStack Day in ITpro EXPO 2014
Canonicalが支える、さくっと使えるUbuntu OpenStack - OpenStack Day in ITpro EXPO 2014Canonicalが支える、さくっと使えるUbuntu OpenStack - OpenStack Day in ITpro EXPO 2014
Canonicalが支える、さくっと使えるUbuntu OpenStack - OpenStack Day in ITpro EXPO 2014VirtualTech Japan Inc.
 
OpenStackによる、実践オンプレミスクラウド
OpenStackによる、実践オンプレミスクラウドOpenStackによる、実践オンプレミスクラウド
OpenStackによる、実践オンプレミスクラウドMasanori Itoh
 
ブロードバンドタワー様講演 OpenStack最新情報セミナー 2014年4月
ブロードバンドタワー様講演 OpenStack最新情報セミナー 2014年4月ブロードバンドタワー様講演 OpenStack最新情報セミナー 2014年4月
ブロードバンドタワー様講演 OpenStack最新情報セミナー 2014年4月VirtualTech Japan Inc.
 
ガチで聞く!ヤフーのOpenStackプライベート・クラウドの実態とは
ガチで聞く!ヤフーのOpenStackプライベート・クラウドの実態とはガチで聞く!ヤフーのOpenStackプライベート・クラウドの実態とは
ガチで聞く!ヤフーのOpenStackプライベート・クラウドの実態とはBrocade
 
OpenStackネットワーク実装の 現状と運用自動化開発の実際 第二部:運用自動化開発の実際 – OpenStack最新情報セミナー 2015年7月
OpenStackネットワーク実装の 現状と運用自動化開発の実際 第二部:運用自動化開発の実際 – OpenStack最新情報セミナー 2015年7月OpenStackネットワーク実装の 現状と運用自動化開発の実際 第二部:運用自動化開発の実際 – OpenStack最新情報セミナー 2015年7月
OpenStackネットワーク実装の 現状と運用自動化開発の実際 第二部:運用自動化開発の実際 – OpenStack最新情報セミナー 2015年7月VirtualTech Japan Inc.
 
OpenStack Summit Austin 2016 参加報告 - OpenStack最新情報セミナー 2016年5月
OpenStack Summit Austin 2016 参加報告 - OpenStack最新情報セミナー 2016年5月OpenStack Summit Austin 2016 参加報告 - OpenStack最新情報セミナー 2016年5月
OpenStack Summit Austin 2016 参加報告 - OpenStack最新情報セミナー 2016年5月VirtualTech Japan Inc.
 

What's hot (20)

RDOを使ったOpenStack Havana - Neutron 構築編
RDOを使ったOpenStack Havana - Neutron 構築編RDOを使ったOpenStack Havana - Neutron 構築編
RDOを使ったOpenStack Havana - Neutron 構築編
 
OpenStack QuickStart - Icehouse
OpenStack QuickStart - IcehouseOpenStack QuickStart - Icehouse
OpenStack QuickStart - Icehouse
 
NTTデータ様講演 OpenStack最新情報セミナー 2014年6月
NTTデータ様講演 OpenStack最新情報セミナー 2014年6月NTTデータ様講演 OpenStack最新情報セミナー 2014年6月
NTTデータ様講演 OpenStack最新情報セミナー 2014年6月
 
OpenStack勉強会
OpenStack勉強会OpenStack勉強会
OpenStack勉強会
 
Canonical様講演 OpenStack最新情報セミナー 2013年11月
Canonical様講演 OpenStack最新情報セミナー 2013年11月Canonical様講演 OpenStack最新情報セミナー 2013年11月
Canonical様講演 OpenStack最新情報セミナー 2013年11月
 
OpenStackで始めるクラウド環境構築入門(Horizon 基礎編)
OpenStackで始めるクラウド環境構築入門(Horizon 基礎編)OpenStackで始めるクラウド環境構築入門(Horizon 基礎編)
OpenStackで始めるクラウド環境構築入門(Horizon 基礎編)
 
OpenStackクラウド基盤構築ハンズオンセミナー 第1日:講義No1
OpenStackクラウド基盤構築ハンズオンセミナー 第1日:講義No1OpenStackクラウド基盤構築ハンズオンセミナー 第1日:講義No1
OpenStackクラウド基盤構築ハンズオンセミナー 第1日:講義No1
 
OpenStack ComputingはHyper-Convergedの夢を見るのか?
OpenStack ComputingはHyper-Convergedの夢を見るのか?OpenStack ComputingはHyper-Convergedの夢を見るのか?
OpenStack ComputingはHyper-Convergedの夢を見るのか?
 
OpenStack 最新動向 2016/11
OpenStack 最新動向 2016/11OpenStack 最新動向 2016/11
OpenStack 最新動向 2016/11
 
OpenStackをさらに”使う”技術 概要と基礎操作
OpenStackをさらに”使う”技術 概要と基礎操作OpenStackをさらに”使う”技術 概要と基礎操作
OpenStackをさらに”使う”技術 概要と基礎操作
 
日本HP様講演 OpenStack最新情報セミナー 2014年12月
日本HP様講演 OpenStack最新情報セミナー 2014年12月日本HP様講演 OpenStack最新情報セミナー 2014年12月
日本HP様講演 OpenStack最新情報セミナー 2014年12月
 
OpenStack検証環境構築・トラブルシューティング入門 - OpenStack最新情報セミナー 2014年8月
OpenStack検証環境構築・トラブルシューティング入門 - OpenStack最新情報セミナー 2014年8月OpenStack検証環境構築・トラブルシューティング入門 - OpenStack最新情報セミナー 2014年8月
OpenStack検証環境構築・トラブルシューティング入門 - OpenStack最新情報セミナー 2014年8月
 
OpenStack Grizzly Release
OpenStack Grizzly ReleaseOpenStack Grizzly Release
OpenStack Grizzly Release
 
OpenStack最新動向と構築のポイント - EMC様セミナー 「あなたのビジネスを高速化! OpenStackが実現する戦略的なクラウドインフラ」
OpenStack最新動向と構築のポイント - EMC様セミナー 「あなたのビジネスを高速化! OpenStackが実現する戦略的なクラウドインフラ」OpenStack最新動向と構築のポイント - EMC様セミナー 「あなたのビジネスを高速化! OpenStackが実現する戦略的なクラウドインフラ」
OpenStack最新動向と構築のポイント - EMC様セミナー 「あなたのビジネスを高速化! OpenStackが実現する戦略的なクラウドインフラ」
 
Canonicalが支える、さくっと使えるUbuntu OpenStack - OpenStack Day in ITpro EXPO 2014
Canonicalが支える、さくっと使えるUbuntu OpenStack - OpenStack Day in ITpro EXPO 2014Canonicalが支える、さくっと使えるUbuntu OpenStack - OpenStack Day in ITpro EXPO 2014
Canonicalが支える、さくっと使えるUbuntu OpenStack - OpenStack Day in ITpro EXPO 2014
 
OpenStackによる、実践オンプレミスクラウド
OpenStackによる、実践オンプレミスクラウドOpenStackによる、実践オンプレミスクラウド
OpenStackによる、実践オンプレミスクラウド
 
ブロードバンドタワー様講演 OpenStack最新情報セミナー 2014年4月
ブロードバンドタワー様講演 OpenStack最新情報セミナー 2014年4月ブロードバンドタワー様講演 OpenStack最新情報セミナー 2014年4月
ブロードバンドタワー様講演 OpenStack最新情報セミナー 2014年4月
 
ガチで聞く!ヤフーのOpenStackプライベート・クラウドの実態とは
ガチで聞く!ヤフーのOpenStackプライベート・クラウドの実態とはガチで聞く!ヤフーのOpenStackプライベート・クラウドの実態とは
ガチで聞く!ヤフーのOpenStackプライベート・クラウドの実態とは
 
OpenStackネットワーク実装の 現状と運用自動化開発の実際 第二部:運用自動化開発の実際 – OpenStack最新情報セミナー 2015年7月
OpenStackネットワーク実装の 現状と運用自動化開発の実際 第二部:運用自動化開発の実際 – OpenStack最新情報セミナー 2015年7月OpenStackネットワーク実装の 現状と運用自動化開発の実際 第二部:運用自動化開発の実際 – OpenStack最新情報セミナー 2015年7月
OpenStackネットワーク実装の 現状と運用自動化開発の実際 第二部:運用自動化開発の実際 – OpenStack最新情報セミナー 2015年7月
 
OpenStack Summit Austin 2016 参加報告 - OpenStack最新情報セミナー 2016年5月
OpenStack Summit Austin 2016 参加報告 - OpenStack最新情報セミナー 2016年5月OpenStack Summit Austin 2016 参加報告 - OpenStack最新情報セミナー 2016年5月
OpenStack Summit Austin 2016 参加報告 - OpenStack最新情報セミナー 2016年5月
 

Viewers also liked

2017 0306 Apache OpenWhisk starting
2017 0306 Apache OpenWhisk starting2017 0306 Apache OpenWhisk starting
2017 0306 Apache OpenWhisk startingNaoto Gohko
 
OSunC Chiba LT Ubuntu 14.04 to 16.04.1 upgrade with ConfigDrive cloud image
OSunC Chiba LT Ubuntu 14.04 to 16.04.1 upgrade with ConfigDrive cloud imageOSunC Chiba LT Ubuntu 14.04 to 16.04.1 upgrade with ConfigDrive cloud image
OSunC Chiba LT Ubuntu 14.04 to 16.04.1 upgrade with ConfigDrive cloud imageNaoto Gohko
 
Openstack days taiwan 2016 0712
Openstack days taiwan 2016 0712Openstack days taiwan 2016 0712
Openstack days taiwan 2016 0712Naoto Gohko
 
1st OCDET Baremetal MTG OpenStack baremetal compute by GMO AppsCloud
1st OCDET Baremetal MTG OpenStack baremetal compute by GMO AppsCloud1st OCDET Baremetal MTG OpenStack baremetal compute by GMO AppsCloud
1st OCDET Baremetal MTG OpenStack baremetal compute by GMO AppsCloudNaoto Gohko
 
2016 0626 ubuntu 1604 LTS party LT
2016 0626 ubuntu 1604 LTS party LT2016 0626 ubuntu 1604 LTS party LT
2016 0626 ubuntu 1604 LTS party LTNaoto Gohko
 
OpenStack cloud for ConoHa, Z.com and GMO AppsCloud in okinawa opendays 2015 ...
OpenStack cloud for ConoHa, Z.com and GMO AppsCloud in okinawa opendays 2015 ...OpenStack cloud for ConoHa, Z.com and GMO AppsCloud in okinawa opendays 2015 ...
OpenStack cloud for ConoHa, Z.com and GMO AppsCloud in okinawa opendays 2015 ...Naoto Gohko
 
2016 1214-dev-night-vol1-in-tanita
2016 1214-dev-night-vol1-in-tanita2016 1214-dev-night-vol1-in-tanita
2016 1214-dev-night-vol1-in-tanitaNaoto Gohko
 
Janog36 ConoHa: Making GSLB - OpenStack Designate and PowerDNS
Janog36 ConoHa: Making GSLB - OpenStack Designate and PowerDNSJanog36 ConoHa: Making GSLB - OpenStack Designate and PowerDNS
Janog36 ConoHa: Making GSLB - OpenStack Designate and PowerDNSNaoto Gohko
 
出張このべん in 大阪
出張このべん in 大阪出張このべん in 大阪
出張このべん in 大阪Hironobu Saitoh
 
フロントエンドの人にも知ってもらいたいサーバーの話
フロントエンドの人にも知ってもらいたいサーバーの話フロントエンドの人にも知ってもらいたいサーバーの話
フロントエンドの人にも知ってもらいたいサーバーの話Hironobu Saitoh
 
ConoHa VPSの コマンドラインツールを作った
ConoHa VPSの コマンドラインツールを作ったConoHa VPSの コマンドラインツールを作った
ConoHa VPSの コマンドラインツールを作ったHironobu Saitoh
 
ConoHaにおける オブジェクトストレージの 利用動向
ConoHaにおける オブジェクトストレージの 利用動向ConoHaにおける オブジェクトストレージの 利用動向
ConoHaにおける オブジェクトストレージの 利用動向Hironobu Saitoh
 
ベアメタルプロビジョニング(Ironic)について
ベアメタルプロビジョニング(Ironic)についてベアメタルプロビジョニング(Ironic)について
ベアメタルプロビジョニング(Ironic)についてMitsuhiro SHIGEMATSU
 
自宅仮想マシンをConohaに移行してみた
自宅仮想マシンをConohaに移行してみた自宅仮想マシンをConohaに移行してみた
自宅仮想マシンをConohaに移行してみた2bo 2bo
 
Pola Keselarasan Vokal1.
Pola Keselarasan Vokal1.Pola Keselarasan Vokal1.
Pola Keselarasan Vokal1.son goku
 
OpenStack Ironicによるベアメタルプロビジョニング
OpenStack IronicによるベアメタルプロビジョニングOpenStack Ironicによるベアメタルプロビジョニング
OpenStack IronicによるベアメタルプロビジョニングYuuki Mori
 
このべん第5回 ConoHaでWordPressのお勉強!
このべん第5回 ConoHaでWordPressのお勉強!このべん第5回 ConoHaでWordPressのお勉強!
このべん第5回 ConoHaでWordPressのお勉強!Hironobu Saitoh
 
GMOインターネット様 発表「OpenStackのモデルの最適化とConoHa, Z.comとGMOアプリクラウドへの適用」 - OpenStack最新情...
GMOインターネット様 発表「OpenStackのモデルの最適化とConoHa, Z.comとGMOアプリクラウドへの適用」 - OpenStack最新情...GMOインターネット様 発表「OpenStackのモデルの最適化とConoHa, Z.comとGMOアプリクラウドへの適用」 - OpenStack最新情...
GMOインターネット様 発表「OpenStackのモデルの最適化とConoHa, Z.comとGMOアプリクラウドへの適用」 - OpenStack最新情...VirtualTech Japan Inc.
 
LLD(ローレベルディスカバリ)を弄り倒せ、zabbix_senderを併用してらくらく可視化
LLD(ローレベルディスカバリ)を弄り倒せ、zabbix_senderを併用してらくらく可視化LLD(ローレベルディスカバリ)を弄り倒せ、zabbix_senderを併用してらくらく可視化
LLD(ローレベルディスカバリ)を弄り倒せ、zabbix_senderを併用してらくらく可視化Takeshi Yamane
 
Linux Networking Explained
Linux Networking ExplainedLinux Networking Explained
Linux Networking ExplainedThomas Graf
 

Viewers also liked (20)

2017 0306 Apache OpenWhisk starting
2017 0306 Apache OpenWhisk starting2017 0306 Apache OpenWhisk starting
2017 0306 Apache OpenWhisk starting
 
OSunC Chiba LT Ubuntu 14.04 to 16.04.1 upgrade with ConfigDrive cloud image
OSunC Chiba LT Ubuntu 14.04 to 16.04.1 upgrade with ConfigDrive cloud imageOSunC Chiba LT Ubuntu 14.04 to 16.04.1 upgrade with ConfigDrive cloud image
OSunC Chiba LT Ubuntu 14.04 to 16.04.1 upgrade with ConfigDrive cloud image
 
Openstack days taiwan 2016 0712
Openstack days taiwan 2016 0712Openstack days taiwan 2016 0712
Openstack days taiwan 2016 0712
 
1st OCDET Baremetal MTG OpenStack baremetal compute by GMO AppsCloud
1st OCDET Baremetal MTG OpenStack baremetal compute by GMO AppsCloud1st OCDET Baremetal MTG OpenStack baremetal compute by GMO AppsCloud
1st OCDET Baremetal MTG OpenStack baremetal compute by GMO AppsCloud
 
2016 0626 ubuntu 1604 LTS party LT
2016 0626 ubuntu 1604 LTS party LT2016 0626 ubuntu 1604 LTS party LT
2016 0626 ubuntu 1604 LTS party LT
 
OpenStack cloud for ConoHa, Z.com and GMO AppsCloud in okinawa opendays 2015 ...
OpenStack cloud for ConoHa, Z.com and GMO AppsCloud in okinawa opendays 2015 ...OpenStack cloud for ConoHa, Z.com and GMO AppsCloud in okinawa opendays 2015 ...
OpenStack cloud for ConoHa, Z.com and GMO AppsCloud in okinawa opendays 2015 ...
 
2016 1214-dev-night-vol1-in-tanita
2016 1214-dev-night-vol1-in-tanita2016 1214-dev-night-vol1-in-tanita
2016 1214-dev-night-vol1-in-tanita
 
Janog36 ConoHa: Making GSLB - OpenStack Designate and PowerDNS
Janog36 ConoHa: Making GSLB - OpenStack Designate and PowerDNSJanog36 ConoHa: Making GSLB - OpenStack Designate and PowerDNS
Janog36 ConoHa: Making GSLB - OpenStack Designate and PowerDNS
 
出張このべん in 大阪
出張このべん in 大阪出張このべん in 大阪
出張このべん in 大阪
 
フロントエンドの人にも知ってもらいたいサーバーの話
フロントエンドの人にも知ってもらいたいサーバーの話フロントエンドの人にも知ってもらいたいサーバーの話
フロントエンドの人にも知ってもらいたいサーバーの話
 
ConoHa VPSの コマンドラインツールを作った
ConoHa VPSの コマンドラインツールを作ったConoHa VPSの コマンドラインツールを作った
ConoHa VPSの コマンドラインツールを作った
 
ConoHaにおける オブジェクトストレージの 利用動向
ConoHaにおける オブジェクトストレージの 利用動向ConoHaにおける オブジェクトストレージの 利用動向
ConoHaにおける オブジェクトストレージの 利用動向
 
ベアメタルプロビジョニング(Ironic)について
ベアメタルプロビジョニング(Ironic)についてベアメタルプロビジョニング(Ironic)について
ベアメタルプロビジョニング(Ironic)について
 
自宅仮想マシンをConohaに移行してみた
自宅仮想マシンをConohaに移行してみた自宅仮想マシンをConohaに移行してみた
自宅仮想マシンをConohaに移行してみた
 
Pola Keselarasan Vokal1.
Pola Keselarasan Vokal1.Pola Keselarasan Vokal1.
Pola Keselarasan Vokal1.
 
OpenStack Ironicによるベアメタルプロビジョニング
OpenStack IronicによるベアメタルプロビジョニングOpenStack Ironicによるベアメタルプロビジョニング
OpenStack Ironicによるベアメタルプロビジョニング
 
このべん第5回 ConoHaでWordPressのお勉強!
このべん第5回 ConoHaでWordPressのお勉強!このべん第5回 ConoHaでWordPressのお勉強!
このべん第5回 ConoHaでWordPressのお勉強!
 
GMOインターネット様 発表「OpenStackのモデルの最適化とConoHa, Z.comとGMOアプリクラウドへの適用」 - OpenStack最新情...
GMOインターネット様 発表「OpenStackのモデルの最適化とConoHa, Z.comとGMOアプリクラウドへの適用」 - OpenStack最新情...GMOインターネット様 発表「OpenStackのモデルの最適化とConoHa, Z.comとGMOアプリクラウドへの適用」 - OpenStack最新情...
GMOインターネット様 発表「OpenStackのモデルの最適化とConoHa, Z.comとGMOアプリクラウドへの適用」 - OpenStack最新情...
 
LLD(ローレベルディスカバリ)を弄り倒せ、zabbix_senderを併用してらくらく可視化
LLD(ローレベルディスカバリ)を弄り倒せ、zabbix_senderを併用してらくらく可視化LLD(ローレベルディスカバリ)を弄り倒せ、zabbix_senderを併用してらくらく可視化
LLD(ローレベルディスカバリ)を弄り倒せ、zabbix_senderを併用してらくらく可視化
 
Linux Networking Explained
Linux Networking ExplainedLinux Networking Explained
Linux Networking Explained
 

Similar to Miracle Linux seminer Hatohol and ConoHa

serverless openstack 101
serverless openstack 101serverless openstack 101
serverless openstack 101Naoto Gohko
 
Oracle Cloud IaaS活用:VMwareをそのままパブリック・クラウドへ&Windowsならオラクル [Oracle Cloud Days T...
Oracle Cloud IaaS活用:VMwareをそのままパブリック・クラウドへ&Windowsならオラクル [Oracle Cloud Days T...Oracle Cloud IaaS活用:VMwareをそのままパブリック・クラウドへ&Windowsならオラクル [Oracle Cloud Days T...
Oracle Cloud IaaS活用:VMwareをそのままパブリック・クラウドへ&Windowsならオラクル [Oracle Cloud Days T...オラクルエンジニア通信
 
Whats new Apache CloudStack
Whats new Apache CloudStackWhats new Apache CloudStack
Whats new Apache CloudStackKimihiko Kitase
 
CloudStack Ecosystem Day - OpenStack/Swift
CloudStack Ecosystem Day - OpenStack/SwiftCloudStack Ecosystem Day - OpenStack/Swift
CloudStack Ecosystem Day - OpenStack/Swiftirix_jp
 
「hbstudy#23 OpenStack祭!!」資料 ~OpenStackプロジェクトの全体像~
「hbstudy#23 OpenStack祭!!」資料 ~OpenStackプロジェクトの全体像~「hbstudy#23 OpenStack祭!!」資料 ~OpenStackプロジェクトの全体像~
「hbstudy#23 OpenStack祭!!」資料 ~OpenStackプロジェクトの全体像~Masanori Itoh
 
Cloud Foundry: Open Platform as a Service
Cloud Foundry: Open Platform as a ServiceCloud Foundry: Open Platform as a Service
Cloud Foundry: Open Platform as a ServiceShunsuke Kurumatani
 
OpenCloudCampus : Cloud Technologies Meeting (OpenStack)
OpenCloudCampus : Cloud Technologies Meeting (OpenStack)OpenCloudCampus : Cloud Technologies Meeting (OpenStack)
OpenCloudCampus : Cloud Technologies Meeting (OpenStack)Masanori Itoh
 
OpenStack + KVM + IPv6 = oname.com; Next Folsom/Grizzly Service development s...
OpenStack + KVM + IPv6 = oname.com; Next Folsom/Grizzly Service development s...OpenStack + KVM + IPv6 = oname.com; Next Folsom/Grizzly Service development s...
OpenStack + KVM + IPv6 = oname.com; Next Folsom/Grizzly Service development s...Naoto Gohko
 
"OPEN NETWORKING" に向けた Management / Data Plane の動向
"OPEN NETWORKING" に向けた Management / Data Plane の動向"OPEN NETWORKING" に向けた Management / Data Plane の動向
"OPEN NETWORKING" に向けた Management / Data Plane の動向Kentaro Ebisawa
 
OSC2012 Tokyo/Spring JOSUG
OSC2012 Tokyo/Spring JOSUGOSC2012 Tokyo/Spring JOSUG
OSC2012 Tokyo/Spring JOSUGHideki Saito
 
JellyBeanのソースをとりあえず眺めてみた(手抜き)
JellyBeanのソースをとりあえず眺めてみた(手抜き)JellyBeanのソースをとりあえず眺めてみた(手抜き)
JellyBeanのソースをとりあえず眺めてみた(手抜き)l_b__
 
Lagopus Router v19.07.1
Lagopus Router v19.07.1Lagopus Router v19.07.1
Lagopus Router v19.07.1Tomoya Hibi
 
CEDEC2015_OpenStack で運用する Private Cloud の泥臭い(リアル)な話
CEDEC2015_OpenStack で運用する Private Cloud の泥臭い(リアル)な話CEDEC2015_OpenStack で運用する Private Cloud の泥臭い(リアル)な話
CEDEC2015_OpenStack で運用する Private Cloud の泥臭い(リアル)な話gree_tech
 
PFNのML/DL基盤を支えるKubernetesにおける自動化 / DevOpsDays Tokyo 2021
PFNのML/DL基盤を支えるKubernetesにおける自動化 / DevOpsDays Tokyo 2021PFNのML/DL基盤を支えるKubernetesにおける自動化 / DevOpsDays Tokyo 2021
PFNのML/DL基盤を支えるKubernetesにおける自動化 / DevOpsDays Tokyo 2021Preferred Networks
 
Dockerの仕組みとIIJ社内での利用例
Dockerの仕組みとIIJ社内での利用例Dockerの仕組みとIIJ社内での利用例
Dockerの仕組みとIIJ社内での利用例maebashi
 
20130803 OSC@Kyoto CloudStackユーザー会
20130803 OSC@Kyoto CloudStackユーザー会20130803 OSC@Kyoto CloudStackユーザー会
20130803 OSC@Kyoto CloudStackユーザー会samemoon
 
Apache BigtopによるHadoopエコシステムのパッケージング(Open Source Conference 2021 Online/Osaka...
Apache BigtopによるHadoopエコシステムのパッケージング(Open Source Conference 2021 Online/Osaka...Apache BigtopによるHadoopエコシステムのパッケージング(Open Source Conference 2021 Online/Osaka...
Apache BigtopによるHadoopエコシステムのパッケージング(Open Source Conference 2021 Online/Osaka...NTT DATA Technology & Innovation
 
OpenStack Atlanta Summit Report: Neutron, Nova and design summit sessions
OpenStack Atlanta Summit Report: Neutron, Nova and design summit sessionsOpenStack Atlanta Summit Report: Neutron, Nova and design summit sessions
OpenStack Atlanta Summit Report: Neutron, Nova and design summit sessionsAkihiro Motoki
 

Similar to Miracle Linux seminer Hatohol and ConoHa (20)

serverless openstack 101
serverless openstack 101serverless openstack 101
serverless openstack 101
 
Oracle Cloud IaaS活用:VMwareをそのままパブリック・クラウドへ&Windowsならオラクル [Oracle Cloud Days T...
Oracle Cloud IaaS活用:VMwareをそのままパブリック・クラウドへ&Windowsならオラクル [Oracle Cloud Days T...Oracle Cloud IaaS活用:VMwareをそのままパブリック・クラウドへ&Windowsならオラクル [Oracle Cloud Days T...
Oracle Cloud IaaS活用:VMwareをそのままパブリック・クラウドへ&Windowsならオラクル [Oracle Cloud Days T...
 
Whats new Apache CloudStack
Whats new Apache CloudStackWhats new Apache CloudStack
Whats new Apache CloudStack
 
CloudStack Ecosystem Day - OpenStack/Swift
CloudStack Ecosystem Day - OpenStack/SwiftCloudStack Ecosystem Day - OpenStack/Swift
CloudStack Ecosystem Day - OpenStack/Swift
 
OpenStack概要
OpenStack概要OpenStack概要
OpenStack概要
 
「hbstudy#23 OpenStack祭!!」資料 ~OpenStackプロジェクトの全体像~
「hbstudy#23 OpenStack祭!!」資料 ~OpenStackプロジェクトの全体像~「hbstudy#23 OpenStack祭!!」資料 ~OpenStackプロジェクトの全体像~
「hbstudy#23 OpenStack祭!!」資料 ~OpenStackプロジェクトの全体像~
 
Cloud Foundry: Open Platform as a Service
Cloud Foundry: Open Platform as a ServiceCloud Foundry: Open Platform as a Service
Cloud Foundry: Open Platform as a Service
 
OpenCloudCampus : Cloud Technologies Meeting (OpenStack)
OpenCloudCampus : Cloud Technologies Meeting (OpenStack)OpenCloudCampus : Cloud Technologies Meeting (OpenStack)
OpenCloudCampus : Cloud Technologies Meeting (OpenStack)
 
OpenStack + KVM + IPv6 = oname.com; Next Folsom/Grizzly Service development s...
OpenStack + KVM + IPv6 = oname.com; Next Folsom/Grizzly Service development s...OpenStack + KVM + IPv6 = oname.com; Next Folsom/Grizzly Service development s...
OpenStack + KVM + IPv6 = oname.com; Next Folsom/Grizzly Service development s...
 
"OPEN NETWORKING" に向けた Management / Data Plane の動向
"OPEN NETWORKING" に向けた Management / Data Plane の動向"OPEN NETWORKING" に向けた Management / Data Plane の動向
"OPEN NETWORKING" に向けた Management / Data Plane の動向
 
OSC2012 Tokyo/Spring JOSUG
OSC2012 Tokyo/Spring JOSUGOSC2012 Tokyo/Spring JOSUG
OSC2012 Tokyo/Spring JOSUG
 
JellyBeanのソースをとりあえず眺めてみた(手抜き)
JellyBeanのソースをとりあえず眺めてみた(手抜き)JellyBeanのソースをとりあえず眺めてみた(手抜き)
JellyBeanのソースをとりあえず眺めてみた(手抜き)
 
Lagopus Router v19.07.1
Lagopus Router v19.07.1Lagopus Router v19.07.1
Lagopus Router v19.07.1
 
CEDEC2015_OpenStack で運用する Private Cloud の泥臭い(リアル)な話
CEDEC2015_OpenStack で運用する Private Cloud の泥臭い(リアル)な話CEDEC2015_OpenStack で運用する Private Cloud の泥臭い(リアル)な話
CEDEC2015_OpenStack で運用する Private Cloud の泥臭い(リアル)な話
 
最近のJuju/MAAS について
最近のJuju/MAAS について最近のJuju/MAAS について
最近のJuju/MAAS について
 
PFNのML/DL基盤を支えるKubernetesにおける自動化 / DevOpsDays Tokyo 2021
PFNのML/DL基盤を支えるKubernetesにおける自動化 / DevOpsDays Tokyo 2021PFNのML/DL基盤を支えるKubernetesにおける自動化 / DevOpsDays Tokyo 2021
PFNのML/DL基盤を支えるKubernetesにおける自動化 / DevOpsDays Tokyo 2021
 
Dockerの仕組みとIIJ社内での利用例
Dockerの仕組みとIIJ社内での利用例Dockerの仕組みとIIJ社内での利用例
Dockerの仕組みとIIJ社内での利用例
 
20130803 OSC@Kyoto CloudStackユーザー会
20130803 OSC@Kyoto CloudStackユーザー会20130803 OSC@Kyoto CloudStackユーザー会
20130803 OSC@Kyoto CloudStackユーザー会
 
Apache BigtopによるHadoopエコシステムのパッケージング(Open Source Conference 2021 Online/Osaka...
Apache BigtopによるHadoopエコシステムのパッケージング(Open Source Conference 2021 Online/Osaka...Apache BigtopによるHadoopエコシステムのパッケージング(Open Source Conference 2021 Online/Osaka...
Apache BigtopによるHadoopエコシステムのパッケージング(Open Source Conference 2021 Online/Osaka...
 
OpenStack Atlanta Summit Report: Neutron, Nova and design summit sessions
OpenStack Atlanta Summit Report: Neutron, Nova and design summit sessionsOpenStack Atlanta Summit Report: Neutron, Nova and design summit sessions
OpenStack Atlanta Summit Report: Neutron, Nova and design summit sessions
 

More from Naoto Gohko

ODC 2020 : "Rocky 8"
ODC 2020 : "Rocky 8"ODC 2020 : "Rocky 8"
ODC 2020 : "Rocky 8"Naoto Gohko
 
2019 0704 about ConoHa VM migration from C1 to C2
2019 0704 about ConoHa VM migration from C1 to C22019 0704 about ConoHa VM migration from C1 to C2
2019 0704 about ConoHa VM migration from C1 to C2Naoto Gohko
 
2018 04-14-cockroachdb-20-now-available
2018 04-14-cockroachdb-20-now-available2018 04-14-cockroachdb-20-now-available
2018 04-14-cockroachdb-20-now-availableNaoto Gohko
 
2017 0715 osc17do conoha cloud osclient
2017 0715 osc17do conoha cloud osclient2017 0715 osc17do conoha cloud osclient
2017 0715 osc17do conoha cloud osclientNaoto Gohko
 
Open stack swift is too Enterprise? 2014/12/01 advent cal
Open stack swift is too Enterprise?  2014/12/01 advent calOpen stack swift is too Enterprise?  2014/12/01 advent cal
Open stack swift is too Enterprise? 2014/12/01 advent calNaoto Gohko
 
TechOYAJI 2014 tokyo summer LT; CentOS7 and RDO Icehouse OpenStack
TechOYAJI 2014 tokyo summer LT;  CentOS7 and RDO Icehouse OpenStackTechOYAJI 2014 tokyo summer LT;  CentOS7 and RDO Icehouse OpenStack
TechOYAJI 2014 tokyo summer LT; CentOS7 and RDO Icehouse OpenStackNaoto Gohko
 
JOSUG2014 OpenStack 4th birthday party in Japan; the way of OpenStack API Dragon
JOSUG2014 OpenStack 4th birthday party in Japan; the way of OpenStack API DragonJOSUG2014 OpenStack 4th birthday party in Japan; the way of OpenStack API Dragon
JOSUG2014 OpenStack 4th birthday party in Japan; the way of OpenStack API DragonNaoto Gohko
 
2012 OpenStack + KVM = onamae.com VPS #2 ~ vnc and snapshot ~
2012 OpenStack + KVM = onamae.com VPS #2 ~ vnc and snapshot ~2012 OpenStack + KVM = onamae.com VPS #2 ~ vnc and snapshot ~
2012 OpenStack + KVM = onamae.com VPS #2 ~ vnc and snapshot ~Naoto Gohko
 
2012 OSC Kyoto / 2012 OSC Tokyo Fall - OpenStack vps kvm
2012 OSC Kyoto / 2012 OSC Tokyo Fall - OpenStack vps kvm2012 OSC Kyoto / 2012 OSC Tokyo Fall - OpenStack vps kvm
2012 OSC Kyoto / 2012 OSC Tokyo Fall - OpenStack vps kvmNaoto Gohko
 

More from Naoto Gohko (9)

ODC 2020 : "Rocky 8"
ODC 2020 : "Rocky 8"ODC 2020 : "Rocky 8"
ODC 2020 : "Rocky 8"
 
2019 0704 about ConoHa VM migration from C1 to C2
2019 0704 about ConoHa VM migration from C1 to C22019 0704 about ConoHa VM migration from C1 to C2
2019 0704 about ConoHa VM migration from C1 to C2
 
2018 04-14-cockroachdb-20-now-available
2018 04-14-cockroachdb-20-now-available2018 04-14-cockroachdb-20-now-available
2018 04-14-cockroachdb-20-now-available
 
2017 0715 osc17do conoha cloud osclient
2017 0715 osc17do conoha cloud osclient2017 0715 osc17do conoha cloud osclient
2017 0715 osc17do conoha cloud osclient
 
Open stack swift is too Enterprise? 2014/12/01 advent cal
Open stack swift is too Enterprise?  2014/12/01 advent calOpen stack swift is too Enterprise?  2014/12/01 advent cal
Open stack swift is too Enterprise? 2014/12/01 advent cal
 
TechOYAJI 2014 tokyo summer LT; CentOS7 and RDO Icehouse OpenStack
TechOYAJI 2014 tokyo summer LT;  CentOS7 and RDO Icehouse OpenStackTechOYAJI 2014 tokyo summer LT;  CentOS7 and RDO Icehouse OpenStack
TechOYAJI 2014 tokyo summer LT; CentOS7 and RDO Icehouse OpenStack
 
JOSUG2014 OpenStack 4th birthday party in Japan; the way of OpenStack API Dragon
JOSUG2014 OpenStack 4th birthday party in Japan; the way of OpenStack API DragonJOSUG2014 OpenStack 4th birthday party in Japan; the way of OpenStack API Dragon
JOSUG2014 OpenStack 4th birthday party in Japan; the way of OpenStack API Dragon
 
2012 OpenStack + KVM = onamae.com VPS #2 ~ vnc and snapshot ~
2012 OpenStack + KVM = onamae.com VPS #2 ~ vnc and snapshot ~2012 OpenStack + KVM = onamae.com VPS #2 ~ vnc and snapshot ~
2012 OpenStack + KVM = onamae.com VPS #2 ~ vnc and snapshot ~
 
2012 OSC Kyoto / 2012 OSC Tokyo Fall - OpenStack vps kvm
2012 OSC Kyoto / 2012 OSC Tokyo Fall - OpenStack vps kvm2012 OSC Kyoto / 2012 OSC Tokyo Fall - OpenStack vps kvm
2012 OSC Kyoto / 2012 OSC Tokyo Fall - OpenStack vps kvm
 

Miracle Linux seminer Hatohol and ConoHa

  • 1. 1 Miracle Linux ZBX/Hatohol セミナー Feb 17, 2017 Naoto Gohko (@naoto_gohko) GMO Internet, Inc. How to use opensource monitoring tools Hatohol and zabbix on GMO Ineternet using OpenStack for Public Cloud Slide URL http://www.slideshare.net/chroum/miracle-linux-seminer-hatohol-and-conoha ConoHa public cloud https://www.conoha.jp/ GMOインターネットのOpenStack public cloud “ConoHa”におけるオープンソース監視ツール “Hatohol” と”zabbix”の適⽤について
  • 2. 2 内容(アジェンダ) š 0) GMOインターネットのOpenStack public Cloudサービスについて š 1) 運⽤管理とはなんぞや š 2) これまで運⽤管理に使っていたツールについて š 3) ConoHaをマルチロケーションで運⽤するにあたって再検討した最近の 運⽤監視ツールについて š 4) Hatohol + zabbixを選択した理由について š 5) Hatohol + zabbix構成について š 6) (参考資料) OpenStack Japan Ops Workshop 2015/12 でのOpenStack を運⽤している各社の運⽤管理について
  • 3. 3 0) GMOインターネットの OpenStack public cloudサービス について
  • 4. 4 Public Clouds We are offering multiple public cloud services.
  • 5. 5 Physical Servers Running VMPhysical Server 1508 25294 Created VM Running Infrastructure (2015/10) 137223
  • 7. 7 Cloud service development team: (abount 30 people) – OpenStack Neutron team: 4 people • Neutron driver / modification / engineering – Cloud API development team: 5 people • Public API validation program • OpenStack modification / scaduler programing / keystone – Cloud Infra. development team: 11 people • Security engineering / glance driver / cinder driver / nova additional extensions / construction of OpenStack infra. – Applicatoin cloud service development team: 5 people • Billing engineering / staff tools / GMO AppsCloud web GUI Additional engineering team: many people (30 ~) – QA Team / Server Engineering Team / GUI development Team – Network Engineering Team / SaaS development Team – CRM backend and billing Team Cloud service development team: Now(2016)
  • 8. 8 Cloud service development team: Office(2016) #1 Neutron Team And Cloud API Team Cloud Infra. Team And AppsCloud Team
  • 9. 9 Cloud service development team: Office(2016) #2 Neutron Team And Cloud API Team Cloud Infra. Team And AppsCloud Team
  • 10. 10 Limied number of people. But, we have to run a lot of OpenStack service clusters.
  • 12. 12 Swift cluster GMO Internet, Inc.: VPS and Cloud services Onamae.com VPS (2012/03) : http://www.onamae-server.com/ Forcus: global IPs; provided by simple "nova-network" tenten VPS (2012/12) http://www.tenten.vn/ Share of OSS by Group companies in Vietnam ConoHa VPS (2013/07) : http://www.conoha.jp/ Forcus: Quantam(Neutron) overlay tenant network GMO AppsCloud (2014/04) : http://cloud.gmo.jp/ OpenStack Havana based 1st region Enterprise grade IaaS with block storage, object storage, LBaaS and baremetal compute was provided Onamae.com Cloud (2014/11) http://www.onamae-cloud.com/ Forcus: Low price VM instances, baremetal compute and object storage ConoHa Cloud (2015/05/18) http://www.conoha.jp/ Forcus: ML2 vxlan overlay, LBaaS, block storage, DNSaaS(Designate) and original services by keystone auth OpenStack Diablo on CentOS 6.x Nova Keystone Glance Nova network Shared codes Quantam OpenStack Glizzly on Ubuntu 12.04 Nova Keystone Glance OpenStack Havana on CentOS 6.x Keystone Glance Cinder Swift Swift Shared cluster Shared codes KeystoneGlance Neutron Nova Swift Baremetal compute Nova Ceilometer Baremetal compute Neutron LBaaS ovs + gre tunnel overlay Ceilometer Designate SwiftOpenStack Juno on CentOS 7.x NovaKeystone Glance Cinder Ceilometer Neutron LBaaS GMO AppsCloud (2015/09/27) : http://cloud.gmo.jp/ 2nd region by OpenStack Juno based Enterprise grade IaaS with High IOPS Ironic Compute and Neutron LBaaS Upgrade Juno GSLB Swift Keystone Glance CinderCeilometer Nova Neutron Ironic LBaaS
  • 13. 13 OpenStack Juno cluster: • ConoHa (Juno) and Z.com cloud • AppsCloud (Juno)
  • 14. 14 Tokyo Singapore Sanjose # ConoHa has data centers in 3 Locations
  • 15. 15 Tokyo Singapole User/tenant User/tenant API Management Keystone API API Management Keystone APIAPI Management Keystone API Token Token Tokyo SanJoseSingapore API Management Keystone API API Management Keystone API READ/WRITEREAD READ TokenToken Token Do not create/delete users Do not create/delete users Our Customer base User administration # User-registration is possible in Japan only DB Replication DB Replication User/tenant User/tenantUser/tenant R/W R/W
  • 16. 16 Tokyo Singapore Sanjose # Now(2017); data centers in 5 Locations VN Thai
  • 17. 17 OpenStack: we have many cluster Mikumo ConoHa Mikumo Anzu Mikumo = 美雲 = Beautiful cloud
  • 18. 18 • Service model: Public cloud by KVM • Network: 10Gbps wired(10GBase SFP+) • Network model: – Flat-VLAN + Neutron ML2 ovs-VXLAN overlay + ML2 LinuxBridge(SaaS only) – IPv6/IPv4 dualstack • LBaaS: LVS-DSR(original) • Public API – Provided the public API (v2 Domain) • Compute node: ALL SSD for booting OS – Without Cinder boot • Glance: provided • Cinder: SSD NexentaStore zfs (SDS) • Swift (shared Juno cluster) • Cobbler deply on under-cloud – Ansible configuration • SaaS original service with keystone auth – Email, web, CPanel and WordPress OpenStack Juno: 2 service cluster, released • Service model: Public cloud by KVM • Network: 10Gbps wired(10GBase SFP+) • Network model: – L4-LB-Nat + Neutron ML2 LinuxBridge VLAN – IPv4 only • LBaaS: Brocade ADX L4-NAT-LB(original) • Public API – Provided the public API • Compute node: Flash cached or SSD • Glance: provided (NetApp offload) • Cinder: NetApp storage • Swift (shared Juno cluster) • Ironic on under-cloud – Compute server deploy with Ansible config • Ironic baremetal compute – Nexsus Cisco for Tagged VLAN module – ioMemory configuration
  • 19. 19
  • 21. 21 1) (システム)運⽤管理 とは? š システム運⽤に関する管理 š è ITIL (Information Technology Infrastructure Library) などの例 šほぼデファクトのツール šITサービスを管理するために、 ITサービスの品質向上を⽬指す、 中⻑期的なコスト削減を⽬指す(⼈的、⾦銭的) š いわゆる “PDCA” サイクル的なものを、回していく必要がある
  • 24. 24 Ex) とある障害発⽣ お客のVPSのwebサーバのコンテンツが⾒えないと連絡 On call … … お客のVPSのネットワークにDDoS攻撃来ていた!! IPを上位ネットワークで⽌めてもらう On call終了 ふぅっ
  • 25. 25 Ex) とある障害発⽣ お客のVPSのwebサーバのコンテンツが⾒えないと連絡 On call … … お客のVPSのネットワークにDDoS攻撃来ていた!! IPを上位ネットワークで⽌めてもらう On call終了 ふぅっ ちょっ、まぁっ、ここ で終わったら、次に DDoS来た時にどうす るんだ!!
  • 26. 26 Ex) とある障害発⽣ + 記録 + 改善策 + 記録 お客のVPSのwebサーバのコンテンツが⾒えないと連絡 On call … … お客のVPSのネットワークにDDoS攻撃来ていた!! IPを上位ネットワークで⽌めてもらう è対応内容を記載 On call終了 è対策を調査 è http://blog.sflow.com/2013/03/ddos.html VPSのovs sflow をElasticSearchに⼊れて、AlertAction設定 AlertActionで上位ルータにdev nullに3分間落とす 対策内容を共有、類似のトラブルですぐに確認できるように
  • 27. 27 PDCA: (Plan, Do, Check, Action(Adjust)) š 継続的改善 DevOpsへの道
  • 28. 28 システム運⽤管理ソフトウェア とは? š システム運⽤に関する管理 è カイゼンを回して効率化などを得る この場では、事例、⽅法論などの知⾒を得ることで、何らかの改善ができればよいと思いま す 以下の内容(要素)を含みます è ネタはたくさんあります š Monitoring System, Security System š Notification(ChatOps, PushNotify), redmine(Tiket), RTFM š CMDB, IPAM, SDN, OpenStack, CloudStack š Automation Tools, Infra-spec Tools, Jenkins(Job) š Documentation Tools (Wiki, RTFM, Jupyter) š … …
  • 30. 30 2) これまでの運⽤管理に使っていたツール š 1) 監視ツール: Nagios š Version: 2.0b6(Solaris), 3.0(Solaris), 3.5.1(Nagios Core) š OS環境が様々 š Solaris 9, 10, OpenSolaris š Linux: CentOS 5.x, CentOS 6.x, CentOS 7.x, Ubuntu 14.04 š Notification: šMail: šIRC: #nagios channel へのircbot ( šNagstamon: (Windows): https://nagstamon.ifw-dresden.de) https://github.com/HenriWahl/Nagstamon š Graph: nagiosgraph (rrd files) ⼊社したときに初めてさわったNagios(ver. 2.0b6)が現役監視 è Solarisのシステム
  • 31. 31 2) なぜNagios 2.0b6とか残っているの? なぜ? š Nagios⾃体がほとんど進化していない? š Nagiosの残念な開発体制と、たくさんのForkの発⽣ š Nagios⾃体、仕様がほとんど変わらないので、 稼働が始まればupgradeする必要性を運⽤的に感じなかった š APIなどの不統⼀、オレオレFork š 監視対象もSolarisでgccでコンパイルが通れば問題ない š 監視数が増えないので、スケールアウトとか必要なかった š グラフもrrdデータなので なので、問題なかった(いままでは)
  • 32. 32 Nagios plugin(監視)はシンプル Nrpe agentプログラムを使う場合、監視スクリプトは以下のステータスコードとテキスト標 準出⼒を返せばよい Nagios Exit Codes Exit Code status 0 OK 1 WARNING 2 CRITICAL 3 UNKNOWN Nrpe agent è Nagiosクロールへの通信も、同様な処理 監視が作りやすい Exit code status 0 OK 1 WARNING 2 CRITICAL 3 UNKNOWN
  • 33. 33 2-2) これまでの運⽤管理に使っていたツール š 2) Hardware監視ツール: š Director (IBM, Lenovo) š SIM [System Insight Manager] (HPE) š OpenManage (Dell) 導⼊されたのは、お名前VPSサービス開始後(初めてLinux採⽤) >> IBM IA Serverが初めて導⼊された 製品のDefaultでIMMというIPMIの拡張管理ポートがあった IPMI関連ツールやコンソールの有⽤性から、ここから広まった Hardware監視ツールが無料で利⽤できたというメリットも
  • 34. 34 2-2) HW監視ツール š IBM Director š DB(IBM DB2 or MS SQLなど)の負荷などで、構成の⼯夫は⼊ります š Agent less監視 <<= ここ重要 š SIM (HP) š PostgreSQL š Agent必要 (HP ProLiant Gen9 あたりで、できるようになった?) š HPは買わなくなりましたw š Dell š MS SQL Server š Agent less監視 <<= ここ重要
  • 35. 35 2-2) Agentがあると、なにが問題か? š SIM (HP) š HPは買わなくなりましたw ç なぜ? š Agentが強制再起動を発動 (ASR) š Hung upを検知した時に、強制再起動 š 外部の温度で、強制再起動 š 思わぬDefault設定 www š è 結局Agentを停⽌することに š その他、SmartArrayトラブル等、みんな運⽤疲れ
  • 36. 36 2) これまでの運⽤管理に使っていたツール š 3) RTFM: Request Tracker š ⼊社当初のドキュメント/チケット管理ツール(2007, 2008) š Read the Fucking Manual š Site: https://bestpractical.com/rt-and-rtir š Document: https://docs.bestpractical.com/rt/4.4.0/index.html š Apache + mod_perl (環境はもちろんSolaris) š ドキュメント管理とチケット管理、Task Flowのツール 程なくして、redmineのチケット管理が⼊ったので、しばらくドキュメント共有ツールとし てつかつていました
  • 37. 37 2) これまでの運⽤管理に使っていたツール š 4) redmine: š チケット、Task Flow管理 šそもさん(お問い合わせ管理ツール) šSQIP2 (障害管理ツール) šLiveup/メンテナンス管理 šチーム間業務依頼管理 šAbuse管理 šQAバグチケット管理 šプロジェクト管理システム(⼯数管理) APIでチケットを投⼊したり、参照したりでいろいろ他のシステム連携 ⼊社してからIDC OPEチームが導⼊ 現在のシステム本部と事業部のTask Flow基盤として
  • 38. 38 2) これまでの運⽤管理に使っていたツール š 5) dokuwiki: š プロジェクトのドキュメント、作業メモ、仕様書記載 š RTのテキストのみから、画像、添付書類がつかえるように š XML-RPC (JSONは標準では無い) ⼊社してからIDC OPEチームが導⼊ RTからはドキュメント・データ移⾏
  • 39. 39 2) これまでの運⽤管理に使っていたツール š *) その他: š 設備機器管理ツール(開発部作成 .Net) š 開発部で作成: ラックの管理なども含む š オンコール管理ツール(開発部作成 .Net) š 電話/メールの連絡先と、ローテーションスケジュールの管理 š IRC š ChatOpsの原点、作業時の連絡など š NagiosからAlert Notification
  • 41. 41 3) ConoHaをマルチロケーションで運⽤時の再検討 š A) 監視ツールのNagiosの数がサービスごとに発⽣ š NotifyにMailを使っているので、莫⼤なWARN, ALERTメールが発⽣ šMialをNotifyにすると、通常業務のMailに負荷がかかり、Mailの障害という⼆重障 害が発⽣ š ロケーションが違うと、メールの到達性に疑問 š B) マルチロケーションをどう管理しやすくするのか š 画⾯上統⼀管理できるか š C) 遠隔地は⾃社で運⽤するとは限らなくなる(⽇本だけじゃない、現地法⼈) š グループ会社、協⼒会社が使っても良いようにユーザ管理できる š Html5 SSHなど、web画⾯で作業が終端できる、証跡 (記録)
  • 42. 42 3) 再検討ツールたち š 1) Nagios fork系、インスパイア系 š Nagios監視プラグインが流⽤できる š 2) 新たな構成 š Hatohol + zabbix / Monascaつかえる? š Hatoholにより、統合できそう š Gateone pluginとか作れるかも(zabbixからclick to html5 ssh) šhttp://tech-sketch.github.io/hyclops/jp/ TISが作ったFork : HyClops for Zabbix š 3) そのままNagiosを個別に⽴てる š ⽅法論は同じだが、「カイゼン」全く無し <<= 抵抗勢⼒はこれが良いとw
  • 43. 43 3) 再検討: A) Nagiosインスパイア系: Ichinga š Ichinga š https://www.icinga.org/ š CLIも強⼒、分散監視できる š Nagios pluginをそのままつかえる (pluginが多い) š Webと本体がわかれている、Timelineてきなインターフェースもよさ気 š 有償サポートあり、HPE Helion OpenStackもIchingaを採⽤ š WebはPHP ? š 以外にインストール⾯倒 š 監視設定処理の概念がNagiosを引き継いでいるので、以外に⾯倒 š DBを使う
  • 44. 44 3) 再検討: A) Nagiosインスパイア系: Sensu š Sensu š https://github.com/sensu/sensu/ š Ruby、RabbitMQ, Redis, JSON š メッセージ志向 (スケールアウトできるように) š メトリックス送信先で、グラフ書いたりする(Graphite, Librato, etc) šグラフ機能は内蔵されていない š Chef, puppet, ansibleでのWorkFlowで監視を投⼊できる š GUIは “uchiwa.io” : https://uchiwa.io/ š HandlersでNotifyアクション, GraphiteなどへのメトリクスPOST(グラフ更新) š 素晴らしいんだけど、学習コストいまは⾼そう(ConoHaリニューアル時)、Yahoo Japanは 使っている
  • 45. 45 3) 再検討: A) Nagiosインスパイア系: Shinken š Shinken š http://www.shinken-monitoring.org/ shinken.io š https://github.com/naparuba/shinken/ š PythonでNagiosをよりEnterpriseに作りなおした感じ š マルチデータセンタに適合しやすい構成 š Graphite, Nagvis, PNG4Nagios, Nagios OLD cgi webにも!! 対応 š Livestatus based API対応 š あぁ、普通にNagiosの新しいバージョンとしては良いかも š Nagios過ぎて、若⼲引く感じ
  • 46. 46 3) 再検討: Hatohol + zabbix, Nagios š Hatohol š http://www.hatohol.org/ š https://github.com/project-hatohol/hatohol š Miracle Linuxが主要メンバーで開発しているOpensource šなので、githubも⽇本語のissueがある š Zabbix or NagiosのFrontendとなる š Metricを実際にするzabbix, NagiosをまとめるFrontendであり、Notify、Actionを統合 できるツール š OpenStack連携の話をイベントの時に聞いた è あ、よさそう
  • 47. 47 4) Hatohol + zabbix 構成を選択した理由
  • 48. 48 4) Hatohol + zabbixを選択した理由 š A) 監視ツールのNagiosの数がサービスごとに発⽣ š Notifyの場所をHatohol⼀箇所にすることで、Action(ex: チケットを作ったり、chatに 通知したり、メールに投げたり)を作りやすくする š NagiosもZabbixもCeilometerもメトリックとして⼀元化できる、だろう š B) マルチロケーションをどう管理しやすくするのか š Hatoholに情報ポータルを⼀元化でき、zabbixのスケールアウトとして活⽤できる (zabbix APIで接続) (取得結果はHatohol内部のDBにcache) š C) 遠隔地は⾃社で運⽤するとは限らなくなる(⽇本だけじゃない) š HAPI(Hatohol Arm Plugin Interface)経由で認証を作ればできる、らしい šグループ企業は、web auth APIに対応すれば良い
  • 49. 49 zabbix š エージェントレスでssh baseでもいけますよ(by ⼯藤) (zabbix ver. 2.2系当時) š GUIはモダンでもないけど、APIが公式である (zabbix API) š ライブラリ結構ある: https://www.zabbix.org/wiki/Docs/api/libraries š Ex) Php: PhpZabbixApi : http://github.com/confirm/PhpZabbixApi š Nagiosみたいに分裂、発散せず、zabbix.org としてまとまっているのが良い š 情報も探しやすい (オープンソース版、商⽤版) 、情報が多い重要 š オープンソース活⽤において、商⽤とコミュニティが活発である (重要) š Forkしたくはないけど、pluginぐらいなら作るのはOK š まあ、そろそろ他の監視ツールも使ってみたい
  • 50. 50 Hatohol + zabbix, nagios š Hatoholにより、監視ツールは異なっても、おなじようにいけるだろう š Nagiosのところは、Sensu(ruby), Shinken(python), Ichingaになっても、なんとかなるか もとかんがえられる (置換可能) š Nagiosのところは、 live status api がよいかな(2015/05 導⼊当時)
  • 51. 51
  • 52. 52 Hatohol + nagios livestatus API ⽉⽇は流れ、秋ごろ
  • 53. 53 Hatohol + zabbix or nagios š (2015/Sep) Issueが上がる š https://github.com/project-hatohol/hatohol/issues/1549 š Mnakagawa-san作る š 実装された: https://github.com/project-hatohol/hatohol/blob/master/server/README.md š これにより、NagiosをNDOUtilsにマイグレしなくても、Nagios Livestatus APIの設定 のみで連携できるように (我々は、zabbix導⼊後ですが、OKだなと)
  • 54. 54 5) Hatohol + zabbix構成
  • 55. 55 5) Hatohol + zabbix構成 (2017/02/17現在) š 各リージョンのOpenStack cloud clusterの監視 : zabbix š JP (Tokyo) š US (San Jose) š Singapore š Vietnam (Hanoi) š Thailand (Bangkok) š 情報の集約 : Hatohol (JP (Tokyo)) š Notification Action : redmine š 1 AlertごとにHatoholがredmineにアラートチケットを発⾏(Action) š 証跡 : redmine š アラートをチケット =>> メールとしてNotify
  • 56. 56 Tokyo Singapore Sanjose # Now(2017); data centers in 5 Locations VN Thai
  • 57. 57 5) zabbix š zabbix単体でのalert通知は利⽤しない š ZabbixはバックエンドがDatabaseであり、alert履歴など貯めないことでなるべく軽く することを考えておく š Zabbixの古い履歴は、Databaseが肥⼤化する šDB (MySQL, PostgreSQL など)が膨れるので、履歴データを定期的に削除 š 履歴はredmineに「証跡」として残すので、気軽に消せる šグラフも紐付いているので、グラフを残したい場合には、別途グラフツールを考え る šZabbix è Graphite + Graphana など šOpenStack clusterのリージョン(ロケーション)ごとに設置する
  • 58. 58 5) Hatohol š Zabbixからの情報の集約とActionの⽣成に専念させる š Action : š 現在は 「Alert発⽣アクション」をredmine チケットに š 「Alert収束(終了)アクション」を通知してほしいとのユーザリクエスト šNagiosにはある機能 (今後の課題) š 今後の活⽤ š Hatohol APIとchatops (chatworks, slack)との組み合わせ š オープンソースであるので、開発コミュニティに参加して機能改善していく š 運⽤監視の改善プロジェクト
  • 59. 59
  • 60. 60
  • 61. 61
  • 64. 64 6) (参考) OpenStack Japan Ops Workshop 2015/12 š 2015年はじめて東京でOpenStack Summitが開催(10⽉) š Ops Workshop⾃体はSummitの中でもこれまでは開催されていたが、セッションが同時開 催だと参加しづらいという側⾯も š Mid-Cycleとして Summitとの中間時期にも開催されることに š OpenStackの開発へのFeedback(blueprintを書けないopsの意⾒取り込み)や、ドキュメン ト開発(ドキュメント作成は開発と同等となった)への取り組みへの反映 š OpenStack Summitとは⽇本ではずらして開催 š 東京(7⽉)、沖縄(12⽉) š 次回開催は OpenStack Days Tokyo in July 2016 Appendix
  • 65. 65 OpenStack ops docs (ドキュメント) š Ops Guide š HA Guide š Security Guide š New Architecture Design Guide š Networking Guide http://docs.openstack.org/ops/ 電⼦書籍データ(無料) http://docs.openstack.org/ja/openstack-ops/content/ html閲覧 オペレーションガイド(ja) http://docs/openstack.org/sec/ html閲覧 セキュリティガイド(en) Appendix
  • 66. 66 OpenStack ops ⽇本でどんなツールを使って運⽤しているか http://superuser.openstack.org/articles/okinawa-openstack-ops-workshop-rides-wave-of-interest Okinawa OpenStack Ops Workshop rides wave of interest Etherpad (議事録まとめ) https://etherpad.openstack.org/p/JP-Ops-workshop Appendix
  • 67. 67 ELKつかってますか? (⽇本のユーザ向け) Noooooooo. è なぜか? ⽇本では Logstash よりも Fluentd が好まれます š つまりELK(E: ElasticSearch, L: Logstash, K: Kibana)ではなく、 EFK(E: ElasticSearch, F: Fluentd, K: Kibana)である š 最近は”Beats”というものもある(Goで書かれているのでちっさく、ツールが⽤途別に なっている) >> EBK ? 説明スライド http://www.slideshare.net/td-nttcom/collect-summarize-and-notify-of-openstacks-log Collect, summarize and notify of OpenStack's log Appendix
  • 68. 68 Logstash vs. Fluentd Logstash š Javaである (メモリがっ…) “JRuby” runtime、スケールしない? š Logのcollect + forward š Plugin š Input/Output/codec/filterなどのpluginがある(ruby) Fluentd š ちっさい、軽い? Norikraなど中間処理に渡して再処理などgateway š Plugin š Online processingがある è Norikra (ここは”JRuby”なんだが) š Collectorでcounter組み込み(grep counter, datacalculator, etc.) Appendix
  • 69. 69 opsツール(Workshopアンケートより) Log monitoring tol š Logstash: 0 š Fluentd: 4 š Beaver: 0 << https://github.com/josegonzalez/python-beaver š Rsyslog: 6 š Splunk: 4 š ELK: Splunkは有償ソフトだが、4社も使っているとのこと(使いやすい) Appendix
  • 70. 70 log処理で何をやると便利か? š 串刺しで検索して動きを⾒る: 共通IDの検索 š Request ID š Tenant ID š User ID š その他 object(flavor, volume, image) ID Appendix
  • 71. 71 OpenStackの監視系、アンケートより š Kibana: 1 š Grafana: 2 š Collectd: 1 š Nagios: 1 š Zabbix: 9 š << スケールしない(170,000 metrics)、グラフがpoor š Sensu: 2 š Monasca: 0 š HRForcast: 1 (data visualizer, š GrowthForcastがRRDToolに依存しているが、 HPForcastはCSV(TSV)とかでOK、 Appendix
  • 72. 72 OpenStackの監視系、アンケートより Ceilometerはつかつている?: 4 企業 yes š Backend: Mongodb š なににつかっているの? š Billing: 1 (GMOのみ) š HeatでのAutoscaleのAlertingに使っている VMの中⾝の監視は? š Nagios, Sensuなどの通常監視 š Libvirtdからの外部からの監視 š Guest agent š Qemu-guest-agent (qemu経由でguestの情報取得) š https://github.com/rackerlabs/openstack-guest-agents-unix Appendix
  • 73. 73 OpenStackの監視系、アンケートより CMDB(構成管理DB)とか使っている? š 開発CI, alerting, notification system š ⾃社CMDB : 3 企業 š CMDBでインフラを管理(NW(IPAM), Server) š << dynamic Inventory? その他使っているもの š Spark š ElasticSearch š InfluxDB +1 š graphite Appendix
  • 74. 74 OpenStackのlogのこれから š “oslo.log” という共通ライブラリ化により、標準フォーマット化 š Traceback logは複数⾏にまたがっている << Parseしづらい š Error codeのoslo.logでの統⼀化 Appendix
  • 75. 75 OpenStack deployment tips š Puppet : 3 š OS-puppet : 0 š Chef : 4 š OS-Chef : 0 š Ansible : 7 š OS-ansible : 1 š Juju : 2 š Fuel : 1 それぞれ、運⽤管理ツールを兼ねているものがある Fuelなど Appendix