LTN Blog 〜 Lenovo Technology Network 〜

レノボのソリューション・サーバー製品に関する技術情報、お役立ち情報をお届けします

ADS(Acropolis Distributed Scheduler)に関して

皆さん、こんにちは レノボ・エンタープライズ・ソリューションズ 小宮です。

本日はNutanixのAHV上で仮想マシンのスケジューリングするADS(Acropolis Distributed Scheduler)のお話をしたいと思います。

本機能については、VMwareのことをご存知の方はお気づき方と思いますが、こちらはDRS(Distributed Resource Scheduler)と同様の機能だと思って頂ければと思いますが、機能は非常にシンプルになっています。 

Acropolis Distributed Schedulerについて 

f:id:t_komiya:20181002212903p:plain

ADSの目的は以下の通りです。

仮想マシンの初期配置

  • 新しい仮想マシンを最適なホストに配置する

ホスト内のリソースの競合を避ける

  • CPU(ホストのCPUが閾値85%を超えると移行が始まる)
  • ストレージコントローラ(CVMのCPUが閾値85%をStargateに使用されると移行が始まる)
    ABS(Nutanix Volume)も対象
  • ルール違反のスケジューリング
ホットスポットを検出するインテリジェントシステム
  • ホットスポットの回避
  • ワークロードの変化に反応しない

  • ワークロードに必要なリソースを確保
  • オペレータの介入なし
  • 負荷分散しない

仮想マシンのアフィニティポリシー

  • 選択したホストグループに仮想マシンを保持

仮想マシン間のアンチアフィニティポリシー

  • 異なるホスト上で仮想マシンの分離を保証

プロビジョニングした仮想マシンを最適なホストに配置して、ホスト内のリソース競合を避けるためようにすることが目的であり、VMwareのDRSのように細かな設定を行うことはありません。アフィニティポリシーについても非常にシンプルなものとして設定可能になっています。

また、仮想マシン起動時の初期配置および15分間隔で状態をチェックします。

 

 異常が見つかった場合は、次の方法で修復します。

  a)仮想マシン移行計画

  b)ABS iSCSIセッションの再指示

 

 異常検出

・15分毎

・ホストリソースが過負荷になっていないか確認する

  • 潜在的に十分なリソースを獲得できない仮想マシンがないとチェック

・ポリシーに違反していないかどうかをチェック

 

需要予測

・競合するノード上のリソースの需要予測が困難

・統計は現在どのくらいの割合で取得しているのか指定

・現在の値を選択すると、移行がたらいまわしにされる可能性があります

・現在の解決策は、コンバージェンスがより迅速になるように固定比率(+20%)で需要を拡大すること

 

ストレージCPUの計算

・Stargateはスレッドカウンターを発行

  • 各vdiskコントローラが費やした時間を指定(vdiskにマップされます)

・Vdiskカウンタは対応する仮想マシンおよびSoSANをターゲットに集約

・StargateのCPU使用率に基づく割り当て

・Storage CPU が通常の仮想マシンCPUに追加

  • I/Oヘビーな仮想マシンをコンピュートヘビーノードへの移行を妨げます
  • ハイパーコンバージド環境での特定が重要

 

VMwareのDRSと異なり、仮想マシンと合わせてストレージパフォーマンスをモデル化しません。

固定化されている機能であるため、特別にカスタマイズすることなく利用できます。

 

よろしくお願い致します。

ついに出たミッションクリティカル向けのNutanixモデル(ThinkAgile HX for SAP HANA)~ThinkAgile HX7820/HX7821のご紹介~

皆さん、こんにちは レノボ・エンタープライズ・ソリューションズ 小宮です。

本日は先日USで発表されたSAP HANA向けのNutanixモデルのThinkAgile HX7820/7821をご紹介したいと思います。

本記事をご参照頂くにあたり、以下のブログの記事も合わせて参考にして頂くとモデルの詳細を理解できると思いますので、よろしくお願いします。

 

HCIの10Gbで本当に大丈夫!?~AHV Turboを少し調べてみよう~ - LTN Blog 〜 Lenovo Technology Network 〜

 

Nutanixがパフォーマンスを必要とするエンタープライズアプリケーションに最適なソリューションである理由 - LTN Blog 〜 Lenovo Technology Network 〜

 

SAP環境にNutanixは最適なんです!~Nutanix Solution for SAP on Lenovo HX Series~ - LTN Blog 〜 Lenovo Technology Network 〜

 

まず初めにSAPに関する要件について一度ご説明したいと思います。

SAP HANAがリリースされる前はOracleやSQL Serverなどを利用してプラットフォームを構築していましたが、一つのプラットフォームに統一しリアルタイムにデータを分析してビジネスをサポートしながら、ハードウェアやオペレーションコストを削減してきました。 

f:id:t_komiya:20180923232002p:plain

しかしながら、従来型に比べて1/3のラックスペースとあるが、SAP HANAであっても3Tier構成である以上、インフラのオペレーションは一向に楽になるわけではなくハードウェアを含むインフラの柔軟性が必要となります。そこで考えつくのがハイパーコンバージドのようなインフラに対応していればよいと考えつくと思います。

f:id:t_komiya:20180923232515p:plain

ハイパーコンバージドは迅速性・柔軟性に加え、自動修復機能などの障害時のオペレーションにも非常に効果的なソリューションであります。運用についても1クリックで運用できることで、これがSAP HANAが対応していれば問題ないのですが、つい最近までNutanix(特にAHV)には対応しておりませんでした。

これが先月ようやくAHVでの認定が発表されたことにより、Nutanix上でのプラットフォームでSAP HANAが提案できるようになります。(製品リリース秋頃の予定)

なぜ、ハイパーコンバージドでSAP HANAが動作させる必要があるのかをご説明します。f:id:t_komiya:20180923233432p:plain

ハイパーコンバージドを選択することにより、コンピュート・ストレージのノードをノード単位でスケールさせることが可能です。これで増設時もサイジングも苦労することありませんし、何よりオンラインで増設が可能になることから、業務への影響は少なくなります。

もちろん現状のサーバでSAP HANAが動作するサーバで適応すればよいのですが、SAP HANAの要件として4ソケットモデルが必須要件になるため、従来の2ソケットサーバでは対応不可となります。レノボの場合、ThinkSystem SR950(最大8ソケットまで搭載可能)のモデル(ThinkAgile HX7820/HX7821)でこちらのソリューションに対応します。

SAP HANAがパフォーマンス的に構成で認定されたモデルが今回リリースされたわけですが、こちらのモデルはNutanixのNXシリーズではラインナップにございません。

こちらのモデルについての強みも含めてご説明したいと思います。

f:id:t_komiya:20180923235447p:plain

そもそもLenovoがSAPのビジネスに関してWWではトップシェア(アプライアンスモデル)になっています。そのため、SAPビジネスについては熟知した知識をフルに活用して出来上がったモデルです。もちろん、ハードウェアそのもので高速性、可用性も兼ね備えております。そのモデルをLenovo/Nutanixで共同イノベーションでリリースしたわけであります。(ミッションクリティカル要件のため、信頼性の高いハードウェアが必要)

パフォーマンスについてもWorld Recordを持っていますので、非常に高評価のプロダクトになります。

 

ここで、一度ThinkAgile HXのラインナップを整理してみましょう。

f:id:t_komiya:20180923235030p:plain

f:id:t_komiya:20180923235047p:plain

今回のThinkAgile HX7820/HX7821はハイエンドモデルになります。従来のHX7500シリーズに比べてCPUスペックだけでなく、搭載しているストレージに関してもより高速なデバイスが選択可能になっています。(今回は認定ノードも合わせてリリースしています)

f:id:t_komiya:20180923235546p:plain

詳細なスペックはこちらのスライドです。ここでポイントなのは搭載ドライブとネットワークインタフェースです。NVMeと25GbEについて以前AHV Turboで話題を取り上げましたが、ようやくこちらのデバイスを利用することでAHV Turboの本領を発揮できるようになります。もちろんインメモリデータベースのSAP HANAは高速でアプリケーション上のメモリのアクセスも必要となりますので、MellanoxのRDMAなどもサポートしていれば、さらに高速することは間違いないのですが、現状RDMAは未サポートになります。

また、こちらのモデルはAOS5.9(次期AOSのバージョン)でサポートになります。

ここでいくつか補足致します。

・CPUについては本番環境で利用する場合はPlatinumのCPUを選択が必須

・現状は3CPUが物理で必要なため、4ソケットモデルが必須

・メモリは最大2.3TBまでサポート

・TDIモデルではNVMeや25GbEのNICは現状未サポート

f:id:t_komiya:20180924002701p:plain

また、大容量メモリの環境をサポートするために、NUMA環境をサポートする必要があります。今回これを仮想マシンからも利用できるためのvNUMAも合わせてサポートする必要がありますが、こちらはすでにAHVでは実装されております。

f:id:t_komiya:20180924000221p:plain

上記スライドは今回のソリューションが適していると思われるお客様の一例を記載しております。既存のHANAユーザはインフラのスケーラビリティとTCO削減する運用ができることが特徴になります。

SAPの2025年問題のことを考えると既存で3rdパーティのDBを利用しているお客様から見た場合、DBは作り直しになりますので、それを機にSAP HANAへの移行を検討したほうが良いと思われます。

既存HCIのユーザから見た場合は、新規にSAP HANAのサークロードをサポートすることで、さらにHCIへの環境にアプリケーションを移行できることがプラスの材料になることでしょう。

f:id:t_komiya:20180924001632p:plain

ThinkAgile HX7820/HX7821がSAP HANA専用にリリースされているように見えるわけですが、実はほかにも利用用途があります。

こちらのスライドで載せていますが、ブロックチェーンなどの用途利用することが想定されます。ビットコインのように複数のトランザクションの結果をネットワーク上で共有するようなワークロードについては今回のマシンが最適であると考えられています。そのため、冗長性なども考えると高可用性(ファイブナインレベル)が要求されます。

 

Enterprise Cloud OSもミッションクリティカルのアプリケーションをサポートしてきております。これを機にAHVの導入を本格検討してみてはいかがでしょうか。

 

よろしくお願い致します。

 

AHVのHighAvailability(高可用性)について

皆さん、こんにちは レノボ・エンタープライズ・ソリューションズ 小宮です。

本日はAHVのHighAvailability(以下HAで省略)に関して説明したいと思います。過去にAHVの機能比較の記事でHAの内容に触れていたかと思いますが、簡単に説明しただけで終わっていましたので、今回はもう少し説明したいと思います。

記事については、以下を参照してください。

blog.lenovojp.com

 

HAの方式については、以前のブログでお話した通り2種類存在します。

1.ベストエフォート

2.リザベーション

 

・ベストエフォート方式について

f:id:t_komiya:20180917223824p:plain

HAの設定についてはFoundationでセットアップ後に組まれていますが、Prismのメニューで「Manage VM High Availablity」というメニューで「Enable HA Reservation」のチェックのON/OFFで設定が決まります。

設定をOFFのままであれば、ベストエフォートになり、ONにすればリザベーション(予約)になります。

  • Acropolisは、ホストがダウンした場合に管理する仮想マシンの高可用性を提供
  • 正常でないホストが修復されている間に、別の正常なホスト上で仮想マシンが再起動されます
  • ホストが修復されている間、仮想マシンが長期間停止する心配はありません
  • ストレージの高可用性の最大はRF-3であるため、最大2つのホスト障害をサポートします

 

ベストエフォートの場合、障害発生後は自動で再起動しますが、デフォルト設定なので、ノードで使用可能なリソースに基づいて、他のクラスタノード上の仮想マシンの復旧と電源投入を行います。エンタープライズクラスの機能を最初から有効にすることは非常に効果的ですが、ベストエフォート型のオプションでは、リソースの制限のために仮想マシンの電源がオンにならない状況が発生する可能性があります。

f:id:t_komiya:20180917224834p:plain

より定義された復旧モデルの場合、AHVは仮想マシンの高可用性を保証するために、クラスタ内に必要なリソースを予約することができます。デフォルトのベストエフォート機能と同様に、リザベーション(予約)モードも用意されており、ワンクリックで選択できます。

 

・リザベーション(予約)方式について

f:id:t_komiya:20180917225732p:plain

チェックを入れることにより、AHVはNutanixクラスタを分析し、復旧に最適な高可用性ポリシーを選択します。現時点では、システムは、確立された高可用性ポリシーに基づいて新しいVMを確実に回復できるようにポリシーを設定します。AHVは、ポリシーをクラスタ内の使用可能なメモリに基づいており、次の可用性ポリシーを提供します。

  • ホストのCPUとメモリの使用状況を追跡します
  • ホスト機能の対象となり、仮想マシンのポリシーに準拠した仮想マシンを配置
  • 仮想マシンの高可用性を保証するリソースを予約

 

リザーブド・セグメント:AHVは、単一ノードを専用ノードに割り当てるのではなく、クラスタ内のノード全体に高可用性リカバリ・ポイントを分散します。ハイアベイラビリティイベントが発生すると、障害の発生したホスト上で実行されている仮想マシンは、クラスタ内の他のノードで再起動します。

 

サポートするポリシーについて

  • データローカリティを維持します
  • QoSを保証します
  • 特定のリソースタイプとの相関関係を決定づける
  • ハードウェア/ソフトウェアポリシーの制約に従う
  • ワークロード間の干渉を避ける
  • 集合的なリソース要件を優先する

f:id:t_komiya:20180917230334p:plain

予約された構成では、仮想マシンの高可用性設定は、確立されたNutanixクラスタのフォールトトレランスレベルに応じて、クラスタ全体でリソースを予約します。仮想マシンの高可用性の構成では、次のことから保護するために必要なリソースが予約されています。

  1. NutanixコンテナがReplication Factorが2で構成されている場合、1台のAHVホスト障害まで許容
  2. NutanixコンテナがReplication Factorが3で構成されている場合、2台のAHVホスト障害まで許容

Nutanixは、クラスタから入手可能な詳細に基づいてリカバリオプションを自動的に選択することにより、高可用性のリカバリ方法の選択を簡素化します。ベストエフォート型のデフォルトを超えて仮想マシンの高可用性を有効にすると、新しい仮想マシンの高可用性に対応するのに十分なリソースがポリシーで確保できる限り、新しく作成された仮想マシンの電源を入れることができます。

仮想マシンの高可用性はハイパーバイザベースの高可用性のイベントでのみ、実行中の仮想マシンのリカバリ性を考慮した構成にする必要があります。ハイパーバイザベースのイベントは、Nutanixソリューション内のストレージまたはCVMイベントを含む高可用性とは異なります。ストレージまたはCVMイベントには、(定義されたレプリケーションファクタに基づいて)データレプリケーションによるリカバリと、クラスタ内のリモートCVMへのリダイレクトが含まれます。

 

詳細はNutanixのポータルサイトに記載がございます。

https://portal.nutanix.com/#/page/docs/details?targetId=Web-Console-Guide-Prism-v52:wc-high-availability-acropolis-c.html

 

よろしくお願い致します。

 

AHVの仮想ネットワーク設定について

皆さん、こんにちは レノボ・エンタープライズ・ソリューションズ 小宮です。

本日はAHVの仮想ネットワークに関してお話したいと思います。

 

仮想環境を構築するときに、仮想マシンが通信するネットワークを設定すると思います。今回はVMwareでの設定における内容とAHV上でどのように管理させるのかをご説明したいと思います。

まずは、VMwareで設定する場合について、以下でご説明したいと思います。

ESXのホスト上で仮想スイッチの設定する場合には、すべてのESXホストで同一の設定にする必要があります。

f:id:t_komiya:20180909155336p:plain

一つのホスト上に物事が完結するのであれば特に何も気にすることはありませんが、例えば仮想マシンをvMotionで他のホストに移動させる場合、移動先のホストで仮想マシンが接続する仮想スイッチが同じような設定がされていない場合、vMotionは失敗します。ESXのホストが台数が少なければ、まだ設定の修正をするのに時間はかかりませんが、台数が多い場合には骨が折れるような作業になります。

f:id:t_komiya:20180909155719p:plain

これを回避するために、すべてのホストの仮想スイッチ統合する機能として、分散スイッチ(Distribution Switch)を利用することがあります。これを利用することにより、すべてのホストの仮想マシンにポートを割り与えられ、アップリンクポートからどの物理ホストに割り振るかを設定することで、ホストを跨いだスイッチの管理ができるようになります。

f:id:t_komiya:20180909160541p:plain

設定についてはvCenterで簡単にできるようになっていますが、どのように仮想マシンを管理するのかを図式化しておかないと、管理者が変わる際にすぐに理解できないと思いますので、そのあたりは注意が必要です。

今お話した分散スイッチですが、標準で利用できるものではありません。小規模のユーザではスイッチの管理も難しくはないので、VMwareのライセンス体系では上位エディションに食い込まれています。

f:id:t_komiya:20180909160747p:plain

大規模(データセンター系)のお客様に非常に効果的なソリューションであると思います。非常に便利なこちらの機能ですが、NutanixのハイパーバイザーであるAHVではどうなっているでしょうか。

f:id:t_komiya:20180909160945p:plain

AHVでは、vDS(分散スイッチ)と同様の機能が標準で利用できるようになっています。しかもそれが自動管理で利用できるようになっています。そもそもNutanixについては、VMwareのように歴史が古いわけではありません。1Gのネットワークできめ細かにネットワークのサイジングをやっているVMwareに比べて、Nutanixは10GのネットワークでそのネットワークでvLANなどを設定して細分化するような形になっていることから、逆にネットワークが簡素化された状態で設定できるようになっています。そのため、仮想マシンの作成時にvLANを設定するとそれをすべての仮想スイッチに分散して設定できることから、Lenovoもしくは各社のスイッチなどでvLAN設定の自動化追加のソリューションなどにも対応できるようになっています。

先ほどお話したvMotionなどが失敗するような設定漏れなどもなくなります。

f:id:t_komiya:20180909161604p:plain

f:id:t_komiya:20180909161645p:plain

また、AHVでの仮想ネットワークには可視化する機能もあります。仮想マシンからどのホストのインタフェースからどのネットワークスイッチに接続しているのがすぐにわかるようになっています。また、ホスト上のBond設定についてもGUIで確認できるようにもなっているため、非常に使いやすくなっています。

 

ひと昔前まではAHVは「タダだけど、機能は限定されているからあまり使い物にならない」という話でしたが、ようやく機能も出揃ってきており、ここまで使えるのか!というレベルにまで来ております。画面イメージでこだわりを持たれる方もおられると思いますが、機能面で簡素化を望まれる方は是非検討してみてはいかがでしょうか。

 

よろしくお願い致します。

物理サーバも有効活用できるNutanixのブロックストレージサービス~ABSのご紹介~

 皆さん、こんにちは レノボ・エンタープライズ・ソリューションズ 小宮です。

本日はNutanixのブロックサービスの機能であるABS(Acropolis Block Service)についてご紹介します。ABSはNutanix上でブロックストレージを提供するサービスです。
過去のブログで何度か文言が出ているABSですが、一度もこちらのブログで紹介したことがありませんでしたので、今回はテクニカルな内容は少なめにしてご紹介したいと思います。
1.ABSはEnterprise Cloudの機能です!
f:id:t_komiya:20180902011128p:plain

そもそもHCI(ハイパーコンバージドインフラストラクチャ)で仮想基盤なのにブロックストレージという話もありますが、Nutanixはすべてハイパーコンバージドのベンダーとは自らは言っていません。現在はEnterprise Cloudのベンダーであるということで、仮想化だけではなく企業のインフラをすべて自分のソリューションに入れてしまいましょうというモットーを掲げております。そのため、以前ご紹介したファイルサービスと同様にブロックストレージも利用できるようになっています。

 

でも、昨今仮想化やクラウドが流行っているのに、なぜブロックストレージなどが必要なのでしょうか?それは以下の理由があるからです。

  • ライセンスの制約、レガシーアプリケーションの移植性、または既存のインフラへの投資のために、一部のワークロードはベアメタルサーバー上に残ります
  • ABSは、Nutanixが仮想化されたワークロードと物理的なワークロードのためのファイルストレージに提供するのと同じシンプルさを提供することで、ストレージサイロを排除します
  • 物理的な世界と仮想的な世界を橋渡しする

2.いまさらベアメタルなの?

f:id:t_komiya:20180902012140p:plain

Oracleのライセンスの課題

Oracleの仮想化は技術的には簡単ですが、ライセンス費用に関しては非常に頭を悩ませます。その理由については以前ブログに記載しているので、そちらをご参照ください。

HCIが向いている!向いていない!?ケースを考えてみよう [第二弾] - LTN Blog 〜 Lenovo Technology Network 〜

 

これらの問題を解決するためにも、物理環境は残るケースがいくつかあります。

それでは、ABSの説明をしたいと思います。

3.ABSは物理環境と仮想環境との架け橋

f:id:t_komiya:20180902012407p:plain

今回のABSはまさに物理環境と仮想環境の架け橋になります。上図のように仮想環境のところに、Nutanix環境を既存の物理サーバからiSCSIで利用させることで、既存の仮想環境も分けることなく利用することができます。また、ノードを追加することで、パフォーマンスも向上させることができるので、仮想化環境のときのメリットがブロックストレージでも享受できることになり、その結果すべてのアプリケーションを統合して、仮想化、ファイル、およびブロックサービスに同じインフラストラクチャを使用するようにします 効率を高め、リスクを軽減し、管理を容易にします。

4.ABSはどう動くの?

f:id:t_komiya:20180902012906p:plain

ABSがどのような動作をするのかをお話したいと思います。まずはiSCSIでよく必要となるMPIO(MultiPath IO)のソフトウェアをインストールすることを想像すると思いますが、今回それは不要でNutanix側で制御します。それ以外は以下の内容になります。

  • 対象となるお客様の現在のリストには、RHEL 6+、Oracle Linux 6+、およびWin 2012 R2 / 2008 R2が含まれます。さらにOracle RACとSQLが含まれるとします。
  • 概念的にわかるように、外部サーバーは、クラスター内のすべてのノード間で負荷分散を行います。
  • ノードに障害が発生すると、クライアントはクラスタ内の他のノードにトラフィックをリダイレクトするだけで、障害時のフェイルオーバーはシームレスに行われます
  • 最適なパス選択、負荷分散、クライアントの介入などを回避してIPを利用します。 すべてのNutanix機能セットを継承して動作します。

5.ABSはスケールアウトします!

f:id:t_komiya:20180902013551p:plain

iSCSIを利用するために、データサービスIPが必要となりますが、それを設定しまうと物理サーバからはノードが増えても全く意識しなくてもよくなります。また、増設するにあたってもシステム中断もないわけなので非常に便利になっています。

6.ABSは高信頼性・高可用性

f:id:t_komiya:20180902014133p:plain

Nutanixで構成するABSは可用性が高く、ファイブナイン(99.999%)の可用性を実現します。これはハイエンドレベルのストレージと同じ可用性です。また、フェールオーバーも自動で行われます。容量効率もよくすることができます。

7.ユースケース

f:id:t_komiya:20180902020456p:plain

f:id:t_komiya:20180902020600p:plain

f:id:t_komiya:20180902020721p:plain

 

ユースケースについては、ライセンスコストを落とすソリューションが一番よく見えてしまいますが、既存環境の有効活用と一番最後のユースケースのように開発環境でのアプリ開発と機能試験は仮想環境で実施して、本番環境でABSを利用した環境で有効的にインフラを生かすことが一番良いと利用方法だと考えます。

8.最後に・・・

f:id:t_komiya:20180902021157p:plain

最後にABSについて一つまとめてみました。

コスト削減・規模に合わせて構築可能でさらに信頼性があるというのがキーメッセージになります。

良いことばかり申し上げてきましたが、注意する点もあります。

アプリケーションによっては、構成に認定をとる必要があるものがあります。(OracleVMなどの構成は現状NXのABSしか認定されていません)

そのため、利用するアプリケーションによって、環境は確認するようにしてください。

 

よろしくお願い致します。

 

vSANにもついに出た!パートナー主導型モデルThinkAgileVX認定ノード

皆さん、こんにちは レノボ・エンタープライズ・ソリューションズ 小宮です。
先週vSANの話をさせて頂きましたが、今週もそれに関連するお話をしたいと思います。今回レノボから新たなvSANのモデルがリリースされております。US時間で8月28日に発表されております。
こちらのモデルは先月ThinkAgile HX認定ノードに続いて、レノボのvSANアプライアンスで提供しているThinkAgileVXの認定ノードになっております。こちらもThinkAgileHXの認定ノードと同様パートナー様の主導モデルであり、ソフトウェア別調達でもレノボの保守を受けることが可能になっているモデルです。
vSANを検討されている皆様、ビジネスパートナー様皆様には日本市場にぴったりなモデルとなっておりますので、是非今後の導入検討にいかがでしょうか。
 
1.ThinkAgileVX認定ノードについて 

f:id:t_komiya:20180829114520p:plain

ThinkAgileVXに認定ノードについてですが、先ほどソフトウェアを別調達と記載しましたが、ESXiそのものはプリロードされております。そのため、ライセンスキーをあればアクティベーションできるようになりますので、そのライセンスキーをディストリビュータ様から調達する必要があります。
本来このようなことをせずにレノボのOEMのESXiのライセンス提供することが一番提供方法として楽だと思える方もいらっしゃるかと思いますが、日本でのVMwareのビジネスの大半はディストリビューター様からのライセンス調達で成り立っています。そのため、今回のようなモデルでなく、ハードウェア各社がリリースしているvSAN Ready NodesなどのVMware社の認定モデルで十分のはずです。ただし、VMware社の認定構成はあくまで固定の構成であり、ほとんどがカスタマイズして提案することがほとんどです。今回のThinkAgileVX認定ノードはライセンス調達および、(レノボの)認定構成で数多くの構成がレノボの一元サポートでご提案できるというのが大きな特徴です。
また、VXインストーラという専用のインストールツールが用意されて認定されたファームウェアでのインストールがサポートされてライフサイクルの管理もできるようになって、一段と信頼性を増したvSAN環境が提供できるようになっています。
2.どんなことでメリットになるのか?

f:id:t_komiya:20180829114632p:plain

認定ノードのメリット、それはLenovoがvSAN環境で問題なく動作するハードウェア(ファームウェア含む)を数多く認定していることです。実際の認定している構成を数えると、CPU・メモリ・SSD・HDD・その他のパーツの組み合わせになるため、数万通りの構成になります。もちろん、同一のマザーボードで動作することから、それらは問題なく動作することになります。(パフォーマンスの規定はなし)そのため、vSAN Ready Nodesのカスタマイズバージョンとほぼ同じ構成が作れるだけでなく、例えばHDDの容量が多いモデルなどvSAN Ready Nodesにはない構成もThinkAgileVX(認定ノード含む)で構成可能なことからHCLなどのチェックも必要ありません。インストールもプリロードされていることはもちろんのこと、VXインストーラによる簡素化、検証されたファームウェアでの互換性の取れているハードウェアでの納品であることから、安心してご利用できます。ツール類についてもLenovoが提供しているXClarityを利用してハードウェアの一括管理するツールを導入して運用簡素化するお客様もいらっしゃると思います。そのツールについても導入するかはお客様側で選択が可能となります。またHCIで当たり前のようになっているファームウェアローリングアップグレードもサポートしております。

3.レノボvSANのソリューションのラインナップ 

f:id:t_komiya:20180829115615p:plain

 今回紹介するThinkAgileVX認定ノードはもちろんのこと、もう一度レノボの提供できるvSANソリューションのラインナップを整理してみました。

ThinkAgileVXVMwareのOEMライセンスでレノボが認定するハードウェア(ファームウェアを含む)で構成されている。(構成は数万通り)導入作業はレノボ側で実施し、サポートはレノボ側でハードウェア・ソフトウェア関係なく一元窓口を実現

ThinkAgileVX認定ノード:VMwareライセンスをOEMもしくはパートナー様にて調達するライセンス(リテール版)を利用することが可能。(ハードウェア構成は数万通り)導入作業についてパートナー様で導入することも可能であるが、オプションでレノボの導入を利用することも可能。また、サポートについてはお客様にてVMware(ESXi)とレノボ(ハードウェア)を切り分けて対応することも可能であるが、レノボがソフトウェア・ハードウェアの一元窓口として対応することも可能

vSAN Ready Nodes:VMware社が検証した構成がベースになっている。(レノボだと現状約100数通り)構成については、カスタマイズ可能であるが、検証している構成ではない。ライセンスについてもOEM版とリテール版の両方を利用可能。導入についてはパートナー様で導入し、サポートもお客様・パートナー様にてハードウェア・ソフトウェアを切り分けて対応して頂くことになります。 

4.それぞれのソリューションの違いについて 

f:id:t_komiya:20180829125058p:plain

前述でコメントしておりますが、比較表としてわかるものをこちらに掲載いたします。

それぞれは競合製品ではなく、あくまでそれぞれで足りない部分を補っている製品になります。 

5.ThinkAgileVX認定ノードのラインナップ

f:id:t_komiya:20180829132538p:plainf:id:t_komiya:20180829135838p:plain

ThinkAgileVX認定ノードのラインナップをご紹介します。昨年末に発表されたThinkAgileVXシリーズのラインナップと合わせて掲載します。今回のノードについては、型番があるわけではなく、フォームファクターを選択して、認定ノードを構成します。実際にvSAN Ready Nodesに相当するのが、VX3320とVX7520に2機種になります。それ以外の機種については、vSAN Ready Nodesにも存在していないので、お客様の要望の応じてサイジングし、そのスペックを選びやすくなっております。認定ノードについては、フォームファクターを選択した、CPU・メモリ・SSD・HDDなどの構成のほかにNICやGPU(VX3520-Gと同じフォームファクターのみ)なども選択できるようになっています。これでvSAN Ready Nodesのカスタマイズすることもありませんし、LenovoのWebサイトからも認定構成を選ぶことができます。

6.パートナ主導で認定ノードがなぜ得するのか?

f:id:t_komiya:20180829134141p:plain

こちらの図を見て頂ければわかるかと思いますが、パートナー主導ということはすべての工程はパートナーで進めることが可能です。例えばアプライアンスの場合、レノボの作業が必須であることから、レノボ・パートナーの作業が重なったりして混乱する場合があります。責任分界点も考慮する必要もあります。ただし、それが認定ノードの場合、レノボの工場で生産されたハードウェアが出荷されて以降、パートナー様で作業を行うことができます。そのため、WBSなどを作成するにあたるスケジュールが組みやすいなどのメリットがあります。パートナー様で案件を進めるにはこちらのモデルは非常に有効です。

7.サポートフローについて

f:id:t_komiya:20180829135945p:plain

サポートフローについて説明します。こちらについては7月にご説明したThinkAgileHX認定ノードとフローは同じです。(上図参照)Nutanixの部分がVMwareに変わっただけのお話です。認定ノードそのものがサポート重視の製品であることから、今後もこのような製品がリリースされることが期待したいと思います。

8.m.2のミラー化でESXiの冗長化

f:id:t_komiya:20180829140550p:plain

ThinkAgileVXリリース時から内容になりますが、起動デバイスが冗長化対応します。これにより、SSDやHDDを利用することなく起動デバイスの冗長化の専用デバイスの対応ができます。今回は480GBのm.2もリリースされてさらにログの領域としても利用可能になります。

9.vCenter + XClarityにより仮想・物理の一括管理

f:id:t_komiya:20180829140939p:plain

ハードウェアメーカー各社がvCenterと連携可能なハードウェアの管理ツールをリリースされています。レノボもXClarityを利用して、vCenterのプラグインとして導入することで、vCenterからハードウェアの管理が可能です。今回はこれに加えてVX インストーラのローリングアップグレード対応もありますので、さらに使いやすくなっています。

10.ThinkAgileVXシリーズ(認定ノードも含む)の構成について

f:id:t_komiya:20180829141347p:plain

ThinkAgileVXの構成についてご説明しますが、その前にvSAN Ready Nodesでの構成についてお話します。

vSAN Ready Nodesについては、VMware社の検証した固定の構成のため、その構成がVMware社のページに掲載されています。認定構成でサイジングすると、コンピュートノードとしてスペックが小さいものがほとんどで非常に提案もしづらいものになっています。各社のハードウェアが固定の構成しか選択できないはずはなく、もちろんCPU・メモリ・SSD・HDDを柔軟に変更することができます。レノボのThinkAgileVXはその点を考慮してレノボが認定する構成でサポートをしますという前提で、お墨付き構成を増やしています。

f:id:t_komiya:20180829141912p:plain

f:id:t_komiya:20180829141956p:plain

ここでThinkAgileVXシリーズ(VX3320とVX7520)を確認してみましょう。

ThinkAgileVXを構成するにあたり必要となる概念がグループです。このグループ(キャッシュ領域とキャパシティ領域)を必ず1つ以上が必要になりますが、この構成に柔軟性があります。ThinkAgileVX3320であれば、最大スペックはSSDが2本、HDDが8本になるわけですが、この構成は本数も可変で容量も可変です。もちろんCPUもメモリ容量も数十種類から選択可能です。このような柔軟さが認定ハードウェアの数を増やす結果となっています。

f:id:t_komiya:20180829142436p:plain

f:id:t_komiya:20180829142515p:plain

ThinkAgile VX2000/5000シリーズはvSAN Ready Nodesには存在しない構成になります。主な用途はCPU、メモリよりもHDDをの容量を要求されるようなケースです。このケースの場合は3.5インチのDiskを利用して大容量を確保します。SSDで15.36TBなどの容量もありますが、こちらは非常に高くなるので、安価で容量を必要とされる場合は選択するノードとしては一番良いと思います。

それ以外にもGPUモデルと2U4Nの高密度モデルがあります。考え方は同じですが、2CPUが必須だったりするため、メモリ容量の選択は要注意です。

 

vSANソリューションを検討の際にはこちらのモデルも是非ご検討ください。

 

よろしくお願いします。

 

vSANのバージョン間の機能差分について~ESXi5.x EOL対策~

皆さん、こんにちは レノボ・エンタープライズ・ソリューションズ 小宮です。

本日は久しぶりにvSphereとvSANに関係するお話をしたいと思います。

vSphereに関してお話についてですが、すでにご存じの方もいらっしゃるかと思いますが、実はESXi 5.xのEOLが近くなっています。以下の図を見て頂ければ一目瞭然ですが、ESXi5.0/5.1についてはTechnical Guidanceが2018/8/24で終了し、ESXi 5.5についてはGeneral Supportが2018/9/19で終了します。今からこちらの対策をされる方はそれほど多くないと思われますが、もしまだご存じでない方早めの対策をお願いします。

f:id:t_komiya:20180818232653p:plain

ESX5.5を現在導入されている方は導入当初はvSANなどは機能面も含めて導入検討に至らなかったかと思います。今回ESXi 5.5からリプレースする場合は、仮想環境の規模にもよりますが、vSANを導入することもアリかと思います。

その前にESXi6.5以上にアップデートすることのメリットにも少し触れておきたいと思います。

f:id:t_komiya:20180819001058p:plain

ESX6.5以降にすることでのメリットは何と言ってもパフォーマンスの強化です。もちろんハードウェアのリプレースすることで速くなることはもちろんですが、ハイパーバイザーもパフォーマンスが上がります。それに加えて暗号化対応でセキュリティ面やAPI対応で柔軟な運用が実現できています。

f:id:t_komiya:20180819001130p:plain

次に挙げるメリットとしては、Predictive DRSなどのリソースの状況によりワークロードの利用方法を変化させることやProactive HAなどのアプリケーションレベルでも無停止を実現できるような機能がサポートしてきているからです。(vSANでは対応していないものもあります)

そのため、リプレースをきっかけでバージョンアップの恩恵を受けることがありますが、可能であればバージョンアップはリプレースする前でもやる意味は十分にあると思われます。

ではここからは、vSANの機能差分についてお話したいと思います。

f:id:t_komiya:20180819001829p:plain

上図でvSAN 5.5/ vSAN 6.6/ vSAN 6.7のそれぞれについて機能対応についてまとめています。vSAN5.5の時代は単なるストレージとして機能しかありませんでした。今の機能対応から考えると当時に導入することのリスクはこれを見てわかると思います。

2016年の後半にvSAN 6.6が登場して、機能も強化されて多くのユーザが飛びついたと思われますが、WWで約50万社のVMwareのお客様から見て、導入済みはわずか14,000社程度(Nutanixはもうすぐ1万社)なので、HCIはまだまだこれからだと思いますので、どんどん提案していきましょう。

 

vSAN6.6で重複排除・圧縮、イレージャーコーディング、ストレッチクラスタなどの機能がサポート(オールフラッシュのみの機能もあります)しております。HTML5の対応についてもvSAN6.6で対応していますが、一部の機能でサポートしていなかったため、従来型のGUIを利用するシーンもありましたので、vSAN6.7になってからはかなりの使い勝手は上がっています。vSphere 6.7からはクラウド対応にもなってきているので、ハイブリッド環境(AWS)で利用できるようにもなっているので、利用シーンが広がってきているので、今からであれば最新版で導入するのも悪くないでしょう。

 

よろしくお願いします。

VeeamのAHV対応版を検証してみました

皆さん、こんにちは レノボ・エンタープライズ・ソリューションズ 小宮です。

本日は先日リリースされたVeeamのAHV対応版を検証しました。

検証実施にあたりVeeam 西巻氏にご協力頂きましたことにお礼申し上げます。

昨年のNutnaixの.NEXTからリリースの話が出ていて待たされたこと一年してようやく先月(7/26)リリースされました。

これでようやくNutanixのハイパーバイザーであるAHV対応で主要ハイパーバイザーはすべて対応することできました。(XenServerは未対応) 

f:id:t_komiya:20180811230132p:plain

AHVのテスト内容を説明する前に一度Veeamの基本構成をおさらいしておきましょう。

f:id:t_komiya:20180811230329p:plain

Veeamの基本的な構成は以下のようなコンポーネントから構成されます。

・Veeam Backup & Replication Server(以下Veeam サーバで示します)

・Backup Proxy

・Veeam Repository

 今回のAHVで大きく機能が加わったのがこのProxy Serverになります。

f:id:t_komiya:20180812001324p:plain

こちらがAHV(Proxy)対応に必要なシステム要件になります。

AOSは5.1.1以上で動作しますが、今回は最新バージョンのAOS5.8で検証しております。

ProxyはVMDKファイルで提供されておりますので、Prismのイメージサービスでインポートして利用します。AHV Proxyのスペックはマニュアル上は2vCPU/4GBメモリで動作すると記載があります。

f:id:t_komiya:20180812001633p:plain

今回の検証の構成と検証内容は上記に記載します。

今回のAHV対応ではSnapshot連携も対応しているとのことですので、設定も入れて検証してみました。画面イメージは見づらい部分もありますがあらかじめご了承ください。

f:id:t_komiya:20180812002039p:plain

まずProxyサーバのデプロイを行います。VMDKファイルをイメージとして登録してその後仮想マシンとして展開します。展開後は仮想マシンをPowerONします。

f:id:t_komiya:20180812002225p:plain

起動したProxyサーバにターミナルでアクセスしてIPアドレスとポート番号を確認して、Webブラウザでアクセスします。(adminでログイン)

f:id:t_komiya:20180812002403p:plain

Proxyサーバにログイン後は各種設定を行います。設定後は再度ログインを行います。

f:id:t_komiya:20180812002512p:plain

ログインしなおすと、ライセンスがインストールされていないという警告画面が表示されますので、評価用ライセンスと合わせてダウンロードしたライセンスファイルを適用します。

 

f:id:t_komiya:20180812002641p:plain

適用後はNutanix Clusterの登録を行います。

f:id:t_komiya:20180812002811p:plain

ProxyサーバでManage Nutanix Clusterのメニューを選択してClusterの情報を登録します。登録後はClusterのIPアドレスとAOSのバージョンが表示されます。

f:id:t_komiya:20180812003016p:plain

次にVeeam サーバの設定を行います。Veeamサーバの情報を登録するとIPアドレスとバージョン情報が表示されます。

f:id:t_komiya:20180812003154p:plain

VeeamサーバのRepositoryを作成し、その後アクセス権を設定します。ユーザ単位にアクセスする必要がなければAllow to everyoneを選択してください。

f:id:t_komiya:20180812003517p:plain

f:id:t_komiya:20180812003708p:plain

 バックアップJobの作成画面になります。こちらについては画面イメージをご参照ください。

 

f:id:t_komiya:20180812003811p:plain

f:id:t_komiya:20180812012947p:plain

Jobを設定した後は、Jobを起動します。こちらの画面ですが、Read / Trasnferredの表示がありますが、こちらの数値で実際にデータ圧縮率が算出できます。何度かテストしましたが、約30%程度の効果はあります。

f:id:t_komiya:20180812013243p:plain

こちらの画面は差分バックアップとVeeamサーバでのJobの実行結果の画面になります。Proxyサーバと同様の画面が表示されます。

f:id:t_komiya:20180812015404p:plain

バックアップしたデータをレストアします。まずはProtected VMsから対象の仮想マシンを選択します。

f:id:t_komiya:20180812015507p:plain

次にRecovery Pointを選択して、対象のデバイスを選択します。

f:id:t_komiya:20180812015549p:plain

Restoreする理由を記載(Test Restoreなど)し、サマリが表示されます。

f:id:t_komiya:20180812015636p:plain

レストアを実行します。レストア中は仮想マシンの電源が入っていない状態になりますが、終了後はPowerONを実行します。

f:id:t_komiya:20180812015945p:plain

次にファイルサーバのレストアになります。こちらはProxyサーバではなく、Veeamサーバからオペレーションします。Restore PointについてもProxyサーバ同様に指定します。

f:id:t_komiya:20180812020126p:plain

f:id:t_komiya:20180812020205p:plain

Restoreするファイルとフォルダを指定します。Explorerのを立ち上げて指定することも可能です。

f:id:t_komiya:20180812020512p:plain

実行したJobなどのイベント情報をEventsから確認することができます。

f:id:t_komiya:20180812020653p:plain

次にSnapshot連携について記載します。Snapshot連携については、Nutanix Guest Tools(NGT)を導入するがあります。Prismの仮想マシンのメニューからManage Guest Toolsをクリックして、SnapshotをEnableにしてください。

これを設定するバックアップする際に、仮想マシン側でスナップショットと連携してバックアップを行います。多少ではありますがバックアップ時間は短縮することができました。また、Proxyサーバについてはバックアップ中はメモリ利用率がほぼ100%に近い状態になります。メモリを増やすことで多少バックアップ時間の短縮はしたものの大きな効果は得られませんでした。

 

普通にAHVのバックアップで利用するには特に問題ないレベルだと思います。

是非、NutanixのバックアップはVeeamを選択してみてはいかがでしょうか。

 

よろしくお願いします。

SAP環境にNutanixは最適なんです!~Nutanix Solution for SAP on Lenovo HX Series~

皆さん、こんにちは レノボ・エンタープライズ・ソリューションズ 小宮です。

本日はSAPとNutanixについてお話していきたいと思います。

この題材を見て、「NutanixにSAPなんて動かすことなんて何のメリットがあるの?」と思われる人がいるでしょう。実はSAPのHANAやS/4 HANAになってからアーキテクチャがスケールアウトになってきていることから、実はNutanixで動かすと非常に相性が良いのです。

まずはアーキテクチャをお話する前に、SAPに関するお話をしたいと思います。

f:id:t_komiya:20180805232524p:plain

いきなりSAP HANA 2025年問題という項目が出てきてびっくりした人もいるかと思いますが、実はSAPは2015年にリリースした次世代ERPのS/4 HANAの時に既存の3rdパーティのDBや同梱しているパッケージの保守サポートを2025年で終了するというアナウンスを出しています。リリースしてから10年ということで時間があると思いきや、今からですと7年しかありません。もし次にSAPのリプレースがある場合は、別なERPに切り替えるか、HANAを前提にリプレースをかける必要があります。その際に意識する必要があるのが、HANAのアーキテクチャです。今までは3Tierでサーバ・ストレージの環境で構築するやり方が主流でしたが、SAPのビジネススタイルも変わってきており、サーバを並べたスケールアウト型になってきています。

ではここで、SAPとNutanixが本当に構成上問題ないのかどうかを含めて説明していきたいと思います。

f:id:t_komiya:20180805233311p:plain

ここでSAPのOLTPとOLAP/DSSでNutanixの機能がいかにマッチしているかを説明しています。データローカリティによるランダムアクセスの高速化やデータ階層化、そしてスケーラブルなパフォーマンスとキャパシティ対応がいかに適しているかがわかります。もちろんサーバを並べることによるインフラのサイロ化の排除やSSD領域のホットデータの活用はさらに効果を上げています。

f:id:t_komiya:20180805233725p:plain

また、本番環境から開発環境へのデータのクローンについても容易に実現できます。仮想化の環境であることから、仮想マシンがそれぞれ独立しているため、影響を与えることもありません。今後は基本仮想環境で構築することが前提であれば、そもそもハイパーバイザーの機能で提供されるため非常に操作は簡単です。

ここで、少しSAPのビジネスの考え方の変化について少し説明したいと思います。

f:id:t_komiya:20180805234230p:plain

SAPはそもそもアプリケーションを提供しているのが今までスタイルでした。ただ、SAPをミッションクリティカルの環境で動作させるうえで本番環境・開発環境の自己修復機能や稼働時間の向上も重点に置かれることが多くなってきております。稼働時間が少なければ生産性も低下し、顧客からの信頼性も失います。そのようなところから、ハイパーコンバージドとの連携は不可欠であるということになっています。

また、サイジングも将来のワークロードの予測がつかないことからオーバーサイジングしがちであり、展開についても時間がかかり、DRも大がかりなのが今までシステムだったため、そういう意味でもハイパーコンバージドは非常にありがたいソリューションであると言えます。

ここからは、レノボの構成だとどうなるのかを少しお話したいと思います。

f:id:t_komiya:20180805234749p:plain

今までハイパーコンバージドでSAPを・・・と言ってきましたが、実は対応しているのはアプリケーション(SAP Business SuiteとSAP NetWeaver Applications)の部分で、SAP HANA(DB)はまだNutanixの認定を受けておりません。そのため、現状はDB部分にあたる設備は物理サーバで構成する必要があります。(認定もそんなに遠い先ではありません)

f:id:t_komiya:20180805235132p:plain

こちらはHANAのケースですが、もう少し広範囲でインフラを見てみるとハイパーコンバージドを前提と考えるとネットワークは通常10Gがベースになります。小・中規模であれば特に問題はないと思いますが、大規模で考えた場合、DBのパフォーマンスやレスポンスを考えるとNVMeなどのデバイスも必須になることから、25Gや40G(または100G)などのネットワークも検討する必要があります。

f:id:t_komiya:20180805235536p:plain

次にアプリケーション側についてです。こちらは10Gのままで大丈夫ですが、ハイパーコンバージドでわざわざネットワーク帯域を分ける設計をするかどうかだと思いますので、もし可能であればHANA側のネットワークを合わせてもよいと思います。またレプリケーションについてもBCPのポリシー次第ですが、上図の考え方でよいと思います。Nutanixのスペックについては現状の認定されているものを記載しているため、現状はE5シリーズではなく、Goldなどのスペックになっております。

ここからはSAP環境で注意するべき点を記載したいと思います。

f:id:t_komiya:20180806000018p:plain

サイジングするときの注意事項です。注意するべき点はCVMのリソースの割り当てや次のページに記載があるCPU/メモリ/NUMA機能などの話です。

f:id:t_komiya:20180806000153p:plain

特にDBについてはメモリを共有させてパフォーマンスを上げる仕組み(NUMA)を利用しているため、こちらを利用しなければなりません。現状は物理サーバなのでNUMA機能をサポートしていれば問題ありませんが、今後は仮想上のNUMA機能(vNUMA)を利用していく必要があります。なお、現時点ではAHVは未サポートになります。

最後に記載しておきますが、もう一つ大事なのはCPUのオーバーサブスクリプションです。通常本番システム(CPUとメモリリソースを1:1に割り当てる)のCPUとメモリをオーバー サブスクライブしないというSAPのベストプラクティスに従うことを推奨します。QAシステムにおいてはオーバーサブスクライブは非推奨です。

開発とテストシステムにおいては、1.5~2:1のCPUオーバーサブスクリプションを使用できます。振る舞いの監視をベースに必要に応じて調整します。

 

今後はSAP HANA(DB)の認定されることが判明してから、こちらの続編を記載していきたいと思っております。

 

よろしくお願いいたします。

 

導入したHCI環境のパフォーマンスを調べてみよう!~NutanixのBenchmarkツール X-Rayのご紹介~

皆さん、こんにちは レノボ・エンタープライズ・ソリューションズ 小宮です。

本日はNutanixのベンチマークツールのX-Rayをご紹介したいと思います。X-Rayは英訳するとX線ということになります。要はレントゲンのように中身がどのようになっているのかを調べるツールということです。今回はそのX-Rayの最新版がアップデートされたこともあり、記事にすることにしました。資料は一部Nutanix社のものを使用させていただいております。

 

まず、X-Rayはどのようなシーンで利用するのか?をご説明したいと思います。f:id:t_komiya:20180729100124p:plain

HCIを構築してみたものの、その環境が問題なく性能が出せているのか?仮想環境に何か悪影響を与えていないのか?実際に運用フェーズ移る前に確認しておきたいことがあると思います。そこで登場するのがベンチマークツールになると思いますが、通常のベンチマークツールはそれぞれのワークロードを想定して数値を自分でチューニングする必要があり、自分の好みに合うか合わないかがあると思います。こちらのX-RayはまさにNutanixの環境向けに作られたベンチマークツールと言っても過言ではありません。詳細は後程説明しますが、こちらのツールはNutanix以外にも他の環境との比較をしながらベンチマークの結果(シナリオが別途必要)を見ることができるようになっています。

f:id:t_komiya:20180729100836p:plain

上記はNutanixの環境を構築して、運用フェーズに至るまでに必要なプロセスになります。様々なツールを使って構築するわけですが、今回のX-Rayは環境をテストする自動化ツールの位置づけになっています。実際にNutanixはストレージ設計はお任せのソリューションではあるものの、環境はお客様によって異なります。提案した構成が本当にパフォーマンス的に問題ないのかはやはり負荷をかけてみないとわかりません。本番になってから実はパフォーマンスが足りません・・・なんてことあったりすると思います。そのお困りごとをX-Rayは解消してくれます。

f:id:t_komiya:20180729101625p:plain

ここでX-Rayについて少し説明いたします。X-Rayはパフォーマンスを測定したい環境の外部から負荷をかけるものです。そのため、Nutanixの環境一つしかない場合は利用できませんが、VMwareの環境があればOVAファイル展開することでX-Rayの仮想マシンが展開できます。(もちろんAHV用もあります)

X-Rayをインストールすると、いくつかの異なるシステムをテストおよび分析し、使用するための同等の情報を報告してくれます。

このアプリケーションは、実際のユースケースをカバーするテストシナリオを提供します。これらのユース・ケースは、パフォーマンス、データの完全性、可用性などの領域が異なるため、ハイパーコンバージド・プラットフォームに非常に適しています。

X-Rayのテストシナリオでは、次の領域がカバーされています。

注: X-Rayは、ターゲットごとに1度に1つのテストシナリオしか実行できません。

注: X-Rayは、4ノード未満のクラスタをサポートしていません。

可用性

X-Rayのテストでは、ワークロード中にハイパーコンバージドソリューションがノードの障害をどのように許容するかをテストします。一貫性のあるパフォーマンスと安定性により、システムの可用性と管理ファブリックの耐障害性がテストされます。

リアルなパフォーマンス

X-Rayは、システムのソリューションをテストして、混在したワークロードを処理します。ソリューションには、単一のノードでデータベースを実行し、複数のノードでVDIワークロードを同時に実行し、VMスナップショット、VDIブートストーム、VMプロビジョニング、および複数のワークロードまたは安定性を長期間にわたって混在させることができます。

機能セット

機能としては、VMプロビジョニング、重複排除、圧縮、VAAIサポート、ネイティブVMレベルのレプリケーション、ワンクリック・ソフトウェアとハ​​イパーバイザ・アップグレード、BIOS /ドライブ、複数のハイパーバイザとの互換性、および同じソリューションによるハイパーバイザ間の移行および変換機能が含まれています。

データの整合性

データの整合性は、データの紛失や破損をしないことが、ストレージデバイスやファイルシステムにとって重要です。このアプリケーションは、停電時またはコンポーネント障害時のデータの安全性をテストします。

f:id:t_komiya:20180729102132p:plain

次にX-Rayのテストシナリオについてお話したいと思います。

X-Rayは通常は上記のシナリオを用意しております。一般的なOLTP、VDI、DSSなどを用意していますが、これ以外にもカスタム化されたシナリオがあります。X-Rayの3.0からシナリオはオープン化されており、GitHubなどでダウンロードできるようになっています。それではX-Rayでの出力結果を見てみましょう。

f:id:t_komiya:20180729102505p:plain

f:id:t_komiya:20180729102610p:plain

良い結果と悪い結果を見比べるとわかりますが、負荷をかけたクラスタが正常であればIOPSも安定しますが、そうでなければ数値がばらつきます。その原因を追究するためにも一度このツールを利用して環境を確認する必要があると思います。

f:id:t_komiya:20180729102959p:plain

次にカスタムシナリオについて説明します。

冒頭に他のHCIとの比較・・・という話もあったかと思いますが、他のHCIのシナリオは上記のURLにあります。Curieという名前がついていますが、X線ということから考えればキューリー夫人のことを指しているわけですね。

GitHubサイトのシナリオのフォルダとみるとYAMLのファイルがたくさんありますので、これらで必要なものをダウンロードして、X-Rayで設定すれば見ることができます。

f:id:t_komiya:20180729103407p:plain

こちらはファイルの中身になります。記載する内容はVMの種類やワークロードなどを設定するようになっています。

 

Nutanixセットアップして、本番前に負荷かけて環境チェックするのもよいと思います。一度お試しください。

 

よろしくお願いします。