LTN Blog 〜 Lenovo Technology Network 〜

レノボのソリューション・サーバー製品に関する技術情報、お役立ち情報をお届けします

Nutanix Files(旧Acropolis File Services)の機能紹介【第二弾】

皆さん、こんにちは レノボ・エンタープライズ・ソリューションズ 小宮です。

以前のブログで紹介したNutanix Files(旧Acroplis File Services)の詳細についてお話したいと思います。今までは機能紹介で終わっていましたが、今回はもう少しオペレーションも含めてお話していきたいと思います。詳細はスライドの中にほぼすべて記載しているので、コメントは少なめです。

 

1.Nutanix Filesとは?

f:id:t_komiya:20181117214603p:plain

Nutanix FilesはNutanix上で実現するファイルサーバのことです。ホームディレクトリ、ユーザプロファイル、部門共有サーバなど様々な用途利用できます。Nutanix Filesは物理ホストで実現するのではなく、ファイルサービス用の仮想マシンを専用に構築する必要があります。実現できるハイパーバイザーとしてはAHVとESXiになり、現状はCIFS,NFSの両方のプロトコルに対応しています。容量増設もDSFに対応していることからとても簡単に行うことができます。

f:id:t_komiya:20181117215129p:plain

アーキテクチャについてお話します。Nutanixのクラスタ上に最小構成で3台の仮想ファイルサーバVMを構築する必要があります。この3台構成が必須になるのはNutanix上で高可用性を維持するために必要となります。

f:id:t_komiya:20181117215345p:plain

f:id:t_komiya:20181118162021p:plain機能についてお話します。共有サービスをディレクトリ・ファイルレベルで提供し、アクセス制御も行うことができます。また、高可用性で障害発生した場合にもFSVMでリソースが引き継げるようなアーキテクチャになっています。ユーザ毎に容量制限(クオータ)を設定することができます。1:Nのレプリケーションは対応していますが、NearSyncなどのRPOの短い要件には現状対応しておりません。f:id:t_komiya:20181117215709p:plain

ファイル共有については機能説明を省略させて頂きます。上記をご参照下さい。

2.ファイルサーバー用の仮想マシン

f:id:t_komiya:20181117220015p:plain

ファイルサーバーVMについてですが、最小4vCPU、12GBで構成され、ユーザの規模に応じてリソースの割り当てを変更してスケールさせていきます。詳細は後程紹介します。ファイルサーバーVMはNutanixのクラスタ以下にしなければならないため、3ノードの時は3ノード構成になりますが、最新のFilesでは1ノードや2ノード用のクラスタもサポートしているようです。また、上図で下のほうにABSと記載があるように、FSVMはストレージ部分とはiSCSI接続で利用します。

 

f:id:t_komiya:20181118161344p:plain

Nutanix FilesはSMB(CIFS) / NFSの両方のプラットフォームをサポートしていますが、共有やExportの設定はいづれかの設定になります。

f:id:t_komiya:20181118161532p:plain

 次にネットワークについてお話したいと思います。Nutanix Filesはクライアント側と通信を行う外部ネットワークとFSVMやCVMが冗長性を確保するための内部ネットワークを分けて形成します。そのため、FSVMを構築する際には、図のような形の構成を意識する必要がありますが、状況によってはネットワークの構成の変更が入る可能性もありますので、十分注意が必要となります。外部ネットワークにもActiveDirectoryやLDAP通信をできるようなネットワークを確保することが必要になります。

f:id:t_komiya:20181118162507p:plain

f:id:t_komiya:20181118162523p:plain

f:id:t_komiya:20181118162541p:plain

次にNutanix Filesでサポートされている機能を記載します。まずはサポートOSについてです。WindowsのクライアントOSはWindows7以降、WindowsサーバーOSはWndows2008以降になりますが、Windows2016に記載については現状NutanixのSupport Portal上も記載がないため、こちらを真として頂ければと思います。

また、FSVMの仕様についても記載しておりますが、こちらはNutanix社のReferenceになります。こちら以上の仕様については、複数台のFSVMを構築してスケールして設定して下さい。非同期DRの設定についても現状NearSyncなどの対応はしていないので、ご注意下さい。

f:id:t_komiya:20181118163111p:plain

f:id:t_komiya:20181118163151p:plain

クオータについて説明します。クオータについては、ユーザーとグループの2種類が設定できます。説明の通りでユーザー毎に容量を設定するのか、グループ毎に容量を設定するのかの違いです。また、クオータの設定内容については、ハードウェア的に制限するものと、ソフトウェア的に制限するものがあります。ソフトウェア的な制限を利用した場合は、利用者にメールで通知を行うことができます。

f:id:t_komiya:20181118175609p:plain

f:id:t_komiya:20181118175623p:plain

f:id:t_komiya:20181118175643p:plain

ファイルのパフォーマンスの最適化は、ファイルサーバーが負荷を受けているときにユーザーに通知し、最適化を改善するために変更を必要とします。この機能には、スケールアップ、スケールアウト、および再バランスのアクションが含まれます。

ストレージグループの中断によりパフォーマンスが低下するかどうかは、Prism Webコンソールから自動的に通知されます。ファイルサーバーページには、最適なパフォーマンスオプションの推奨事項が表示されます。

詳細はイメージにもコメントがありますので、参考にして頂ければと思います。

 

よろしくお願い致します。

 

Nutanixの障害シナリオについて学んでみよう!

皆さん、こんにちは レノボ・エンタープライズ・ソリューションズ 小宮です。

本日はNutanixの障害シナリオについてお話したいと思います。

 

Nutanixはハードウェアおよびソフトウェアで構成されておりますが、ホストなどのハードウェアが障害があるケース、CVMなどのソフトウェアの障害またはネットワークなどの障害により挙動が違ってきます。今回はその想定される障害シナリオについていろいろとお話したいと思います。

f:id:t_komiya:20181111101419p:plain

障害シナリオについては、上記の記載した内容があります。

この中で、高密度型で導入していないお客様については、ブロックに関する障害はあまり関係ありませんが、どのようなケースなのかを覚えて頂くことも良いかもしれません。

f:id:t_komiya:20181111101835p:plain

ノード障害についてお話したいと思います。

物理障害であるため、ホスト・CVMの両コンポーネントがアクセスできなくなります。そのため、正常な物理ホストのみでクラスタを構成できるようになります。

こちらのスライドはその障害判断プロセスを記載しています。

実際に障害あった場合、ユーザはどのようにして気が付くのでしょうか?それを以下に記載します。

 

ユーザーには何が通知されるのでしょうか?

切り替え処理中に障害が発生したコントローラVMを持つホストは、共有ストレージが使用できないと報告 することがあります。このホスト上のゲストVMは、ストレージパスが復元されるまで「ハング」 しているように見えます。ゲストVMデータのプライマリコピーは、障害が発生したコントローラVMにマップされたディスクに格納されているため使用できませんが、そのデータのレプリカにはまだアクセス できます。リダイレクトが行われるとすぐに、VMは読み取りと書き込みを再開できます。

IOが内部ネットワークを経由するのではなく、ネットワークを介して移動しているため、パフォーマンスがわずかに低下する可能性があります。すべてのトラフィックが10GbEネットワークを通過するため、 ほとんどのワークロードはユーザーに認識されるようには減少しません。

 

のノードが障害になった場合はどうなりますか?

2番目のコントローラVMの障害は他のホストのVMにも同じ影響を与えます。つまり、2つのホストがネットワークを介してIO要求を送信します。しかし、さらに重要なことは、ゲストVMデータに追加のリスクがあることです。2つのコントローラVMを使用できないため、アクセス不能な2つの物理ディスクセットが存在するようになりました。RF2を持つクラスタでは少なくとも1つのコントローラVMが動作を再開するまで、一部のVMデータエクステントが完全に欠落する可能性があります。

 

f:id:t_komiya:20181111102415p:plain

ホスト障害時の挙動についてはこちらをご覧ください。

ノード障害が発生すると、他のノードでVMが再起動しますが他のノードにデータが存在していれば、問題なくデータにアクセスすることができます。ただし、3ノードで構成した場合は、障害時は正常なクラスタではありませんので、早急に復旧が必要になります。

 

ユーザーには何が通知されるのでしょうか?

HA保護されたVMにアクセスしているユーザーは、新しいホストでVMを再起動している間はそのVMを 使用できないことに気付きます。HAなしでは、VMを手動で再起動する必要があります。

 

別のノードが障害になった場合はどうなりますか?

2番目のホストの障害により、残りのホストの処理能力が不十分になり、2番目のホストからVMを再起動 する可能性があります。ただし、負荷の軽いクラスタであってもゲストVMデータに対する追加のリスクが懸念されます。

アクセス不能な2組の物理ディスクを使用すると、一部のVMデータエクステントが完全に失われる可能性があります。

 

f:id:t_komiya:20181111102836p:plain

f:id:t_komiya:20181111103024p:plain

次にドライブ障害について説明します。

ドライブには起動用の領域のブートドライブ、階層化データやOplog(書き込みデータ)がSSDおよびHDDなどのデバイスに格納されています。

それそれに対しての説明については、私の文章で記載することはなく、スライドの内容を参照して頂ければと思います。

ブートドライブについては、Lenovoの場合、2枚のM.2のSSDを利用してRAID1構成について冗長化していることから、1回の障害は保護できるような構成になっています。

 

ユーザーには何が通知されるのでしょうか?

スイッチング処理中に障害が発生したSSDのホストは、共有ストレージが使用できないと報告することがあります。このホスト上のゲストVMは、ストレージパスが復元されるまで「ハング」するように見えます。

リダイレクトが行われるとすぐにVMは読み取りと書き込みを再開できます。IOが内部ネットワークを経由するのではなく、ネットワークを介して移動しているため、パフォーマンスがわずかに低下する可能性があります。すべてのトラフィックが10 GbEネットワークを経由するため、ほとんどのワークロードはユーザーに認識されるようには減少しません。

別のノードが障害になった場合はどうなりますか?

2番目のメタデータドライブの障害は、他のホスト上のVMにも同じ影響を与えます。つまり、2つのホストがネットワークを介してIO要求を送信します。Cassandra Ringの回復機能は、第2の障害が回復プロセスが完了する前に起こらない限り、第2のノードを失うことに伴うリスクを軽減する。

f:id:t_komiya:20181111103122p:plain

メタデータドライブ(SSD)とデータドライブ(HDD・オールフラッシュ構成はSSD)については、クラスタ全体で複製されているため、単一障害では特に影響できることはありません。f:id:t_komiya:20181111103229p:plain

ネットワークの障害については、冗長化構成であれば、単一障害は問題ありません。1GbEのリンクにフェイルオーバーする場合とありますが、10GbEで組む構成が多いと思いますので、現状は気にすることはないと考えられます。

f:id:t_komiya:20181111103310p:plain

f:id:t_komiya:20181111103347p:plain

f:id:t_komiya:20181111103445p:plain

f:id:t_komiya:20181111103527p:plain

ブロックフォールトトレランスについては、ブロック(2U4Nのケースではあります)の時に関連する内容です。メタデータについてもBlockAwarenessも意識した構成が必要になりますので、十分注意が必要です。また、バージョンによってはEraser Codingのサポートにも影響があります

f:id:t_komiya:20181111103626p:plainブロックフォールトトレランスについてはデータ配置も構成も含めて図で示したほうがわかりやすいので、以下はイメージもつけて説明しております。

f:id:t_komiya:20181111103709p:plain

次にRedundancy Factorの話をしたいと思います。

こちらはRedundancy Factor3の内容になりますが、2ノードおよび異なるブロックの障害に耐えうる構成が必要になるオプションです。

デフォルトでは、Redundancy Factor2になるわけですが、クラスタのノードが増えれば増えるほど複数ノードの障害を考える必要があるので、こちらの設定が必要となります。詳細は以下のスライドをご参照下さい。

f:id:t_komiya:20181111103835p:plain

f:id:t_komiya:20181111103912p:plain

f:id:t_komiya:20181111103953p:plain

最後に劣化(Degrade)ノードについてお話したいと思います。

劣化したノードについてはパフォーマンスに悪影響を及ぼします。劣化ノードについては早期に検出して、リスクの軽減するための対策を立てる必要があります。詳細についてはスライドをご参照下さい。

f:id:t_komiya:20181111104036p:plain

f:id:t_komiya:20181111104157p:plain

ブログ内での説明よりもスライドの記載内容が多いため、コメントは少なめになってしまっておりますが、参考にして頂ければと思います。

 

よろしくお願いします。

 

Nutanix Guest Toolsについて

皆さん、こんにちは レノボ・エンタープライズ・ソリューションズ 小宮です。

本日はNutanix Guest Tools(以下NGTと省略させて頂きます)のお話をしたいと思います。

 

VMwareなどをご利用されている方は(VMware Tools)ご存知かと思いますが、同様の機能でサービスとモジュールのセットです。

こちらを利用することにより、Nutanixの中で様々な機能を利用できるようになり、仮想マシンの管理性を向上させることができ、ユーザーとのシームレスなやりとりができるようになります。

f:id:t_komiya:20181110163040p:plain

NGTの機能については主に5つあります。

  • Nutanixゲストエージェント(NGA)サービス
  • ファイルレベルリストア用のCLIの提供
  • Nutanix VMモビリティドライバの提供
  • Windows VM用のVSSリクエスタとハードウェアプロバイダ
  • Linux VM用のアプリケーション一貫性のあるスナップショット

NGTをインストールして、CVMと通信できるようにして、機能を連携できるようにします。

VMのスナップショットからセルフサービスのリカバリ(ファイルレベルの復元とも呼ばれます)機能により、仮想マシン管理者の介入を最小限に抑えてNutanixデータ保護スナップショットからセルフサービス回復を実行できます。NGTを有効にして、VMにログインしてゲストVM管理者がディスクを接続すると、ゲストVM管理者はゲストOS内のファイルを回復できます。ゲストのVM管理者がディスクの切り離しに失敗した場合、24時間後に自動的にVMから切り離されます。

ESXiとAHV間のVMマイグレーションのためのドライバ、インプレースハイパーバイザ変換、およびクロスハイパーバイザディザスタリカバリ(CHDR)機能を提供することによってサポートします。NGTをインストールすることにより、クロスハイパーバイザディザスタリカバリ(CHDR)は、スナップショットからVMの保護、スナップショットの作成、スナップショットの複製、およびVMの復旧という保護ドメインを使用することにより、あるハイパーバイザから別のハイパーバイザへのVMの移行(ESXiからAHV、AHVからAHVへの移行)できるようになります。

AHVまたはESXi Windows VMのアプリケーション一貫性のあるスナップショットを有効にします。NGTがVMにインストールされる前に作成されたハイパーバイザベースのスナップショットからNGTを実行しているVMが復元されると、VMはNGTなしで復元されます。

仮想マシン静止時に特定のスクリプトを 実行することによってLinux仮想マシンのアプリケーション整合のスナップショットをサポートします。WindowsとLinuxのNGT対応の詳細については以下をご参照ください。

f:id:t_komiya:20181110171419p:plain

Nutanixゲストツールの要件と制限

NGTを使用するすべての機能は、次の要件を満たす必要があります

一般的な要件と制限

  • 仮想IPアドレスはNutanixクラスタで設定する必要があります。クラスタの仮想IPアドレスが変更されると、 クラスタ内で実行されているすべてのNGTインスタンスが影響を受けます。
  • VMにはISOを添付するための空のIDE CD-ROMスロットが少なくとも1つ必要。
  • NGT-Controller VMサービスと通信するには、ポート2074を開いておく必要があります。
  • ハイパーバイザー:ESXi 5.1以降のリリース、AHV(20160215以降のバージョン)
  • VMはクラスタの仮想IPアドレスを使用してアクセスできるネットワークに接続する必要があります。
  • Windows Server版VMの場合、NGTのインストールを開始する前にMicrosoft VSSサービスが有効になっていること。
  • VM IQNを変更し、NGTのリフレッシュサイクル(現状5分)が発生する前に、VMのスナップショットを作成すると、 スナップショット操作がVM-VG接続をキャプチャできないため、NGTは自動復元機能を提供できません。 この問題を回避するには、Linux VMで$ sudo service ngt_guest_agent restartコマンドを実行し、Windows VMのサービスタブでNGTを更新することでnutanixゲストエージェントサービスを手動で再起動できます。
  • PowershellのパスはNGTのインストール環境で利用できる必要があります。それ以外の場合、NGTのインストールは失敗します。
  • Linuxオペレーティングシステムの場合、NGTは/ usr / localにインストールされます。したがって、ユーザーにこの場所に対する書き込み権限があることを確認する必要があります。

オペレーティングシステムが特定の機能に対してサポートされているかどうかを確認するには、特定のNGT機能について、サポートされているオペレーティングシステム情報を参照。

その他の制限については以下に掲載しておきます。

f:id:t_komiya:20181110171742p:plain

Nutanix導入後は仮想マシンにNGTの導入を忘れずにお願いします。

よろしくお願いします。

 

AOSのサポートポリシーについて~LTSとSTSについて~

皆さん、こんにちは レノボ・エンタープライズ・ソリューションズ 小宮です。

本日はAOSのサポートポリシーについてお話したいと思います。

今後のAOSのソフトウェア管理のナレッジにして頂ければと考えております。

  1. LTSとSTSについて

f:id:t_komiya:20181102214039p:plain

Nutanixは2018年4月にリリースしたAOS5.6以降で製品のライフサイクルを変えてきております。今回はその変更になったソフトウェアのサポートについてお話したいと思います。

LTS(Long Time Support)とSTS(Short Time Support)

AOS5.5までは通常通りのソフトウェアリリースでサポートも15か月のメンテナンスサポートを提供してきましたが、AOS5.6より機能を重視したSTS(短期間のサポートであるが、機能を重視したソフトウェアリリース)LTS(機能性よりもバグフィックスで長期間ソフトウェアをサポート可能にしたソフトウェアリリース)の2つのサポートになっています。

私もAOSの新規リリースで機能紹介をしてきておりますが、実際に短期間(6か月間)しかないサポートでお客様が利用することは少ないことから、日本のお客様はほぼAOS5.5以降はアップグレードを見送るケースが増えてきております。

実際にLTSのファームウェアは現在AOS5.5になるわけですが、こちらのバージョンで利用するお客様が多いのですが、これがいつまでサポートされるかと考えると、安心できるものではありません。

f:id:t_komiya:20181102221430p:plain

こちらは現在サポートされる一番古いバージョンから最新のファームウェアまでのEOLスケジュールを記載しております。

これを見ると、AOS4.7が2019年1月までとなっております。それ以外にもAOS5.1もまもなくサポートが終わりますし、STSではAOS5.8が2019年1月に終了となります。

LTSでの最新はAOS5.5でありSTSではAOS5.9となります。

f:id:t_komiya:20181102215837p:plain

しかしながら、AOS5.5にアップグレードに上げたとしても、2019年4月にはEnd of Maintenanceを迎えてしまうため、次のLTSのAOSのリリースが待ち望まれます。

現在、AOS5.5にアップグレードしていないお客様は是非アップグレードをお願い致します。

2. アップグレードパスについて

f:id:t_komiya:20181102220012p:plain

AOSのバージョンアップを実施するにあたり、アップグレードのパスを確認する必要があります。アップグレードパスの確認は上記にも記載があるURLをご参照下さい。

こちらで現状AOSのバージョンから指定されたAOSまで直接アップグレード可能なのかそうでないのか含めて確認することが可能です。

是非アップグレード前にチェックをお願いします。(アップグレードの画面においても確認するができます)

 

3. アップグレードについて

f:id:t_komiya:20181102220412p:plain

アップグレードについては、Prismの画面から歯車のアイコンをクリックしてUpgrade Softwareを選択することで対応可能です、

アップグレードしたいバージョンのAOSを選択してInternet経由でAOSのイメージダウンロードしてオンラインでアップグレードする方法とAOSのイメージとAOSにMETADATAをアップロードしてオンラインでアップグレードする2種類があります。

オンラインのアップグレードについては、主にインターネットに接続されていない環境で利用します。

 

サポート期間の短いAOSをお使いのお客様は是非ご確認頂ければと思っております。

 

よろしくお願い致します。

Nutanixのクラスタのコンポーネントを覚えてみよう!

皆さん、こんにちは レノボ・エンタープライズ・ソリューションズ 小宮です。

本日はNutanixのクラスタについてお話したいと思います。

 

今回の内容については、Nutanix Bible(http://nutanixbible.jp/)にも記載している内容になりますが、実際には単語レベルでの説明はあるものの各プロセスについての詳細に書かれていないため、筆者が理解できるようにいろいろとまとめてみました。

f:id:t_komiya:20181031003027p:plain

Nutanixクラスターには分散アーキテクチャーがあり、クラスター内の各ノードはクラスターリソースおよびその重要性を共有しています。各ノードにはクラスタ操作中に特定のタスクを実行するソフトウェアコンポーネントがあります。

すべてのコンポーネントは、クラスタ内の複数のノードで実行され、コンポーネントを実行する役割の間で接続が依存しています。ほとんどのコンポーネントは、他のコンポーネントにも依存しています。

 

Zeus

分散システムの重要な要素は、すべてのノードがクラスターの構成を保管して更新します。内容はホストやディスクなどのクラスタ内の物理コンポーネント、およびストレージコンテナなどの論理コンポーネントに関する詳細が含まれます。これらのコンポーネントの状態(IPアドレス、容量、データ複製ルールなど)もクラスタ構成に格納されます。

Zeusは他のすべてのコンポーネントがクラスタ構成にアクセスするために使用するNutanixライブラリです。現在、Apache Zookeeperを使用して実装されています。

 

Cassandra

CassandraはNutanixデータストアに格納されているゲストVMデータに関するすべてのメタデータを格納している分散型の高性能でスケーラブルなデータベースです。NFSデータストアの場合、Cassandraはデータストアに保存された小さなファイルも保持します。ファイルのサイズが512Kに達すると、クラスタはデータを保持するvDiskを作成します。

Cassandraはクラスタのすべてのノードで実行されます。これらのノードはGossipプロトコルを使用して1秒に1回、互いに通信し、データベースの状態がすべてのノードで最新であることを保証します。

CassandraはZeusに依存して、クラスタ構成に関する情報を収集します。

ZooKeeper

Zookeeperはクラスタに適用される冗長度に応じて、3つ(RF2)または5つ(RF3)のノードで実行されます。複数のノードを使用すると失効したデータが他のコンポーネントに返されるのを防ぎます。一方、奇数を使用すると、2つのノードが異なる情報を持つ場合に繋ぎを解除する方法が提供されます。

これらの3つのノードのうち、1つのZooKeeperノードがリーダーとして選出されます。リーダは情報の要求をすべて受信し、2つのフォロワノードに付与します。リーダーが応答を停止すると、新しいリーダーが自動的に選出されます。

Zookeeperには依存関係がないため、他のクラスタコンポーネントを実行しなくても起動できます。

 

f:id:t_komiya:20181031004531p:plain

Medusa

他のシステム(仮想マシンをホストするハイパーバイザーなど)のデータを格納する分散システムには、そのデータの格納場所を把握する方法が必要です。Nutanixクラスタの場合、そのデータのレプリカが格納されている場所を追跡することも重要です。

Medusaは、このメタデータを保持するデータベースの前に存在しているNutanixの抽象化レイヤーです。データベースは、Apache Cassandraの変更された形式を使用して、クラスタ内のすべてのノードに分散されます。

Stargate

他のシステム(ハイパーバイザなど)にストレージを提供する分散システムでは、受信するデータを受信し処理するための統合コンポーネントが必要です。Nutanixクラスタには、この責任を管理するStargateという大きなソフトウェアコンポーネントがあります。

ハイパーバイザーの視点からStargateはNutanixクラスターの主要な接点です。すべての読み取りおよび書き込み要求は、NutanixのvSwitchを介して、そのノード上で実行されているStargateプロセスに送信されます。

Stargateはメタデータを収集するMedusaとクラスタ構成データを収集するZeusに依存します。

Curator

分散システムではプロセス全体を監視するコンポーネントを持つことが重要です。未使用のデータブロックを指すメタデータが蓄積されたり、ノード間またはディスク階層間でデータのアンバランスが発生する可能性があります。

Nutanixクラスタでは、各ノードがこれらの責任を扱うCuratorプロセスを実行します。Curatorのマスターノードは、メタデータデータベースを定期的にスキャンし、スターゲイトまたは他のコンポーネントが実行すべきクリーンアップおよび最適化タスクを識別します。メタデータの分析は、MapReduceアルゴリズムを使用して他のCuratorノード間で共有されます。

Curatorはどのノードが利用可能であるかを知るためにZeusに依存し、メタデータを収集するためにMedusaを使用します。その分析に基づいて、Stargateにコマンドを送信します。

Prism

ユーザーがアクセスできない場合、分散システムは役に立たない。Prismは管理者がNutanixクラスタを構成および監視するための管理ゲートウェイを提供します。これには、nCLIおよびWebコンソールが含まれます。

Prismはクラスタ内のすべてのノードで動作し、他のコンポーネントと同様に、リーダーを選択します。すべてのリクエストは、Linux ip tablesを使用してフォロワーからリーダーに転送されます。これにより、管理者は任意のコントローラVM IPアドレスを使用してPrismにアクセスできます。Prismリーダーが失敗した場合、新しいリーダーが選出されます。

Prismはクラスタ構成データ用にZeusと通信し、統計情報はユーザーに提示するためにCassandraと通信します。また、VMステータスおよび関連情報についてESXiホストと通信します。

 

少し難しい内容になっておりますが、Nutanixの重要なコンポーネントであるため、今後Nutanix Bibleを読むときに役立てて頂ければ幸いです。

 

よろしくお願い致します。

 

Nutanix FLOWについて【第二弾】

皆さん、こんにちは レノボ・エンタープライズ・ソリューションズ 小宮です。

本日はFLOWについてのご説明をしたいと思います。以前記事の中で取り上げたのですが、マイクロセグメンテーションの機能に思われるところがありましたので、今回はもう少し内容を説明したいと思います。

 

以前FLOWに関して投稿した記事

マイクロセグメンテーション(FLOW)の詳細について~AOS5.6機能紹介~ - LTN Blog 〜 Lenovo Technology Network 〜

 

f:id:t_komiya:20181022212149p:plain

AHV仮想ネットワーキングに固有のもので、Open Virtual Switch(OVS)に基づいています。 Flowの機能を活用するためにインストールする追加のソフトウェアやコントローラはありません。

機能としては、視覚化・ポリシー決め・マイクロセグメンテーション・ネットワーキングです。

直感的でスケーラブルなソリューションでかつ1クリックで利用可能です。

 

f:id:t_komiya:20181022212744p:plain

FLOWは、アプリケーションの可視性、VM マイクロセグメンテーション(仮想マシン間のファイアウォール)、およびサービスチェイニングの3つの主要機能から構成されます。FLOWのビジョンは、包括的なSDN製品であることです。

 

FLOWの可視化

  • VM間のフローの自動検出
  • アプリケーションのトラフィックと関係を視覚化する
  • 最小のアプリケーションドメインの知識が必要

適切なアプリケーション中心のネットワークポリシーを設定するには、ワークロードの動作を完全に理解する必要があります。 Nutanix Flowは、VM間の通信をリアルタイムで視覚化し、環境に適したポリシーを簡単に設定することができます。

すべてがここから始まります。ポリシーの構築を開始するには、アプリケーションに関連するVMの基本知識のみが必要です。

FLOW マイクロセグメンテーション

  • 常時接続のステートフルVMレベルファイアウォール
  • 簡単なポリシーの作成と適用
  • App centric - ネットワークIDから切り離された
  • VM変更管理の自動更新
  • VMを変更する(新しいプロビジョニング、新しいIP、マイグレーション)場合、ポリシーはユーザーの介入なしに自動的に更新できます

マイクロセグメンテーションは、仮想マシン(VM)またはVMのグループとの間のすべてのトラフィックの詳細な制御とガバナンスを提供します。これにより、アプリケーション層または他の論理境界間の許可されたトラフィックのみが許可され、仮想環境内に伝播する高度な脅威から保護されます。

マイクロセグメンテーションは、従来の境界ファイアウォールとは異なり、特定のネットワークセグメント(VLANSなど)や識別子(IPアドレス)ではなく、VMとアプリケーションにネットワークポリシーを割り当てることができます。ポリシーは、VMライフサイクル全体を通じて自動更新され、ポリシー変更管理の負担を取り除きます。

サービスチェーン/ネットワーク機能

  • パートナーとの統合によるネットワーク機能の拡張
  • VM間で複数のサービスを接続する
  • トラフィックリダイレクションの詳細な制御

Nutanix Flow機能を拡張して、サードパーティのソフトウェアから仮想化ネットワーク機能を活用することができます。これらのサービスは、VMトラフィックとインラインで挿入され、すべてのトラフィックに対して簡単に有効にすることも、特定のネットワークトラフィックに対してのみ展開することもできます。挿入可能な一般的なネットワーク機能には、仮想ファイアウォール、ネットワーク脅威検出(IPS / IDS)、アプリケーションパフォーマンス監視(APM)、または一般的なアプリケーションネットワーク診断が含まれます。

f:id:t_komiya:20181022213320p:plain

視覚化についてはポリシーを含めて対応します。またアプリケーションレベルで視覚化するために、Netsil(今後はEpoch)を統合して機能を対応します。

f:id:t_komiya:20181022213946p:plain

FLOWはネットワークの機能とセキュリティの自動化の機能を兼ね備えております。

Webhook APIでVLANのマッピングやディスカバリを行います。LenovoのスイッチもAPIを利用することでプロビジョニングの自動化を行います。

また、アプリケーション・仮想マシンの展開もPrism Central/Calmを利用することで対応します。 

将来の対応については、VXLANの対応などがあげられます。

 

f:id:t_komiya:20181022215753p:plain

お客様がどのようなシーンでFLOWを利用するのかを考えてみましょう。

マルチクラウドによるソフトウェアな境界線であることから今までのようなアプローチでセキュリティ対策を行いとコストがかかります。

またセキュリティの攻撃やスピードも増加するなどで高価値のデータがターゲットになりますし、インフラが複雑化することでモダンなアーキテクチャを利用したり、マイクロサービス/コンテナなどの対応もしなければならない。

セキュリティのオペレーションするスタッフも手動で対応することがボトルネックなることもあり、1クリックや自動化でセキュリティ行う必要があります。

 

f:id:t_komiya:20181022221141p:plain

f:id:t_komiya:20181022221303p:plain

 

f:id:t_komiya:20181022221842p:plain

上記3つのシナリオについては、前回の記事にも記載がありますので、説明は割愛させて頂きますが、VDIのスライドについては再度説明します。

隔離ポリシーは完全なVM隔離(ネットワークなし)または管理上定義された一連のアプリケーションが隔離されたVMと通信できる「フォレンジック」にすることができます

検疫はAPIを使用して手動またはプログラムで行うことができます

インバウンドフォレンジックの例には、リモートアクセス用のSSH / RDP、パッチツール、または分析やウイルスの駆除にITが使用するその他のツールがあります

 

f:id:t_komiya:20181022222022p:plain

FLOW+マイクロセグメンテーションによってHCI(Enterprise Cloud)の保護を行うことができます。セキュリティの境界化・マイクロセグメーションによる細かい制御やスケールを実現し、セキュリティ運用を簡素化します。

f:id:t_komiya:20181022222236p:plain

最後にFLOWのポイントをまとめてきました。

 

よろしくお願い致します。

Microsoftサポート、セキュリティ機能強化~AOS5.9の機能紹介~

 
皆さん、こんにちは レノボ・エンタープライズ・ソリューションズ 小宮です。

本日は今週リリースされたAOS5.9の機能紹介をしたいと思います。

今回のAOS5.9の機能追加について、リリースノートで記載されている内容がありますので、そちらを紹介します。

http://vcdx56.com/2018/10/nutanix-aos-prism-central-version-5-9-and-more-released/

リリースノートには記載はありませんが、先日の記事でご紹介したSAP HANA対応のAOSもこのバージョンからになります。

 

今回の機能追加についてご紹介していきたいと思います。

f:id:t_komiya:20181007001705p:plain

 

主な機能追加はこちらの3つに集約されていますが、それ以外の機能追加も最後のほうに紹介いたします。

f:id:t_komiya:20181007002213p:plain

 

ラックの認識とありますが、ブロックの集合体を大きくしたものです。ラック構成にすることでトップオブラックのスイッチが障害が起きた場合でもデータのアクセスすることができます。かなり大規模の構成の場合に利用するケースはありますが、小規模ではあまり利用することはないと思います。

ラックにおけるフォールトトレランスの内容については、サポートポータルに記載がありましたので、こちらに合わせて記載致します。なお、ラックのフォールトトレランスが利用できるのはAHVおよびESXiのみとなります。

f:id:t_komiya:20181007003123p:plain

NearSyncの機能拡張になります。VSSをサポートすることによりアプリケーションの整合性を意識したスナップショットを実行できるようになりました。またNearSync対応ドメインでサードパーティベンダーのバックアップをサポートします。

f:id:t_komiya:20181007003401p:plain

セキュリティ機能の強化となります。バックグランドで暗号化をサポートしています。

  • ソフトウェアの暗号化は、既存のデータを持つクラスタまたはコンテナで有効
  • ネイティブキー管理サーバー(KMS)と外部KMSの切り替えがサポート

 

AOS 5.9でのソフトウェアの暗号化サポートを拡大

  • 外部(EKM)およびローカル(LKM)キー管理で動作
  • FIPS認証は「対応予定」でステータスであり、リリースは2018年末に予定されています
  • ESXiおよびHyper-Vについてはコンテナレベルの暗号化はオプション
  • AHVはクラスタレベルのみ -  2018年末でVMレベルも対応予定ですが、5.9で既存のデータで有効にすることができます

AOS 5.9の新機能は、既存のデータの暗号化をサポートする機能です。 5.8での暗号化は、ESXiの空のコンテナまたはAHVの空のクラスタでのみサポートされていました。これは、既存のデータに対してソフトウェア暗号化を使用するために複雑な移行が必要でした。

AOS 5.9では、ハイパーバイザー上の既存のデータを無停止で暗号化するために、お客様は「1回限りの」バックグラウンドプロセスを活用できます。ワンクリックで簡単誰でもSW暗号化を開くことができます。

 

f:id:t_komiya:20181007020004p:plain

Microsoftのサポートについてですが、AOS5.9に対応内容としては、CalmでのAzureのデプロイが可能になったこと、Hyper-VでMetro Availabilityが対応したことです。これで主要のクラウドプロバイダーに対してマルチクラウドの環境が整います。

 

その他の機能について、追加されたものを見てみましょう。 

f:id:t_komiya:20181007021250p:plain

NVIDIAのTesla V100のサポートが記載されていますが、OEM各社のサポートはそちらに依存しますので、ご注意下さい。(ESXiの正式サポートも同様です)

RDMAについてもサポートについて同様ですが、LenovoのHXシリーズについてコメントすると全機種2つ以上のインタフェースを搭載可能になりますので、プラットフォームでの未サポートはないと考えられます。

f:id:t_komiya:20181007021605p:plain

f:id:t_komiya:20181007021906p:plain

Prism CentralでのNGT管理ができるようになりました。またLinuxのゲストクラスタリングのサポートもしています。メニューについても変更されておりますので、一瞬違和感を感じるかもしれません。

Nutanix KarbonがTech Previewでリリースされております。

f:id:t_komiya:20181007022215p:plain

 Prism Centralの追加機能になります。Azure対応以外にWhat If分析の機能追加とJenkinsプラグインなどが入っています。また、マーケットプレイスにBlueprintを共有できるようになりました。

 

よろしくお願い致します。

ADS(Acropolis Distributed Scheduler)に関して

皆さん、こんにちは レノボ・エンタープライズ・ソリューションズ 小宮です。

本日はNutanixのAHV上で仮想マシンのスケジューリングするADS(Acropolis Distributed Scheduler)のお話をしたいと思います。

本機能については、VMwareのことをご存知の方はお気づき方と思いますが、こちらはDRS(Distributed Resource Scheduler)と同様の機能だと思って頂ければと思いますが、機能は非常にシンプルになっています。 

Acropolis Distributed Schedulerについて 

f:id:t_komiya:20181002212903p:plain

ADSの目的は以下の通りです。

仮想マシンの初期配置

  • 新しい仮想マシンを最適なホストに配置する

ホスト内のリソースの競合を避ける

  • CPU(ホストのCPUが閾値85%を超えると移行が始まる)
  • ストレージコントローラ(CVMのCPUが閾値85%をStargateに使用されると移行が始まる)
    ABS(Nutanix Volume)も対象
  • ルール違反のスケジューリング
ホットスポットを検出するインテリジェントシステム
  • ホットスポットの回避
  • ワークロードの変化に反応しない

  • ワークロードに必要なリソースを確保
  • オペレータの介入なし
  • 負荷分散しない

仮想マシンのアフィニティポリシー

  • 選択したホストグループに仮想マシンを保持

仮想マシン間のアンチアフィニティポリシー

  • 異なるホスト上で仮想マシンの分離を保証

プロビジョニングした仮想マシンを最適なホストに配置して、ホスト内のリソース競合を避けるためようにすることが目的であり、VMwareのDRSのように細かな設定を行うことはありません。アフィニティポリシーについても非常にシンプルなものとして設定可能になっています。

また、仮想マシン起動時の初期配置および15分間隔で状態をチェックします。

 

 異常が見つかった場合は、次の方法で修復します。

  a)仮想マシン移行計画

  b)ABS iSCSIセッションの再指示

 

 異常検出

・15分毎

・ホストリソースが過負荷になっていないか確認する

  • 潜在的に十分なリソースを獲得できない仮想マシンがないとチェック

・ポリシーに違反していないかどうかをチェック

 

需要予測

・競合するノード上のリソースの需要予測が困難

・統計は現在どのくらいの割合で取得しているのか指定

・現在の値を選択すると、移行がたらいまわしにされる可能性があります

・現在の解決策は、コンバージェンスがより迅速になるように固定比率(+20%)で需要を拡大すること

 

ストレージCPUの計算

・Stargateはスレッドカウンターを発行

  • 各vdiskコントローラが費やした時間を指定(vdiskにマップされます)

・Vdiskカウンタは対応する仮想マシンおよびSoSANをターゲットに集約

・StargateのCPU使用率に基づく割り当て

・Storage CPU が通常の仮想マシンCPUに追加

  • I/Oヘビーな仮想マシンをコンピュートヘビーノードへの移行を妨げます
  • ハイパーコンバージド環境での特定が重要

 

VMwareのDRSと異なり、仮想マシンと合わせてストレージパフォーマンスをモデル化しません。

固定化されている機能であるため、特別にカスタマイズすることなく利用できます。

 

よろしくお願い致します。

ついに出たミッションクリティカル向けのNutanixモデル(ThinkAgile HX for SAP HANA)~ThinkAgile HX7820/HX7821のご紹介~

皆さん、こんにちは レノボ・エンタープライズ・ソリューションズ 小宮です。

本日は先日USで発表されたSAP HANA向けのNutanixモデルのThinkAgile HX7820/7821をご紹介したいと思います。

本記事をご参照頂くにあたり、以下のブログの記事も合わせて参考にして頂くとモデルの詳細を理解できると思いますので、よろしくお願いします。

 

HCIの10Gbで本当に大丈夫!?~AHV Turboを少し調べてみよう~ - LTN Blog 〜 Lenovo Technology Network 〜

 

Nutanixがパフォーマンスを必要とするエンタープライズアプリケーションに最適なソリューションである理由 - LTN Blog 〜 Lenovo Technology Network 〜

 

SAP環境にNutanixは最適なんです!~Nutanix Solution for SAP on Lenovo HX Series~ - LTN Blog 〜 Lenovo Technology Network 〜

 

まず初めにSAPに関する要件について一度ご説明したいと思います。

SAP HANAがリリースされる前はOracleやSQL Serverなどを利用してプラットフォームを構築していましたが、一つのプラットフォームに統一しリアルタイムにデータを分析してビジネスをサポートしながら、ハードウェアやオペレーションコストを削減してきました。 

f:id:t_komiya:20180923232002p:plain

しかしながら、従来型に比べて1/3のラックスペースとあるが、SAP HANAであっても3Tier構成である以上、インフラのオペレーションは一向に楽になるわけではなくハードウェアを含むインフラの柔軟性が必要となります。そこで考えつくのがハイパーコンバージドのようなインフラに対応していればよいと考えつくと思います。

f:id:t_komiya:20180923232515p:plain

ハイパーコンバージドは迅速性・柔軟性に加え、自動修復機能などの障害時のオペレーションにも非常に効果的なソリューションであります。運用についても1クリックで運用できることで、これがSAP HANAが対応していれば問題ないのですが、つい最近までNutanix(特にAHV)には対応しておりませんでした。

これが先月ようやくAHVでの認定が発表されたことにより、Nutanix上でのプラットフォームでSAP HANAが提案できるようになります。(製品リリース秋頃の予定)

なぜ、ハイパーコンバージドでSAP HANAが動作させる必要があるのかをご説明します。f:id:t_komiya:20180923233432p:plain

ハイパーコンバージドを選択することにより、コンピュート・ストレージのノードをノード単位でスケールさせることが可能です。これで増設時もサイジングも苦労することありませんし、何よりオンラインで増設が可能になることから、業務への影響は少なくなります。

もちろん現状のサーバでSAP HANAが動作するサーバで適応すればよいのですが、SAP HANAの要件として4ソケットモデルが必須要件になるため、従来の2ソケットサーバでは対応不可となります。レノボの場合、ThinkSystem SR950(最大8ソケットまで搭載可能)のモデル(ThinkAgile HX7820/HX7821)でこちらのソリューションに対応します。

SAP HANAがパフォーマンス的に構成で認定されたモデルが今回リリースされたわけですが、こちらのモデルはNutanixのNXシリーズではラインナップにございません。

こちらのモデルについての強みも含めてご説明したいと思います。

f:id:t_komiya:20180923235447p:plain

そもそもLenovoがSAPのビジネスに関してWWではトップシェア(アプライアンスモデル)になっています。そのため、SAPビジネスについては熟知した知識をフルに活用して出来上がったモデルです。もちろん、ハードウェアそのもので高速性、可用性も兼ね備えております。そのモデルをLenovo/Nutanixで共同イノベーションでリリースしたわけであります。(ミッションクリティカル要件のため、信頼性の高いハードウェアが必要)

パフォーマンスについてもWorld Recordを持っていますので、非常に高評価のプロダクトになります。

 

ここで、一度ThinkAgile HXのラインナップを整理してみましょう。

f:id:t_komiya:20180923235030p:plain

f:id:t_komiya:20180923235047p:plain

今回のThinkAgile HX7820/HX7821はハイエンドモデルになります。従来のHX7500シリーズに比べてCPUスペックだけでなく、搭載しているストレージに関してもより高速なデバイスが選択可能になっています。(今回は認定ノードも合わせてリリースしています)

f:id:t_komiya:20180923235546p:plain

詳細なスペックはこちらのスライドです。ここでポイントなのは搭載ドライブとネットワークインタフェースです。NVMeと25GbEについて以前AHV Turboで話題を取り上げましたが、ようやくこちらのデバイスを利用することでAHV Turboの本領を発揮できるようになります。もちろんインメモリデータベースのSAP HANAは高速でアプリケーション上のメモリのアクセスも必要となりますので、MellanoxのRDMAなどもサポートしていれば、さらに高速することは間違いないのですが、現状RDMAは未サポートになります。

また、こちらのモデルはAOS5.9(次期AOSのバージョン)でサポートになります。

ここでいくつか補足致します。

・CPUについては本番環境で利用する場合はPlatinumのCPUを選択が必須

・現状は3CPUが物理で必要なため、4ソケットモデルが必須

・メモリは最大2.3TBまでサポート

・TDIモデルではNVMeや25GbEのNICは現状未サポート

f:id:t_komiya:20180924002701p:plain

また、大容量メモリの環境をサポートするために、NUMA環境をサポートする必要があります。今回これを仮想マシンからも利用できるためのvNUMAも合わせてサポートする必要がありますが、こちらはすでにAHVでは実装されております。

f:id:t_komiya:20180924000221p:plain

上記スライドは今回のソリューションが適していると思われるお客様の一例を記載しております。既存のHANAユーザはインフラのスケーラビリティとTCO削減する運用ができることが特徴になります。

SAPの2025年問題のことを考えると既存で3rdパーティのDBを利用しているお客様から見た場合、DBは作り直しになりますので、それを機にSAP HANAへの移行を検討したほうが良いと思われます。

既存HCIのユーザから見た場合は、新規にSAP HANAのサークロードをサポートすることで、さらにHCIへの環境にアプリケーションを移行できることがプラスの材料になることでしょう。

f:id:t_komiya:20180924001632p:plain

ThinkAgile HX7820/HX7821がSAP HANA専用にリリースされているように見えるわけですが、実はほかにも利用用途があります。

こちらのスライドで載せていますが、ブロックチェーンなどの用途利用することが想定されます。ビットコインのように複数のトランザクションの結果をネットワーク上で共有するようなワークロードについては今回のマシンが最適であると考えられています。そのため、冗長性なども考えると高可用性(ファイブナインレベル)が要求されます。

 

Enterprise Cloud OSもミッションクリティカルのアプリケーションをサポートしてきております。これを機にAHVの導入を本格検討してみてはいかがでしょうか。

 

よろしくお願い致します。

 

AHVのHighAvailability(高可用性)について

皆さん、こんにちは レノボ・エンタープライズ・ソリューションズ 小宮です。

本日はAHVのHighAvailability(以下HAで省略)に関して説明したいと思います。過去にAHVの機能比較の記事でHAの内容に触れていたかと思いますが、簡単に説明しただけで終わっていましたので、今回はもう少し説明したいと思います。

記事については、以下を参照してください。

blog.lenovojp.com

 

HAの方式については、以前のブログでお話した通り2種類存在します。

1.ベストエフォート

2.リザベーション

 

・ベストエフォート方式について

f:id:t_komiya:20180917223824p:plain

HAの設定についてはFoundationでセットアップ後に組まれていますが、Prismのメニューで「Manage VM High Availablity」というメニューで「Enable HA Reservation」のチェックのON/OFFで設定が決まります。

設定をOFFのままであれば、ベストエフォートになり、ONにすればリザベーション(予約)になります。

  • Acropolisは、ホストがダウンした場合に管理する仮想マシンの高可用性を提供
  • 正常でないホストが修復されている間に、別の正常なホスト上で仮想マシンが再起動されます
  • ホストが修復されている間、仮想マシンが長期間停止する心配はありません
  • ストレージの高可用性の最大はRF-3であるため、最大2つのホスト障害をサポートします

 

ベストエフォートの場合、障害発生後は自動で再起動しますが、デフォルト設定なので、ノードで使用可能なリソースに基づいて、他のクラスタノード上の仮想マシンの復旧と電源投入を行います。エンタープライズクラスの機能を最初から有効にすることは非常に効果的ですが、ベストエフォート型のオプションでは、リソースの制限のために仮想マシンの電源がオンにならない状況が発生する可能性があります。

f:id:t_komiya:20180917224834p:plain

より定義された復旧モデルの場合、AHVは仮想マシンの高可用性を保証するために、クラスタ内に必要なリソースを予約することができます。デフォルトのベストエフォート機能と同様に、リザベーション(予約)モードも用意されており、ワンクリックで選択できます。

 

・リザベーション(予約)方式について

f:id:t_komiya:20180917225732p:plain

チェックを入れることにより、AHVはNutanixクラスタを分析し、復旧に最適な高可用性ポリシーを選択します。現時点では、システムは、確立された高可用性ポリシーに基づいて新しいVMを確実に回復できるようにポリシーを設定します。AHVは、ポリシーをクラスタ内の使用可能なメモリに基づいており、次の可用性ポリシーを提供します。

  • ホストのCPUとメモリの使用状況を追跡します
  • ホスト機能の対象となり、仮想マシンのポリシーに準拠した仮想マシンを配置
  • 仮想マシンの高可用性を保証するリソースを予約

 

リザーブド・セグメント:AHVは、単一ノードを専用ノードに割り当てるのではなく、クラスタ内のノード全体に高可用性リカバリ・ポイントを分散します。ハイアベイラビリティイベントが発生すると、障害の発生したホスト上で実行されている仮想マシンは、クラスタ内の他のノードで再起動します。

 

サポートするポリシーについて

  • データローカリティを維持します
  • QoSを保証します
  • 特定のリソースタイプとの相関関係を決定づける
  • ハードウェア/ソフトウェアポリシーの制約に従う
  • ワークロード間の干渉を避ける
  • 集合的なリソース要件を優先する

f:id:t_komiya:20180917230334p:plain

予約された構成では、仮想マシンの高可用性設定は、確立されたNutanixクラスタのフォールトトレランスレベルに応じて、クラスタ全体でリソースを予約します。仮想マシンの高可用性の構成では、次のことから保護するために必要なリソースが予約されています。

  1. NutanixコンテナがReplication Factorが2で構成されている場合、1台のAHVホスト障害まで許容
  2. NutanixコンテナがReplication Factorが3で構成されている場合、2台のAHVホスト障害まで許容

Nutanixは、クラスタから入手可能な詳細に基づいてリカバリオプションを自動的に選択することにより、高可用性のリカバリ方法の選択を簡素化します。ベストエフォート型のデフォルトを超えて仮想マシンの高可用性を有効にすると、新しい仮想マシンの高可用性に対応するのに十分なリソースがポリシーで確保できる限り、新しく作成された仮想マシンの電源を入れることができます。

仮想マシンの高可用性はハイパーバイザベースの高可用性のイベントでのみ、実行中の仮想マシンのリカバリ性を考慮した構成にする必要があります。ハイパーバイザベースのイベントは、Nutanixソリューション内のストレージまたはCVMイベントを含む高可用性とは異なります。ストレージまたはCVMイベントには、(定義されたレプリケーションファクタに基づいて)データレプリケーションによるリカバリと、クラスタ内のリモートCVMへのリダイレクトが含まれます。

 

詳細はNutanixのポータルサイトに記載がございます。

https://portal.nutanix.com/#/page/docs/details?targetId=Web-Console-Guide-Prism-v52:wc-high-availability-acropolis-c.html

 

よろしくお願い致します。