LTN Blog 〜 Lenovo Technology Network 〜

レノボのソリューション・サーバー製品に関する技術情報、お役立ち情報をお届けします

ランサムウェア対策、本気で考えてますか?~SDSの機能で実現するランサムウェア対策~

皆さん、こんにちは レノボ・エンタープライズ・ソリューションズ 小宮です。

本日はHCIではない話題をお話したいと思います。

 

昨年騒がせたランサムウェアのWannaCryの騒動があったかと思いますが、もしランサムウェアにかかってしまった場合、どうしたらよいでしょうか?

もちろんかからないように防御することが大事ですが、感染しまった場合にいち早く復旧しなければならないかと思います。

そのときはどのような対策を施せばよいのか非常に悩むところだと思います。

 

今回はSDSで実現するランサムウェア対策をご紹介します。

 

1. DataCoreのCDP(Continuous Data Protection)機能で実現するランサムウェア対策

DataCoreの紹介をこちらのブログでしてきて

 

以下の赤枠の機能が対象

f:id:t_komiya:20180414005341p:plain

では、CDPがどのような機能を実現するのかをご説明します。

 

f:id:t_komiya:20180414010645p:plain

CDPは連続したリカバリーポイントとロールバックを実現します。

通常のバックアップやスナップショットはある一点の状態に過ぎず、最新の状態であるとは言えません。ファイルサーバのファイルリストアである時点に戻す場合ならそれでも良いのですが、ランサムウェアのように感染前の最新の状態に戻すものには適していません。そこでCDPのよにブロックレベルで変更が発生した場合にそのときの状態を保存して、それをある一定期間保持しておくことにより、リカバリーポイントを常に最新に近い状態にすることが出来ます。

もちろん、ロールバックについても、日次単位、時間単位ではなく、秒単位まで指定することが可能になります。(最大14日間まで保存可能

 

実際には、スナップショットがカメラでの写真撮影の画像という位置づけであれば、CDPはビデオカメラでの撮影になると思っていただければイメージがわかりやすいと思います。

f:id:t_komiya:20180414212238p:plain

こちらのCDP機能については、標準ライセンスでは利用できないため、オプションで購入が必要となります。(2018年4月以降に新ライセンス移行があるため、詳細は別途ご確認ください)

 

Datacoreの製品でランサムウェア対策に使えることはわかったが、14日間までのデータしか元に戻れないのは本当にそれでよいのか?

直近に戻るだけならそれでよいが、ランサムウェアにかかってしまったのが遅くなってしまった場合はどうでしょうか?無限のバックアップデータからリストアが可能でしかも、短時間でファイルやアプリケーションもすべてが対応しているものがあればもっと良いと思います。

 

実際にFFIEC(Federal Financial Institutions Examination Council)が出しているガイドラインを見ると企業レベルによって、セキュリティの基準も厳重に決められております。

https://www.fsa.go.jp/common/about/research/20160815-1/01.pdf

 

上記を準拠するために米国の金融系の会社が対策を方法が以下のソリューションです。

2. オブジェクトストレージのCloudianとデータ仮想化のActifioで実現するランサムウェア対策

 

f:id:t_komiya:20180414221515p:plain

以前こちらのブログでもご紹介したオブジェクトのCloudianですが、こちらのストレージにActifio社がようやく連携対応できたため、今回の紹介が出来るようになりました。Actifioについてはご存知ない方もいらっしゃると思いますので、簡単に紹介しますと、アプリケーションデータの仮想化になります。本番データとバックアップデータなど同様のデータがインフラ上に散乱しているものをActifioでゴールデンイメージを保持して開発・テスト用のデータにも再利用可能なソリューションです。今回のランサムウェアについては、データのマスキングは関係ありませんが、ファイルだけでなくアプリケーションレベルで増分バックアップも対応しているソフトウェアはほとんどなく、このActifioはその代表的なソフトウェアの一つと言えるでしょう。(Actifioは最小の容量が決まっているため容量が小さい場合は適さず、むしろDatacoreを選択したほうが良いでしょう)

f:id:t_komiya:20180414223757p:plain

 

f:id:t_komiya:20180414223859p:plain

 

Cloudianの無限に容量が利用できるバックアップストレージにActifioのバックアップのソリューションでランサムウェアを実現してみてはいかがでしょうか。

 

宜しくお願い致します。

 

 

HCIの10Gbで本当に大丈夫!?~AHV Turboを少し調べてみよう~

皆さん、こんにちは レノボ・エンタープライズ・ソリューションズ 小宮です。

本日はNutanixのAHV Turboについてお話したいと思います。

いきなり、AHV Turboって何ですか?という人もいらっしゃると思いますので、簡単に説明すると昨年の.NEXT 2017で発表されてAOS5.5でサポートされたI/Oを高速化する技術です。

パッと聞くとすごい技術に思えますが、果たしてそのまま使ってよいのかどうかも含めて考えてみました。

 

1. AHV Turboのアーキテクチャ

AHV Turboのアーキテクチャを簡単に図式化すると以下のようになります。

f:id:t_komiya:20180407234907p:plain

NutanixでI/Oを司るのはCVMですが、現状はCVMがI/O処理する際に並列処理されているわけではないため、高速のI/Oを求める際にはどうしてもボトルネックになってしまいます。現状のNutanixはHDD・SSDで10Gがあれば十分に足りるI/Oパフォーマンス・ネットワークであるが、今後NVMeや3D XPointなどの高速デバイスが登場した場合に問題が生じますと考えます。

今回AHV Turboを対応したことで、NVMeなどのデバイスをそのまま対応させても問題ないのか?ということを少し考えてみました。

 

並列処理がなぜ良いかは以下にイメージを載せておきます。f:id:t_komiya:20180408000715p:plain

ここで例に出しているのは、スーパーのレジで5人が1台のレジで待っているのか、5台のレジを開放して、それぞれ1人ずつ並んで処理できるかという話です。

つまりストレージのI/O要求が多ければそれだけ処理できるCPUが多くなければI/O処理が出来ないわけです。

 

2. NVMeのアーキテクチャってどうなっているのか?

NVMeだけでなく、SATAおよびSASインタフェースも比べてみましょう。

f:id:t_komiya:20180407235708p:plain

SATA、SASについてはHBAがサポートされているスピードも決められており、またコマンドキューはあまりにも少なくなっています。

それに引き換えNVMeについては、PCIeのスピードをそのまま生かせるようなデバイスになっている。またコマンドキューもSATA/SASに比べても比較にならない数を対応することが可能です。(上図参照)

このことから、NVMeのような並列処理が対応しているデバイスに対してAHV Turboが必須機能であることが明らかであるとわかるかと思います。

 

ではこれをそのまま、10Gbネットワーク上のNutanix環境に入れて動作させても問題ないのかどうか考えて見ましょう。

 

3. NVMeを10Gネットワーク環境で入れてみると・・・

f:id:t_komiya:20180408001343p:plain

ここで重要なのは、Nutanixはデータローカリティで内部のNVMeに書き込みを行い、その後Replication Factorで他のノードにデータをコピーします。内部のI/Oが早く処理が出来たとしても、他のノードに転送するネットワークがコピーするデータが多くなりますし、当然ボトルネックも発生することになります。NVMeは64Kのコマンドを処理できることから、そのパフォーマンスが必要なデータが転送されたら、いくら10Gのネットワークでも遅延は十分に想定されます。

そのため、25G(50Gや100Gなど)のネットワークも今後は検討する必要あります。現状では10Gや40Gよりも25G(50Gや100Gなども)のほうがPCIeの帯域幅の効率性も良いため、採用するケースが多くなっています。

また、単なるネットワークの高速化だけを行うのではなく、利用するアプリケーションからネットワークを転送するデータを有効的に利用できる技術を利用できるように、RDMA(Remote Direct Memory Access)についても少し説明しておきたいと思います。

 

4. RDMA(Remote Direct Memory Access)って何がいいの?

まず、RDMAについての説明を以下に記載します。

f:id:t_komiya:20180408002732p:plain

ネットワークのノード間通信を最適化するために、CPUをオフロードするために仕組みです。ピンとこない人がいると思いますので、もう少しわかりやすい図も用意しました。

f:id:t_komiya:20180408003116p:plain

これを見るとひと目でわかると思いますが、ネットワークから入っているデータがアプリケーションに届くまでに、1回です済むものが4回必要になります。回数だけでなく、CPUを経由しないでアプリケーションのメモリ領域にアクセスできることで帯域を有効的に利用できます。

 

5. 追加情報

I/O高速化ソリューションはAHV Turbo以外にもDatacore社のParallel I/Oも同様のテクノロジーで動いております。

DX8200Dのご紹介【その1】 - LTN Blog 〜 Lenovo Technology Network 〜

 

f:id:t_komiya:20180408005705p:plain

もちろん、AHV TurboはAHV上でしかサポートされませんので、ESXiやHyper-Vをご利用のお客様はDataCore社の選択肢がございます。

Lenovoは両ベンダーとも対応しておりますので、是非ご検討頂ければと思います。

 

宜しくお願い致します。

 

 

ThinkAgile VXシリーズ 第2弾 SMBモデル/GPUモデル/高密度モデル登場!! そしてvSANで実現するROBO環境の展開について

皆さん、こんにちは レノボ・エンタープライズ・ソリューションズ 小宮です。

本日は4月3日リリースのThinkAgile VXシリーズの第2弾をご紹介いたします。

昨年12月の第1弾のリリースに加えて、今回のリリースで3つのモデルが追加されました。これでvSANアプライアンスでは最強のラインナップになりました!

今回の特徴は他社モデルにないSMBモデル・高密度(2U4N)モデルとGPUモデルの追加です!

 

詳細は以下に紹介いたします。

f:id:t_komiya:20180402034148p:plain

 

1. ThinkAgile VX2320 : SMBモデル

f:id:t_komiya:20180402035052p:plain

まずはSMBモデルのThinkAgileVX2320になります。こちらはvSANアプライアンスとしては初のSMBモデルになります。(VxRailに同様のモデルはありません!)

ドライブベイが3.5インチx4になりますので、対象となるのは、低ワークロードで容量単価が安いモデルになります。ディスクグループも1つのみでSSDも1本しか使えません。ただ、NLSASが利用できることから容量が多く搭載できます。

またこちらのモデルは1GのNICを搭載しているモデルになります。(オプションで10Gも搭載可能)注意しなければならないのは、1Gで構成した場合はネットワークで管理用のセグメントとvSAN用セグメントを分ける必要があります。また、1Gのネットワークに関しては最大8台までしか構成できないため、台数を必要とする場合は10Gのネットワークがやはり必須になります。

そして、このSMBではROBOライセンスを利用することで、2ノードのvSANを構成することが可能となります。ただし、2ノードvSANを構成するには条件があります。

f:id:t_komiya:20180402035817p:plain

2ノードvSANを構成する上で必要なものがWitnessサーバです。なぜWitnessサーバが必要になるかと申しますと、たとえば片方のノードが落ちた場合にお互いのノードはどちらのノードか落ちたかどうかを判断することが出来ないため、第3者であるWitnessが監視してどちらのノードが落ちているのかを外部から監視することで、正常に動いているノードに問題ないことを通知することを行います。

そのWitnessサーバをリモートオフィスで構築するのではなく、外部に構築することが前提で2ノードvSANが構成できるわけです。

また、ROBOライセンスは仮想マシンの制限があるので、十分にご注意ください。

 

2. ThinkAgile VX3520-G : GPU搭載モデル

f:id:t_komiya:20180402040838p:plain

次にGPUモデルのThinkAgile VX3520-Gを紹介します。こちらの特徴はなんと言ってもGPUです!

M10の低スペックモデルとM60の高スペックモデルの2つがあります。

M10は主にVDI(Windows10などの移行)で、M60はワークステーションの仮想化(CAD on VDI)の用途になります。またこのモデルはCPUは2基搭載するモデルになります。

f:id:t_komiya:20180402153035p:plain

ワークステーションの仮想化ではCPU選びも重要になりますので、ご注意ください。またこちらは200Vモデルになります。

 

3. ThinkAgile VX3720 : 2U4N 高密度型モデル

f:id:t_komiya:20180402041138p:plain

そして、次に高密度型のモデルになるThinkAgile VX3720をご紹介します。

こちらのモデルは現在唯一vSANの高密度型モデルになります。以前はVxRailで2U4Nモデルをリリースしていたものの、DELL社のブランドになってからラインナップから消えています。そのため、今回レノボがリリースして再び2U4Nのノードが復活になります。VDI向けやPOC向けで集約可能なノードして購入すると非常に良いかと思います。

こちらのモデルは他のモデルに比べるとメモリ容量が少ないのが特徴です。集約度をあげていることもあり、CPU・メモリ・HDDすべてにおいて1台あたりのリソースはどうしても少なくなります。ただ、VDI環境ではLinked Cloneなどの技術を利用することでHDDを多く使用することもなくなるため、このモデルはその際に威力を発揮します。

 

4. リモートオフィスおよびブランチオフィスを構成する際の注意点

ROBO環境を構築する際について、管理サーバをどこに構築してどのようにサーバを管理するかによって、運用の方式が変わってきます。

どのようになるのか比較してみましょう。

4.1 集中管理型のROBO展開モデル

f:id:t_komiya:20180402114347p:plain

4.2 分散管理型のROBO展開モデル

f:id:t_komiya:20180402114525p:plain

4.3 両展開モデルの比較

f:id:t_komiya:20180402114249p:plain

それぞれメリット・デメリットがありますが、一括管理する場合は障害時などのオペレーションに犠牲があるが、逆に分散型はコスト面やシングルペインでの管理(ログ系は構成次第)などの問題があります。それを含めてvRealize系のオプションやLog Insightなどの導入の検討も考えてみるのはどうでしょうか?

 

宜しくお願いします。

 

Lenovoって意外とHCI持っているんですよ!~Lenovo HCI製品のご紹介~

皆さん、こんにちは レノボ・エンタープライズ・ソリューションズ 小宮です。

本日は少し技術的なことは忘れて一般的なことをお話したいと思います。

LenovoのHCIについてあまり多く語っていなかったので、今日は少しLenovoのHCIについてお話します。

 

業界をご存知な方は、LenovoのHCIはNutanixくらいでvSANはあまりやっていないとか思っている方が多いと思いますが・・・今まではそうでした。

今回はズバリやっていること紹介します。

1. LenovoのHCIラインナップ

f:id:t_komiya:20180331163851p:plain

こちらはLenovoのHCIラインナップになります。12月に一度紹介したときからThinkAgileVXが追加になっています。

Lenovoは独自のHCIのソフトウェアがないため、どちらかというと業界標準のものになっています。ではその業界標準なものがどのような違いがあるのかを簡単にご紹介します。

2. HCIごとの違いについて

f:id:t_komiya:20180331164907p:plain

こちらの表も以前にご紹介したものと変わりはありませんが、改めてみてもNutanixのマルチハイパーバイザーが特徴的に見えます。それ以外はライセンス(NutanixについてはOEMモデルを想定)に違うがあるものの大きな違いがないと考えます。

ここまで見たら、「なんだ!?DELLEMC社と取り扱っているものが同じ」、「HPEみたいにSimplivityのようなものがないから逆に少ないじゃない?」と思われます。

そこで、主要ハードウェアベンダー肩を並ぶつつ、Lenovoが推しているHCIをラインナップしています。

以前にもご紹介したDatacore社のHCIになります。

blog.lenovojp.com

 

こちらについては過去の記事で紹介しているので詳細はお話しませんが、なぜDataCoreが良いのかというのが以下の内容になります。

 

3. DataCoreのHCIって何か良いの?

f:id:t_komiya:20180331170638p:plain

上記のようにまとめてみましたが、Windows上で動かせるというのが特徴になります。また他のHCIと違いスピードが売りになるので、アプリケーションを速くしたいという要件にも合います。ESX環境でも動作させることが出来ますので、ESX環境から離れられないお客様にもオススメであり、こちらもマルチハイパーバイザーになります。

 

ここで再度、レノボの取り扱うことの出来るHCIをおさらいしたいと思います。

f:id:t_komiya:20180331171913p:plain

先ほどのラインナップにDataCoreを追加しましたが、ここで対象のお客様やソリューションなども追記してみました。

世間では、NutanixもvSANは競合製品のように扱っていますが、Lenovoでは競合製品ではなく、棲み分けして提案していきます。その他差別化のお話はBlogの別記事をご参照ください。

追加で比較可能なマトリックスも掲載いたします。

f:id:t_komiya:20180331172623p:plain

HCI検討の参考にしてみてはいかがでしょうか。

 

宜しくお願い致します。

 

HCIが向いている!向いていない!?ケースを考えてみよう [第二弾]

3/25 諸事情により一部内容を削除させて頂きました。

 

皆さん、こんにちは レノボ・エンタープライズ・ソリューションズ 小宮です。

本日は先日お話したHCIが向いている!向いていない!?ケースを考えてみようの第二弾をお伝えしたいと思います。

 

1. データベースを仮想化する場合、HCIは向かない??

データベースの仮想化がHCIに向かないということはありません。仮想マシンとして問題なく動作しますし、動作的にはまったく問題ありません。これはHCIという話ではなく仮想化全般のお話です。

では何が問題なのか・・・それはライセンスが関係します。

MicrosoftのSQL Servereなどは特に問題ありませんが、問題はOracleのライセンスです。Oracleのライセンスポリシーについて少し調べてみましょう。

f:id:t_komiya:20180324232303p:plain

Oracleのライセンスのポリシーを見ると物理サーバの全プロセッサがライセンスカウントになります。つまり仮想化した場合は仮想マシンが載っているところのプロセッサが対象になります。しかしながら、仮想化ホストが複数ある場合、1台のホストでのみOracleが動作している場合は1台分しかとられないと思う人があるかと思いますが、そこがポイントです。

f:id:t_komiya:20180324232945p:plain

このスライドにあるとおり、稼動させる全物理サーバがライセンス課金対象となるため、HAを設定している以上クラスタを組んでいるノードはすべてが対象になります。もちろんHAのAffinity Ruleを組んでいたとしてもダメです。(Oracle社からNGといわれます)これだと仮想化すると損してしまう話になります。

Nutanixの場合は仮想化しなくてもブロックストレージ(ABS)として利用することも可能です。そのため、物理サーバでOracleを動作させる環境を構築し、共有ストレージでNutanixを利用することで、一つの解決策があります。(vSANにもiSCSIのサービスがあります!)

f:id:t_komiya:20180324235120p:plain

こちらではABS(Acropolis Block Service)を利用することで、物理ホストからiSCSIを利用して接続することで従来どおりの利用方法でOracleを利用できます。

ただし、Storageのマトリックスが要求されるものもありますので、何でも使ってよいものではなく、OracleRACやクラスタソフトウェアなどは各メーカーのCertificationが必要になりますので十分注意してください。

 

2. 小規模(SMB)ユーザ向けにHCIは向かない??

こちらについてですが、HCIが向くか向かないかはお客様の要件次第だと思います。

たとえば、予算があまりないお客様にHCIを提案してもどうしてもHCIは高くなってしまいます。そこで二つの局面で比較してみることにしましょう。

2.1 コスト面について

f:id:t_komiya:20180325011944p:plain

3Tier構成とHCI構成を価格面で比較するとどうしてもHCIのほうが不利になります。また本当の小規模であれば、SMB向けのライセンスをVMwareも出していますので、廉価で購入可能です。NutanixもXpress Editionで安く購入できるパッケージはあるものの価格ではかなわないと思います。

ただし、小規模のお客様は一人で情シスをやっていらっしゃる方もいます。そのような人がOSやファームウェアのアップグレードでかけたくないようなことを思っている場合はどうでしょうか?今度は運用面で比較してみましょう。

2.2 運用面について

f:id:t_komiya:20180325012423p:plain

HCIの特徴である1クリックアップグレードは3Tier構成ではありません。そのためオペレーションが発生します。実際にHCIでもNutanixのAHVを例にするとDRS機能もあるため、仮想マシンの移動もわざわざ行う必要はありません。(VMwareもDRS機能があれば1クリック可能)

また、障害の切り分けについてはどうでしょうか?サーバ以外にもストレージ(構成によってはスイッチも)があり切り分けが面倒な3Tierに比べて、サーバのみで完結するHCIは非常にシンプルで切り分けも管理画面上ですべて行うことが出来ます。

 

小規模向けのお客様にもインフラをシンプル化したい場合については、HCIを提案する価値はあります。お客様の状況を確認した上で是非小規模市場にもHCIを提案していきましょう!

 

宜しくお願い致します。

 

ハイブリッドクラウド環境で必要になるアプリケーションのライフサイクル管理~Nutanix Calmの紹介~

皆さん、こんにちは レノボ・エンタープライズ・ソリューションズ 小宮です。

本日はNutanixでハイブリッドクラウド環境のアプリケーションのライフサイクル管理が可能なCalm(Cloud Application Lifecycle Management)をご紹介します。

 

まず、Calmの話をする前に、現状のハイブリッドクラウドにおけるインフラやアプリケーソンの管理を見てみましょう。

1.ハイブリッドクラウドの現状

ハイブリッドクラウドというとオンプレミスとパブリッククラウドが両方をシームレスに利用できるようなことを思っていたりしていますでしょうか?

f:id:t_komiya:20180322015145p:plain

実際はロケーションもハイパーバイザーが違うのでシームレスに利用出来ないのが現状です。そのため、オンプレミスとパブリックを別々に管理していると思います。(今後はハイブリッド的に管理が出来るプラットフォームが増えてくると思いますが)

これでははっきり言って使いづらく、オンプレミスもしくはパブリッククラウドのいづれかに利用が偏ってしまうため、本当のTCO削減にはつながりにくいと思います。

 

2.どうすればハイブリッドクラウドが一つで管理できるの?

そこで、登場するのがNutanix Calmになります。

f:id:t_komiya:20180322015753p:plain

以前のブログでご紹介しましたが、Prism Centralでオンプレミスのインフラを管理するPrismを統合管理を行います。それに加えてPrism Centralはアプリケーションの管理も行うことが出来ます。このアプリケーション管理を実現しているのがまさにCalm(Cloud Application Lifecycle Management)になるのです。

このプラットフォームで、異機種のインフラストラクチャを管理できます。オンプレミスであれば、ハードウェアのみならずハイパーバイザー/アプリケーションまで垂直統合的に管理できますし、クラウド環境においてもハードウェアを除く環境を管理できます。

 

3.Calmじゃないとできないの?

Calmの紹介をしましたが、そもそもCalmじゃないとそういうことが出来ないのか?と思う方がいらっしゃると思われます。

f:id:t_komiya:20180322021331p:plain

実際にCalmではない環境では何を使っているのかというと、耳にしたことがある方もいらっしゃるかと思いますが、Redhatが開発しているAnsible(アンシブル)があります。

違いについて簡単に申しますと、コマンド形式で記述して実行するのかGUIで作成できるというところです。(細かく言うともっと違うところあります!)

 

スクリプトが書ける人はAnsibleが使うやすいのかと思いますが、何人かのオペレーターと設計書をシェアしながら利用するのであれば、GUI化されているCalmは利用しやすいのかも知れません。(Calmの完成度があれば使いやすいと思いますが、現状はまだまだです)

また雑談ですが、上図でBluePrintという言葉で気がついた方がいらっしゃるかも知れませんが、VMware社のvRealize Automationと用語がまったく一緒になっています。

 

今後はCalmの機能について、もう少しご紹介したいと思います。

 

宜しくお願い致します。

 

 

気をつけよう!HCIに潜む落とし穴~知っておくとちょっと得をします~[第二弾]

皆さん、こんにちは レノボ・エンタープライズ・ソリューションズ 小宮です。

本日の記事は前回の続きになります。

 

今回のテーマは以下の2つになります。

1. vSANのリソースって、NutanixのCVMみたいの大量に食うことはない!?

2. VDI提案の場合、HCIは3Tier構成に比べて不利なの!?

 

まずは最初にテーマである「vSANのリソースって、NutanixのCVMみたいの大量に食うことはない!?」についてお話します。

この疑問は、以前にHCIを扱っている会社の方とお話したときに言われた話です。認識が違うことがないようにここでコメントしたいと思います。

 

1. vSANのリソースって、NutanixのCVMみたいの大量に食うことはない!?

実際にそうなのか?NutanixとvSANのリソースを確認してみましょう。

f:id:t_komiya:20180318211355p:plain

こちらに最新版のNutanixのCVMに必要なvCPUとメモリ量が記載されています。このリソースを多いと思うか少ないと思うかは人それぞれ思うところはあります。LenovoのHXの場合はvCPU:8, Memory:28GBを推奨しています。(HX3310シリーズ以降)

 

次にvSANのリソースを見てみましょう。

f:id:t_komiya:20180318211742p:plain

これを見る限り、明確にこの数値にしてくださいという記載はありませんが、32GB以上メモリは必要となります。またCPUについても10%のオーバーヘッドが出るということから、構成次第ではNutanixよりも小さくなったり、大きくなったりします。

vSANはインカーネルだからNutanixのようなCVMみたいにリソースが取られるのは大きな認識違いになります。

また、VMware社のサイトにも以下の内容が記載があります。こちらの内容を見ると、オールフラッシュにするとメモリ量を多く必要とされる内容も記載されておりますので、オールフラッシュのときは要注意ですね。

vSANのデザインとサイジング - メモリオーバーヘッドに関する考慮点 - Japan Cloud Infrastructure Blog - VMware Blogs

 

パフォーマンス面については、以下のサイトに情報がありますので、参考まで見ていただければと思います。

ネットワールド らぼ: VMwareさん、ご冗談でしょう?(FUDだ!) : Nutanix CVM/AHV と vSphere/VSANのオーバーヘッド

 

2. VDI提案の場合、HCIは3Tier構成に比べて不利なの!?

VDIの場合は1台のサーバにどれだけの台数のクライアントを収容するかによってホストの台数の削減につながります。当然HCIでもその話は同様なのですが、アーキテクチャの違いでそれがどのように変わるのかをお話します。

まずは、普通にVDIを構成を組むとどうなるのかを図で書いてみましょう。

f:id:t_komiya:20180318221848p:plain

HCIの場合、サーバ(ネットワークスイッチも含む)でシステムを構成されていますが、実際にはホスト間のデータのやり取りにCVMのリソースが必要となります。

3Tier構成の場合はどうでしょうか?スイッチやストレージは外部で接続されていますが、実際にCVMなどは存在しません。

f:id:t_komiya:20180318222524p:plain

1台あたりのホストで収容する仮想マシンの台数に関しては、CVMを差し引くことを考えると実際に3Tierに比べてHCIのほうが収容効率が悪いと言えます。

ただ、実際にそれだけでVDIの基盤を選択するのはどうでしょうか?実際に大規模の案件になればなるほどそれは顕著に違いが現れます。

f:id:t_komiya:20180318224444p:plain

こちらは数千のVDI環境でのラックの本数の差になります。HCI側はスイッチが含まれておりませんが、仮に含めたとしても2本ラック程度に収まると思いますが、実際に3Tierの場合はどうでしょうか。ストレージなど従来型で構成する場合は上のような本数になり、仮にオールフラッシュ構成にしてLinked Cloneで規模を小さくしても、2本もしくは3本程度必要となりますし、価格的にも高くなる可能性もあります。

運用面を考えても、増設対応する場合もサーバをそのまま追加していけばよいHCIに比べて、サーバ・ストレージをバランスよく増設することが必要になります。そのためHCIにして、少しでもTCOを削減できるようなシステム構成にすることも大事であると考えます。

 

宜しくお願いします。

気をつけよう!HCIに潜む落とし穴~知っておくとちょっと得をします~

[3/20 内容修正]

Nutanixの場合、3ノードの状態から障害が発生した後、障害ノードを修復した場合には自己修復します。しかしながら、2ノードで長時間稼動させることはクラスタの状態としてよくありませんので、2ノードの状態になった場合には、早期復旧をするように心がけてください。

 

皆さん、こんにちは レノボ・エンタープライズ・ソリューションズ 小宮です。

本日は知っておくと少しを得をするかも知れないネタをお話します。

長年HCIに携わっている方はご存知かも知れませんが、ご存知でない方はこれを機に覚えて頂ければと思います。

 

HCIが日本に根付いて5年が経ちそろそろ本格的にHCIの導入を考えているお客様もいらっしゃると思います。運用面で非常に効果的である反面、何か問題点もあるのではないかと思うかも知れません。そこで今回はその落とし穴とも思われる点をお話したいと思います。

 

1. NutanixやvSANは実は3ノードが最小ノードではない!?

この内容を見たときにちょっとコメントおかしくない?と思った方がいらっしゃるかと思います。確かにNutanixもvSANもベンダーから3ノードが最小ノード数とお話を必ずします。でも、なぜこれが話題になるのか・・・まさにここが落とし穴になります。

そこで構成例から話をいたします。

 

f:id:t_komiya:20180310222609p:plain

 こちらはvSANもしくはNutanixで構成するクラスタの図になります。3ノード/4ノードで構成したときのデータの配置を記しています。1台のホストのデータを残り2台に分散するようにするのがHCIの基本動作です。これが障害が起きた場合どうなるのかを見てみましょう。

f:id:t_komiya:20180310224405p:plain

 3ノードの場合、1台のホストが落ちてもデータを損失はありません。

同様に4ノードの場合においても、1台のホストが落ちてもデータを失うことはありません。大きく違うのは3ノードの場合について、3ノードが正常のクラスタと動作するHCIにおいて、2ノードで動作することになります。

すなわちクラスタとしては正常動作をしているわけではありません。この場合は早急にシステムの復旧を行わなければ、また別のトラブルのときに完全にシステムがおかしくなります。クラウドライクに運用できて止まらないのが売りなのに非常におかしな話です。

これが4ノードの場合はどうでしょうか?1台のホストが障害にあったとしても、レプリケーションされていないもう一台からデータをリビルドする処理が行われることになりますので、1台ホストがいなくなったとしても問題ありません。

f:id:t_komiya:20180310225036p:plain

もう少しわかりやすくした資料がこちらになります。3ノードで運用した場合はクラスタから取り外しが出来なくなるというのが一番の原因になります。

業務影響も考えると4ノードを初めから提案することがオススメです。

 

ただ3ノードの構成が提案としてまったくNGという話ではありません。

たとえば検証用機材DRサイトのノードについてはそのような提案もアリだと考えます。NutanixのSizerで3ノードにして構成を小さくして金額を下げる提案することも可能ですが、本当にその提案で問題ないのか、お客様との合意の上で提案しているのか?どうか含めて提案していく必要があります。時には4ノードにして一台あたりのスペックを小さくすることにより増設ユニットにおける投資金額を下げるメリットもありますので、是非ご一読頂ければと思います。

 

2. 2U4Nodeの高密度モデルはあまりオススメではない!?

私もお客様から言われる話がありますが、「ハイパーコンバージドは2U4Nodeが当たり前!」 ということをたまに言われます。これは一昔前にあったVMwareにEVO RAILが事の発端にあると思っています。このころのハイパーコンバージドはすでに高密度サーバ(2U4N)が主流であったこともあり、当時(2014年あたり)はNutanixも2U4Nがラインナップとして出していたことから、その頃からハイパーコンバージドを見ていた人は少し意識があるのかも知れません。

今回はそれを少し技術的な観点からご説明したいと思います。

f:id:t_komiya:20180311005918p:plain

 まずは1Uのラックサーバと高密度サーバの違いを挙げてみました。

見た目だけで判断すると、1Uサーバに比べ高密度サーバのほうがラックスペースをとらないということから優位に見えるかも知れませんが、そのほかのスペックを見てください。CPUも1つあたりの最大電力値が高密度サーバのほうが低いことがわかります。またディスクの本数もPCIのスロットも同様です。たとえば利用用途でVDIなどはLinked Clone方式を利用することによりDisk本数を少なくすることは取ることが出来ますが、それくらいがメリットであるため、ディスクを利用する仮想マシンのリソース用にはオススメしないです。またLenovoの2U4Nについては基本的には200Vのみのサポートです。

 

またデータセンターに設置する際にラック搭載するときにどうなるのかを考えて見ましょう。

f:id:t_komiya:20180311013604p:plain

一般的なデータセンターの1ラックあたりの耐加重は約500kg~800kgです。まれに1tのところもありますが、今回は上記のデータに当てはめて検討してみました。

実際、1Uサーバであればラックを埋めることが出来ます。(実際にこのような搭載はあまりしませんが)

2U4Nに関してはどうでしょうか。埋まりきらず少し隙間が出来てしまいます。

また、200V指定ということから、DCではない環境においてはあまり設置するメリットが少ない可能性があります。

 

次にデータ配置の観点からコメントします。

1において、データの配置でRF2(Nutanix)やFTT=1(vSAN)の場合に1Uのときと高密度において大きく異なります。

f:id:t_komiya:20180311020448p:plain

1Uサーバにおいてはデータのレプリカが筐体障害において損失がない構成で組むことが出来るのに対して、高密度サーバはエンクロージャ障害があった場合はデータは全滅になります。そのため、筐体外にレプリカを取るようにしなければなりません。f:id:t_komiya:20180311020805p:plain

このように筐体外のノードにレプリカを取ることでエンクロージャ障害にも対応可能になります。これを「Block Awareness」と言います。高密度サーバの耐障害性については、少ないノードで対応するのではなく、最低3エンクロージャで対応することをオススメいたします。もちろん、スモールスタートでBlock Awarenessなしで対応して後からBlock Awarenessを利用することも可能ですが、導入規模感で1Uサーバにするか2U4Nの構成にするかは検討されたほうが良いと考えます。

 

1Uサーバも高密度サーバ(2U4N)もそれぞれメリット・デメリットがあります。

規模感や目的に合わせてハイパーコンバージドの選択を是非ご検討ください。

 

宜しくお願い致します。

 

HCIが向いている!向いていない!?ケースを考えてみよう

皆さん、こんにちは レノボ・エンタープライズ・ソリューションズ 小宮です。

 

今回はお客様からいろいろと要件を頂く中で本当にHCIが向いているのか?向いていないのかと思うようなことをまとめてみました。

参考になるかはわかりませんがご覧いただければと思っております。

 

1. 塩漬けするようなシステムはHCIには向かない??

 RFPなどを見てみると良く書かれているのが「システム導入後、5年間そのまま利用できること」なども文言が書いてあります。つまり一度導入してしまったら、リプレースが来るまで安定稼動の状態を保ちたい(アップグレードを失敗したリスクを怖い)ということからだと思われますが、本当にそれは良い方向に変わるのだろうか。

実際にVMwareを例にとって考えて見ましょう。

f:id:t_komiya:20180304002225p:plain

 こちらに記してみたのはESXのライフサイクルから見たリプレース計画です。つまり2013年に導入したお客様が2018年にリプレースを迎えるわけですが、実際にその間にバージョンは3つも変わっています。実際にバージョンアップによって得られるメリットはバグFIXもありますが、バージョンアップによるハイパーバイザーの高速化が見込まれることもありますので、実はそのメリットを利用しておらず損している可能性もあります。安定するシステムは確かに良いと思いますが、仮想環境であれば集約率やパフォーマンスは多少は考慮する事項であると思いますので、定期的なアップグレードは行うべきであると考えてます。

f:id:t_komiya:20180304003102p:plain

 これはハイパーコンバージドではなく3Tier構成(サーバ・ストレージ・ネットワーク)の構成においても同じことが言えますので、リプレース時にデータ移行作業が面倒にならなくするためにも、塩漬けシステムにしないほうが良いです。(塩漬けシステムでも対応可能ですが・・・)また、ハイパーコンバージドしておけばバージョンアップも容易になりますので、是非ご検討頂ければと思います。(図はNutanixですが、vSANも同様です)

 

2. ファイルサーバはHCIには向かない??

 この内容については、NutanixはAFS(Acropolis File Service)でファイルサービスを提供していることからファイルサーバも対応しています。一方vSANにおいてはCIFS、NFSは対応しておらずブロックのみです。そのため、ファイルサーバを構築する場合は仮想マシンでファイルサーバを構築するかストレージの機能(3Tierの場合)で実現するしかありません。

 ただし、通常のファイルサーバで構築した場合とHCIでファイルサーバを構築した場合にどのような違いがあるのか?を考えてみましょう。

f:id:t_komiya:20180304005820p:plain

こちらに思いつくまままとめて見ました。これだけを見ると圧倒的にNASのほうが機能的にも価格的にも優位になります。実際これをベースにファイルサーバを選ぶべきでしょうか?ファイルサーバはどちらかとパフォーマンスを必要とせず容量単価が安いもので選べばそうですが、たとえばVDIなどのソリューションで移動プロファイルの置き場や小規模ユーザの場合だと容量的にもファイルサーバを入れてもコスト的に問題なければそれは提案しても良いのではないかと思います。

価格メリットを出すのは非常に難しいだけであり、ファイルサーバが向かないわけではありません。提案シーンによってHCIでも是非ファイルサーバをご提案ください。

また、vSANであればLenovoで検証したvSAN NexentaStor on vSANがあります。このソリューションの場合、ReadパフォーマンスはすべてファイルサーバVMのメモリで吸収してしまうことからvSANのパフォーマンスに影響を与えにくいアーキテクチャになっているので、是非ご検討いただければと思います。

NexentaStor on vSANによる小規模向けVDIのファイルサーバの実現 - LTN Blog 〜 Lenovo Technology Network 〜

 

3. HCIってパフォーマンス良くないの?

 パフォーマンスについては、システム全体で数値化するべきか仮想マシン一台あたりでどれだけ必要なのかを考えるべきであると考えます。

f:id:t_komiya:20180304015935p:plain

 たとえば、数十台の仮想マシンが入っている環境で1仮想だけあたり7万IOPSが必要なシステムがあった場合にどうなるかです。NutanixやvSANの場合、仮想マシンは1台のホストに載っているので、そのホスト上のリソースで処理しようとします。そのため、ローカルのSSDの領域を利用することになりますが、通常のラインナップの場合はSSDは2本のモデルが多いため、7万IOPSなどという高パフォーマンスの仮想マシンがある場合そのノードだけSSDの本数のノードが必要になります。 システム全体での要件であれば、HCIも一台あたりのSSDの本数から何ノードあるかでIOPSが算出できますので、もう少し構成が柔軟になります。

 逆に3Tier構成の場合は、必要本数だけアレイ内にSSDを搭載することでパフォーマンス要件を満たすことが出来ます。

 HCIでもパフォーマンス要件に対応することが出来ますが、実際にはコストに大きく跳ね返ることもあります。また、同一のスペックに揃えたほうが容量効率も良くなることを考えると一台だけスペックが違うというのは厳しいかも知れません。その場合は、実際に仮想マシンとしてスペックを満たす必要があるのかどうかも確認する必要がありますし、運用効率を上げたい場合は、逆にHCIで価値ある提案にしてみるほうが良いと思います。

 

こちらの話題については、今後また続編として執筆していければと思っております。

 

宜しくお願い致します。

 

ハイブリッドクラウドやAIビジネスにパブリッククラウドの選択は重要!~3大クラウドベンダーの比較~

皆さん、こんにちは レノボ・エンタープライズ・ソリューションズ 小宮です。

本日はクラウドベンダーの比較の内容を投稿したいと思います。

 

ハイブリッドクラウド、AI(Artificial Intelligence)や機械学習(Machine Learning)などの分野においてはパブリッククラウドベンダーの選択は非常に重要になります。

今回はIaaS基盤に近い部分(コンピュートやストレージ・アプリケーション等)とこれから注目される分野(AI、ML)における部分で内容を比較します。

 

1. 3大クラウドベンダー(AWS/Azure/Google Cloud Platform)の比較

3大クラウドコンピューティングベンダーであるAWSMicrosoft AzureGoogle Cloudはそれぞれ独自の長所と短所を持っており、さまざまなユースケースに最適なクラウド選択することがベストです。

それ以外のベンダーがないわけではありませんが、AlibabaやOracle・IBM Cloudなどは今後ビジネスの競合で出てくる可能性はあります。詳細は以下のURLからクラウドビジネスの状況が確認できます。

Cloud Market Keeps Growing at Over 40%; Amazon Still Increases its Share | Synergy Research Group

 

・それぞれのクラウドベンダーのメリットについて

  1. AWS
    なんといっても規模が大きいことです。GartnerMagicQuadrantでも長年トップシェアを獲得しています。世界各リージョンで展開され、サービスも数多く立ち上がっているため、もっとも成熟しているクラウドであると言えます。
    AWSは価格的にも安く、定期的に価格の引き下げも行っているので、その点は非常に魅力です。
  2. Azure

    AWSから見た場合、後発になっているがWindows ServerOfficeSQL ServerSharepointActive Directory.Netなどの一般的なワークロードに対応したのが大きな飛躍になったと考えられます。多くの企業がWindowsやほかのMicrosoftソフトウェアを利用しているため、それらのソフトウェアを統合して利用させることで相乗効果が出てと思われます。また既存顧客であればサービス契約が下げれるのも一つの要因であると考えます。

  3. Google Cloud Platform

    Kubernetesを開発してGoogleContainer環境で強みを持っています。BigDataAnalyticsMachine Learingの分野で専門のコンピュートがあります。AWSAzureにもサービスを提供していることから、今後成長が期待されるCloudベンダーとなることでしょう。

 

2. コンピュートサービスの比較

各社のコンピュートサービスの内容は以下にまとめてみました。

f:id:t_komiya:20180225041406p:plain

1. AWS

  • コンピュート:AWSが提供する仮想マシンサービス(EC2)、クラウド内で安全かつリサイズ可能なコンピュートサービスであり、WindowsとLinuxをサポート。最近ではベアメタル(TechPreview)やGPU・HPCもサポート可能で自動でスケーリングも対応。3社の中で一番コンピュートサービスが充実しています
  • コンテナサービス:Docker、Kuberneteのコンテナが利用可能で管理を自動化するFargateがあります。バッチ処理やWebアプリケーション向けのElastic Beanstalkなども提供している
  • VMware cloud on AWS:VMwareのコンピュート環境をAWS上で提供するサービス。昨年のvForumで日本リージョンは2018年末までに提供予定とのこと。既存でVMwareのワークロードをそのまま移行できるため、クラウド移行のためにマイグレーションに面倒な作業が必要がなくなります

2. Azure

  • コンピュート:Azure上で提供されている仮想マシンサービス(Virual Machine)。Linux、WindowsだけでなくSQL Server、Oracle、SAPなどもサポート。AzureStackなどのハイブリッド機能の強化も行っている。GPU、HPC用の用途にも利用可能でAIやMachine Learningにも適した環境にも対応。
  • コンテナサービス:Container ServiceはKuberneteがベースになっており、Docker HubとAzure Container Registryを利用して管理を行う。AWS同様にバッチサービスも低児湯されており、Webアプリケーション用のサービスもElastic Beanstalk同様に提供
  • VMware Virtualization on Azure:昨年末このような話が出てきましたが、AWS同様に提供する可能性もあるかも・・・

3. Google Cloud Platform

  • コンピュート: GCP上で提供されている仮想マシンサービス(Compute Engine)。仮想マシンサービスであるが、こちらの売りはSSDを利用した高速処理。事前定義されたマシンタイプで1秒あたりの課金や、LinuxとWindowsのサポート、自動割引などもサポート
  • Kubernetes:何といってもKuberneteが特徴で、他のクラウドベンダーにもプラットフォームを提供している
  • Cloud Function(beta):複数のクラウドとの接続や仮想マシンやコンテナがベースではなくサービスをベースにビルドやデプロイが出来るのが特徴。AWSやAzureと違い自社に囲い込まず相互の連携を重視としてサービスなのが特徴

 

3. ストレージ・DBサービスの比較

各社のストレージ・DBサービスの内容は以下にまとめてみました。

f:id:t_komiya:20180225042600p:plain

1. AWS

  • ストレージ:オブジェクトストレージのSimple Storage Service(S3)、EC2で利用可能なブロックストレージのElastic Block Storage(EBS)、ファイルサーバ用のEFSなど物理のストレージと同様のサービスが提供可能であるが、バックアップ向けに関しては、アーカイブストレージやデータの高速転送するサービス(Snowball)もあります
  • DBサービス:高速DBのAurora以外にもRDBMSやNoSQLのデータ、ElasticCacheのインメモリデータストアやData Warehouseなど各種サービスを提供している。またデータベースの移行サービスも提供している

2. Azure

  • ストレージ:AWS同様の各種ストレージを提供しているが、AWSにはメニューにないビッグデータ向けのストレージ(Data Lake Store)が提供されている。またバックアップ用のストレージも提供されており、オンプレからのバックアップにも対応している(VMware/Hyper-V対応)AWSと違う点としては、サイトリカバリサービスがあることです
  • DBサービス:SQL ServerだけでなくMySQLやPostgreSQLも対応。NoSQL用でCosmosDBやTable Storageもありますし、独自のサービス(Server Stretch Database)もあり、アプリケーションだけで見るとAWSよりサービスが充実しています

3. Google Cloud Platform

  • ストレージ:ストレージサービスは3社の中で一番少ないが、マルチリージョンでの可用性を担保するストレージやアクセス頻度のデータを低コストのストレージに保存するサービスもある。冗長性を謳っているもののブロックストレージ以外はこれといったサービスは現状提供していない
  • DBサービス:SQLベース(SQL ServerやOracleはなくMySQLやPostgre)のものとNoSQLとミッションクリティカルのSQLの3つを提供

 

4. Machine Learning / IoTサービスの比較

各社のストレージ・DBサービスの内容は以下にまとめてみました。

f:id:t_komiya:20180225043612p:plain

1. AWS

  • MachineLearning:数多くのサービスが提供されている。文字認識や画像認識・音声認識などの分析や翻訳サービスも提供済み、フレームワークについてもAWS開発のMXNETだけでなく、Google開発のTensorflowも動作する環境がある
  • IoT:3社中では一番多いが、デバイスのコンピューティング、メッセージとの同期や皆さんがよくご存知のダッシュボタンが一番よく使われているユースケースになります

2. Azure

  • ML:対応しているサービスは一番少ないが、カスタマイズが可能なメニューもある。Bing Web Search API、Text Analytics API、Face APIなどは認知サービスで提供されています
  • IoT:いくつかの管理および分析サービスがあり、サーバーレスコンピューティングサービスは機能として知られています

3. Google Cloud Platform

  • ML:GCPにおいては一番大きな対応分野になります。Tensorflowについては業界のLeaderのフレームワークになりますので機械学習の分野での優位性があります(AWSでも利用できます)
  • IoT:現状はベータ版であるため、提供はこれからになります

 

 5. まとめ

冒頭で説明したように、パブリッククラウドベンダー選択は、お客様のニーズとワークロードに依存することになります。これら以外の要素(オンプレ側の環境やセキュリティ・価格など)も実際に検討するものになるかも知れませんが、大半の企業がベンダーのロックインを防止するため、単一のベンダーだけでなく複数ベンダーを選択して最適な環境を利用できるようなGoogle Cloud Platformなどは一つの選択肢としてあり得る可能性があるかも知れません。

 

宜しくお願いします。