LTN Blog 〜 Lenovo Technology Network 〜

レノボのソリューション・サーバー製品に関する技術情報、お役立ち情報をお届けします

AOS 5.5のご紹介

みなさん、こんにちは

AOS5.5(Obelix)が12月6日にリリースされました。

今回はかなりの機能追加と機能アップの内容になっております。

全てを紹介するのはかなりの記事になりますので、その中でも注目すべき内容がいくつかありますので、少しご紹介したいと思います。

 

1.準同期レプリケーションでRPOの短縮

 今まで同期レプリケーションを対応していたのはESXiのみでありました。AHVは1時間おきの非同期レプリケーションまでがサポートされておりました。AOSになりAHVでも最小1分の間隔の同期まで実現することができるようになりました。距離や保持世代の制限もありません。

 エディションはUltimateが必須となります。Hyper-Vは非対応。

f:id:t_komiya:20171210021635p:plain

 

2.ソフトウェアベースでデータを暗号化(ADE:Acropolis Data Encryption)

 Nutanixにおいて、格納されたデータを暗号化する場合はSED(Self Encrypting Drives:自己暗号化ドライブ)を利用するしかありませんでした。AOSになりソフトウェアを利用したデータの暗号化がサポートされました。 AES-256暗号化でオープンスタンダードのKMIP(Key Management Interoperability Protocol)をサポート。

 圧縮・重複排除・EC-X(イレージャーコーディング)の環境化でも利用可能。

 エディションはUltimateが必要となります

 

f:id:t_komiya:20171210023424p:plain

 

3.ネットワークのマイクロセグメンテーション

 仮想マシン間の通信やアプリケーションレベルのネットワークセキュリティを実装。

 DC内から発信される脅威から アプリケーションとデータを保護する ステートフルな分散ファイアウォールを実現 

 環境ゾーニング、アプリケーションリングフェンシング、アプリケーション検疫などのユースケースに最適

 ネットワークスペシャリストではないユーザのためのシンプルで直感的な アプリケーション中心のポリシーモデルとフローの可視化

 今回のAOS5.5においてはTech Previewになります。

 

f:id:t_komiya:20171210025318p:plain

4.Hyper-V 2016対応

 AOSにてHyper-Vをサポート。

 Hyper-Vのクラスタで2 TB以上の仮想ハードディスク(.vhdx)がサポートで既存の共有.vhdxはWindows2016のクラスタにインポート可能。

 Windows2012からクラスタの再作成を行うことなく①キリックでアップグレードが可能

 

5.Prism Centralの強化

 Prism Centralの機能強化はいくつかあります。

  •  固定の閾値の監視ではなく動向を分析して閾値を自動設定可能になり、仮想マシンのパフォーマンス状況を一早く把握することができます。
  •  仮想マシンの適正のサイズ把握し、不要なリソースを与えられている仮想マシンを検出し、適正なCPU・メモリサイズをガイダンス可能。(長期間アイドル状況が続いている仮想マシン(ゾンビ仮想マシン)を把握可能)
  •  レポートの出力をスケジュールで定義が可能になります。これにより運用者に定期的な報告の作成可能となり、レポート作成の時間を削減することができます。
  •  Prism ElementからPrism Centralにスケーラブルな環境に1クリックでデプロイ可能になります
  •  SSP(Self Service Portal)がPrism Centralに統合
  •  カタログサービス(イメージ管理)がサポートされ、イメージのアップロードや削除のバッチ処理やロールベースのアクセス制御がサポートされます(AHVのみで利用可能)

 Prism Proのライセンスが必須になります

 

6.IO周辺のパフォーマンス強化

  •  リモートダイレクトメモリアクセス(RDMA)にサポートにより、1つのコンピュータのメモリから別コンピュータの遠隔のCPUまたOSを関与することなしにメモリへの直接的なメモリアクセスが実現可能になり、待ち時間の短いネットワークと高スループットが得られます。
  • AHV Turboを利用することにより、CVM間のデータ複製パスを活用し、書き込みレイテンシを最大30%短縮可能(NVMe利用を前提)。1VMあたり100万IOPSを実現
  • 仮想マシンに対してvNUMAを適用可能になり、アプリケーションのメモリアクセス性能を向上(リモートメモリアクセスを排除)

 RDMAはMellanox Connectシリーズを利用することにより実現可能(HXシリーズは Connect-X4を搭載可能)

 AHV TurboについてはWindowsのVirtIOが今後のリリースで対応予定。デフォルトではOFFになっているため、コマンドラインでscsi_mod.use_blk_mq=y”で入力して有効化。新しいライセンスは不要

f:id:t_komiya:20171210031704p:plain

 

7.AHVのvGPUサポート

 AHV環境の仮想デスクトップでvGPUを利用できるようになり、Citrix Readyな環境でvGPUのソリューションが強化されます。今後Windows10のパワーユーザやCAD系のユーザでパワーを発揮します。

f:id:t_komiya:20171210032210p:plain

 

他にも、Calm(Cloud Application Lifecycle Management)の対応やCitrix Cloudへの接続や仮想マシンのCPU・メモリをホットアド対応など多数の機能追加・アップグレードもありますが、詳細は以下のNutanix Portal上のリリースノートをご参照ください。

Nutanix Portal

 

宜しくお願い致します。

各社のHCIの違い

皆さん、こんにちは

HCIが各社から出ているかと思いますが、本日は(Lenovoで取り扱っている)HCIの違いについてお話したいと思います。

 

HCIの比較について

HCIを比較する際、通常は以下のような比較表をよく見かけるかと思います。

f:id:t_komiya:20171206013452p:plain

 

こちらの比較表から見るとNutanixの対応ハイパーバイザーが多いなどの面でメリットがある反面、NutanixでESXを利用したい場合はNutanixおよびESXを両面で買わなければならないなどの面でデメリットがあるとかいろいろとあります。

果たして、HCIをそれぞれのベンダーのコストだけで選ばれることもありますが、本質的にはどのような観点で選択されるのかを考えて提案することが望ましいと思われます。(たとえば以下のような観点で)

 

  • どのような悩みを解決しているのか?
  • どのソリューション(HCI)が最適なのか?
  • HCIがそれぞれどのように違うのか?

 

今回は機能面(1-クリックアップグレードなど)での説明ではなく、それぞれのベンダーのアーキテクチャの観点からお話しようと思います。筆者として、特定ベンダーを推奨することはなく、一つの参考資料として読んで頂ければ幸いです。

 

基本的な技術を理解しましょう

まずはハイパーコンバージドについて説明します。

 1.ハイパーコンバージドはSDS上で動作します

以下の図はホストとストレージ部分に分けて示しておりますが、通常ホストからiSCSI/NFSなどを通じてストレージアクセスすることになります。

f:id:t_komiya:20171203152724p:plain

上記は単にハイパーバイザーのホストとSDSでの構図になりますが、先ほど話をしたハイパーコンバージドは以下のようになります。

f:id:t_komiya:20171203153033p:plain

実際にストレージプールを形成しているサーバの中にハイパーバイザーも含むようにしてハードウェアを集約しています。

 

 2.データ保護と高可用性

ハイパーコンバージドのデータ保護と可用性ですが、以下のようになります。

RF2は1台のノード障害、RF3は2台のノード障害を想定しています。

f:id:t_komiya:20171203160820p:plain

RF2の場合、1台ノードを障害を想定すると倍の容量が必要となります。RF3の場合は3倍になります。ハイパーコンバージドを構成する場合は、共有ディスクで構成するときに比べて容量が必要となります。

 

  3.パリティ処理について

2のデータ保護の説明をしましたが、ハードディスクのRAIDのような構成も取ることができます。その際、RAID5のような構成をとる場合を以下のように示します。

f:id:t_komiya:20171203161558p:plain

こちらの場合、1.33倍の容量が必要になりますが、実際にReplicationをとるようなデータ保護に比べてデータ容量の効率が上がります。

 

 4.イレージャーコーディング

3のお話した内容になりますが、正確にはエレ―ジャーコーディングと呼ばれております。通常はディスクにパリティを書き込んで障害時に残りのデータとパリティを元に欠損したデータ算出して完全なデータに生成できます。

f:id:t_komiya:20171203162600p:plain

こちらはそのレプリケーションとイレージャーコーディングで必要な容量と信頼性について記載しております。

 

 5.イレージャーコーディングの修復問題

f:id:t_komiya:20171203163527p:plain

データ容量の観点においては、Replicationで複製するよりもEraser Codingの方が容量が少なくて済むというお話をしましたが、実際のノード障害時にどれだけの影響があるのかをまとめたのがこちらの資料です。

障害が発生し、修復までに転送されるチャンクがどれくらいになるのかを調べてみるとたとえば、チャンクサイズが256MBの場合で一番下のケースで転送されるデータ容量は12x256MB=3GBになります。つまり容量が増えればその分Eraser Codingにしたときは復旧に時間を要することもありますので、どちらを選択するかはサービスレベルによって選択した方が良いと考えます。

 

6.データの重複排除

最後にデータの重複排除についてです。

データを複数回書き込みした時に重複したデータを書き込まず、追加のポインタのみを格納して容量を削減します。通常はバックアップアプライアンスで利用されていますが、最近ではHCIで利用されています。(重複排除が売りのHCIもあります)

f:id:t_komiya:20171203164645p:plain

このようにして、データ容量と可用性、また障害時のデータの復旧でそれぞれアーキテクチャが存在します。

次は、各社においてこの違いがどのようになっているのかを説明していきたいと思います。

 

実装の違いを理解しましょう

 1.各社のイレージャーコーディングの違い

ここで各社のHCIのイレージャーコーディングの実装について記載します

f:id:t_komiya:20171203165337p:plain

それぞれHCIでアーキテクチャの違いがありますが、内容について説明していきたいと思います。

VMwareとNutanixについては先に説明した通りのイレージャーコーディングですが、Microsoftについては、若干異なるのでその内容を以下に記載します。

 

 2.Microsoftのイレージャーコーディング

 f:id:t_komiya:20171203181208p:plain

こちらでわかる通り、Microsoftについては、ミラーとパリティ付きのボリュームとなっております。イレージャーコーディングに必要なノード数については各社ともわかるはないが、MicrosoftのS2Dでは必ずReFS(Resilient File System)が必要となります。

つまり、各社HCIを実現するために専用のファイルシステムで必要として、その整合性を保つために、各社チェックサムを用いています。

 

 3.データローカリティとデータの分散

次に各社のデータのアクセスについて説明いたします。

f:id:t_komiya:20171203182817p:plain

こちらですが、Nutanixのようにデータローカリティで仮想マシンからの書き込みを早く処理させる方式に比べ、Microsoftのアーキテクチャではむしろ分散化することで同時に2つのノードで障害が合ってもデータを復旧できるようなものになっています。もちろんどちらにもメリットはあるので、SLAなどを考えながらどちらを選ぶのか考えても良いかと思います。

Microsoftについては、弊社の過去のブログにも記載がございますので、合わせて参考になって頂ければと思います。

Windows Server 2016 -S2D 導入事例あります! - LTN Blog 〜 Lenovo Technology Network 〜

 

 4.ディスクのハンドリング

次は各社のストレージプールを構成する際にDiskをどのようにハンドリングしているのかを記載します。

f:id:t_komiya:20171203192243p:plain

こちらについては、それぞれの会社で異なるアーキテクチャになっています。特にSSDの利用は大きく違ってきます。IOPSなどにこだわる場合には一つ考えても良いところです。

 

 5.ポリシーの違い

次に説明するのはポリシーの違いについてです。

f:id:t_komiya:20171203193355p:plain

Nutanix/Microsoftについてはストレージコンテナ管理で共通ですが、VMwareについては仮想マシンにそれぞれポリシーを適用します。

これを実装することにより影響を受けるのは、バックアップソフトウェアです。データをレストアする際に、ポリシーも含めてレストアを行う必要があります。最近はその対応もできているバックアップソフトウェアも増えてきており、先日ご紹介したVeeamもその対象のベンダーの一つになります。

ハイパーコンバージドに最適なバックアップソフトウェア Veeam Backup & Replicationのご紹介 - LTN Blog 〜 Lenovo Technology Network 〜

 

 6.ディスクのレイアウト

最後に紹介するのは、各社のディスクレイアウトです。

f:id:t_komiya:20171203194409p:plain

NutanixとMicrosoftの実装は左側で、VMwareが右側になります。

これを見る限りストレージの詳しい方から見た場合、左側の方が管理しやすいと思われますが、仮想マシンをオブジェクトとして管理したりバックアップを行う際は右側も管理方法としては便利に思えるところはあります。

 

それぞれのアーキテクチャがどのようなものに合っているのかを考慮しながら、HCIを検討してみてはいかがでしょうか。

 

宜しくお願い致します。

 

Lenovoが提供するReference Architectureについて

皆さん、こんにちは

本日は、レノボが提供するReference Architectureについて、お話しようと思います。

2017年になってからのReference Architectureが数多くUploadされておりますので、今回は紹介しようと思います。

 

そもそもReference Architectureとは・・・

Internetなどで調べてみると、「事前に設計されたインフラストラクチャ ソリューションで、運用実績のあるコンピューティング、ストレージ、ネットワーク、仮想化の各要素から構成される」と記載があります。特に大規模ユーザにおいてはパフォーマンスや信頼性が求められるため、ベンダー側である程度の構成を検証することでお客様自身でシステムの検証を行う必要がなります。

実際に機器の検証するにあたり、ドライバー周りのチェックから始まり、マルチパスIOやHAの稼働など多岐にわたり、通常は2週間から1カ月くらい要することもあります。通常の従業員がやる仕事としては、かなりコストがかかるようなものになり、これをやっていては戦略的な仕事もできなくなります。

これらは、10年くらい前のコンバージドシステムなどで各ハードウェアベンダーで実施されてきており、最近ではハイパーコンバージド環境にも適用されているものになります。

f:id:t_komiya:20171126224838p:plain

 

そこで、今回はLenovoが提供しているRA(Reference Architecture)を2つほどご紹介いたします。

1.VMware Software Defined Data Center with RA

参考資料は以下になります。

https://lenovopress.com/lp0660.pdf

https://lenovopress.com/lp0661.pdf

こちらはVMwareのvSANのパフォーマンスが負荷のかけ方によってどのように変わっていくのかを示したものになります。たとえばvSANのオールフラッシュ構成で仮想マシンの台数でWrite100%、Write:Read=50:50の割合でどのように変わっていくのかがグラフなどで一目でわかるようになっております。

 

以下のグラフを見て頂ければわかりますが、ハイブリッド構成とオールフラッシュ構成で仮想マシンの台数と負荷をかけている時間をグラフ化しておりますが、例えば24台の仮想マシンの場合ではハイブリッド構成もオールフラッシュ構成もさほど変わりはないが、仮想マシンが増えた場合に、パフォーマンスの落ち方が大きく異なります。

f:id:t_komiya:20171126225847p:plain

vSANのハイブリッド・オールフラッシュ構成でのパフォーマンス測定

構成:4ノードVSAN環境【System SR630】

  (1x800GB SSD / 3x1.2TB 10k HDD) x 2Groups

 

もちろんお客様の構成によりどちらを選ばれるかは違ってきますが、導入を決断する一つの判断材料になると思います。

また、同じオールフラッシュの場合は、3Tier構成の場合と比較したらどうなるでしょうか?これを説明したものもLenovoのRAの資料に掲載がありますので、見てみましょう。

 

f:id:t_komiya:20171126230719p:plain

ThinkSystem DS6200 オールフラッシュ構成でのパフォーマンス測定

構成:ThinkSystem DS6200(800GB SSD x 24)

こちらを見ると、先ほどのvSANのオールフラッシュ構成に比べ、同じオールフラッシュにもかかわらず若干パフォーマンスが落ち方が早いことが分かります。コストをパフォーマンスの兼ね合いもありますが、この二つの結果を見てシステム購入前に一つの判断ができると思います。

 

2.Client Virtualization with VMware Horizon RA

参考資料は以下になります。

https://lenovopress.com/tips1279.pdf

VDIなどの案件の時に、1台に集約する仮想PCは何台になるのだろうか?それは通常の3Tier構成とハイパーコンバージドでどのように違ってくるのか?などいろいろと考えることがあるかと思います。

それをまとめた内容がこちらになります。

f:id:t_komiya:20171126231929p:plain

ユーザ種別ごとのVM数とLogin VSIのセッション数の上限について、CPUの使用率

このようにCPUのスペックにより、収容可能なユーザ数などが算出されております。もちろん、3Tier構成とハイパーコンバージド構成での収容効率も違いますので、パフォーマンス優先するのか、アーキテクチャを優先するのかを参考にできる内容になっております。

 

こちらのReference Architectureについては以下のURLにいろいろなソリューションで掲載があります。(vSAN / Nutanix / Openstack / SQLServer など)

https://lenovopress.com/#resource_type=reference-architecture&sort=relevance

システムを検討する前に一度ご参照されてはいかがでしょうか。

 

宜しくお願いします。

 

ハイパーコンバージドに最適なバックアップソフトウェア Veeam Backup & Replicationのご紹介

皆さん、こんにちは

本日はハイパーコンバージド環境のバックアップソフトウェアの一つで、ヴィームソフトウェアのVeeam Backup & Replicationをご紹介します。

LenovoでもHCIのプラットフォームとして、Nutanix/vSAN/S2D(Storage Space Direct)などがありますが、Lenovoの取り扱っているハイパーコンバージドのハイパーバイザーの状況とVeeam社のソフトウェアの対応状況を以下に記載します。

f:id:t_komiya:20171120012917p:plain

今回は上記のバックアップをVeeam社と共同検証を行いました。

検証した環境はNutanix(Lenovo Converged HX)およびvSAN ReadyNodeの2つのプラットフォームになります。

検証のお話をする前にVeeam Backup & Replicationのお話を簡単にさせて頂きます。

 

仮想化対応のバックアップソフトウェアは数多くありますが、特にVeeam Backup & Replicationの特徴は主に3つです。

  1. 仮想ホストのソケット単位の課金のため、容量や仮想マシンの数に依存しない
    (機能はエンタープライズクラス、価格はSMBクラス)
  2. バックアップ設定がGUIから非常に簡単に設定可能。エージェントレスでアプリケーションとも連携可能
  3. 仮想環境だけで物理環境およびクラウド環境にもバックアップ対応。またクラウド環境もオンプレ環境にバックアップ可能でハイブリッドな環境で利用可能

f:id:t_komiya:20171120014314p:plain

           Veeam Backup & Replicationの概念図

標準機能だけでもかなり利用可能です。特にハイパーコンバージド環境においては、ノードが増えていくにしたがってバックアップの容量増えていく一方でデータのバックアップの時間がかかってしまいます。Veeamは圧縮機能はもちろんのこと、CBT(Change Block Tracking)機能で増分バックアップに対応することにより増えてバックアップ時間の削減効果を行うことができますし、仮想マシンが増えてしまうことにおいても、Proxyサーバを仮想マシンとして追加することにより、ハードウェアを追加せずに柔軟にスケールアウト環境に対応していくことが可能です。

 

ここで、Veeam Backup & Replicationのアーキテクチャを図に示します、

f:id:t_komiya:20171120020518p:plain

Veeam Backup Serverをバックアップサーバとして用意しますが、次のコンポーネントが必要なります。

  1. Proxy サーバ:仮想ホストから仮想マシンのバックアップを行うための中心となるサーバ
  2. Repository:仮想マシンのバックアップデータを保存する場所

vCenterやSCVMMなどの仮想マシンを管理するサーバから仮想マシン情報を取得することで、バックアップサーバ内で仮想マシンのバックアップ設定が可能になります。バックアップサーバにてバックアップ設定した内容をProxyサーバに指令を送り、仮想ホストから仮想マシンのデータを取得します。

Repositoryについては、バックアップサーバからバックアップデータの保存先を指定しますが、バックアップサーバの内部やNAS/外部テープ装置もしくはクラウドにバックアップ取得することができます。

 

今回の検証については、以下の2パターンで行いました。f:id:t_komiya:20171120022011p:plain

構成1のパターンはWindowsサーバにVeeam Backup & Replicationをインストールし、ProxyサーバをHX3310上に仮想マシンでセットアップ。Repositoryはテープデバイスやバックアップサーバの内部に設定してバックアップ実施

(vSAN構成時もこちらの構成で実施しております)

 

f:id:t_komiya:20171120022201p:plain

構成2のパターンはHXを構成する10Gのネットワークにユニファイドストレージを接続してバックアップを実施。

 

それでは、Veeam Backup & Replicationの画面を見ながら検証内容の一部をお話します。(内容によってはお話できないものもございますが、あらかじめご了承ください)

以下の画面はVeeam Backup & Replication のJob画面になります。

f:id:t_komiya:20171120023512p:plain

Jobを作成する際に、仮想ホストや仮想マシンのログインに必要なCredential情報を入力したり、Repositoryなどの情報を入力します。入力が終了したらJobを起動します。

 

こちらはJobの実行結果になります。

f:id:t_komiya:20171120024328p:plain

 SUMMARY / DATA 部分にJobの実行結果が表示されています。

Tapeバックアップ時については圧縮をかけることはできないのでそのままのデータを保存した場合の数値が出ています。

今回の構成において、SASのインタフェースの限界があったこともあり、バックアップのスピードもそこにボトルネックがあり、その内容を示す内容をACTIONの項目のBUSYの項目に記載があります。バックアップにおいてどこがボトルネックになっているのか可視化可能になります

 

こちらの画面はNASの環境でバックアップテストを行った結果になります。

f:id:t_komiya:20171120025413p:plain

約30%程度ですが、データの圧縮が確認できております。

またスループットについても、ほぼ10Gのネットワークの上限の数値を出し切っていることが分かります。このケースにおいてはTarget(Repository)先の書き込みにボトルネックになっていることが分かります。(1回目だけ)

2回目以降はCBTの機能によって、バックアップ時間は短縮可能になります。

 

最後に、バックアップしたデータからリストア -> Storage vMotion -> 仮想マシンの電源オンまでを1クリックで操作できるテストを行いました。

通常ここまでの操作を1クリックで行うことはできません。また、このオペレーションを行うことにより、復旧業務を行うながら通常業務を行えるこということで、RTOを短縮するソリューションとして非常に有効的なものになります。

f:id:t_komiya:20171120030731p:plain

 

NutanixのAHVについては現状未対応ですが、来年初頭のAHV対応が非常に楽しみですね。

こちらのソフトウェアについては、Lenovoの太鼓判シリーズにも登録があります。また太鼓判シリーズからVeeam Backup & Replicationの簡易手順書へのリンクもありますので、合わせてご参照ください。

 

宜しくお願い致します。

 

 

ThinkAgile SX for Microsoft Azure Stack 開梱の模様

ThinkAgile (AzureStack) 到着!

前の記事でちらっと触れたのですが、我々の環境にThinkAgileの本番機到着しました。今日は開梱の模様をお届けします。

 

段ボールに包まれての到着です。右上のWARNING矢印が気になりますが、誰かが傾けたり、途中で倒すとばれる仕組みです。

f:id:ko_sakamaki:20171030152857j:plain

 

箱を取り外して、台車から降ろします。パレットから外すのが工具の関係でちょっと手間かかりましたが・・・。

f:id:ko_sakamaki:20171116143008j:plain

 

取り外し完了!!

 

前面!

ロゴがLenovoとThinkAgile目立ちますね。真ん中の鍵の袋が一番目立ちますので、さっさと取りましょう。

f:id:ko_sakamaki:20171116143814j:plain

 

ふたを開けてみます。きれいに並んでます。上の方にNWスイッチと管理用のサーバー、下部にAzureStack用ノードやPDUが入っています。

f:id:ko_sakamaki:20171116143147j:plain

 

背面!

真ん中にケーブルや段ボールなどはいってますが、ケーブル配線ばっちりです。さすがラックソリューション。ほどくのは心が痛むので、この環境はそのまま使う予定。

f:id:ko_sakamaki:20171116143348j:plain

 

次回は動かした様子をお届けできればと思います。

Lenovo ThinkAgile HXシリーズのご紹介

皆さん、こんにちは

 

本日は10月にリリースされたLenovo ThinkAgile HXシリーズをご紹介します。

今回紹介するThinkAgile HXシリーズですが、Lenovoとしては第3世代のNutanixアプライアンスになります。f:id:t_komiya:20171111234321p:plain

今年7月に発表がありましたが、今回からThinkAgileのブランドになります。第2世代はLenovo Converged HXシリーズでしたが、”統合”という意味よりもAgileという”俊敏”という意味をHCIだけでなくSDSにも適用した形になります。

間違えやすいかもしれませんが、これを機に是非覚えて頂けると幸いです。

 

ThinkAgile HXシリーズのラインナップ 

それでは、ThinkAgile HXシリーズの紹介を始めます。

まず今回にラインナップについては、従来のHX1000シリーズ/HX2000シリーズ/HX3000シリーズ/HX5000シリーズ/HX7000シリーズに追加してレプリケーションターゲットで利用可能なモデル(HX1520-R)が新たに発表されております。(以下ラインナップを参照)

f:id:t_komiya:20171112000550p:plain

HX1520-Rについてですが、バックアップ専用のノードになります。

通常Nutanixは3ノード構成が基本になりますが、今回のレプリケーションターゲットに関しては、3ノード用意する必要がありません。

バックアップという観点でさらに使いやすくなっております。

 

それ以外にも、ハードウェア(ThinkSystem)観点でいくつかの進歩がありました

f:id:t_komiya:20171112001940p:plain

ディスクの容量が増えていることに加えて、1U/2Uサーバの搭載ディスクを第3世代で多くのディスクがサポートされました。

NVMeについても今回のラインナップではありませんが、今後サポート予定です。

NICに関しても従来の10GのNICに加え25G NICもサポート(100G NICは今後サポート予定)

 

今回の主な機能のご紹介

進化・追加した機能についてお話致します。

まず、1つ目はCPUおよびその他本体周りのリフレッシュです。

特に今回のサーバハードウェアからRedfishの標準APIでIPMIに関する情報を取得可能になり、例えばNutanixのPrismからサーバ管理ソフトウェアのXClarityと連携して、Prismを経由してハードウェアの状態を管理することが可能になります。

f:id:t_komiya:20171112004149p:plain

現時点においては、XClarityのPrism連携はサポートされておりませんが、今後のバージョンアップでこちらの機能はサポートされることになります。

 

2つ目は起動デバイスの変更です。

今まではSATA DOMを利用しておりましたが、SATA DOMが障害になった場合にホスト復旧に時間がかかることからブートドライブの冗長化を今までお客様からの要望を数多く受けておりました。

f:id:t_komiya:20171112012337p:plain

ThinkAgileシリーズからはM.2 SSDのミラー構成を対応することにより、SPOF(Single Point Of Failure)になることがありません。

 

3つ目はレプリケーションターゲットのサポートです。

NutanixのNXシリーズではすでに製品化されておりますが、Lenovo ThinkAgile HXシリーズでようやくラインナップ追加です。

f:id:t_komiya:20171112012921p:plain

先ほどもコメントしましたが、バックアップ用のノードで3台構成にする必要がなくシンプルなバックアップ構成が可能となります。あくまでバックアップをメイン用途にしておりますので、仮想マシンを稼働させることは想定しておりません。

 

4つ目は新基準のNICサポートです。f:id:t_komiya:20171112013532p:plain

今回の25Gb NICをサポートし、今後100GbのEthernetのサポート予定。

またネットワーク仮想化の要望が多く、10Gb NICのサポート数も多くなりました。

従来の1Gbへの接続についてもサポートしておりますので、心配する必要がございません。

 

最後は先日のブログでもご紹介しましたNetwork Orchestratorです。

f:id:t_komiya:20171112014610p:plain

こちらの詳しい説明は以下のURLに記載しておりますので、こちらでは省略させて頂きますが、ネットワークを含めたハイパーコンバージド環境の管理をシンプル化します。

http://blog.lenovojp.com/entry/2017/11/05/012244

 

今後もさらなる進化していくLenovo ThinkAgile HXシリーズを是非宜しくお願い致します。

Lenovo Network製品、ThinkSystem NEシリーズRackSwitch 発売!


Lenovo Network製品をご愛用の皆様、いつもありがとうございます。
そうじゃない方、ご検討のほどよろしくお願い致します。


BIG NEWS!! この夏にLenovoのSwitchに新製品が発表されました。

というわけで、まず、Lenovo Network製品の紹介を今回は行いたいと思います


■Lenovo Network製品の歴史

2006年, BLADE Network Technologies設立
 NortelのBlade Server Switch 部門がスピンアウトして、Blade Server市場の
 Networkingに注力したBLADE Network Technologiesを設立しました。

2010年, IBMが買収。IBM System Networkingに加わる。

2016年, Lenovoが買収。(IBM x86サーバー部門の買収の一環として)

という変化の大きい運命をたどっています。

 

■新発売のネットワーク機器

BIG NEWS!! この夏に5製品が発表され、8月末には出荷開始されています。

 

f:id:y-tetsuya:20171026201202p:plain

 

■新製品の特徴

今回の発売について

1、10GBASE Etherスイッチの商品の充実、100/50/25GBase対応スイッチの発売

・現在のサーバ用スイッチのボリュームゾーンの10GBaseが1種、10GBase-Tの商品が2種発売されました。低消費電力でかつパフォーマンスの向上したモデルになっております。
・100/50/25GBase対応スイッチの発売。
・今回発売の全機種 電源・可変速度ファンはともに冗長・ホットスワップ対応になっております。

2、十数年ぶりのOSの変更
・OSがEnterprise Network OS (ENOS)からCroud Network OS (CNOS)へ変更になりました。
・クラウド対応OSとなり機能も大幅に増えました。
・様々なソフトウェアに対応しました

CNOSについて様々な検証をしてみたところ、Nortel由来の方言がほとんどなくなり某業界標準OSにさらに近づき、導入しやすくなったのではと思います。また、以前よりかなり使える機能が増えたなと実感できるOSです。


■新OSの主な目玉機能

〇Python, REST, Telemetry APIのサポート
なんとプログラムが書けるんです。

〇ZTP(Zero Touch Provisioning)
スイッチソフトウェアイメージのアップグレードと設定ファイルのインストールプロセスを自動化します。

〇ONIE(Open Network Install Environment)
ブートローダのみスイッチ機器に置き、OSをサーバに置いて起動時にサーバからダウンロードすることにより、ファームウェアのバージョン管理が容易になります。
〇Partner ecosystemによるOpen Cloud Archtechture
対応の管理ソフトウェアを利用して処理の自動化を行い。データセンターの管理コストを削減します。
・VMWare Log Insight (ログイベント収集)
・Open Stack (クラウド管理)
・Nutanix Prism (VLAN変更の自動化)
・Ansible (構成管理の自動化)

これだけじゃ、ただの新製品紹介になっちゃうんで、Tipsをひとつ。

 

■Tips

新OSのCNOSではさらに某業界標準OSに近づいたと書きましたが、実はもっと近づけることのできる機能があるんです。

Alias(エイリアス)機能

UnixやLinuxでは当たり前のように使ってるAlias機能が実は使えます。

例えば、表示に関するコマンドについて
某業界標準OS だと「show」コマンドのところ、新OSでは「display」ってコマンドなんですが
「alias show display」
と投入すると 某業界標準OSと全く同じコマンドで実行できちゃうんです。
「display run」という設定内容を表示させるコマンドが、業界標準OSと同じ「show run」で実行できる!
これは超楽ちんです。
某業界標準OSに慣れてる方には、ぜひ使っていただきたい機能です。

私は下記を登録しています。

alias show display
alias switchport bridge-port
alias debug dbg
alias copy cp
alias write cp run start
alias portfast spanning-tree port type edge


以上になります。

大事なことなのでもう一度言います。

Lenovo Network製品をご愛用の皆様、いつもありがとうございます。
そうじゃない方、ご検討のほどよろしくお願い致しますw

では。 

NexentaStor on vSANによる小規模向けVDIのファイルサーバの実現

皆さん、こんにちは

本日はハイパーコンバージド向けの小規模ファイルサーバの検証を行いました。

製品の紹介も含めてご紹介させて頂きます。

 

VDI環境のファイルサーバをどうするか?

VDI環境においてファイルサーバをどのようにお考えでしょうか?

もちろんユニファイドストレージを導入すれば解決しますが、ハイパーコンバージド環境をご検討のお客様がそれを検討しているとしたらどうでしょうか。

ファイルサーバをWindowsの仮想マシンで構築することはできますが、Windowsのファイルサーバだと、スナップショットの世代数も制限があり、GUIで簡単に戻せないとかQuota設定とかも面倒な話があると思います。

 

f:id:t_komiya:20171106002907p:plain

 

そこで、ハイパーコンバージド(vSAN)を検討している小規模のお客様向けに手軽で、vSANに負荷をかけないファイルサーバアプライアンスを紹介いたします。

 

NexentaStorのご紹介

今回アプライアンスとして紹介するのが、NexentaシステムズのNexentaStorです。

こちらの製品はLenovoのSDSアプライアンスでも製品化されており、ユニファイドストレージとして十分な実績がある製品です。

特長としては、ZFSベースのエンタープライズクラスのユニファイドストレージで、セキュリティ性、管理性、高可用性、信頼性、低運用コスト(TCO)、高いスケーラビリティを兼ね備えています。

 

主な特徴

  • ブロックストレージ(SAN),ファイルストレージ(NAS)サービスをTB~PB規模で構築可能
  • クラウド/企業内アプリケーションに対応可能な高い信頼性とパフォーマンスを実現
  • DRAMキャッシュ"ARC"を利用することによって、驚異的なランダムRead性能を実現

f:id:t_komiya:20171106004151p:plain

今回はこちらの製品をハイパーコンバージド環境で利用するとどのような効果があるのかを検証してみました。

 

NexentaStor on vSANの検証目的と期待する効果

目的:NexentaStor on vSANに負荷をかけた時に、Nexenta仮想マシンのメモリで
   I/O処理(Read)を行うことによりvSAN側にパフォーマンス影響を与えない

期待する効果:Nexenta側の仮想マシンでパフォーマンスを発揮することにより
   オールフラッシュ構成ではなくハイブリッド構成で導入できるスペックで実現

 

検証構成の概念図

f:id:t_komiya:20171106005007p:plain

ReadはNexenta側のメモリ(キャッシュ)で処理されるが、 WriteはvSANデータストアに書き込まれる

 

ベンチマークソフトで以下の内容で負荷をかけ、Nexenta 仮想マシンのパフォーマンスとvSAN側のパフォーマンスを確認する(CIFS / NFS , Block Size: 4K / 128K , JOBは25個)

 

Read 100% 

Read 70% / Write 30% 

Read 50% / Write 50% 

Read 30% / Write 70%

Write 100% (Random)

Write 100% (Sequential)

 

検証マシンのスペック

Lenovo System x3650 M5 x 3台

CPU:Intel Xeon E5-2680 v4 @ 2.40GHz x 2

MEM:256GB

SSD:400GB x 2(Cache) , 3.84GB x 6(Capacity)

Nexentaの仮想マシンスペック

vCPU: 4

MEM:16GB

Disk: 32GB(OS) , 1TB x 10(External) : 容量約5TB

 

検証の構成について:小規模での導入も視野に入れて、2Node vSAN構成で1G/10G環境にて検証

f:id:t_komiya:20171106005817p:plain

(パフォーマンスデータはこの場では記載できません)

 

今回の検証結果から分かったこと

1Gbネットワークでの検証

  • 4KブロックサイズではRead100%でパフォーマンスが発揮しているが、それ以外のケースではスループット/IOPSが急激に低下しvSANのデータストア側の方にほとんど流れている
  • 128Kブロックサイズでは急激なパフォーマンスの低下はないものの、今回の負荷ツールのスペックでは1Gbの 細い帯域ではパフォーマンスを発揮できない(小規模での利用であれば問題ない)

10Gbネットワークでの検証

  • 4Kブロックサイズでは10Gbの帯域を生かしきれておらず、1Gbの時に2倍程度になっている
  • 128KブロックサイズではWriteが入った瞬間からパフォーマンスは低下するが、それでは4Kの10倍程度の パフォーマンスを発揮している

 

一般のファイルサーバは64KBブロックサイズのため、4Kブロックサイズは考慮する必要はない。本ソリューションはファイルサーバの用途で利用することは問題なしと判断できる。 また、メモリ容量を増やすことでキャッシュヒット率を向上し、パフォーマンスも向上します!

 

是非NexentaStorをvSAN上に導入してVDI向けのファイルサーバを導入してみましょう。

 

本検証に協力頂いたNexentaシステム様に感謝いたします。

 

宜しくお願い致します。

 

ThinkAgile Network Orchestratorでネットワーク管理を簡素化!

皆さん、こんにちは

10月10日にThinkAgile HXシリーズが発表されましたが、実はThinkAgile HXと連携するソリューションがあります。本日はそのうちの一つの機能でハイパーコンバージド環境のネットワーク管理を簡素化するソリューション、Network Orchestratorをご紹介いたします。

 

ソリューションをご紹介する前に、従来のネットワークインフラの状況を考えてみましょう。

物理インフラだけでなく仮想インフラも増えてきており、データセンターがサイロ化してきており、ネットワーク機器・管理者にすべて依存している状況になっています。たとえば大規模なデータセンターではVLANが上限に達してしまうこともあります。VLANについてはセキュリティの観点からも設定を間違えることもできません。

また仮想マシンの設定変更により、ネットワークの設定変更が入りメンテナンス作業も考慮しなければならず、社内調整を行うこともあります。

また手動でのネットワーク設定より、ヒューマンエラーを引き起こしネットワークダウンすることも考えられます。

 

現状のデータセンターのネットワーク状況

f:id:t_komiya:20171105000038p:plain

また、ハイパーコンバージドインフラにおいても、サーバとネットワークの設定が一体になっております。基本的にTOR(Top-Of-Rack)のスイッチを含めて管理をしなければならず、このネットワーク内においてもVLANの運用は必須条件となり、上記の運用の懸念点も考えられます。

f:id:t_komiya:20171105001244p:plain

 

そもそも、このような事態を起こさないためにどのようにすればよいか?

以下がその解決策の一つであると考えます。

f:id:t_komiya:20171105000635p:plain

ここでの結論としては、ネットワーク管理者を介さずにネットワーク設定を自動化することが解決策になるという話になります。

 

今回ご紹介するのが、ネットワークスイッチ設定の自動化を実現するソリューションLenovo Cloud Network Operating System (CNOS)です。

こちらの製品名がThinkAgile Network Orchestartorになります。

 

f:id:t_komiya:20171105002510p:plain

このCNOSとNutanix(※)のPrismと連携することにより、仮想マシン作成時のVLAN情報をスイッチ側に自動登録します。ネットワーク管理者がVLAN設定を手動で行う必要がなくヒューマンエラーもありません。

(※)現時点ではAHVのみでサポート、Nutanix AOS v5.1.1.3 および 5.1.3でサポートします。

 

さて、このCNOSを導入すメリットはどのような点にあるのかをまとめてみました。

f:id:t_komiya:20171105004453p:plain

初期ネットワーク展開については、事前にVLAN設定などが必要が従来のやり方でしたが、今回のCNOSを導入する場合は、事前にCNOS対応のファームウェアをスイッチに施されていれば大丈夫です。

またネットワーク設定変更があるたびにオペレーションしなければならなかったのが、自動で設定が変更されるのが大きなメリットになります。

ライブマイグレーションして場合も仮想マシンが接続されているスイッチに自動的に同

期しますし、また移動元のスイッチでVLAN情報を削除しますので、余計な情報を管理する必要があります。

こちらの内容を図式化したものを以下にまとめます。

 

Network Orchestratorのコール・フローの詳細

f:id:t_komiya:20171105005828p:plain

こちらがコールフローになります。前提条件がいくつかありますが、それを満たした上で仮想マシンを作成します。PRISMは仮想マシンのVLAN情報を受け取りその情報をThinkAgileHXシリーズで接続されているスイッチ(ThinkSystem NEシリーズ)と連携します。

 次にライブマイグレーション時のフローを記載します。

マイグレーション時のNetwork Orchestratorのフロー

f:id:t_komiya:20171105010718p:plain

VM5をライブマイグレーションした際に、別のハイパーバイザーの配下にあるスイッチVLAN情報が反映されて、その後移動元のスイッチからVLAN情報を削除されます。

このように設定を別スイッチに反映するだけでなく、不要な情報は削除して無駄な情報を管理しないようになります。

 

ちなみにAOS5.1.3のPrismよりサポートします。

 

是非ThinkAgileHXをご検討の際には、Network Orchestratorのご利用もご検討下さい。

 

宜しくお願い致します。

IMM2からXCCへ何が変わった?(1)

System x に搭載されたIMM2からThinkSystem に搭載されたXCCへ、名前ががらりと変わった話は前回いたしました。次は名前だけでなくこんなに変わったを紹介したいと思います。

まず最初に見た目です。WebインターフェースのGUIが大きく変わりました。ホーム画面がダッシュボード形式になり、CPUやメモリー、ファン、パワーサプライなどハードウェア・ステータスが一目瞭然です。よく使う機能もダッシュボードに配置されております。そして待ちに待った日本語対応です。言語選択機能が付きましたので英語でも日本語でもどちらでも表示可能です。Helpも日本語で表示されますので英語が苦手な方でも操作に迷うことはなくなりました。

f:id:YHo:20171031163329p:plain

 
日本語対応したばかりなのでちょっとおかしな翻訳があり、分かりにくいところがあるので注意事項(自虐ネタ)としてご紹介しておきます。バージョンアップで修正される可能性大なので今だけの限定情報となるかもしれません。

 

アラート通知機能(メールやSNMPなど)で指定するアラートの重要度3種類が重大、重要、システムとなっております。ん?重大重要どっちが危険な状態なの?

重大→Critical なのでこれが危険度一番です

重要→Attention が重要と訳されてます。マニュアルとかならありそうな訳ですがここは「警告」としてほしいですよね。

 

RAIDセットアップ機能にて物理ドライブのステータスを変更するところですが、Make disk drive offline が「ディスクドライブを作る:オフライン」ってあまりにも直訳じゃぁ?「ドライブをオフラインにする」でいいと思うのですが・・・。

 

他にもおかしな翻訳見つけたらぜひ、お知らせ下さい。修正してもらいましょう!

  

画面についてもう1点。「BMC」という言葉が登場しておりますが、これはXCCのことです。BMCとはBaseboard Management Controller のことで一般用語です。ここはぜひ固有名詞で XCCと表現してほしいところですが、ネーミングより先にインターフェースが開発されたのでしょうね。