Nutanix AHVでCVMとVMの通信を分離する


Nutanix Community EditionでCVMとVMの通信を分離してみた。

筆者の環境

  • NCE 2017.07.20
  • NCEはESXi上のNested構成

やりたいこと

ストレージ通信に使用するCVMのネットワークと、サービス提供に使用する仮想マシン通信を物理的に分離する。

↓なイメージ

設定の流れ

  • NCEのブートメディアからサーバを起動し、installユーザで初期設定を済ませる。
  • AHVにログインしOpen vSwitchの構成を確認する。
    ovs-vsctl show

  • NICのポートと、interface名を確認する(記録しておく)
    ip a


    今回は「ens192,ens224」をAHV、CVM用、「ens161,ens256」を仮想マシン用とする。

  • CVMからNetworkの状態を確認する。
    # AHVからCVMへSSHで接続する
    ssh -l nutanix 192.168.5.2
    manage_ovs show_uplinks

    デフォルトでは、全てのInterface(NIC)でbondingが構成されていることが分かる。

    manage_ovs show_interfaces

    manage_ovs show_bridges

  • Bridge(新しいvSwitch)を追加する。
    ovs-vsctl add-br br1
    ovs-vsctl show

  • CVMから、Bridgeに紐付けるInterface(物理NIC)を変更する。
    # 既存のbr0の設定を上書き、使用したいNICのみの構成とする。
    $ manage_ovs --bridge_name br0 --interfaces ens192,ens224 update_uplinks
    # 追加のbr1に使用したいNICを追加する。
    $ manage_ovs --bridge_name br1 --interfaces ens256,ens161 update_uplinks
    

  • CVMからNetworkの状態を確認する。
    manage_ovs show_uplinks
    

  • AHVからOpen vSwitchの構成を確認する。
    ovs-vsctl show

  • Nutanix Clusterを構成する。(今回はシングルノード構成とした)
    [cluster -s 10.0.50.121 create]

    ↓構成完了後

    Prism ElementからNetworkが構成されていないことを確認する。
  • acliを用いて仮想マシン用のNetworkを作成する。
    #次の操作はCVM上で行う。
    acli
    net.create br1_vlan51 vswitch_name="br1" vlan="51"
    net.list
    

  • Prism ElementからNetworkが構成されていることを確認する。
Digiprove sealCopyright secured by Digiprove © 2017
ブックマーク へのパーマリンク.

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です

このサイトはスパムを低減するために Akismet を使っています。コメントデータの処理方法の詳細はこちらをご覧ください