- play_arrow vJunos-switch について
- play_arrow ハードウェアとソフトウェアの要件 vJunos-switch on KVM
- play_arrow KVM に vJunos スイッチをインストールして導入する
- play_arrow トラブルシューティング
この機械翻訳はお役に立ちましたでしょうか?
免責事項:
このページは、サードパーティー製機械翻訳ソフトウェアを使用して翻訳されます。質の高い翻訳を提供するために合理的な対応はされていますが、ジュニパーネットワークスがその正確性を保証することはできかねます。この翻訳に含まれる情報の正確性について疑問が生じた場合は、英語版を参照してください. ダウンロード可能なPDF (英語版のみ).
KVM 上での vJunos スイッチの導入と管理
概要 このトピックを読んで、vJunos-switch インスタンスをインストールした後に導入および管理する方法を理解してください。
このトピックでは、以下について説明します。
libvirt を使用して KVM サーバー上で vJunos スイッチを起動する方法。
CPU とメモリの量を選択し、接続に必要なブリッジを設定し、シリアル ポートを設定する方法。
前述の設定と選択に関連する XML ファイル セクションを使用する方法。
メモ:ジュニパーの Web サイトからサンプル XML ファイルと vJunos-switch イメージをダウンロードします。
ホスト サーバーで vJunos スイッチの導入を設定する
このトピックでは、ホスト サーバー上で vJunos スイッチの導入を設定する方法について説明します。
このトピックでは、libvirt を通じて vJunos-switch を展開するために使用される XML ファイルのいくつかのセクションのみを取り上げます。
XML ファイル 全体の vjunos.xml は、 vJunos Lab Software Downloads ページの VM イメージおよび関連ドキュメントとともにダウンロードできます。
パッケージがまだインストールされていない場合は、「最小ソフトウェア要件」セクションに記載されているパッケージをインストールします。ハードウェアとソフトウェアの最小要件を参照してください。
- 使用する予定の vJunos スイッチの各ギガビット イーサネット インターフェイスに Linux ブリッジを作成します。
# ip link add ge-000 type bridge
# ip link add ge-001 type bridge
この場合、インスタンスにはge-0/0/0とge-0/0/1が設定されます。
- 各 Linux ブリッジを起動します。
ip link set ge-000 up
ip link set ge-001 up
- 提供されたQCOW2 vJunosイメージのライブディスクコピーを作成します。
# cd /root
# cp vjunos-switch-23.1R1.8.qcow2 vjunos-sw1-live.qcow2
導入する予定の vJunos ごとに異なるコピーを作成します。これにより、元の画像に永続的な変更を行うことはありません。ライブイメージは、vJunos-switchを展開しているユーザーID(通常はrootユーザー)が書き込み可能である必要があります。
- 以下のスタンザを変更して、vJunosに提供されるコア数を指定します。
以下のスタンザは、vJunosに提供されるコア数を指定しています。最小必要コア数は4で、ラボのユースケースには十分です。
content_copy zoom_out_map<cpu> <arch>x86_64</arch> <model>IvyBridge</model> <topology cores="4" sockets="1" threads="1"/> <model fallback="allow">qemu64</model> <feature name="vmx" policy="require"/> </cpu>
必要なデフォルトのコア数は4で、ほとんどのアプリケーションで十分です。これは、vJunosスイッチでサポートされている最小CPUです。CPU モデルを IvyBridge のままにしておくことができます。この設定では、後世代の Intel CPU も機能します。
- 次のスタンザを変更して、必要に応じてメモリを増やします。 content_copy zoom_out_map
<?xml version="1.0"?> <domain xmlns:ns0="http://libvirt.org/schemas/domain/qemu/1.0" type="kvm"> <name>vjunos-sw1</name> <memory unit="KiB">5242880</memory> <currentMemory unit="KiB">5242880</currentMemory> <vcpu placement="static">4</vcpu>
以下の例では、vJunos スイッチに必要なデフォルト メモリを示しています。ほとんどのアプリケーションでは、既定のメモリで十分です。必要に応じて値を増やすことができます。また、生成される特定のvJunos-switch(この場合は vjunos-sw1 )の名前も示しています。
- 次の例に示すように、XML ファイルを変更して、vJunos-switch イメージの名前と場所を指定します。 content_copy zoom_out_map
<disk device="disk" type="file"> <driver cache="writeback" name="qemu" type="qcow2"/> <source file="/root/vjunos-sw1-live.qcow2"/> <target dev="vda" bus="virtio"/> </disk>
ホスト上の各 vJunos VM に、固有の名前の QCOW2 イメージを指定する必要があります。これは、libvirtとQEMU-KVMに必要です。
- ディスク イメージを作成します。
# ./make-config.sh <juniper.conf> <config.qcow2>
vJunos スイッチは、構成が含まれている VM インスタンスに 2 台目のディスクを接続することで、初期構成を受け入れます。提供されたスクリプト make-config.sh を使用してディスク イメージを作成します。
XML ファイルは、以下に示すように、この構成ドライブを参照します。
content_copy zoom_out_map<disk device="disk" type="file"> <driver cache="writeback" name="qemu" type="qcow2"/> <source file="/root/config.qcow2"/> <target dev="vdb" bus=”virtio”/> </disk>
メモ:初期構成を優先しない場合は、上記のスタンザを XML ファイルから削除します。
- 管理イーサネット ポートを設定します。 content_copy zoom_out_map
<interface type='direct'> <source dev='eth0' mode='bridge'/> <model type='virtio'/> <alias name='net0'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x03' function='0x0'/> </interface>
この例では、vJunos スイッチが存在するホスト サーバーの外部からの管理ポートである VCP「fxp0」に接続できます。
dhcp サーバーを介するか、標準 CLI 設定を使用して fxp0 にルーティング可能な IP アドレスを設定する必要があります。
以下のスタンザの「eth0」は、外部に接続を提供するホストサーバーインターフェイスを指し、ホストサーバー上のこのインターフェイスの名前と一致する必要があります。
DHCP(Dynamic Host Configuration Protocol)を使用していない場合は、vJunos-switch を起動して実行した後、コンソールに telnet を実行し、CLI 設定を使用して以下に示すように「fxp0」の IP アドレスを設定します。
メモ:以下の構成は、単なる例またはサンプルの構成スニペットです。また、静的ルート設定を設定する必要がある場合もあります。
# set interfaces fxp0 unit 0 family inet address 10.92.249.111/23
# set routing-options static route 0.0.0.0/0 next-hop 10.92.249.254
- VCP管理ポートにSSHを有効にします。
# set system services ssh root-login allow
コマンド。 - XML ファイルで指定した各ポートの Linux ブリッジを作成します。 content_copy zoom_out_map
<interface type="bridge"> <source bridge="ge-000"/> <model type="virtio"/> <mtu size='9600'/> <alias name="net1"/> <address bus="0x00" domain="0x0000" function="0x0" slot="0x08" type="pci"/> </interface> <interface type="bridge"> <source bridge="ge-001"/> <model type="virtio"/> <mtu size='9600'/> <alias name="net2"/> <address bus="0x00" domain="0x0000" function="0x0" slot="0x09" type="pci"/> </interface>
ポート名は、以下のスタンザで指定されます。vJunos-switch の規則では、ge-0xy を使用して"xy"で実際のポート番号を指定します。次の例では、ge-000 と ge-001 がポート番号です。これらのポート番号は、Junos ge-0/0/0インターフェイスとge-0/0/1インターフェイスにそれぞれマッピングされます。前述のように、XMLファイルで指定したポートごとにLinuxブリッジを作成する必要があります。
- ホスト サーバー上の各 vJunos スイッチに固有のシリアル コンソール ポート番号を指定します。
次の例では、固有のシリアル コンソール ポート番号は「8610」です。
content_copy zoom_out_map<serial type="tcp"> <source host="127.0.0.1" mode="bind" service="8610"/> <protocol type="telnet"/> <target port="0"/> <alias name="serial0"/> </serial>
以下の smbios スタンザを変更しないでください。vJunosにvJunosスイッチであることを通知します
content_copy zoom_out_map<ns0:commandline> <ns0:arg value="-smbios"/> <ns0:arg value="type=1,product=VM-VEX"/> </ns0:commandline>
- vJunos-sw1.xmlファイルを使用してvJunos-sw1 VMを作成します。
# virsh create vjunos-sw1.xml
「sw1」という用語は、これがインストールされている最初のvJunosスイッチVMであることを示すために使用されます。後続の VM には vjunos-sw2、vjunos-sw3 などの名前を付けることができます。
その結果、VM が作成され、以下のメッセージが表示されます。
vjunos-sw1.xmlから作成されたドメインvjunos-sw1
- これらの行がコメントアウトされている場合は、以下の XML 行を確認/etc/libvirt/qemu.confしてコメント解除してください。
有効な値の例を以下に示します。指定した行のコメントを解除します。
content_copy zoom_out_map# user = "qemu" # A user named "qemu" # user = "+0" # Super user (uid=0) # user = "100" # A user named "100" or a user with uid=100#user = "root" <<< uncomment this line # #group = "root" <<< uncomment this line
- libvirtd を再起動し、vJunos スイッチ VM をもう一度作成します。
# systemctl restart libvirtd
- ホスト サーバーに導入された vJunos スイッチを安全にシャット ダウンします(必要な場合)。コマンドを
# virsh shutdown vjunos-sw1
使用して、vJunos-switchをシャットダウンします。このステップを実行すると、vJunos-switchインスタンスに送信されたシャットダウン信号により、正常にシャットダウンできます。
以下のメッセージが表示されます。
ドメイン「vjunos-sw1」のシャットダウン中メモ:このコマンドはvJunosスイッチのVMディスクを破損する可能性がありますので、「virsh destroy」コマンドを使用しないでください。
「virsh destroy」コマンドを使用した後にVMの起動が停止した場合、提供された元のQCOW2イメージのライブQCOW2ディスクコピーを作成します。
vJunos スイッチ VM の検証
このトピックでは、vJunos スイッチが稼働しているかどうかを確認する方法について説明します。
- vJunosスイッチが稼働しているかどうかを確認します。
# virsh list
content_copy zoom_out_map# virsh list Id Name State ---------------------------- 74 vjunos-sw1 running
- VCP のシリアル コンソールに接続します。
XML ファイルから VCP のシリアル コンソールに接続するポートを見つけることができます。また、XML 設定ファイルでポート数が指定されている「telnet localhost <portnum>」を使用して、VCP のシリアル コンソールにログインすることもできます。
メモ:telnet ポート番号は、ホスト サーバーに存在する各 vJunos スイッチ VM ごとに一意である必要があります。
content_copy zoom_out_map# telnet localhost 8610 Trying 127.0.0.1... Connected to localhost. Escape character is '^]'. root@:~ #
- 自動イメージ アップグレードを無効にします。
上記の手順でJunosの初期設定を提供していない場合、vJunos-switchはデフォルトで、ネットワークの初期設定のためにDHCPを試みます。
Junos構成を提供できるDHCPサーバーがない場合、以下のようにメッセージを繰り返し表示できます。
「自動イメージ アップグレード」
以下のようにこれらのメッセージを無効にすることができます。
content_copy zoom_out_map[edit]] user@host# set system root-authentication plain-text-password New password: <type password here> Retype new password: <retype password here> root# delete chassis auto-image-upgrade [edit] root# commit commit complete
- vJunos-switch xmlファイルで指定されたgeインターフェイスが稼働しており、使用可能であるかどうかを確認します。コマンドを
show interfaces terse
使用します。例えば、vJunos-switch XML 定義ファイルで「ge-000」と「ge-001」に接続された 2 つの仮想 NIC が指定されている場合、以下に示すように コマンドを使用して
show interface output
検証する場合、ge-0/0/0 および ge-0/0/1 インターフェイスはリンク「up」状態にする必要があります。content_copy zoom_out_maproot> show interfaces terse Interface Admin Link Proto Local Remote ge-0/0/0 up up ge-0/0/0.16386 up up lc-0/0/0 up up lc-0/0/0.32769 up up vpls pfe-0/0/0 up up pfe-0/0/0.16383 up up inet inet6 pfh-0/0/0 up up pfh-0/0/0.16383 up up inet pfh-0/0/0.16384 up up inet ge-0/0/1 up up ge-0/0/1.16386 up up ge-0/0/2 up down ge-0/0/2.16386 up down ge-0/0/3 up down ge-0/0/3.16386 up down [snip]
- 対応する各「ge」ブリッジの下のvnet inetrfaceが設定されていることを確認します。以下に
brctl
示すように、vJunos スイッチを起動した後、ホスト サーバーで コマンドを使用します。content_copy zoom_out_map# ip link add ge-000 type bridge
# ip link show ge-000 bridge name bridge id STP enabled interfaces ge-000 8000.fe54009a419a no vnet1 # ip link show ge-001 bridge name bridge id STP enabled interfaces ge-001 8000.fe5400e9f94f no vnet2