KVM에 vMX 설치
KVM 환경에서 가상 MX 라우터를 설치하는 방법을 알아보려면 이 주제를 읽어보십시오.
vMX를 설치하기 위한 Ubuntu 호스트 준비
vMX 설치를 위한 Ubuntu 호스트 시스템을 준비하려면(Junos OS 릴리스 15.1F6에서 시작):
-
최소 하드웨어 및 소프트웨어 요구 사항에 설명된 최소 소프트웨어 및 OS 요구 사항을 충족합니다.
-
아래에서 커널 업그레이드 및 libvirt로 업그레이드 1.2.19 섹션을 참조하십시오.
-
Intel XL710 PCI-Express 제품군 카드를 사용하는 경우 드라이버를 업데이트해야 합니다. X710 NIC의 업데이트 드라이버를 참조하십시오.
-
BIOS에서 Intel VT-d를 활성화합니다. (각기 다른 시스템들이 VT-d를 지원하는 서로 다른 방법을 가지고 있기 때문에 벤더와 함께 프로세스를 검증하는 것이 좋습니다.)
인텔 웹사이트에서 VT-d를 사용할 수 있도록 하는 절차를 참조하십시오.
-
/etc/default/qemu-kvm에 설정
KSM_ENABLED=0
하여 KSM을 비활성화합니다. -
/etc/modprobe.d/qemu-system-x86.conf 파일을 편집하고 포함된
options kvm_intel
라인에 추가하여enable_apicv=0
APIC 가상화를 비활성화합니다.options kvm_intel nested=1 enable_apicv=0
-
호스트를 다시 시작하여 KSM 및 APIC 가상화를 비활성화합니다.
-
SR-IOV를 사용하는 경우 이 단계를 수행해야 합니다.
참고:/ etc/network/interfaces 에 외부 브리지가 있는 이전 설치를 제거하고 원래 관리 인터페이스를 사용해 다시 돌아가야 합니다. 설치를
ifconfig -a
진행하기 전에 명령어에 외부 브리지가 표시되지 않도록 해야 합니다.외부 브리지가 표시되는지 여부를 확인하려면 명령을 사용하여
ifconfig
관리 인터페이스를 확인하십시오. 이 인터페이스가 외부 브리지 그룹에 사용되는지 확인하려면 명령을 사용하여brctl show
관리 인터페이스가 외부 브리지로 나열되었는지 여부를 확인합니다./etc/default/grub 디렉토리를 켜
intel_iommu=on
서 SR-IOV 기능을 활성화합니다.GRUB_CMDLINE_LINUX_DEFAULT="intel_iommu=on"
매개 변수에
intel_iommu=on
대해 기존 텍스트에 문자열을GRUB_CMDLINE_LINUX_DEFAULT
추가합니다.명령 뒤에
update-grub
명령을 실행합니다reboot
. -
최적의 성능을 위해 호스트에서 1G로 대용량 페이지 크기를 구성하고 VFP용 NUMA 노드에 최소 16개 1G 대용량 페이지가 있는지 확인하는 것이 좋습니다. 거대한 페이지 크기를 구성하려면 다음 줄을 /etc/default/grub에 추가하십시오.
GRUB_CMDLINE_LINUX="default_hugepagesz=1G hugepagesz=1G hugepages=number-of-huge-pages"
대용량 페이지 수는 적어도 (16G * number-of-numa-sockets) 이어야 합니다.
-
vMX를
modprobe kvm-intel
설치하기 전에 명령을 실행합니다.
Junos OS 18.2 이상에서 시작하여 Ubuntu 16.04.5 LTS 및 Linux 4.4.0-62-generic이 지원됩니다.
최소 소프트웨어 및 OS 요구 사항을 충족하려면 다음 작업을 수행해야 할 수 있습니다.
커널 업그레이드
Ubuntu 16.04 버전에서 Linux 커널을 업그레이드할 필요가 없습니다.
3.19.0-80-generic과 함께 제공되는 Ubuntu 14.04.1 LTS를 사용하는 경우 이 단계를 건너뛸 수 있습니다. Ubuntu 14.04는 권장 버전(Linux 3.19.0-80-generic)보다 낮은 버전의 커널(Linux 3.13.0-24-generic)과 함께 제공됩니다.
커널을 업그레이드하려면 다음을 수행합니다.
-
커널 버전을 결정합니다.
uname -a Linux rbu-node-33 3.19.0-80-generic #57-Ubuntu SMP Tue Jul 15 03:51:08 UTC 2014 x86_64 x86_64 x86_64 GNU/Linux
-
버전이 1단계에 나와 있는 버전과 다른 경우 다음 명령을 실행합니다.
apt-get install linux-firmware apt-get install linux-image-3.19.0-80-generic apt-get install linux-image-extra-3.19.0-80-generic apt-get install linux-headers-3.19.0-80-generic
-
시스템을 다시 시작합니다.
libvirt 1.2.19로 업그레이드
Ubuntu 16.04.5는 Libvirt 버전을 지원합니다. Ubuntu 16.04에서 libvirt를 업그레이드할 필요가 없습니다.
Ubuntu 14.04는 libvirt 1.2.2(VFP lite 모드에서 작동)를 지원합니다. VFP 성능 모드를 사용하거나 VFP 라이트 모드를 사용하여 여러 vMX 인스턴스를 구축하는 경우 libvirt 1.2.19로 업그레이드해야 합니다.
libvirt 업그레이드:
-
최소 하드웨어 및 소프트웨어 요구 사항에 나열된 모든 패키지를 설치해야 합니다.
-
명령을 사용하여 /tmp 디렉토리로
cd /tmp
이동합니다. -
libvirt-1.2.19
명령을wget http://libvirt.org/sources/libvirt-1.2.19.tar.gz
사용하여 소스 코드를 다운로드합니다. -
명령을 사용하여 파일을 압축 해제하고 언타이해 주십시오
tar xzvf libvirt-1.2.19.tar.gz
. -
명령을 사용하여 libvirt-1.2.19 디렉토리로
cd libvirt-1.2.19
이동합니다. -
명령으로 libvirtd를 중지합니다
service libvirt-bin stop
. -
명령을 실행합니다
./configure --prefix=/usr --localstatedir=/ --with-numactl
. -
명령을 실행합니다
make
. -
명령을 실행합니다
make install
. -
libvirtd 데몬이 실행 중인지 확인합니다. (명령을 사용하여
service libvirt-bin start
다시 시작합니다. 시작되지 않으면 명령을 사용합니다/usr/sbin/libvirtd -d
.)root@vmx-server:~# ps aux | grep libvirtd root 1509 0.0 0.0 372564 16452 ? Sl 10:25 0:00 /usr/sbin/libvirtd -d
-
libvirtd 및 virsh 버전이 1.2.19인지 확인합니다.
root@vmx-server:~# /usr/sbin/libvirtd --version libvirtd (libvirt) 1.2.19 root@vmx-server:~# /usr/bin/virsh --version 1.2.19 root@vmx-server:~#
시스템에서 코드 컴파일 로그를 표시합니다.
libvirt 업그레이드 후 vMX를 구축할 수 없는 경우 명령어로 virbr0 브리지를 ifconfig virbr0 down
아래로 가져오고 명령어로 브리지를 brctl delbr virbr0
삭제합니다.
X710 NIC용 드라이버 업데이트
Intel XL710 PCI-Express 제품군 NIC를 사용하는 경우 vMX를 설치하기 전에 드라이버를 업데이트해야 합니다.
드라이버를 업데이트하려면 다음을 수행합니다.
기타 필수 패키지 설치
apt-get install python-pip apt-get install python-netifaces pip install pyyaml
vMX 설치를 위한 Red Hat Enterprise Linux 호스트 준비
vMX 설치를 위한 Red Hat Enterprise Linux를 실행하는 호스트 시스템을 준비하려면 다음 버전에 대한 작업을 수행하십시오.
- Red Hat Enterprise Linux 7.3 Host to Install vMX 준비
- Red Hat Enterprise Linux 7.2 Host to Install vMX 준비
Red Hat Enterprise Linux 7.3 Host to Install vMX 준비
vMX 설치를 위한 Red Hat Enterprise Linux 7.3을 실행하는 호스트 시스템을 준비하려면 다음을 수행합니다.
이제 vMX를 설치할 수 있습니다.
명령어로 vMX를 sh vmx.sh -lv --install
설치하면 커널 버전 불일치 경고가 나타날 수 있습니다. 이 경고는 무시할 수 있습니다.
Red Hat Enterprise Linux 7.2 Host to Install vMX 준비
vMX 설치를 위한 Red Hat Enterprise Linux 7.2를 실행하는 호스트 시스템을 준비하려면 다음을 수행합니다.
이제 vMX를 설치할 수 있습니다.
명령어로 vMX를 sh vmx.sh -lv --install
설치하면 커널 버전 불일치 경고가 나타날 수 있습니다. 이 경고는 무시할 수 있습니다.
CentOS 호스트에서 vMX를 설치하기 위한 준비
vMX 설치를 위한 CentOS를 실행하는 호스트 시스템을 준비하려면 다음을 수행합니다.
이제 vMX를 설치할 수 있습니다.
명령어로 vMX를 sh vmx.sh -lv --install
설치하면 커널 버전 불일치 경고가 나타날 수 있습니다. 이 경고는 무시할 수 있습니다.
다양한 사용 사례에 vMX 설치
vMX 설치는 특정 사용 사례와 다릅니다. 표에는 일부 vMX 사용 사례에 대한 샘플 구성 요구 사항이 나와 있습니다.
사용 사례 |
최소 vCPU |
최소 메모리 |
NIC 디바이스 유형 |
---|---|---|---|
랩 시뮬레이션 최대 100Mbps 성능 |
4: VCP3용 1개(VFP용) |
5GB: VCP 1GB, VFP용 4GB |
virtio |
저대역폭 애플리케이션 최대 3Gbps 성능 |
VFP용 VCP9의 경우 10:1 |
20GB: VCP 4GB, VFP용 16GB |
virtio |
고대역폭 애플리케이션 또는 성능 테스트 3Gbps 이상의 성능 지원 |
VFP용 VCP9의 경우 10:1 |
VCP 20GB 4GB, VFP용 16GB |
SR-IOV |
듀얼 가상 라우팅 엔진
참고:
별도의 호스트에 구축할 때 VCP가 서로 통신하려면 호스트 간에 연결을 설정해야 합니다. |
두 VCP 인스턴스를 구축할 때 사용하는 특정 사용 사례에 대한 VCP 리소스의 수를 두 배로 늘릴 수 있습니다. |
두 VCP 인스턴스를 구축할 때 사용하는 특정 사용 사례에 대한 VCP 리소스의 수를 두 배로 늘릴 수 있습니다. |
virtio 또는 SR-IOV |
사용 사례 |
최소 vCPU |
최소 메모리 |
NIC 디바이스 유형 |
---|---|---|---|
랩 시뮬레이션 최대 100Mbps 성능 |
4: VCP3용 1개(VFP용) |
5GB: VCP 1GB, VFP용 4GB |
virtio |
저대역폭 애플리케이션 최대 3Gbps 성능 |
VFP용 VCP7의 경우 8:1 |
16GB: VCP 4GB, VFP용 12GB |
virtio |
고대역폭 애플리케이션 또는 성능 테스트 3Gbps 이상의 성능 지원 |
VFP용 VCP7의 경우 8:1 |
VCP용 16GB 4GB, VFP용 12GB |
SR-IOV |
듀얼 가상 라우팅 엔진
참고:
별도의 호스트에 구축할 때 VCP가 서로 통신하려면 호스트 간에 연결을 설정해야 합니다. |
두 VCP 인스턴스를 구축할 때 사용하는 특정 사용 사례에 대한 VCP 리소스의 수를 두 배로 늘릴 수 있습니다. |
두 VCP 인스턴스를 구축할 때 사용하는 특정 사용 사례에 대한 VCP 리소스의 수를 두 배로 늘릴 수 있습니다. |
virtio 또는 SR-IOV |
사용 사례 |
최소 vCPU |
최소 메모리 |
NIC 디바이스 유형 |
---|---|---|---|
랩 시뮬레이션 최대 100Mbps 성능 |
4: VCP3용 1개(VFP용) |
5GB: VCP 1GB, VFP용 4GB |
virtio |
저대역폭 애플리케이션 최대 3Gbps 성능 |
VFP용 VCP7의 경우 8:1 |
16GB: VCP 4GB, VFP용 12GB |
virtio |
고대역폭 애플리케이션 또는 성능 테스트 3Gbps 이상의 성능 지원 |
VFP용 VCP7의 경우 8:1 |
VCP용 16GB 4GB, VFP용 12GB |
SR-IOV |
사용 사례 |
최소 vCPU |
최소 메모리 |
NIC 디바이스 유형 |
---|---|---|---|
랩 시뮬레이션 최대 100Mbps 성능 |
4: VCP3용 1개(VFP용) |
5GB: VCP 1GB, VFP용 4GB |
virtio |
저대역폭 애플리케이션 최대 3Gbps 성능 |
VFP용 VCP7의 경우 8:1 |
16GB: VCP 4GB, VFP용 12GB |
virtio |
고대역폭 애플리케이션 또는 성능 테스트 3Gbps 이상의 성능 지원 |
VFP용 VCP7의 경우 8:1 |
VCP용 16GB 4GB, VFP용 12GB |
SR-IOV |
사용 사례 |
최소 vCPU |
최소 메모리 |
NIC 디바이스 유형 |
---|---|---|---|
랩 시뮬레이션 최대 100Mbps 성능 |
4: VCP3용 1개(VFP용) |
10GB: VCP 2GB, VFP용 8GB |
virtio |
저대역폭 애플리케이션 최대 3Gbps 성능 |
VFP용 VCP3의 경우 4:1 |
10GB: VCP 2GB, VFP용 8GB |
virtio 또는 SR-IOV |
고대역폭 애플리케이션 또는 성능 테스트 3Gbps 이상의 성능(최소 2개의 10Gb Ethernet 포트 포함) 최대 80Gbps의 원시 성능 |
VFP용 VCP7의 경우 8:1 |
VCP용 16GB 4GB, VFP용 12GB |
SR-IOV |
사용 사례 |
최소 vCPU |
최소 메모리 |
NIC 디바이스 유형 |
---|---|---|---|
랩 시뮬레이션 최대 100Mbps 성능 |
4: VCP3용 1개(VFP용) |
8GB: VCP 2GB, VFP용 6GB |
virtio |
저대역폭 애플리케이션 최대 3Gbps 성능 |
VFP용 VCP3의 경우 4:1 |
8GB: VCP 2GB, VFP용 6GB |
virtio 또는 SR-IOV |
고대역폭 애플리케이션 또는 성능 테스트 3Gbps 이상의 성능(최소 2개의 10Gb Ethernet 포트 포함) 최대 80Gbps의 원시 성능 |
VFP용 VCP4의 경우 5:1 |
VCP 2GB 8GB, VFP용 6GB |
SR-IOV |
Junos OS 릴리스 18.4R1(Ubuntu 호스트) 및 Junos OS Release 19.1R1(RedHat 호스트)에서 vMX 구성 파일에서 vMX 설치용 네트워크 인터페이스 카드에 대해 수정되지 않은 최신 드라이버를 사용하도록 값을 true로 설정할 use_native_drivers
수 있습니다.
특정 사용 사례에 vMX를 설치하려면 다음 작업 중 하나를 수행하십시오.
- 랩 시뮬레이션을 위한 vMX 설치
- 저대역폭 애플리케이션을 위한 vMX 설치
- 고대역폭 애플리케이션을 위한 vMX 설치
- 듀얼 라우팅 엔진으로 vMX 설치
- 혼합 WAN 인터페이스를 통한 vMX 설치
랩 시뮬레이션을 위한 vMX 설치
Junos OS 릴리스 14.1부터 랩 시뮬레이션 사용 사례는 virtio NIC를 사용합니다.
랩 시뮬레이션(100Mbps 미만) 애플리케이션 사용 사례를 위해 vMX를 설치하려면 다음을 수행합니다.
다음은 랩 시뮬레이션을 위해 virtio 디바이스 유형을 사용하는 샘플 vMX 시작 구성 파일입니다.
--- #Configuration on the host side - management interface, VM images etc. HOST: identifier : vmx1 # Maximum 4 characters host-management-interface : eth0 routing-engine-image : "/home/vmx/vmxlite/images/junos-vmx-x86-64.qcow2" routing-engine-hdd : "/home/vmx/vmxlite/images/vmxhdd.img" forwarding-engine-image : "/home/vmx/vmxlite/images/vFPC.img" --- #External bridge configuration BRIDGES: - type : external name : br-ext # Max 10 characters --- #vRE VM parameters CONTROL_PLANE: vcpus : 1 memory-mb : 1024 console_port: 8601 interfaces : - type : static ipaddr : 10.102.144.94 macaddr : "0A:00:DD:C0:DE:0E" --- #vPFE VM parameters FORWARDING_PLANE: memory-mb : 4096 vcpus : 3 console_port: 8602 device-type : virtio interfaces : - type : static ipaddr : 10.102.144.98 macaddr : "0A:00:DD:C0:DE:10" --- #Interfaces JUNOS_DEVICES: - interface : ge-0/0/0 mac-address : "02:06:0A:0E:FF:F0" description : "ge-0/0/0 interface" - interface : ge-0/0/1 mac-address : "02:06:0A:0E:FF:F1" description : "ge-0/0/1 interface"
저대역폭 애플리케이션을 위한 vMX 설치
Junos OS 릴리스 14.1부터 저대역폭 애플리케이션의 사용 사례는 virtio 또는 SR-IOV NIC를 사용합니다.
저대역폭(최대 3Gbps) 애플리케이션 사용 사례를 위해 vMX를 설치하려면 다음을 수행합니다.
다음은 저대역폭 애플리케이션을 위한 virtio 디바이스 유형을 사용하는 vMX 시작 구성 파일 샘플입니다.
--- #Configuration on the host side - management interface, VM images etc. HOST: identifier : vmx1 # Maximum 4 characters host-management-interface : eth0 routing-engine-image : "/home/vmx/vmx/images/junos-vmx-x86-64.qcow2" routing-engine-hdd : "/home/vmx/vmx/images/vmxhdd.img" forwarding-engine-image : "/home/vmx/vmx/images/vFPC.img" --- #External bridge configuration BRIDGES: - type : external name : br-ext # Max 10 characters --- #vRE VM parameters CONTROL_PLANE: vcpus : 1 memory-mb : 4096 console_port: 8601 interfaces : - type : static ipaddr : 10.102.144.94 macaddr : "0A:00:DD:C0:DE:0E" --- #vPFE VM parameters FORWARDING_PLANE: memory-mb : 16384 vcpus : 9 console_port: 8602 device-type : virtio interfaces : - type : static ipaddr : 10.102.144.98 macaddr : "0A:00:DD:C0:DE:10" --- #Interfaces JUNOS_DEVICES: - interface : ge-0/0/0 mac-address : "02:06:0A:0E:FF:F0" description : "ge-0/0/0 interface" - interface : ge-0/0/1 mac-address : "02:06:0A:0E:FF:F1" description : "ge-0/0/1 interface"
고대역폭 애플리케이션을 위한 vMX 설치
Junos OS 릴리스 14.1부터 고대역폭 애플리케이션의 사용 사례는 SR-IOV NIC를 사용합니다.
고대역폭(3Gbps 이상) 애플리케이션 사용 사례를 위해 vMX를 설치하려면 다음을 수행합니다.
다음은 SR-IOV 디바이스 유형을 사용하는 vMX 시작 구성 파일 샘플입니다.
--- #Configuration on the host side - management interface, VM images etc. HOST: identifier : vmx1 # Maximum 4 characters host-management-interface : eth0 routing-engine-image : "/home/vmx/images/junos-vmx-x86-64.qcow2" routing-engine-hdd : "/home/vmx/images/vmxhdd.img" forwarding-engine-image : "/home/vmx/images/vFPC.img" --- #External bridge configuration BRIDGES: - type : external name : br-ext # Max 10 characters --- #VCP VM parameters CONTROL_PLANE: vcpus : 1 memory-mb : 4096 console_port: 8601 interfaces : - type : static ipaddr : 10.102.144.94 macaddr : "0A:00:DD:C0:DE:0E" --- #VFP VM parameters FORWARDING_PLANE: memory-mb : 16384 vcpus : 9 console_port: 8602 device-type : sriov interfaces : - type : static ipaddr : 10.102.144.98 macaddr : "0A:00:DD:C0:DE:10" --- #Interfaces JUNOS_DEVICES: - interface : ge-0/0/0 port-speed-mbps : 10000 nic : eth1 mtu : 2000 virtual-function : 0 mac-address : "02:06:0A:0E:FF:F0" description : "ge-0/0/0 connects to eth1" - interface : ge-0/0/1 port-speed-mbps : 10000 nic : eth2 mtu : 2000 virtual-function : 0 mac-address : "02:06:0A:0E:FF:F1" description : "ge-0/0/1 connects to eth2"
자세한 내용은 예: KVM의 vMX 인스턴스에서 SR-IOV 활성화를 참조하십시오.
듀얼 라우팅 엔진으로 vMX 설치
vMX 시작 구성 파일(기본 파일은 config/vmx.conf)의 CONTROL_PLANE 섹션에서 기본 라우팅 엔진(re0) 및 백업 라우팅 엔진(re1)을 생성하여 vMX 서버에서 이중화된 라우팅 엔진을 설정할 수 있습니다.
별도의 호스트에 라우팅 엔진을 구축할 때 VCP가 서로 통신하려면 호스트 간에 연결을 설정해야 합니다.
Junos OS 릴리스 18.1부터 시작하여 듀얼 라우팅 엔진 사용 사례에 vMX를 설치합니다.
다음은 이 호스트에 첫 번째 Routing Engine 인스턴스를 구축하는 vMX 시작 구성 파일입니다.
--- #Configuration on the host side - management interface, VM images etc. HOST: identifier : vmx1 # Maximum 4 characters host-management-interface : eth0 routing-engine-image : "/home/vmx/images/junos-vmx-x86-64.qcow2" routing-engine-hdd : "/home/vmx/images/vmxhdd.img" forwarding-engine-image : "/home/vmx/images/vFPC.img" --- #External bridge configuration BRIDGES: - type : external name : br-ext # Max 10 characters --- #VCP VM parameters CONTROL_PLANE: vcpus : 1 memory-mb : 4096 console_port : 8601 deploy : 0 interfaces : - type : static instance : 0 ipaddr : 10.102.144.94 macaddr : "0A:00:DD:C0:DE:0E" - type : static instance : 1 console_port : 8612 ipaddr : 10.102.144.95 macaddr : "0A:00:DD:C0:DE:0F" --- #VFP VM parameters FORWARDING_PLANE: memory-mb : 12288 vcpus : 10 console_port: 8602 device-type : sriov interfaces : - type : static ipaddr : 10.102.144.98 macaddr : "0A:00:DD:C0:DE:10" --- #Interfaces JUNOS_DEVICES: - interface : ge-0/0/0 port-speed-mbps : 10000 nic : eth1 mtu : 2000 virtual-function : 0 mac-address : "02:06:0A:0E:FF:F0" description : "ge-0/0/0 connects to eth1" - interface : ge-0/0/1 port-speed-mbps : 10000 nic : eth2 mtu : 2000 virtual-function : 0 mac-address : "02:06:0A:0E:FF:F1" description : "ge-0/0/1 connects to eth2"
혼합 WAN 인터페이스를 통한 vMX 설치
Junos OS 릴리스 17.2부터 혼합 WAN 인터페이스의 사용 사례는 virtio 및 SR-IOV 인터페이스를 사용합니다. 샘플 구성 요구 사항은 SR-IOV 디바이스 유형과 동일합니다.
혼합 인터페이스를 사용하여 vMX를 설치하려면 다음을 수행합니다.
다음은 혼합 인터페이스를 사용하는 샘플 vMX 시작 구성 파일입니다.
--- #Configuration on the host side - management interface, VM images etc. HOST: identifier : vmx1 # Maximum 4 characters host-management-interface : eth0 routing-engine-image : "/home/vmx/images/junos-vmx-x86-64.qcow2" routing-engine-hdd : "/home/vmx/images/vmxhdd.img" forwarding-engine-image : "/home/vmx/images/vFPC.img" --- #External bridge configuration BRIDGES: - type : external name : br-ext # Max 10 characters --- #VCP VM parameters CONTROL_PLANE: vcpus : 1 memory-mb : 4096 console_port: 8601 interfaces : - type : static ipaddr : 10.102.144.94 macaddr : "0A:00:DD:C0:DE:0E" --- #VFP VM parameters FORWARDING_PLANE: memory-mb : 12288 vcpus : 10 console_port: 8602 device-type : mixed interfaces : - type : static ipaddr : 10.102.144.98 macaddr : "0A:00:DD:C0:DE:10" --- #Interfaces JUNOS_DEVICES: - interface : ge-0/0/0 type : virtio mac-address : "02:06:0A:0E:FF:F0" description : "ge-0/0/0 interface" - interface : ge-0/0/1 type : sriov port-speed-mbps : 10000 nic : eth2 mtu : 2000 virtual-function : 0 mac-address : "02:06:0A:0E:FF:F1" description : "ge-0/0/1 connects to eth2"