Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

KVM에 vMX 설치

KVM 환경에서 가상 MX 라우터를 설치하는 방법을 알아보려면 이 주제를 읽어보십시오.

vMX를 설치하기 위한 Ubuntu 호스트 준비

vMX 설치를 위한 Ubuntu 호스트 시스템을 준비하려면(Junos OS 릴리스 15.1F6에서 시작):

  1. 최소 하드웨어 및 소프트웨어 요구 사항에 설명된 최소 소프트웨어 및 OS 요구 사항을 충족합니다.

  2. 아래에서 커널 업그레이드 libvirt로 업그레이드 1.2.19 섹션을 참조하십시오.

  3. Intel XL710 PCI-Express 제품군 카드를 사용하는 경우 드라이버를 업데이트해야 합니다. X710 NIC의 업데이트 드라이버를 참조하십시오.

  4. BIOS에서 Intel VT-d를 활성화합니다. (각기 다른 시스템들이 VT-d를 지원하는 서로 다른 방법을 가지고 있기 때문에 벤더와 함께 프로세스를 검증하는 것이 좋습니다.)

    인텔 웹사이트에서 VT-d를 사용할 수 있도록 하는 절차를 참조하십시오.

  5. /etc/default/qemu-kvm에 설정 KSM_ENABLED=0 하여 KSM을 비활성화합니다.

  6. /etc/modprobe.d/qemu-system-x86.conf 파일을 편집하고 포함된 options kvm_intel라인에 추가하여 enable_apicv=0 APIC 가상화를 비활성화합니다.

    options kvm_intel nested=1 enable_apicv=0

  7. 호스트를 다시 시작하여 KSM 및 APIC 가상화를 비활성화합니다.

  8. SR-IOV를 사용하는 경우 이 단계를 수행해야 합니다.

    참고:

    / etc/network/interfaces 에 외부 브리지가 있는 이전 설치를 제거하고 원래 관리 인터페이스를 사용해 다시 돌아가야 합니다. 설치를 ifconfig -a 진행하기 전에 명령어에 외부 브리지가 표시되지 않도록 해야 합니다.

    외부 브리지가 표시되는지 여부를 확인하려면 명령을 사용하여 ifconfig 관리 인터페이스를 확인하십시오. 이 인터페이스가 외부 브리지 그룹에 사용되는지 확인하려면 명령을 사용하여 brctl show 관리 인터페이스가 외부 브리지로 나열되었는지 여부를 확인합니다.

    /etc/default/grub 디렉토리를 켜 intel_iommu=on 서 SR-IOV 기능을 활성화합니다.

    GRUB_CMDLINE_LINUX_DEFAULT="intel_iommu=on"

    매개 변수에 intel_iommu=on 대해 기존 텍스트에 문자열을 GRUB_CMDLINE_LINUX_DEFAULT 추가합니다.

    명령 뒤에 update-grub 명령을 실행합니다 reboot .

  9. 최적의 성능을 위해 호스트에서 1G로 대용량 페이지 크기를 구성하고 VFP용 NUMA 노드에 최소 16개 1G 대용량 페이지가 있는지 확인하는 것이 좋습니다. 거대한 페이지 크기를 구성하려면 다음 줄을 /etc/default/grub에 추가하십시오.

    GRUB_CMDLINE_LINUX="default_hugepagesz=1G hugepagesz=1G hugepages=number-of-huge-pages"

    대용량 페이지 수는 적어도 (16G * number-of-numa-sockets) 이어야 합니다.

  10. vMX를 modprobe kvm-intel 설치하기 전에 명령을 실행합니다.

참고:

Junos OS 18.2 이상에서 시작하여 Ubuntu 16.04.5 LTS 및 Linux 4.4.0-62-generic이 지원됩니다.

최소 소프트웨어 및 OS 요구 사항을 충족하려면 다음 작업을 수행해야 할 수 있습니다.

커널 업그레이드

참고:

Ubuntu 16.04 버전에서 Linux 커널을 업그레이드할 필요가 없습니다.

참고:

3.19.0-80-generic과 함께 제공되는 Ubuntu 14.04.1 LTS를 사용하는 경우 이 단계를 건너뛸 수 있습니다. Ubuntu 14.04는 권장 버전(Linux 3.19.0-80-generic)보다 낮은 버전의 커널(Linux 3.13.0-24-generic)과 함께 제공됩니다.

커널을 업그레이드하려면 다음을 수행합니다.

  1. 커널 버전을 결정합니다.

  2. 버전이 1단계에 나와 있는 버전과 다른 경우 다음 명령을 실행합니다.

  3. 시스템을 다시 시작합니다.

libvirt 1.2.19로 업그레이드

참고:

Ubuntu 16.04.5는 Libvirt 버전을 지원합니다. Ubuntu 16.04에서 libvirt를 업그레이드할 필요가 없습니다.

Ubuntu 14.04는 libvirt 1.2.2(VFP lite 모드에서 작동)를 지원합니다. VFP 성능 모드를 사용하거나 VFP 라이트 모드를 사용하여 여러 vMX 인스턴스를 구축하는 경우 libvirt 1.2.19로 업그레이드해야 합니다.

libvirt 업그레이드:

  1. 최소 하드웨어 및 소프트웨어 요구 사항에 나열된 모든 패키지를 설치해야 합니다.

  2. 명령을 사용하여 /tmp 디렉토리로 cd /tmp 이동합니다.

  3. libvirt-1.2.19 명령을 wget http://libvirt.org/sources/libvirt-1.2.19.tar.gz사용하여 소스 코드를 다운로드합니다.

  4. 명령을 사용하여 파일을 압축 해제하고 언타이해 주십시오 tar xzvf libvirt-1.2.19.tar.gz .

  5. 명령을 사용하여 libvirt-1.2.19 디렉토리로 cd libvirt-1.2.19 이동합니다.

  6. 명령으로 libvirtd를 중지합니다 service libvirt-bin stop .

  7. 명령을 실행합니다 ./configure --prefix=/usr --localstatedir=/ --with-numactl .

  8. 명령을 실행합니다 make .

  9. 명령을 실행합니다 make install .

  10. libvirtd 데몬이 실행 중인지 확인합니다. (명령을 사용하여 service libvirt-bin start 다시 시작합니다. 시작되지 않으면 명령을 사용합니다 /usr/sbin/libvirtd -d .)

  11. libvirtd 및 virsh 버전이 1.2.19인지 확인합니다.

    시스템에서 코드 컴파일 로그를 표시합니다.

참고:

libvirt 업그레이드 후 vMX를 구축할 수 없는 경우 명령어로 virbr0 브리지를 ifconfig virbr0 down 아래로 가져오고 명령어로 브리지를 brctl delbr virbr0 삭제합니다.

X710 NIC용 드라이버 업데이트

Intel XL710 PCI-Express 제품군 NIC를 사용하는 경우 vMX를 설치하기 전에 드라이버를 업데이트해야 합니다.

드라이버를 업데이트하려면 다음을 수행합니다.

  1. vMX 소프트웨어 패키지를 루트로 다운로드하여 패키지를 압축 해제합니다.
  2. 설치 디렉토리에서 i40e 드라이버를 설치합니다.
  3. Intel에서 최신 i40evf 드라이버를 설치합니다.

    예를 들어, 버전 1.4.15를 다운로드하여 설치하는 명령을 다음과 같습니다.

  4. 드라이버와 함께 initrd를 업데이트합니다.
  5. 새 드라이버를 활성화합니다.

기타 필수 패키지 설치

다음 명령을 사용하여 Ubuntu에 Python-netifaces 패키지를 설치합니다.

vMX 설치를 위한 Red Hat Enterprise Linux 호스트 준비

vMX 설치를 위한 Red Hat Enterprise Linux를 실행하는 호스트 시스템을 준비하려면 다음 버전에 대한 작업을 수행하십시오.

Red Hat Enterprise Linux 7.3 Host to Install vMX 준비

vMX 설치를 위한 Red Hat Enterprise Linux 7.3을 실행하는 호스트 시스템을 준비하려면 다음을 수행합니다.

  1. 최소 하드웨어 및 소프트웨어 요구 사항에 설명된 최소 소프트웨어 및 OS 요구 사항을 충족합니다.
  2. BIOS에서 하이퍼스레딩 및 VT-d를 활성화합니다.

    SR-IOV를 사용하는 경우 BIOS에서 SR-IOV를 활성화하십시오.

    각기 다른 시스템에 BIOS 설정에 액세스하고 변경하는 방법이 서로 다르기 때문에 공급업체에서 프로세스를 확인하는 것이 좋습니다.

  3. OS를 설치하는 동안 가상화 호스트가상화 플랫폼 소프트웨어 컬렉션을 선택합니다.

    GUI 설치 중에 이러한 소프트웨어 컬렉션을 선택하지 않은 경우 다음 명령을 사용하여 설치하십시오.

  4. Red Hat 계정 자격 증명을 사용하여 호스트를 등록하십시오. 적절한 리포지토리를 활성화합니다.

    Enterprise Linux 7(epel) 리포지토리를 위한 추가 패키지를 설치하려면 다음을 수행합니다.

  5. 현재 설치된 패키지를 업데이트합니다.
  6. 최적의 성능을 위해 호스트에서 1G로 대용량 페이지 크기를 구성하고 VFP용 NUMA 노드에 최소 16개의 1G 대용량 페이지가 있는지 확인하는 것이 좋습니다. 거대한 페이지 크기를 구성하려면 다음 단계를 사용하십시오.

    Red Hat의 경우: 거대한 페이지 구성을 추가합니다.

    마운트 | grep boot 명령어로 부팅 장비 이름을 결정합니다.

    대용량 페이지 수는 적어도 (16G * number-of-numa-sockets) 이어야 합니다.

  7. 필요한 패키지를 설치합니다.
  8. (옵션) SR-IOV를 사용하는 경우 이러한 패키지를 설치하고 SR-IOV 기능을 활성화해야 합니다.

    재부팅하고 다시 로그인합니다.

  9. qemu-kvm 바이너리를 qemu-system-x86_64 파일에 연결합니다.
  10. 올바른 Python 릴리스에 대한 경로를 설정하고 PyYAML 라이브러리를 설치합니다.
  11. Red Hat OpenStack 라이브러리를 설치한 경우 시스템 유형으로 사용하도록 <type arch='x86_64' machine='pc-0.13'>hvm</type> 변경 script/templates/red_{vPFE, vRE}-ref.xml 해야 합니다.
  12. KSM 사용 안 함.

    KSM이 비활성화되었는지 확인하려면 다음 명령어를 실행합니다.

    출력의 값 0은 KSM이 비활성화되었음을 나타냅니다.

  13. /etc/modprobe.d/kvm.conf 파일을 편집하고 kvm_intel 옵션이 포함된 라인에 추가하여 enable_apicv=n APIC 가상화를 비활성화합니다.

    사용할 enable_apicv=0 수도 있습니다.

    호스트를 다시 시작하여 KSM 및 APIC 가상화를 비활성화합니다.

  14. 네트워크 관리자를 중지하고 비활성화합니다.

    네트워크 관리자를 차단할 수 없는 경우 해결.conf 가 명령으로 chattr +I /etc/resolv.conf 덮어쓰기되는 것을 방지할 수 있습니다.

  15. QEMU 사용자가 빌드 디렉토리를 읽을 수 있는지 확인합니다.

    다른 대안으로 QEMU를 구성하여 /etc/libvirt/qemu.conf 파일을 에 설정하여 루트 사용자로 실행할 수 있습니다 user="root".

이제 vMX를 설치할 수 있습니다.

참고:

명령어로 vMX를 sh vmx.sh -lv --install 설치하면 커널 버전 불일치 경고가 나타날 수 있습니다. 이 경고는 무시할 수 있습니다.

Red Hat Enterprise Linux 7.2 Host to Install vMX 준비

vMX 설치를 위한 Red Hat Enterprise Linux 7.2를 실행하는 호스트 시스템을 준비하려면 다음을 수행합니다.

  1. 최소 하드웨어 및 소프트웨어 요구 사항에 설명된 최소 소프트웨어 및 OS 요구 사항을 충족합니다.
  2. BIOS에서 하이퍼스레딩 및 VT-d를 활성화합니다.

    SR-IOV를 사용하는 경우 BIOS에서 SR-IOV를 활성화하십시오.

    각기 다른 시스템에 BIOS 설정에 액세스하고 변경하는 방법이 서로 다르기 때문에 공급업체에서 프로세스를 확인하는 것이 좋습니다.

  3. OS를 설치하는 동안 가상화 호스트가상화 플랫폼 소프트웨어 컬렉션을 선택합니다.

    GUI 설치 중에 이러한 소프트웨어 컬렉션을 선택하지 않은 경우 다음 명령을 사용하여 설치하십시오.

  4. Red Hat 계정 자격 증명을 사용하여 호스트를 등록하십시오. 적절한 리포지토리를 활성화합니다.
  5. 현재 설치된 패키지를 업데이트합니다.
  6. 필요한 패키지를 설치합니다.
  7. 최적의 성능을 위해 호스트에서 1G로 대용량 페이지 크기를 구성하고 VFP용 NUMA 노드에 최소 16개의 1G 대용량 페이지가 있는지 확인하는 것이 좋습니다. 거대한 페이지 크기를 구성하려면 다음 단계를 사용하십시오.

    Red Hat의 경우: 거대한 페이지 구성을 추가합니다.

    마운트 | grep boot 명령어로 부팅 장비 이름을 결정합니다.

    대용량 페이지 수는 적어도 (16G * number-of-numa-sockets) 이어야 합니다.

  8. (옵션) SR-IOV를 사용하는 경우 이러한 패키지를 설치하고 SR-IOV 기능을 활성화해야 합니다.

    재부팅하고 다시 로그인합니다.

  9. qemu-kvm 바이너리를 qemu-system-x86_64 파일에 연결합니다.
  10. 올바른 Python 릴리스에 대한 경로를 설정하고 PyYAML 라이브러리를 설치합니다.
  11. Red Hat OpenStack 라이브러리를 설치한 경우 시스템 유형으로 사용하도록 <type arch='x86_64' machine='pc-0.13'>hvm</type> 변경 script/templates/red_{vPFE, vRE}-ref.xml 해야 합니다.
  12. KSM 사용 안 함.

    KSM이 비활성화되었는지 확인하려면 다음 명령어를 실행합니다.

    출력의 값 0은 KSM이 비활성화되었음을 나타냅니다.

  13. /etc/modprobe.d/kvm.conf 파일을 편집하고 kvm_intel 옵션이 포함된 라인에 추가하여 enable_apicv=n APIC 가상화를 비활성화합니다.

    사용할 enable_apicv=0 수도 있습니다.

    호스트를 다시 시작하여 KSM 및 APIC 가상화를 비활성화합니다.

  14. 네트워크 관리자를 중지하고 비활성화합니다.

    네트워크 관리자를 차단할 수 없는 경우 해결.conf 가 명령으로 chattr +I /etc/resolv.conf 덮어쓰기되는 것을 방지할 수 있습니다.

  15. QEMU 사용자가 빌드 디렉토리를 읽을 수 있는지 확인합니다.

    다른 대안으로 QEMU를 구성하여 /etc/libvirt/qemu.conf 파일을 에 설정하여 루트 사용자로 실행할 수 있습니다 user="root".

이제 vMX를 설치할 수 있습니다.

참고:

명령어로 vMX를 sh vmx.sh -lv --install 설치하면 커널 버전 불일치 경고가 나타날 수 있습니다. 이 경고는 무시할 수 있습니다.

CentOS 호스트에서 vMX를 설치하기 위한 준비

vMX 설치를 위한 CentOS를 실행하는 호스트 시스템을 준비하려면 다음을 수행합니다.

  1. 최소 하드웨어 및 소프트웨어 요구 사항에 설명된 최소 소프트웨어 및 OS 요구 사항을 충족합니다.
  2. BIOS에서 하이퍼스레딩 및 VT-d를 활성화합니다.

    SR-IOV를 사용하는 경우 BIOS에서 SR-IOV를 활성화하십시오.

    각기 다른 시스템에 BIOS 설정에 액세스하고 변경하는 방법이 서로 다르기 때문에 공급업체에서 프로세스를 확인하는 것이 좋습니다.

  3. OS를 설치하는 동안 가상화 호스트가상화 플랫폼 소프트웨어 컬렉션을 선택합니다.

    GUI 설치 중에 이러한 소프트웨어 컬렉션을 선택하지 않은 경우 다음 명령을 사용하여 설치하십시오.

  4. 적절한 리포지토리를 활성화합니다.
  5. 현재 설치된 패키지를 업데이트합니다.
  6. 필요한 패키지를 설치합니다.
  7. (옵션) SR-IOV를 사용하는 경우 이러한 패키지를 설치하고 SR-IOV 기능을 활성화해야 합니다.

    재부팅하고 다시 로그인합니다.

  8. qemu-kvm 바이너리를 qemu-system-x86_64 파일에 연결합니다.
  9. 올바른 Python 릴리스에 대한 경로를 설정하고 PyYAML 라이브러리를 설치합니다.
    참고:

    설치에 오류가 있는 경우 다음 해결 방법을 사용하십시오.

  10. KSM 사용 안 함.

    KSM이 비활성화되었는지 확인하려면 다음 명령어를 실행합니다.

    출력의 값 0은 KSM이 비활성화되었음을 나타냅니다.

  11. /etc/modprobe.d/kvm.conf 파일을 편집하고 kvm_intel 옵션이 포함된 라인에 추가하여 enable_apicv=0 APIC 가상화를 비활성화합니다.

    호스트를 다시 시작하여 KSM 및 APIC 가상화를 비활성화합니다.

  12. 네트워크 관리자를 중지하고 비활성화합니다.

    네트워크 관리자를 차단할 수 없는 경우 해결.conf 가 명령으로 chattr +I /etc/resolv.conf 덮어쓰기되는 것을 방지할 수 있습니다.

  13. QEMU 사용자가 빌드 디렉토리를 읽을 수 있는지 확인합니다.

    다른 대안으로 QEMU를 구성하여 /etc/libvirt/qemu.conf 파일을 에 설정하여 루트 사용자로 실행할 수 있습니다 user=root.

  14. /etc/profile 파일의 끝에 이 라인을 추가합니다.

이제 vMX를 설치할 수 있습니다.

참고:

명령어로 vMX를 sh vmx.sh -lv --install 설치하면 커널 버전 불일치 경고가 나타날 수 있습니다. 이 경고는 무시할 수 있습니다.

다양한 사용 사례에 vMX 설치

vMX 설치는 특정 사용 사례와 다릅니다. 표에는 일부 vMX 사용 사례에 대한 샘플 구성 요구 사항이 나와 있습니다.

표 1: 사용 사례를 위한 샘플 구성(Junos OS 릴리스 18.3 ~ 18.4에서 지원)

사용 사례

최소 vCPU

최소 메모리

NIC 디바이스 유형

랩 시뮬레이션

최대 100Mbps 성능

4: VCP3용 1개(VFP용)

5GB: VCP 1GB, VFP용 4GB

virtio

저대역폭 애플리케이션

최대 3Gbps 성능

VFP용 VCP9의 경우 10:1

20GB: VCP 4GB, VFP용 16GB

virtio

고대역폭 애플리케이션 또는 성능 테스트

3Gbps 이상의 성능 지원

VFP용 VCP9의 경우 10:1

VCP 20GB 4GB, VFP용 16GB

SR-IOV

듀얼 가상 라우팅 엔진

참고:

별도의 호스트에 구축할 때 VCP가 서로 통신하려면 호스트 간에 연결을 설정해야 합니다.

두 VCP 인스턴스를 구축할 때 사용하는 특정 사용 사례에 대한 VCP 리소스의 수를 두 배로 늘릴 수 있습니다.

두 VCP 인스턴스를 구축할 때 사용하는 특정 사용 사례에 대한 VCP 리소스의 수를 두 배로 늘릴 수 있습니다.

virtio 또는 SR-IOV

표 2: 사용 사례를 위한 샘플 구성(Junos OS 릴리스 18.1 ~ 18.2에서 지원)

사용 사례

최소 vCPU

최소 메모리

NIC 디바이스 유형

랩 시뮬레이션

최대 100Mbps 성능

4: VCP3용 1개(VFP용)

5GB: VCP 1GB, VFP용 4GB

virtio

저대역폭 애플리케이션

최대 3Gbps 성능

VFP용 VCP7의 경우 8:1

16GB: VCP 4GB, VFP용 12GB

virtio

고대역폭 애플리케이션 또는 성능 테스트

3Gbps 이상의 성능 지원

VFP용 VCP7의 경우 8:1

VCP용 16GB 4GB, VFP용 12GB

SR-IOV

듀얼 가상 라우팅 엔진

참고:

별도의 호스트에 구축할 때 VCP가 서로 통신하려면 호스트 간에 연결을 설정해야 합니다.

두 VCP 인스턴스를 구축할 때 사용하는 특정 사용 사례에 대한 VCP 리소스의 수를 두 배로 늘릴 수 있습니다.

두 VCP 인스턴스를 구축할 때 사용하는 특정 사용 사례에 대한 VCP 리소스의 수를 두 배로 늘릴 수 있습니다.

virtio 또는 SR-IOV

표 3: 사용 사례를 위한 샘플 구성(Junos OS 릴리스 17.4에서 지원)

사용 사례

최소 vCPU

최소 메모리

NIC 디바이스 유형

랩 시뮬레이션

최대 100Mbps 성능

4: VCP3용 1개(VFP용)

5GB: VCP 1GB, VFP용 4GB

virtio

저대역폭 애플리케이션

최대 3Gbps 성능

VFP용 VCP7의 경우 8:1

16GB: VCP 4GB, VFP용 12GB

virtio

고대역폭 애플리케이션 또는 성능 테스트

3Gbps 이상의 성능 지원

VFP용 VCP7의 경우 8:1

VCP용 16GB 4GB, VFP용 12GB

SR-IOV

표 4: 사용 사례를 위한 샘플 구성(Junos OS 릴리스 15.1F6 ~ 17.3에서 지원)

사용 사례

최소 vCPU

최소 메모리

NIC 디바이스 유형

랩 시뮬레이션

최대 100Mbps 성능

4: VCP3용 1개(VFP용)

5GB: VCP 1GB, VFP용 4GB

virtio

저대역폭 애플리케이션

최대 3Gbps 성능

VFP용 VCP7의 경우 8:1

16GB: VCP 4GB, VFP용 12GB

virtio

고대역폭 애플리케이션 또는 성능 테스트

3Gbps 이상의 성능 지원

VFP용 VCP7의 경우 8:1

VCP용 16GB 4GB, VFP용 12GB

SR-IOV

표 5: 사용 사례를 위한 샘플 구성(Junos OS 릴리스 15.1F4 ~ 15.1F3에서 지원)

사용 사례

최소 vCPU

최소 메모리

NIC 디바이스 유형

랩 시뮬레이션

최대 100Mbps 성능

4: VCP3용 1개(VFP용)

10GB: VCP 2GB, VFP용 8GB

virtio

저대역폭 애플리케이션

최대 3Gbps 성능

VFP용 VCP3의 경우 4:1

10GB: VCP 2GB, VFP용 8GB

virtio 또는 SR-IOV

고대역폭 애플리케이션 또는 성능 테스트

3Gbps 이상의 성능(최소 2개의 10Gb Ethernet 포트 포함)

최대 80Gbps의 원시 성능

VFP용 VCP7의 경우 8:1

VCP용 16GB 4GB, VFP용 12GB

SR-IOV

표 6: 사용 사례를 위한 샘플 구성(Junos OS 릴리스 14.1에서 지원)

사용 사례

최소 vCPU

최소 메모리

NIC 디바이스 유형

랩 시뮬레이션

최대 100Mbps 성능

4: VCP3용 1개(VFP용)

8GB: VCP 2GB, VFP용 6GB

virtio

저대역폭 애플리케이션

최대 3Gbps 성능

VFP용 VCP3의 경우 4:1

8GB: VCP 2GB, VFP용 6GB

virtio 또는 SR-IOV

고대역폭 애플리케이션 또는 성능 테스트

3Gbps 이상의 성능(최소 2개의 10Gb Ethernet 포트 포함)

최대 80Gbps의 원시 성능

VFP용 VCP4의 경우 5:1

VCP 2GB 8GB, VFP용 6GB

SR-IOV

참고:

Junos OS 릴리스 18.4R1(Ubuntu 호스트) 및 Junos OS Release 19.1R1(RedHat 호스트)에서 vMX 구성 파일에서 vMX 설치용 네트워크 인터페이스 카드에 대해 수정되지 않은 최신 드라이버를 사용하도록 값을 true로 설정할 use_native_drivers 수 있습니다.

특정 사용 사례에 vMX를 설치하려면 다음 작업 중 하나를 수행하십시오.

랩 시뮬레이션을 위한 vMX 설치

Junos OS 릴리스 14.1부터 랩 시뮬레이션 사용 사례는 virtio NIC를 사용합니다.

랩 시뮬레이션(100Mbps 미만) 애플리케이션 사용 사례를 위해 vMX를 설치하려면 다음을 수행합니다.

  1. vMX 소프트웨어 패키지를 루트로 다운로드하여 패키지를 압축 해제합니다.

    tar xzvf package-name

  2. 디렉토리를 압축되지 않은 vMX 패키지의 위치로 변경합니다.

    cd package-location

  3. 단일 vMX 인스턴스를 구성하려면 config/vmx.conf 텍스트 파일을 텍스트 편집기를 사용하여 편집합니다.

    vMX 구성 파일에서 다음과 같은 매개 변수가 올바르게 설정되어 있는지 확인합니다.

    device-type : virtio

    vMX 구성 파일 매개변수 지정을 참조하십시오.

  4. 스크립트를 ./vmx.sh -lv --install 실행하여 config/vmx.conf 시작 구성 파일로 지정된 vMX 인스턴스를 구축하고 파일에 자세한 수준 로깅을 제공합니다. vMX 구축 및 관리를 참조하십시오.
  5. VCP에서 VFP에 라이트 모드를 활성화합니다.

다음은 랩 시뮬레이션을 위해 virtio 디바이스 유형을 사용하는 샘플 vMX 시작 구성 파일입니다.

저대역폭 애플리케이션을 위한 vMX 설치

Junos OS 릴리스 14.1부터 저대역폭 애플리케이션의 사용 사례는 virtio 또는 SR-IOV NIC를 사용합니다.

저대역폭(최대 3Gbps) 애플리케이션 사용 사례를 위해 vMX를 설치하려면 다음을 수행합니다.

  1. vMX 소프트웨어 패키지를 루트로 다운로드하여 패키지를 압축 해제합니다.

    tar xzvf package-name

  2. 디렉토리를 압축되지 않은 vMX 패키지의 위치로 변경합니다.

    cd package-location

  3. 단일 vMX 인스턴스를 구성하려면 config/vmx.conf 텍스트 파일을 텍스트 편집기를 사용하여 편집합니다.

    vMX 구성 파일에서 다음과 같은 매개 변수가 올바르게 설정되어 있는지 확인합니다.

    device-type: virtio 또는 device-type: sriov

    vMX 구성 파일 매개변수 지정을 참조하십시오.

  4. 스크립트를 ./vmx.sh -lv --install 실행하여 config/vmx.conf 시작 구성 파일로 지정된 vMX 인스턴스를 구축하고 파일에 자세한 수준 로깅을 제공합니다. vMX 구축 및 관리를 참조하십시오.
  5. VCP에서 VFP를 위한 성능 모드를 활성화합니다.

다음은 저대역폭 애플리케이션을 위한 virtio 디바이스 유형을 사용하는 vMX 시작 구성 파일 샘플입니다.

고대역폭 애플리케이션을 위한 vMX 설치

Junos OS 릴리스 14.1부터 고대역폭 애플리케이션의 사용 사례는 SR-IOV NIC를 사용합니다.

고대역폭(3Gbps 이상) 애플리케이션 사용 사례를 위해 vMX를 설치하려면 다음을 수행합니다.

  1. vMX 소프트웨어 패키지를 루트로 다운로드하여 패키지를 압축 해제합니다.

    tar xzvf package-name

  2. 디렉토리를 압축되지 않은 vMX 패키지의 위치로 변경합니다.

    cd package-location

  3. 단일 vMX 인스턴스를 구성하려면 config/vmx.conf 텍스트 파일을 텍스트 편집기를 사용하여 편집합니다.

    vMX 구성 파일에서 다음과 같은 매개 변수가 올바르게 설정되어 있는지 확인합니다.

    device-type: sriov

    vMX 구성 파일 매개변수 지정을 참조하십시오.

  4. 스크립트를 ./vmx.sh -lv --install 실행하여 config/vmx.conf 시작 구성 파일로 지정된 vMX 인스턴스를 구축하고 파일에 자세한 수준 로깅을 제공합니다. vMX 구축 및 관리를 참조하십시오.
  5. VCP에서 VFP를 위한 성능 모드를 활성화합니다.

다음은 SR-IOV 디바이스 유형을 사용하는 vMX 시작 구성 파일 샘플입니다.

자세한 내용은 예: KVM의 vMX 인스턴스에서 SR-IOV 활성화를 참조하십시오.

듀얼 라우팅 엔진으로 vMX 설치

vMX 시작 구성 파일(기본 파일은 config/vmx.conf)의 CONTROL_PLANE 섹션에서 기본 라우팅 엔진(re0) 및 백업 라우팅 엔진(re1)을 생성하여 vMX 서버에서 이중화된 라우팅 엔진을 설정할 수 있습니다.

참고:

별도의 호스트에 라우팅 엔진을 구축할 때 VCP가 서로 통신하려면 호스트 간에 연결을 설정해야 합니다.

Junos OS 릴리스 18.1부터 시작하여 듀얼 라우팅 엔진 사용 사례에 vMX를 설치합니다.

  1. vMX 소프트웨어 패키지를 루트로 다운로드하여 패키지를 압축 해제합니다.

    tar xzvf package-name

  2. 디렉토리를 압축되지 않은 vMX 패키지의 위치로 변경합니다.

    cd package-location

  3. vMX 인스턴스를 구성하려면 텍스트 편집기를 사용하여 config/vmx.conf 텍스트 파일을 편집합니다.

    기본 CONTROL_PLANE 섹션은 한 인터페이스 항목과 유사합니다.

    이중화된 라우팅 엔진을 설정하려면 다음을 수행합니다.

    1. CONTROL_PLANE 적절한 vCPU 수() 및 메모리 양(vcpusmemory-mb)을 탐색하고 지정합니다.
    2. Junos OS 릴리스 18.1R1부터 이 호스트에 구축된 Routing Engine 인스턴스를 지정하는 매개 변수를 추가 deploy 합니다. 이 매개 변수를 지정하지 않으면 모든 인스턴스(0,1)가 호스트에 구축됩니다.

      별도의 호스트에 라우팅 엔진을 구축할 때 VCP가 서로 통신하려면 호스트 간에 연결을 설정해야 합니다.

    3. 설정하려면 매개 변수를 추가 instance : 0 type 하도록 인터페이스 엔트리를 수정합니다 re0.

      ipaddrmacaddr 매개변수를 지정합니다. 이 주소는 VCP VM(fxp0)을 위한 관리 IP 주소입니다.

    4. 다른 엔트리를 추가하지만 매개 변수를 설정하고 re1 해당 매개 변수 이후의 console_port 매개 변수를 re1 instance : 1 지정하도록 지정 instance : 1 합니다.

      ipaddrmacaddr 매개변수를 지정합니다. 이 주소는 VCP VM(fxp0)을 위한 관리 IP 주소입니다.

    호스트에 re0을 배포하는 개정된 CONTROL_PLANE 섹션은 인터페이스 항목이 두 개 있는 다음 예제와 유사합니다.

    vMX 구성 파일 매개변수 지정을 참조하십시오.

  4. 스크립트를 ./vmx.sh -lv --install 실행하여 config/vmx.conf 시작 구성 파일로 지정된 vMX 인스턴스를 구축하고 파일에 자세한 수준 로깅을 제공합니다. vMX 구축 및 관리를 참조하십시오.
  5. VCP에서 VFP를 위한 성능 모드를 활성화합니다.
  6. 별도의 호스트에 라우팅 엔진을 구축할 때 VCP가 서로 통신하려면 호스트 간에 연결을 설정해야 합니다.

    예를 들어, 인터페이스를 통해 두 호스트 간의 연결(예: br-int-vmx1)을 설정하려면 두 호스트에서 다음 명령을 실행합니다.

다음은 이 호스트에 첫 번째 Routing Engine 인스턴스를 구축하는 vMX 시작 구성 파일입니다.

혼합 WAN 인터페이스를 통한 vMX 설치

Junos OS 릴리스 17.2부터 혼합 WAN 인터페이스의 사용 사례는 virtio 및 SR-IOV 인터페이스를 사용합니다. 샘플 구성 요구 사항은 SR-IOV 디바이스 유형과 동일합니다.

혼합 인터페이스를 사용하여 vMX를 설치하려면 다음을 수행합니다.

  1. vMX 소프트웨어 패키지를 루트로 다운로드하여 패키지를 압축 해제합니다.

    tar xzvf package-name

  2. 디렉토리를 압축되지 않은 vMX 패키지의 위치로 변경합니다.

    cd package-location

  3. 단일 vMX 인스턴스를 구성하려면 config/vmx.conf 텍스트 파일을 텍스트 편집기를 사용하여 편집합니다.

    vMX 구성 파일에서 다음과 같은 매개 변수가 올바르게 설정되어 있는지 확인합니다.

    device-type: mixed

    인터페이스를 구성할 때는 SR-IOV 인터페이스 앞에 virtio 인터페이스가 지정되어 있는지 확인해야 합니다. 매개 변수는 type 인터페이스 유형을 지정합니다.

    vMX 구성 파일 매개변수 지정을 참조하십시오.

  4. 스크립트를 ./vmx.sh -lv --install 실행하여 config/vmx.conf 시작 구성 파일로 지정된 vMX 인스턴스를 구축하고 파일에 자세한 수준 로깅을 제공합니다. vMX 구축 및 관리를 참조하십시오.
  5. VCP에서 VFP를 위한 성능 모드를 활성화합니다.

다음은 혼합 인터페이스를 사용하는 샘플 vMX 시작 구성 파일입니다.