EN ESTA PÁGINA
Configuración del retraso antes de que los vecinos de LDP se consideren inactivos
Habilitación de mensajes de saludo dirigidos estrictos para LDP
Ejemplo: Configuración de la coincidencia más larga para LDP
Especificación de la dirección de transporte utilizada por LDP
Dirección de transporte de control utilizada para la sesión LDP dirigida
Configuración de los prefijos anunciados en LDP desde la tabla de enrutamiento
Configuración de una acción de error para la sesión BFD en un LSP LDP
Configuración del reenrutamiento rápido solo de multidifusión
Ejemplo: Configuración del reenrutamiento rápido solo de multidifusión en un dominio LDP multipunto
Ejemplo: Configuración de la compatibilidad con IPv6 nativo de LDP
Ejemplo: Configuración de la señalización en banda LDP multipunto para LSP de punto a multipunto
Asignación de cliente y servidor para enrutamiento de segmentos a la interoperabilidad de LDP
Configuración de LDP
Configuración mínima de LDP
Para habilitar LDP con una configuración mínima:
Habilite todas las interfaces relevantes en la familia MPLS. En el caso de LDP dirigido, la interfaz de circuito cerrado debe habilitarse con MPLS de familia.
(Opcional) Configure las interfaces relevantes en el nivel jerárquico
[edit protocol mpls]
.Habilite LDP en una sola interfaz, incluya la
ldp
instrucción y especifique la interfaz mediante lainterface
instrucción.
Esta es la configuración mínima de LDP. Todas las demás instrucciones de configuración de LDP son opcionales.
ldp { interface interface-name; }
Para habilitar LDP en todas las interfaces, especifique all
.interface-name
Para obtener una lista de los niveles de jerarquía en los que puede incluir estas instrucciones, consulte las secciones de resumen de instrucciones.
Habilitar y deshabilitar LDP
LDP reconoce las instancias de enrutamiento. Para habilitar LDP en una interfaz específica, incluya las siguientes instrucciones:
ldp { interface interface-name; }
Para obtener una lista de los niveles de jerarquía en los que puede incluir estas instrucciones, consulte las secciones de resumen de instrucciones.
Para habilitar LDP en todas las interfaces, especifique all
.interface-name
Si ha configurado propiedades de interfaz en un grupo de interfaces y desea deshabilitar LDP en una de las interfaces, incluya la interface
instrucción con la disable
opción:
interface interface-name { disable; }
Para obtener una lista de los niveles jerárquicos en los que puede incluir esta instrucción, consulte la sección Resumen de instrucciones.
Configuración del temporizador LDP para mensajes de saludo
Los mensajes de saludo de LDP permiten que los nodos de LDP se descubran entre sí y detecten la falla de un vecino o el vínculo con el vecino. Los mensajes de hola se envían periódicamente en todas las interfaces donde LDP está habilitado.
Hay dos tipos de mensajes de saludo LDP:
Mensajes de enlace de saludo: se envían a través de la interfaz LDP como paquetes UDP dirigidos al puerto de descubrimiento de LDP. La recepción de un mensaje de saludo de vínculo LDP en una interfaz identifica una adyacencia con el enrutador par LDP.
Mensajes de saludo dirigidos: se envían como paquetes UDP dirigidos al puerto de detección de LDP en una dirección específica. Los mensajes de saludo dirigidos se utilizan para admitir sesiones LDP entre enrutadores que no están conectados directamente. Un enrutador de destino determina si responder o ignorar un mensaje de saludo dirigido. Un enrutador de destino que elige responder lo hace enviando periódicamente mensajes de saludo dirigidos al enrutador iniciador.
De forma predeterminada, LDP envía mensajes de saludo cada 5 segundos para los mensajes de saludo de vínculo y cada 15 segundos para los mensajes de saludo dirigidos. Puede configurar el temporizador LDP para modificar la frecuencia con la que se envían ambos tipos de mensajes de saludo. Sin embargo, no puede configurar una hora para el temporizador LDP que sea mayor que el tiempo de espera LDP. Para obtener más información, consulte Configuración del retraso antes de que los vecinos de LDP se consideren inactivos.
- Configuración del temporizador LDP para mensajes de enlace de hola
- Configuración del temporizador LDP para mensajes de saludo dirigidos
Configuración del temporizador LDP para mensajes de enlace de hola
Para modificar la frecuencia con la que LDP envía mensajes de saludo de vínculo, especifique un nuevo intervalo de mensajes de saludo de vínculo para el temporizador de LDP mediante la hello-interval
instrucción:
hello-interval seconds;
Para obtener una lista de los niveles jerárquicos en los que puede incluir esta instrucción, vea la sección de resumen de instrucción de esta instrucción.
Configuración del temporizador LDP para mensajes de saludo dirigidos
Para modificar la frecuencia con la que LDP envía mensajes de saludo dirigidos, especifique un nuevo intervalo de mensajes de saludo de destino para el temporizador de LDP configurando la hello-interval
instrucción como una opción para la targeted-hello
instrucción:
targeted-hello { hello-interval seconds; }
Para obtener una lista de los niveles jerárquicos en los que puede incluir estas instrucciones, consulte las secciones de resumen de instrucciones de estas instrucciones.
Configuración del retraso antes de que los vecinos de LDP se consideren inactivos
El tiempo de espera determina cuánto tiempo debe esperar un nodo LDP para recibir un mensaje de saludo antes de declarar que un vecino está inactivo. Este valor se envía como parte de un mensaje de saludo para que cada nodo LDP indique a sus vecinos cuánto tiempo deben esperar. Los valores enviados por cada vecino no tienen que coincidir.
El tiempo de espera normalmente debe ser al menos tres veces el intervalo de saludo. El valor predeterminado es de 15 segundos para los mensajes de enlace de saludo y de 45 segundos para los mensajes de saludo dirigidos. Sin embargo, es posible configurar un tiempo de espera de LDP que esté cerca del valor del intervalo de saludo.
Al configurar un tiempo de espera de LDP cerca del intervalo de saludo (menos de tres veces el intervalo de saludo), es posible que los errores de vecino de LDP se detecten más rápidamente. Sin embargo, esto también aumenta la posibilidad de que el enrutador pueda declarar un vecino LDP caído que todavía funciona normalmente. Para obtener más información, consulte Configuración del temporizador LDP para mensajes de saludo.
El tiempo de espera de LDP también se negocia automáticamente entre pares de LDP. Cuando dos pares de LDP se anuncian diferentes tiempos de espera de LDP entre sí, se utiliza el valor menor. Si un enrutador par LDP anuncia un tiempo de espera más corto que el valor que ha configurado, se utilizará el tiempo de espera anunciado del enrutador par. Esta negociación también puede afectar al intervalo keepalive del PLD.
Si el tiempo de retención de LDP local no se acorta durante la negociación del par de LDP, el intervalo keepalive configurado por el usuario se deja sin cambios. Sin embargo, si el tiempo de espera local se reduce durante la negociación entre pares, se vuelve a calcular el intervalo keepalive. Si el tiempo de espera del LDP se ha reducido durante la negociación entre pares, el intervalo keepalive se reduce a un tercio del nuevo valor de tiempo de retención. Por ejemplo, si el nuevo valor de tiempo de espera es de 45 segundos, el intervalo keepalive se establece en 15 segundos.
Este cálculo automatizado del intervalo keepalive puede hacer que se configuren diferentes intervalos keepalive en cada enrutador par. Esto permite que los enrutadores sean flexibles en la frecuencia con la que envían mensajes keepalive, ya que la negociación del par LDP garantiza que se envíen con más frecuencia que el tiempo de espera del LDP.
Cuando se vuelve a configurar el intervalo de tiempo de espera, los cambios no surten efecto hasta después de restablecer la sesión. El tiempo de espera se negocia cuando se inicia la sesión de emparejamiento LDP y no se puede renegociar mientras la sesión esté activa (requerido por RFC 5036, Especificación LDP). Para forzar manualmente el restablecimiento de la sesión LDP, ejecute el clear ldp session
comando.
- Configuración del tiempo de espera de LDP para mensajes de enlace Hello
- Configuración del tiempo de espera de LDP para mensajes de saludo dirigidos
Configuración del tiempo de espera de LDP para mensajes de enlace Hello
Para modificar cuánto tiempo debe esperar un nodo LDP para recibir un mensaje de saludo de vínculo antes de declarar al vecino inactivo, especifique una nueva hora en segundos mediante la hold-time
instrucción:
hold-time seconds;
Para obtener una lista de los niveles jerárquicos en los que puede incluir esta instrucción, vea la sección de resumen de instrucción de esta instrucción.
Configuración del tiempo de espera de LDP para mensajes de saludo dirigidos
Para modificar cuánto tiempo debe esperar un nodo LDP para recibir un mensaje de saludo dirigido antes de declarar al vecino caído, especifique una nueva hora en segundos usando la hold-time
instrucción como una opción para la targeted-hello
instrucción:
targeted-hello { hold-time seconds; }
Para obtener una lista de los niveles jerárquicos en los que puede incluir estas instrucciones, consulte las secciones de resumen de instrucciones de estas instrucciones.
Habilitación de mensajes de saludo dirigidos estrictos para LDP
Utilice mensajes de saludo dirigidos estrictos para evitar que se establezcan sesiones de LDP con vecinos remotos que no se hayan configurado específicamente. Si configura la strict-targeted-hellos
instrucción, un par LDP no responde a los mensajes de saludo dirigidos procedentes de un origen que no sea uno de sus vecinos remotos configurados. Los vecinos remotos configurados pueden incluir:
Puntos de conexión de túneles RSVP para los que está configurada la tunelización LDP
Vecinos del circuito de capa 2
Si un vecino no configurado envía un mensaje de saludo, el par LDP ignora el mensaje y registra un error (con la marca de error
seguimiento) que indica el origen. Por ejemplo, si el interlocutor de LDP recibió un saludo de destino de la dirección de Internet 10.0.0.1 y no hay ningún vecino con esta dirección configurado específicamente, se imprime el siguiente mensaje en el archivo de registro de LDP:
LDP: Ignoring targeted hello from 10.0.0.1
Para habilitar mensajes de saludo dirigidos estrictamente, incluya la strict-targeted-hellos
instrucción:
strict-targeted-hellos;
Para obtener una lista de los niveles jerárquicos en los que puede incluir esta instrucción, vea la sección de resumen de instrucción de esta instrucción.
Configuración del intervalo para mensajes keepalive de LDP
El intervalo keepalive determina la frecuencia con la que se envía un mensaje a través de la sesión para garantizar que no se supere el tiempo de espera keepalive. Si no se envía ningún otro tráfico LDP a través de la sesión en tanto tiempo, se envía un mensaje keepalive. El valor predeterminado es de 10 segundos. El valor mínimo es 1 segundo.
El valor configurado para el intervalo keepalive se puede modificar durante la negociación de la sesión LDP si el valor configurado para el tiempo de espera de LDP en el enrutador par es menor que el valor configurado localmente. Para obtener más información, consulte Configuración del retraso antes de que los vecinos de LDP se consideren inactivos.
Para modificar el intervalo keepalive, incluya la keepalive-interval
instrucción:
keepalive-interval seconds;
Para obtener una lista de los niveles jerárquicos en los que puede incluir esta instrucción, vea la sección de resumen de instrucción de esta instrucción.
Configuración del tiempo de espera de mantenimiento de LDP
Después de establecer una sesión LDP, los mensajes deben intercambiarse periódicamente para asegurarse de que la sesión sigue funcionando. El tiempo de espera de keepalive define la cantidad de tiempo que espera el nodo LDP vecino antes de decidir que la sesión ha fallado. Este valor generalmente se establece en al menos tres veces el intervalo keepalive. El valor predeterminado es de 30 segundos.
Para modificar el intervalo keepalive, incluya la keepalive-timeout
instrucción:
keepalive-timeout seconds;
Para obtener una lista de los niveles jerárquicos en los que puede incluir esta instrucción, vea la sección de resumen de instrucción de esta instrucción.
El valor configurado para la keepalive-timeout
instrucción se muestra como el tiempo de espera cuando se ejecuta el show ldp session detail
comando.
Configuración de la coincidencia más larga para LDP
Para permitir que LDP aprenda las rutas agregadas o resumidas en las áreas de OSPF o los niveles de ISIS entre dominios, Junos OS le permite configurar la coincidencia más larga para LDP en función de RFC5283.
Antes de configurar la coincidencia más larga para LDP, debe hacer lo siguiente:
Configure las interfaces del dispositivo.
Configure el protocolo MPLS .
Configure el protocolo OSPF.
Para configurar la coincidencia más larga para LDP, debe hacer lo siguiente:
Ejemplo: Configuración de la coincidencia más larga para LDP
En este ejemplo se muestra cómo configurar la coincidencia más larga para LDP en función de RFC5283. Esto permite a LDP aprender las rutas agregadas o resumidas a través de las áreas OSPF o niveles de ISIS en interdominio. La política de coincidencia más larga proporciona granularidad por prefijo.
Requisitos
En este ejemplo, se utilizan los siguientes componentes de hardware y software:
Seis enrutadores de la serie MX con protocolo OSPF y LDP habilitado en las interfaces conectadas.
Junos OS versión 16.1 o posterior ejecutándose en todos los dispositivos.
Antes de empezar:
Configure las interfaces del dispositivo.
Configure OSPF.
Descripción general
LDP se utiliza a menudo para establecer rutas de conmutación de etiquetas (LSP) MPLS en un dominio de red completo mediante un IGP como OSPF o IS-IS. En dicha red, todos los enlaces en el dominio tienen adyacencias IGP, así como adyacencias LDP. LDP establece los LSP en la ruta más corta a un destino según lo determinado por el reenvío de IP. En Junos OS, la implementación de LDP realiza una búsqueda de coincidencia exacta en la dirección IP del FEC en las rutas RIB o IGP para la asignación de etiquetas. Esta asignación exacta requiere que las direcciones IP del punto de conexión LDP de extremo a extremo de MPLS estén configuradas en todos los LER. Esto frustra el propósito del diseño jerárquico IP o el enrutamiento predeterminado en los dispositivos de acceso. La configuración longest-match
ayuda a superar esto al suprimir el comportamiento exacto de coincidencia y configurar LSP basado en la ruta de coincidencia más larga por prefijo.
Topología
En la topología, Figura 1muestra que la coincidencia más larga para LDP está configurada en el dispositivo R0.
Configuración
Configuración rápida de CLI
Para configurar rápidamente este ejemplo, copie los siguientes comandos, péguelos en un archivo de texto, elimine los saltos de línea, cambie los detalles necesarios para que coincidan con su configuración de red, copie y pegue los comandos en la CLI en el nivel de jerarquía [edit] y, luego, ingrese commit
desde el modo de configuración.
R0
set interfaces ge-0/0/0 unit 0 family inet address 22.22.22.1/24 set interfaces ge-0/0/1 unit 0 family inet address 15.15.15.1/24 set interfaces ge-0/0/2 unit 0 family inet address 11.11.11.1/24 set interfaces ge-0/0/2 unit 0 family iso set interfaces ge-0/0/2 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.112.1/32 primary set interfaces lo0 unit 0 family inet address 10.255.112.1/32 preferred set interfaces lo0 unit 0 family iso address 49.0002.0192.0168.0001.00 set routing-options router-id 10.255.112.1 set protocols mpls interface ge-0/0/2.0 set protocols ospf area 0.0.0.1 interface ge-0/0/2.0 set protocols ospf area 0.0.0.1 interface lo0.0 passive set protocols ldp longest-match set protocols ldp interface ge-0/0/2.0 set protocols ldp interface lo0.0
R1
set interfaces ge-0/0/0 unit 0 family inet address 11.11.11.2/24 set interfaces ge-0/0/0 unit 0 family iso set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 12.12.12.1/24 set interfaces ge-0/0/1 unit 0 family iso set interfaces ge-0/0/1 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.112.2/32 primary set interfaces lo0 unit 0 family inet address 10.255.112.2/32 preferred set interfaces lo0 unit 0 family iso address 49.0002.0192.0168.0002.00 set routing-options router-id 10.255.112.2 set protocols mpls interface ge-0/0/0.0 set protocols mpls interface ge-0/0/1.0 set protocols ospf area 0.0.0.0 interface ge-0/0/1.0 set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ospf area 0.0.0.1 interface ge-0/0/0.0 set protocols ldp longest-match set protocols ldp interface ge-0/0/0.0 set protocols ldp interface ge-0/0/1.0 set protocols ldp interface lo0.0
R2
set interfaces ge-0/0/0 unit 0 family inet address 24.24.24.1/24 set interfaces ge-0/0/0 unit 0 family iso set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 12.12.12.2/24 set interfaces ge-0/0/1 unit 0 family iso set interfaces ge-0/0/1 unit 0 family mpls set interfaces ge-0/0/2 unit 0 family inet address 23.23.23.1/24 set interfaces ge-0/0/2 unit 0 family iso set interfaces ge-0/0/2 unit 0 family mpls set interfaces ge-0/0/3 unit 0 family inet address 22.22.22.2/24 set interfaces ge-0/0/4 unit 0 family inet address 25.25.25.1/24 set interfaces ge-0/0/4 unit 0 family iso set interfaces ge-0/0/4 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.111.4/32 primary set interfaces lo0 unit 0 family inet address 10.255.111.4/32 preferred set interfaces lo0 unit 0 family iso address 49.0003.0192.0168.0003.00 set routing-options router-id 10.255.111.4 set protocols mpls interface ge-0/0/1.0 set protocols mpls interface ge-0/0/2.0 set protocols mpls interface ge-0/0/0.0 set protocols mpls interface ge-0/0/4.0 set protocols ospf area 0.0.0.0 interface ge-0/0/1.0 set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ospf area 0.0.0.2 area-range 10.255.111.0/24 set protocols ospf area 0.0.0.2 interface ge-0/0/2.0 set protocols ospf area 0.0.0.2 interface ge-0/0/0.0 set protocols ospf area 0.0.0.2 interface ge-0/0/4.0 set protocols ldp interface ge-0/0/0.0 set protocols ldp interface ge-0/0/1.0 set protocols ldp interface ge-0/0/2.0 set protocols ldp interface ge-0/0/4.0 set protocols ldp interface lo0.0
R3
set interfaces ge-0/0/0 unit 0 family inet address 35.35.35.1/24 set interfaces ge-0/0/0 unit 0 family iso set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 23.23.23.2/24 set interfaces ge-0/0/1 unit 0 family iso set interfaces ge-0/0/1 unit 0 family mpls set interfaces ge-0/0/2 unit 0 family inet address 34.34.34.1/24 set interfaces ge-0/0/2 unit 0 family iso set interfaces ge-0/0/2 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.111.1/32 primary set interfaces lo0 unit 0 family inet address 10.255.111.1/32 preferred set interfaces lo0 unit 0 family iso address 49.0003.0192.0168.0004.00 set routing-options router-id 10.255.111.1 set protocols mpls interface ge-0/0/1.0 set protocols ospf area 0.0.0.2 interface ge-0/0/1.0 set protocols ospf area 0.0.0.2 interface fxp0.0 disable set protocols ospf area 0.0.0.2 interface lo0.0 passive set protocols ldp interface ge-0/0/1.0 set protocols ldp interface lo0.0
R4
set interfaces ge-0/0/0 unit 0 family inet address 45.45.45.1/24 set interfaces ge-0/0/0 unit 0 family iso set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 24.24.24.2/24 set interfaces ge-0/0/1 unit 0 family iso set interfaces ge-0/0/1 unit 0 family mpls set interfaces ge-0/0/2 unit 0 family inet address 34.34.34.2/24 set interfaces ge-0/0/2 unit 0 family iso set interfaces ge-0/0/2 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.111.2/32 primary set interfaces lo0 unit 0 family inet address 10.255.111.2/32 preferred set interfaces lo0 unit 0 family iso address 49.0003.0192.0168.0005.00 set routing-options router-id 10.255.111.2 set protocols mpls interface ge-0/0/1.0 set protocols ospf area 0.0.0.2 interface ge-0/0/1.0 set protocols ospf area 0.0.0.2 interface fxp0.0 disable set protocols ospf area 0.0.0.2 interface lo0.0 passive set protocols ldp interface ge-0/0/1.0 set protocols ldp interface lo0.0
R5
set interfaces ge-0/0/0 unit 0 family inet address 25.25.25.2/24 set interfaces ge-0/0/0 unit 0 family iso set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 15.15.15.2/24 set interfaces ge-0/0/2 unit 0 family inet address 35.35.35.2/24 set interfaces ge-0/0/3 unit 0 family inet address 45.45.45.2/24 set interfaces ge-0/0/3 unit 0 family iso set interfaces ge-0/0/3 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.111.3/32 primary set interfaces lo0 unit 0 family inet address 10.255.111.3/32 preferred set interfaces lo0 unit 0 family iso address 49.0003.0192.0168.0006.00 set routing-options router-id 10.255.111.3 set protocols mpls interface ge-0/0/0.0 set protocols ospf area 0.0.0.2 interface ge-0/0/0.0 set protocols ospf area 0.0.0.2 interface fxp0.0 disable set protocols ospf area 0.0.0.2 interface lo0.0 passive set protocols ldp interface ge-0/0/0.0 set protocols ldp interface lo0.0
Configuración del dispositivo R0
Procedimiento paso a paso
El ejemplo siguiente requiere que navegue por varios niveles en la jerarquía de configuración. Para obtener información acerca de cómo navegar por la CLI, consulte Uso del editor de CLI en modo de configuración en la Guía del usuario de CLI.
Para configurar el dispositivo R0:
Configure las interfaces.
[edit interfaces] set ge-0/0/0 unit 0 family inet address 22.22.22.1/24 set ge-0/0/1 unit 0 family inet address 15.15.15.1/24 set ge-0/0/2 unit 0 family inet address 11.11.11.1/24 set ge-0/0/2 unit 0 family iso set ge-0/0/2 unit 0 family mpls
Asigne las direcciones de circuito cerrado al dispositivo.
[edit interfaces lo0 unit 0 family] set inet address 10.255.112.1/32 primary set inet address 10.255.112.1/32 preferred set iso address 49.0002.0192.0168.0001.00
Configure el ID del enrutador.
[edit routing-options] set router-id 10.255.112.1
Configure el protocolo MPLS en la interfaz.
[edit protocols mpls] set interface ge-0/0/2.0
Configure el protocolo OSPF en la interfaz.
[edit protocols ospf] set area 0.0.0.1 interface ge-0/0/2.0 set area 0.0.0.1 interface lo0.0 passive
Configure la coincidencia más larga para el protocolo LDP.
[edit protocols ldp] set longest-match
Configure el protocolo LDP en la interfaz.
[edit protocols ldp] set interface ge-0/0/2.0 set interface lo0.0
Resultados
Desde el modo de configuración, escriba los comandos , y show routing-options para confirmar la show interfacesconfiguración. show protocols Si el resultado no muestra la configuración deseada, repita las instrucciones en este ejemplo para corregir la configuración.
user@R0# show interfaces ge-0/0/0 { unit 0 { family inet { address 22.22.22.1/24; } } } ge-0/0/1 { unit 0 { family inet { address 15.15.15.1/24; } } } ge-0/0/2 { unit 0 { family inet { address 11.11.11.1/24; } family iso; family mpls; } } lo0 { unit 0 { family inet { address 10.255.112.1/32 { primary; preferred; } } family iso { address 49.0002.0192.0168.0001.00; } } }
user@R0# show protocols mpls { interface ge-0/0/2.0; } ospf { area 0.0.0.1 { interface ge-0/0/2.0; interface lo0.0 { passive; } } } ldp { longest-match; interface ge-0/0/2.0; interface lo0.0; }
user@R0# show routing-options router-id 10.255.112.1;
Si ha terminado de configurar el dispositivo, ingrese commit
desde el modo de configuración.
Verificación
Confirme que la configuración funcione correctamente.
- Verificación de las rutas
- Verificación de la información general de LDP
- Comprobar las entradas LDP en la tabla de topología interna
- Verifique solo la información FEC de la ruta LDP
- Verificar FEC y rutas ocultas de LDP
Verificación de las rutas
Propósito
Compruebe que se han aprendido las rutas esperadas.
Acción
En el dispositivo R0, desde el modo operativo, ejecute el show route
comando para mostrar las rutas en la tabla de enrutamiento.
user@R0> show route
inet.0: 62 destinations, 62 routes (62 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
10.4.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.5.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.6.128.0/17 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.9.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.10.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.13.4.0/23 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.13.10.0/23 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.82.0.0/15 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.84.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.85.12.0/22 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.92.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.92.16.0/20 *[Direct/0] 10:08:01
> via fxp0.0
10.92.20.175/32 *[Local/0] 10:08:01
Local via fxp0.0
10.94.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.99.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.102.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.150.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.155.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.157.64.0/19 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.160.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.204.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.205.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.206.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.207.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.209.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.212.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.213.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.214.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.215.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.216.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.218.13.0/24 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.218.14.0/24 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.218.16.0/20 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.218.32.0/20 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.227.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.255.111.0/24 *[OSPF/10] 09:52:14, metric 3
> to 11.11.11.2 via ge-0/0/2.0
10.255.111.4/32 *[OSPF/10] 09:54:10, metric 2
> to 11.11.11.2 via ge-0/0/2.0
10.255.112.1/32 *[Direct/0] 09:55:05
> via lo0.0
10.255.112.2/32 *[OSPF/10] 09:54:18, metric 1
> to 11.11.11.2 via ge-0/0/2.0
11.11.11.0/24 *[Direct/0] 09:55:05
> via ge-0/0/2.0
11.11.11.1/32 *[Local/0] 09:55:05
Local via ge-0/0/2.0
12.12.12.0/24 *[OSPF/10] 09:54:18, metric 2
> to 11.11.11.2 via ge-0/0/2.0
15.15.15.0/24 *[Direct/0] 09:55:05
> via ge-0/0/1.0
15.15.15.1/32 *[Local/0] 09:55:05
Local via ge-0/0/1.0
22.22.22.0/24 *[Direct/0] 09:55:05
> via ge-0/0/0.0
22.22.22.1/32 *[Local/0] 09:55:05
Local via ge-0/0/0.0
23.23.23.0/24 *[OSPF/10] 09:54:10, metric 3
> to 11.11.11.2 via ge-0/0/2.0
24.24.24.0/24 *[OSPF/10] 09:54:10, metric 3
> to 11.11.11.2 via ge-0/0/2.0
25.25.25.0/24 *[OSPF/10] 09:54:10, metric 3
> to 11.11.11.2 via ge-0/0/2.0
128.92.17.45/32 *[OSPF/10] 09:54:05, metric 3
> to 11.11.11.2 via ge-0/0/2.0
128.92.20.175/32 *[Direct/0] 10:08:01
> via lo0.0
128.92.21.186/32 *[OSPF/10] 09:54:10, metric 3
> to 11.11.11.2 via ge-0/0/2.0
128.92.25.135/32 *[OSPF/10] 09:54:10, metric 3
> to 11.11.11.2 via ge-0/0/2.0
128.92.27.91/32 *[OSPF/10] 09:54:18, metric 1
> to 11.11.11.2 via ge-0/0/2.0
128.92.28.70/32 *[OSPF/10] 09:54:10, metric 2
> to 11.11.11.2 via ge-0/0/2.0
172.16.0.0/12 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
192.168.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
192.168.102.0/23 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
207.17.136.0/24 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
207.17.136.192/32 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
207.17.137.0/24 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
224.0.0.5/32 *[OSPF/10] 09:55:05, metric 1
MultiRecv
inet.3: 5 destinations, 5 routes (5 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
10.255.111.1/32 *[LDP/9] 09:41:03, metric 3
> to 11.11.11.2 via ge-0/0/2.0, Push 300128
10.255.111.2/32 *[LDP/9] 09:41:03, metric 3
> to 11.11.11.2 via ge-0/0/2.0, Push 300144
10.255.111.3/32 *[LDP/9] 09:41:03, metric 3
> to 11.11.11.2 via ge-0/0/2.0, Push 300160
10.255.111.4/32 *[LDP/9] 09:54:10, metric 2, tag 0
> to 11.11.11.2 via ge-0/0/2.0, Push 300000
10.255.112.2/32 *[LDP/9] 09:54:48, metric 1, tag 0
> to 11.11.11.2 via ge-0/0/2.0
iso.0: 2 destinations, 2 routes (2 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
47.0005.80ff.f800.0000.0108.0001.1280.9202.0175/152
*[Direct/0] 10:08:01
> via lo0.0
49.0002.0192.0168.0001/72
*[Direct/0] 09:55:05
> via lo0.0
mpls.0: 10 destinations, 10 routes (10 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
0 *[MPLS/0] 09:55:05, metric 1
Receive
1 *[MPLS/0] 09:55:05, metric 1
Receive
2 *[MPLS/0] 09:55:05, metric 1
Receive
13 *[MPLS/0] 09:55:05, metric 1
Receive
300064 *[LDP/9] 09:54:48, metric 1
> to 11.11.11.2 via ge-0/0/2.0, Pop
300064(S=0) *[LDP/9] 09:54:48, metric 1
> to 11.11.11.2 via ge-0/0/2.0, Pop
300112 *[LDP/9] 09:54:10, metric 2, tag 0
> to 11.11.11.2 via ge-0/0/2.0, Swap 300000
300192 *[LDP/9] 09:41:03, metric 3
> to 11.11.11.2 via ge-0/0/2.0, Swap 300128
300208 *[LDP/9] 09:41:03, metric 3
> to 11.11.11.2 via ge-0/0/2.0, Swap 300144
300224 *[LDP/9] 09:41:03, metric 3
> to 11.11.11.2 via ge-0/0/2.0, Swap 300160
inet6.0: 2 destinations, 2 routes (2 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
abcd::128:92:20:175/128
*[Direct/0] 10:08:01
> via lo0.0
fe80::5668:a50f:fcc1:1f9c/128
*[Direct/0] 10:08:01
> via lo0.0
Significado
El resultado muestra todas las rutas de la tabla de enrutamiento del dispositivo R0.
Verificación de la información general de LDP
Propósito
Mostrar información general de LDP.
Acción
En el dispositivo R0, desde el modo operativo, ejecute el show ldp overview
comando para mostrar la descripción general del LDP.
user@R0> show ldp overview
Instance: master
Reference count: 2
Router ID: 10.255.112.1
Message id: 8
Configuration sequence: 6
Deaggregate: disabled
Explicit null: disabled
IPv6 tunneling: disabled
Strict targeted hellos: disabled
Loopback if added: yes
Route preference: 9
Unicast transit LSP chaining: disabled
P2MP transit LSP chaining: disabled
Transit LSP statistics based on route statistics: disabled
LDP route acknowledgement: enabled
LDP mtu discovery: disabled
Longest Match: enabled
Capabilities enabled: none
Egress FEC capabilities enabled: entropy-label-capability
Downstream unsolicited Sessions:
Operational: 1
Retention: liberal
Control: ordered
Auto targeted sessions:
Auto targeted: disabled
Timers:
Keepalive interval: 10, Keepalive timeout: 30
Link hello interval: 5, Link hello hold time: 15
Targeted hello interval: 15, Targeted hello hold time: 45
Label withdraw delay: 60, Make before break timeout: 30
Make before break switchover delay: 3
Link protection timeout: 120
Graceful restart:
Restart: disabled, Helper: enabled, Restart in process: false
Reconnect time: 60000, Max neighbor reconnect time: 120000
Recovery time: 160000, Max neighbor recovery time: 240000
Traffic Engineering:
Bgp igp: disabled
Both ribs: disabled
Mpls forwarding: disabled
IGP:
Tracking igp metric: disabled
Sync session up delay: 10
Session protection:
Session protection: disabled
Session protection timeout: 0
Interface addresses advertising:
11.11.11.1
10.255.112.1
128.92.20.175
Label allocation:
Current number of LDP labels allocated: 5
Total number of LDP labels allocated: 11
Total number of LDP labels freed: 6
Total number of LDP label allocation failure: 0
Current number of labels allocated by all protocols: 5
Significado
El resultado muestra la información general de LDP del dispositivo R0
Comprobar las entradas LDP en la tabla de topología interna
Propósito
Muestra las entradas de ruta en la tabla de topología interna del Protocolo de distribución de etiquetas (LDP).
Acción
En el dispositivo R0, desde el modo operativo, ejecute el show ldp route
comando para mostrar la tabla de topología interna de LDP.
user@R0> show ldp route
Destination Next-hop intf/lsp/table Next-hop address
10.4.0.0/16 fxp0.0 10.92.31.254
10.5.0.0/16 fxp0.0 10.92.31.254
10.6.128.0/17 fxp0.0 10.92.31.254
10.9.0.0/16 fxp0.0 10.92.31.254
10.10.0.0/16 fxp0.0 10.92.31.254
10.13.4.0/23 fxp0.0 10.92.31.254
10.13.10.0/23 fxp0.0 10.92.31.254
10.82.0.0/15 fxp0.0 10.92.31.254
10.84.0.0/16 fxp0.0 10.92.31.254
10.85.12.0/22 fxp0.0 10.92.31.254
10.92.0.0/16 fxp0.0 10.92.31.254
10.92.16.0/20 fxp0.0
10.92.20.175/32
10.94.0.0/16 fxp0.0 10.92.31.254
10.99.0.0/16 fxp0.0 10.92.31.254
10.102.0.0/16 fxp0.0 10.92.31.254
10.150.0.0/16 fxp0.0 10.92.31.254
10.155.0.0/16 fxp0.0 10.92.31.254
10.157.64.0/19 fxp0.0 10.92.31.254
10.160.0.0/16 fxp0.0 10.92.31.254
10.204.0.0/16 fxp0.0 10.92.31.254
10.205.0.0/16 fxp0.0 10.92.31.254
10.206.0.0/16 fxp0.0 10.92.31.254
10.207.0.0/16 fxp0.0 10.92.31.254
10.209.0.0/16 fxp0.0 10.92.31.254
10.212.0.0/16 fxp0.0 10.92.31.254
10.213.0.0/16 fxp0.0 10.92.31.254
10.214.0.0/16 fxp0.0 10.92.31.254
10.215.0.0/16 fxp0.0 10.92.31.254
10.216.0.0/16 fxp0.0 10.92.31.254
10.218.13.0/24 fxp0.0 10.92.31.254
10.218.14.0/24 fxp0.0 10.92.31.254
10.218.16.0/20 fxp0.0 10.92.31.254
10.218.32.0/20 fxp0.0 10.92.31.254
10.227.0.0/16 fxp0.0 10.92.31.254
10.255.111.0/24 ge-0/0/2.0 11.11.11.2
10.255.111.4/32 ge-0/0/2.0 11.11.11.2
10.255.112.1/32 lo0.0
10.255.112.2/32 ge-0/0/2.0 11.11.11.2
11.11.11.0/24 ge-0/0/2.0
11.11.11.1/32
12.12.12.0/24 ge-0/0/2.0 11.11.11.2
15.15.15.0/24 ge-0/0/1.0
15.15.15.1/32
22.22.22.0/24 ge-0/0/0.0
22.22.22.1/32
23.23.23.0/24 ge-0/0/2.0 11.11.11.2
24.24.24.0/24 ge-0/0/2.0 11.11.11.2
25.25.25.0/24 ge-0/0/2.0 11.11.11.2
128.92.17.45/32 ge-0/0/2.0 11.11.11.2
128.92.20.175/32 lo0.0
128.92.21.186/32 ge-0/0/2.0 11.11.11.2
128.92.25.135/32 ge-0/0/2.0 11.11.11.2
128.92.27.91/32 ge-0/0/2.0 11.11.11.2
128.92.28.70/32 ge-0/0/2.0 11.11.11.2
172.16.0.0/12 fxp0.0 10.92.31.254
192.168.0.0/16 fxp0.0 10.92.31.254
192.168.102.0/23 fxp0.0 10.92.31.254
207.17.136.0/24 fxp0.0 10.92.31.254
207.17.136.192/32 fxp0.0 10.92.31.254
207.17.137.0/24 fxp0.0 10.92.31.254
224.0.0.5/32
Significado
El resultado muestra las entradas de ruta en la tabla de topología interna del Protocolo de distribución de etiquetas (LDP) del dispositivo R0.
Verifique solo la información FEC de la ruta LDP
Propósito
Mostrar sólo la información FEC de la ruta LDP.
Acción
En el dispositivo R0, desde el modo operativo, ejecute el show ldp route fec-only
comando para mostrar las rutas en la tabla de enrutamiento.
user@R0> show ldp route fec-only
Destination Next-hop intf/lsp/table Next-hop address
10.255.111.1/32 ge-0/0/2.0 11.11.11.2
10.255.111.2/32 ge-0/0/2.0 11.11.11.2
10.255.111.3/32 ge-0/0/2.0 11.11.11.2
10.255.111.4/32 ge-0/0/2.0 11.11.11.2
10.255.112.1/32 lo0.0
10.255.112.2/32 ge-0/0/2.0 11.11.11.2
Significado
La salida muestra solo las rutas FEC del protocolo LDP disponibles para el dispositivo R0.
Verificar FEC y rutas ocultas de LDP
Propósito
Muestre el FEC y las rutas ocultas en la tabla de enrutamiento.
Acción
En el dispositivo R0, desde el modo operativo, ejecute el show ldp route fec-and-route
comando para mostrar las rutas FEC y shadow en la tabla de enrutamiento.
user@R0> show ldp route fec-and-route
Destination Next-hop intf/lsp/table Next-hop address
10.4.0.0/16 fxp0.0 10.92.31.254
10.5.0.0/16 fxp0.0 10.92.31.254
10.6.128.0/17 fxp0.0 10.92.31.254
10.9.0.0/16 fxp0.0 10.92.31.254
10.10.0.0/16 fxp0.0 10.92.31.254
10.13.4.0/23 fxp0.0 10.92.31.254
10.13.10.0/23 fxp0.0 10.92.31.254
10.82.0.0/15 fxp0.0 10.92.31.254
10.84.0.0/16 fxp0.0 10.92.31.254
10.85.12.0/22 fxp0.0 10.92.31.254
10.92.0.0/16 fxp0.0 10.92.31.254
10.92.16.0/20 fxp0.0
10.92.20.175/32
10.94.0.0/16 fxp0.0 10.92.31.254
10.99.0.0/16 fxp0.0 10.92.31.254
10.102.0.0/16 fxp0.0 10.92.31.254
10.150.0.0/16 fxp0.0 10.92.31.254
10.155.0.0/16 fxp0.0 10.92.31.254
10.157.64.0/19 fxp0.0 10.92.31.254
10.160.0.0/16 fxp0.0 10.92.31.254
10.204.0.0/16 fxp0.0 10.92.31.254
10.205.0.0/16 fxp0.0 10.92.31.254
10.206.0.0/16 fxp0.0 10.92.31.254
10.207.0.0/16 fxp0.0 10.92.31.254
10.209.0.0/16 fxp0.0 10.92.31.254
10.212.0.0/16 fxp0.0 10.92.31.254
10.213.0.0/16 fxp0.0 10.92.31.254
10.214.0.0/16 fxp0.0 10.92.31.254
10.215.0.0/16 fxp0.0 10.92.31.254
10.216.0.0/16 fxp0.0 10.92.31.254
10.218.13.0/24 fxp0.0 10.92.31.254
10.218.14.0/24 fxp0.0 10.92.31.254
10.218.16.0/20 fxp0.0 10.92.31.254
10.218.32.0/20 fxp0.0 10.92.31.254
10.227.0.0/16 fxp0.0 10.92.31.254
10.255.111.0/24 ge-0/0/2.0 11.11.11.2
10.255.111.1/32 ge-0/0/2.0 11.11.11.2
10.255.111.2/32 ge-0/0/2.0 11.11.11.2
10.255.111.3/32 ge-0/0/2.0 11.11.11.2
10.255.111.4/32 ge-0/0/2.0 11.11.11.2
10.255.111.4/32 ge-0/0/2.0 11.11.11.2
10.255.112.1/32 lo0.0
10.255.112.1/32 lo0.0
10.255.112.2/32 ge-0/0/2.0 11.11.11.2
10.255.112.2/32 ge-0/0/2.0 11.11.11.2
11.11.11.0/24 ge-0/0/2.0
11.11.11.1/32
12.12.12.0/24 ge-0/0/2.0 11.11.11.2
15.15.15.0/24 ge-0/0/1.0
15.15.15.1/32
22.22.22.0/24 ge-0/0/0.0
22.22.22.1/32
23.23.23.0/24 ge-0/0/2.0 11.11.11.2
24.24.24.0/24 ge-0/0/2.0 11.11.11.2
25.25.25.0/24 ge-0/0/2.0 11.11.11.2
128.92.17.45/32 ge-0/0/2.0 11.11.11.2
128.92.20.175/32 lo0.0
128.92.21.186/32 ge-0/0/2.0 11.11.11.2
128.92.25.135/32 ge-0/0/2.0 11.11.11.2
128.92.27.91/32 ge-0/0/2.0 11.11.11.2
128.92.28.70/32 ge-0/0/2.0 11.11.11.2
172.16.0.0/12 fxp0.0 10.92.31.254
192.168.0.0/16 fxp0.0 10.92.31.254
192.168.102.0/23 fxp0.0 10.92.31.254
207.17.136.0/24 fxp0.0 10.92.31.254
207.17.136.192/32 fxp0.0 10.92.31.254
207.17.137.0/24 fxp0.0 10.92.31.254
224.0.0.5/32
Significado
El resultado muestra el FEC y las rutas de sombra del dispositivo R0
Configuración de las preferencias de ruta de LDP
Cuando varios protocolos calculan rutas al mismo destino, las preferencias de ruta se utilizan para seleccionar qué ruta está instalada en la tabla de reenvío. Se selecciona la ruta con el valor de preferencia más bajo. El valor de preferencia puede ser un número del 0 al 255. De forma predeterminada, las rutas LDP tienen un valor de preferencia de 9.
Para modificar las preferencias de ruta, incluya la preference
instrucción:
preference preference;
Para obtener una lista de los niveles jerárquicos en los que puede incluir esta instrucción, vea la sección de resumen de instrucción de esta instrucción.
Reinicio correcto de LDP
El reinicio correcto de LDP permite que un enrutador cuyo plano de control LDP está experimentando un reinicio continúe reenviando tráfico mientras recupera su estado de los enrutadores vecinos. También habilita un enrutador en el que está habilitado el modo auxiliar para ayudar a un enrutador vecino que está intentando reiniciar LDP.
Durante la inicialización de la sesión, un enrutador anuncia su capacidad para realizar un reinicio correcto de LDP o para aprovechar que un vecino realiza un reinicio correcto de LDP enviando el TLV de reinicio correcto. Este TLV contiene dos campos relevantes para el reinicio elegante de LDP: el tiempo de reconexión y el tiempo de recuperación. Los valores de los tiempos de reconexión y recuperación indican las capacidades de reinicio correcto compatibles con el enrutador.
Cuando un enrutador descubre que un enrutador vecino se está reiniciando, espera hasta el final del tiempo de recuperación antes de intentar volver a conectarse. El tiempo de recuperación es el tiempo que un enrutador espera a que LDP se reinicie correctamente. El período de recuperación comienza cuando se envía o recibe un mensaje de inicialización. Este período de tiempo también suele ser el período de tiempo que un enrutador vecino mantiene su información sobre el enrutador que se reinicia, lo que le permite continuar reenviando el tráfico.
Puede configurar el reinicio correcto de LDP tanto en la instancia maestra para el protocolo LDP como para una instancia de enrutamiento específica. Puede deshabilitar el reinicio correcto en el nivel global para todos los protocolos, a nivel de protocolo solo para LDP y en una instancia de enrutamiento específica. El reinicio dinámico LDP está deshabilitado de forma predeterminada, ya que a nivel global, el reinicio correcto está deshabilitado de forma predeterminada. Sin embargo, el modo auxiliar (la capacidad de ayudar a un enrutador vecino que intenta un reinicio correcto) está habilitado de forma predeterminada.
Los siguientes son algunos de los comportamientos asociados con el reinicio correcto de LDP:
Las etiquetas salientes no se mantienen en los reinicios. Se asignan nuevas etiquetas salientes.
Cuando un enrutador se está reiniciando, no se envían mensajes de mapa de etiqueta a los vecinos que admitan un reinicio correcto hasta que el enrutador de reinicio se haya estabilizado (los mensajes de mapa de etiqueta se envían inmediatamente a los vecinos que no admiten el reinicio correcto). Sin embargo, todos los demás mensajes (keepalive, dirección-mensaje, notificación y liberación) se envían como de costumbre. La distribución de estos otros mensajes evita que el enrutador distribuya información incompleta.
El modo auxiliar y el reinicio agraciado son independientes. Puede deshabilitar el reinicio correcto en la configuración, pero aún así permitir que el enrutador coopere con un vecino que intente reiniciar correctamente.
Configuración de LDP Correcto reinicio
Cuando se modifica la configuración de reinicio correcto en los niveles de [edit routing-options graceful-restart]
jerarquía o [edit protocols ldp graceful-restart]
, cualquier sesión de LDP en ejecución se reinicia automáticamente para aplicar la configuración de reinicio correcto. Este comportamiento refleja el comportamiento de BGP cuando modifica su configuración de reinicio correcto.
De forma predeterminada, el modo auxiliar de reinicio correcto está habilitado, pero el reinicio correcto está deshabilitado. Por lo tanto, el comportamiento predeterminado de un enrutador es ayudar a los enrutadores vecinos que intentan un reinicio correcto, pero no intentar un reinicio elegante en sí.
Para configurar un reinicio correcto de LDP, consulte las siguientes secciones:
- Habilitación del reinicio correcto
- Deshabilitar el reinicio correcto de LDP o el modo auxiliar
- Configuración del tiempo de reconexión
- Configuración del tiempo de recuperación y del tiempo máximo de recuperación
Habilitación del reinicio correcto
Para habilitar el reinicio correcto de LDP, también debe habilitar el reinicio correcto en el enrutador. Para habilitar el reinicio correcto, incluya la graceful-restart
instrucción:
graceful-restart;
Puede incluir esta instrucción en los siguientes niveles jerárquicos:
[edit routing-options]
[edit logical-systems logical-system-name routing-options]
Los enrutadores de la serie ACX no admiten el nivel de jerarquía [edit logical-systems logical-system-name routing-options
].
La graceful-restart
instrucción permite un reinicio correcto para todos los protocolos que admiten esta función en el enrutador. Para obtener más información acerca del reinicio correcto, consulte la Biblioteca de protocolos de enrutamiento de Junos OS para dispositivos de enrutamiento.
De forma predeterminada, el reinicio correcto de LDP se habilita cuando se habilita el reinicio correcto tanto en el nivel de protocolo LDP como en todas las instancias de enrutamiento. Sin embargo, puede deshabilitar tanto el reinicio correcto de LDP como el modo auxiliar de reinicio correcto de LDP.
Deshabilitar el reinicio correcto de LDP o el modo auxiliar
Para deshabilitar el reinicio y la recuperación correctos de LDP, incluya la disable
instrucción:
ldp { graceful-restart { disable; } }
Para obtener una lista de los niveles jerárquicos en los que puede incluir esta instrucción, vea la sección de resumen de instrucción de esta instrucción.
Puede deshabilitar el modo auxiliar sólo en el nivel de protocolos LDP. No puede deshabilitar el modo auxiliar para una instancia de enrutamiento específica. Para deshabilitar el modo auxiliar de LDP, incluya la helper-disable
instrucción:
ldp { graceful-restart { helper-disable; } }
Para obtener una lista de los niveles jerárquicos en los que puede incluir esta instrucción, vea la sección de resumen de instrucción de esta instrucción.
Son posibles las siguientes configuraciones de reinicio correcto de LDP:
El reinicio elegante de LDP y el modo auxiliar están habilitados.
El reinicio correcto de LDP está deshabilitado, pero el modo auxiliar está habilitado. Un enrutador configurado de esta manera no puede reiniciarse correctamente, pero puede ayudar a un vecino que se reinicia.
El reinicio correcto de LDP y el modo auxiliar están deshabilitados. El enrutador no utiliza el reinicio correcto LDP ni el tipo, longitud y valor de reinicio correcto (TLV) enviados en el mensaje de inicialización. El enrutador se comporta como un enrutador que no admite el reinicio correcto de LDP.
Se emite un error de configuración si intenta habilitar el reinicio correcto y deshabilitar el modo auxiliar.
Configuración del tiempo de reconexión
Después de que la conexión LDP entre vecinos falla, los vecinos esperan una cierta cantidad de tiempo para que el enrutador que se reinicia correctamente reanude el envío de mensajes LDP. Después del período de espera, se puede restablecer la sesión de LDP. Puede configurar el período de espera en segundos. Este valor se incluye en el TLV de sesión tolerante a errores que se envía en los mensajes de inicialización de LDP cuando está habilitado el reinicio correcto de LDP.
Supongamos que el enrutador A y el enrutador B son vecinos de LDP. El enrutador A es el enrutador que se reinicia. El tiempo de reconexión es el tiempo que el enrutador A le indica al enrutador B que espere después de que el enrutador B detecte que el enrutador A se reinició.
Para configurar el tiempo de reconexión, incluya la reconnect-time
instrucción:
graceful-restart { reconnect-time seconds; }
Puede establecer el tiempo de reconexión en un valor en el intervalo de 30 a 300 segundos. De forma predeterminada, son 60 segundos.
Para obtener una lista de los niveles de jerarquía en los que puede configurar estas instrucciones, consulte las secciones de resumen de instrucciones para estas instrucciones.
Configuración del tiempo de recuperación y del tiempo máximo de recuperación
El tiempo de recuperación es la cantidad de tiempo que un enrutador espera a que LDP se reinicie correctamente. El período de recuperación comienza cuando se envía o recibe un mensaje de inicialización. Este período también suele ser la cantidad de tiempo que un enrutador vecino mantiene su información sobre el enrutador que se reinicia, lo que le permite continuar reenviando el tráfico.
Para evitar que un enrutador vecino se vea afectado negativamente si recibe un valor falso para el tiempo de recuperación del enrutador que se reinicia, puede configurar el tiempo máximo de recuperación en el enrutador vecino. Un enrutador vecino mantiene su estado durante el más corto de los dos tiempos. Por ejemplo, el enrutador A está realizando un reinicio correcto de LDP. Ha enviado un tiempo de recuperación de 900 segundos al enrutador B vecino. Sin embargo, el enrutador B tiene su tiempo máximo de recuperación configurado en 400 segundos. El enrutador B solo esperará 400 segundos antes de purgar su información LDP del enrutador A.
Para configurar el tiempo de recuperación, incluya la recovery-time
instrucción y la maximum-neighbor-recovery-time
instrucción:
graceful-restart { maximum-neighbor-recovery-time seconds; recovery-time seconds; }
Para obtener una lista de los niveles de jerarquía en los que puede configurar estas instrucciones, consulte las secciones de resumen de instrucciones para estas instrucciones.
Filtrado de enlaces de etiquetas LDP entrantes
Puede filtrar los enlaces de etiquetas LDP recibidos y aplicar políticas para aceptar o denegar enlaces anunciados por enrutadores vecinos. Para configurar el filtrado de etiquetas recibidas, incluya la import
instrucción:
import [ policy-names ];
Para obtener una lista de los niveles jerárquicos en los que puede incluir esta instrucción, vea la sección de resumen de instrucción de esta instrucción.
La directiva con nombre (configurada en el [edit policy-options]
nivel de jerarquía) se aplica a todos los enlaces de etiquetas recibidos de todos los vecinos de LDP. Todo el filtrado se realiza con from
instrucciones. Tabla 1 enumera los únicos from
operadores que se aplican al filtrado de etiquetas recibidas LDP.
from Operador |
Description |
---|---|
|
Coincidencias en enlaces recibidos de un vecino adyacente a través de la interfaz especificada |
|
Coincidencias en enlaces recibidos del ID de enrutador LDP especificado |
|
Coincidencias en enlaces recibidos de un vecino que anuncia la dirección de interfaz especificada |
|
Coincidencias en enlaces con el prefijo especificado |
Si se filtra un enlace, sigue apareciendo en la base de datos LDP, pero no se considera para su instalación como parte de una ruta de conmutación de etiquetas (LSP).
En general, la aplicación de políticas en LDP solo se puede usar para bloquear el establecimiento de LSP, no para controlar su enrutamiento. Esto se debe a que la ruta que sigue un LSP viene determinada por el enrutamiento de unidifusión y no por LDP. Sin embargo, cuando hay varias rutas de igual costo al destino a través de diferentes vecinos, puede usar el filtrado LDP para excluir algunos de los posibles saltos siguientes de la consideración. (De lo contrario, LDP elige uno de los posibles saltos siguientes al azar).
Las sesiones LDP no están enlazadas a interfaces ni direcciones de interfaz. LDP anuncia solo etiquetas por enrutador (no por interfaz); por lo tanto, si existen varios vínculos paralelos entre dos enrutadores, solo se establece una sesión LDP y no está vinculada a una sola interfaz. Cuando un enrutador tiene varias adyacencias al mismo vecino, tenga cuidado de asegurarse de que el filtro haga lo esperado. (Generalmente, usar next-hop
y interface
no es apropiado en este caso).
Si una etiqueta se ha filtrado (lo que significa que ha sido rechazada por la política y no se utiliza para construir un LSP), se marca como filtrada en la base de datos:
user@host> show ldp database Input label database, 10.10.255.1:0-10.10.255.6:0 Label Prefix 3 10.10.255.6/32 (Filtered) Output label database, 10.10.255.1:0-10.10.255.6:0 Label Prefix 3 10.10.255.1/32 (Filtered)
Para obtener más información acerca de cómo configurar directivas para LDP, consulte la Guía del usuario de directivas de enrutamiento, filtros de firewall y políticas de tráfico.
Ejemplos: Filtrado de enlaces de etiquetas LDP entrantes
Solo acepta prefijos /32 de todos los vecinos:
[edit] protocols { ldp { import only-32; ... } } policy-options { policy-statement only-32 { term first { from { route-filter 0.0.0.0/0 upto /31; } then reject; } then accept; } }
Acepte 131.108/16
o más tiempo desde el ID 10.10.255.2
del enrutador y acepte todos los prefijos de todos los demás vecinos:
[edit] protocols { ldp { import nosy-neighbor; ... } } policy-options { policy-statement nosy-neighbor { term first { from { neighbor 10.10.255.2; route-filter 131.108.0.0/16 orlonger accept; route-filter 0.0.0.0/0 orlonger reject; } } then accept; } }
Filtrado de encuadernaciones de etiquetas LDP salientes
Puede configurar políticas de exportación para filtrar las etiquetas salientes de LDP. Puede filtrar los enlaces de etiquetas salientes aplicando políticas de enrutamiento para impedir que los enlaces se anuncien en enrutadores vecinos. Para configurar el filtrado de etiquetas salientes, incluya la export
instrucción:
export [policy-name];
Para obtener una lista de los niveles jerárquicos en los que puede incluir esta instrucción, vea la sección de resumen de instrucción de esta instrucción.
La política de exportación con nombre (configurada en el nivel de [edit policy-options]
jerarquía) se aplica a todos los enlaces de etiquetas transmitidos a todos los vecinos de LDP. El único from
operador que se aplica al filtrado de etiquetas de salida LDP es route-filter
, que hace coincidir los enlaces con el prefijo especificado. Los únicos to
operadores que se aplican al filtrado de etiquetas salientes son los operadores de Tabla 2.
al operador |
Description |
---|---|
|
Coincidencias en enlaces enviados a un vecino adyacente a través de la interfaz especificada |
|
Coincidencias en enlaces enviados al ID de enrutador LDP especificado |
|
Coincidencias en enlaces enviados a un vecino que anuncia la dirección de interfaz especificada |
Si se filtra un enlace, el enlace no se anuncia al enrutador vecino, pero se puede instalar como parte de un LSP en el enrutador local. Puede aplicar directivas en LDP para bloquear el establecimiento de LSP, pero no para controlar su enrutamiento. La ruta que sigue un LSP viene determinada por el enrutamiento de unidifusión, no por LDP.
Las sesiones LDP no están enlazadas a interfaces ni direcciones de interfaz. LDP anuncia solo etiquetas por enrutador (no por interfaz). Si existen varios vínculos paralelos entre dos enrutadores, solo se establece una sesión LDP y no está enlazada a una sola interfaz.
No utilice los next-hop
operadores y interface
cuando un enrutador tenga varias adyacencias al mismo vecino.
Las etiquetas filtradas están marcadas en la base de datos:
user@host> show ldp database Input label database, 10.10.255.1:0-10.10.255.3:0 Label Prefix 100007 10.10.255.2/32 3 10.10.255.3/32 Output label database, 10.10.255.1:0-10.10.255.3:0 Label Prefix 3 10.10.255.1/32 100001 10.10.255.6/32 (Filtered)
Para obtener más información acerca de cómo configurar directivas para LDP, consulte la Guía del usuario de directivas de enrutamiento, filtros de firewall y políticas de tráfico.
Ejemplos: Filtrado de encuadernaciones de etiquetas LDP salientes
Bloquear la transmisión de la ruta para 10.10.255.6/32
cualquier vecino:
[edit protocols] ldp { export block-one; } policy-options { policy-statement block-one { term first { from { route-filter 10.10.255.6/32 exact; } then reject; } then accept; } }
Envíe solo 131.108/16
o más tiempo al ID 10.10.255.2
del enrutador y envíe todos los prefijos a todos los demás enrutadores:
[edit protocols] ldp { export limit-lsps; } policy-options { policy-statement limit-lsps { term allow-one { from { route-filter 131.108.0.0/16 orlonger; } to { neighbor 10.10.255.2; } then accept; } term block-the-rest { to { neighbor 10.10.255.2; } then reject; } then accept; } }
Especificación de la dirección de transporte utilizada por LDP
Los enrutadores primero deben establecer una sesión TCP entre ellos antes de poder establecer una sesión LDP. La sesión TCP permite a los enrutadores intercambiar los anuncios de etiqueta necesarios para la sesión LDP. Para establecer la sesión TCP, cada enrutador debe aprender la dirección de transporte del otro enrutador. La dirección de transporte es una dirección IP que se utiliza para identificar la sesión TCP sobre la que se ejecutará la sesión LDP.
Para configurar la dirección de transporte LDP, incluya la instrucción transport-address:
transport-address (router-id | interface);
Para obtener una lista de los niveles jerárquicos en los que puede incluir esta instrucción, vea la sección de resumen de instrucción de esta instrucción.
Si especifica la router-id
opción, la dirección del identificador de enrutador se utiliza como dirección de transporte (a menos que se configure lo contrario, el identificador de enrutador suele ser el mismo que la dirección de circuito cerrado). Si especifica la interface
opción, la dirección de interfaz se utiliza como dirección de transporte para cualquier sesión de LDP a vecinos a la que se pueda acceder a través de esa interfaz. Tenga en cuenta que el identificador del enrutador se utiliza como dirección de transporte de forma predeterminada.
Para un funcionamiento correcto, la dirección de transporte de LDP debe ser accesible. El ID del enrutador es un identificador, no una dirección IP enrutable. Por esta razón, se recomienda que el ID del enrutador se establezca para que coincida con la dirección de circuito cerrado y que el IGP anuncie la dirección de circuito cerrado.
No puede especificar la interface
opción cuando hay varios vínculos paralelos al mismo vecino de LDP, porque la especificación LDP requiere que se anuncie la misma dirección de transporte en todas las interfaces al mismo vecino. Si LDP detecta varios vínculos paralelos al mismo vecino, deshabilita las interfaces con ese vecino una por una hasta que se borre la condición, ya sea desconectando el vecino en una interfaz o especificando la router-id
opción.
Dirección de transporte de control utilizada para la sesión LDP dirigida
Para establecer una sesión TCP entre dos dispositivos, cada dispositivo debe aprender la dirección de transporte del otro dispositivo. La dirección de transporte es una dirección IP utilizada para identificar la sesión TCP sobre la que opera la sesión LDP. Anteriormente, esta dirección de transporte solo podía ser el ID del enrutador o una dirección de interfaz. Con la función de dirección de transporte LDP, puede configurar explícitamente cualquier dirección IP como dirección de transporte para vecinos LDP de destino para circuitos de capa 2, adyacencias MPLS y VPLS. Esto le permite controlar las sesiones de LDP de destino mediante la configuración de direcciones de transporte.
- Ventajas de controlar la dirección de transporte usada para la sesión LDP dirigida
- Descripción general de la dirección de transporte de LDP de destino
- Preferencia de dirección de transporte
- Solución de problemas de configuración de direcciones de transporte
Ventajas de controlar la dirección de transporte usada para la sesión LDP dirigida
La configuración de la dirección de transporte para establecer sesiones LDP de destino tiene las siguientes ventajas:
Flexible interface configurations: proporciona la flexibilidad de configurar varias direcciones IP para una interfaz de circuito cerrado sin interrumpir la creación de la sesión LDP entre los vecinos del LDP de destino.
Ease of operation—Dirección de transporte configurada a nivel de interfaz, permite utilizar más de un protocolo en la red troncal de IGP para LDP. Esto permite operaciones fluidas y fáciles.
Descripción general de la dirección de transporte de LDP de destino
Antes de Junos OS versión 19.1R1, LDP solo ofrecía compatibilidad con el ID de enrutador o la dirección de interfaz como dirección de transporte en cualquier interfaz LDP. Las adyacencias formadas en esa interfaz utilizaron una de las direcciones IP asignadas a la interfaz o al ID del enrutador. En caso de adyacencia dirigida, la interfaz es la interfaz de circuito cerrado. Cuando se configuraron varias direcciones de circuito cerrado en el dispositivo, no se pudo derivar la dirección de transporte para la interfaz y, como resultado, no se pudo establecer la sesión LDP.
A partir de Junos OS versión 19.1R1, además de las direcciones IP predeterminadas utilizadas para la dirección de transporte de las sesiones LDP de destino, puede configurar cualquier otra dirección IP como dirección de transporte en las session
session-group
instrucciones , y interface
configuration. La configuración de la dirección de transporte solo se aplica a los vecinos configurados, incluidos los circuitos de capa 2, las adyacencias MPLS y VPLS. Esta configuración no se aplica a las adyacencias descubiertas (dirigidas o no).
Preferencia de dirección de transporte
Puede configurar la dirección de transporte para sesiones LDP de destino en el nivel de sesión, grupo de sesión e interfaz.
Una vez configurada la dirección de transporte, se establece la sesión de LDP de destino en función de la preferencia de dirección de transporte de LDP.
El orden de preferencia de la dirección de transporte para el vecino de destino (configurado a través del circuito de capa 2, la configuración MPLS, VPLS y LDP) es el siguiente:
Bajo
[edit protocols ldp session]
jerarquía.Bajo
[edit protocols ldp session-group]
jerarquía.Bajo
[edit protocols ldp interfcae lo0]
jerarquía.Bajo
[edit protocols ldp]
jerarquía.Dirección predeterminada.
El orden de preferencia de la dirección de transporte para los vecinos descubiertos es el siguiente:
Bajo
[edit protocols ldp interfcae]
jerarquía.Bajo
[edit protocols ldp]
jerarquía.Dirección predeterminada.
El orden de preferencia de la dirección de transporte para los vecinos de destino automático en los que LDP está configurado para aceptar paquetes de saludo es el siguiente:
Bajo
[edit protocols ldp interfcae lo0]
jerarquía.Bajo
[edit protocols ldp]
jerarquía.Dirección predeterminada.
Solución de problemas de configuración de direcciones de transporte
Puede utilizar los siguientes resultados del comando show para solucionar problemas de sesiones de LDP dirigidas:
show ldp session
show ldp neighbor
El
detail
nivel de salida delshow ldp neighbor
comando muestra la dirección de transporte enviada en los mensajes de saludo al vecino de destino. Si esta dirección no es accesible desde el vecino, la sesión de LDP no aparece.show configuration protocols ldp
También puede habilitar las traceoptions de LDP para solucionar problemas adicionales.
Si la configuración se cambia de usar una dirección de transporte que no es válida (no accesible) a una dirección de transporte que es válida, se pueden observar los siguientes seguimientos:
May 29 10:47:11.569722 Incoming connect from 10.55.1.4 May 29 10:47:11.570064 Connection 10.55.1.4 state Closed -> Open May 29 10:47:11.570727 Session 10.55.1.4 state Nonexistent -> Initialized May 29 10:47:11.570768 Session 10.55.1.4 state Initialized -> OpenRec May 29 10:47:11.570799 LDP: Session param Max PDU length 4096 from 10.55.1.4, negotiated 4096 May 29 10:47:11.570823 Session 10.55.1.4 GR state Nonexistent -> Operational May 29 10:47:11.669295 Session 10.55.1.4 state OpenRec -> Operational May 29 10:47:11.669387 RPD_LDP_SESSIONUP: LDP session 10.55.1.4 is up
Si la configuración se cambia de utilizar una dirección de transporte válida a una dirección de transporte no válida (no accesible), se pueden observar los siguientes seguimientos:
May 29 10:42:36.317942 Session 10.55.1.4 GR state Operational -> Nonexistent May 29 10:42:36.318171 Session 10.55.1.4 state Operational -> Closing May 29 10:42:36.318208 LDP session 10.55.1.4 is down, reason: received notification from peer May 29 10:42:36.318236 RPD_LDP_SESSIONDOWN: LDP session 10.55.1.4 is down, reason: received notification from peer May 29 10:42:36.320081 Connection 10.55.1.4 state Open -> Closed May 29 10:42:36.322411 Session 10.55.1.4 state Closing -> Nonexistent
En caso de configuración defectuosa, realice las siguientes tareas de solución de problemas:
Compruebe el
address family
archivo . La dirección de transporte que se configura en lasession
instrucción debe pertenecer a la misma familia de direcciones que el vecino o la sesión.La dirección que se configura como dirección de transporte en una instrucción o
neighbor
session
debe ser local en el enrutador para que se inicien los mensajes de saludo de destino. Puede comprobar si la dirección está configurada. Si la dirección no está configurada en ninguna interfaz, se rechaza la configuración.
Configuración de los prefijos anunciados en LDP desde la tabla de enrutamiento
Puede controlar el conjunto de prefijos que se anuncian en LDP y hacer que el enrutador sea el enrutador de salida para esos prefijos. De forma predeterminada, solo la dirección de circuito cerrado se anuncia en LDP. Para configurar el conjunto de prefijos de la tabla de enrutamiento que se anunciará en LDP, incluya la egress-policy
instrucción:
egress-policy policy-name;
Para obtener una lista de los niveles jerárquicos en los que puede incluir esta instrucción, vea la sección de resumen de instrucción de esta instrucción.
Si configura una directiva de salida para LDP que no incluye la dirección de circuito cerrado, ya no se anuncia en LDP. Para seguir anunciando la dirección de circuito cerrado, debe configurarla explícitamente como parte de la directiva de salida de LDP.
La directiva con nombre (configurada en el nivel de [edit policy-options]
jerarquía o [edit logical-systems logical-system-name policy-options]
) se aplica a todas las rutas de la tabla de enrutamiento. Las rutas que coinciden con la política se anuncian en LDP. Puede controlar el conjunto de vecinos a los que se anuncian esos prefijos mediante la export
instrucción. Solo from se consideran los operadores; puede usar cualquier operador válido from . Para obtener más información, consulte la Biblioteca de protocolos de enrutamiento de Junos OS para dispositivos de enrutamiento.
Los enrutadores de la serie ACX no admiten el nivel de jerarquía [edit logical-systems
].
Ejemplo: Configuración de los prefijos anunciados en LDP
Anuncie todas las rutas conectadas en LDP:
[edit protocols] ldp { egress-policy connected-only; } policy-options { policy-statement connected-only { from { protocol direct; } then accept; } }
Configuración de la desagregación de FEC
Cuando un enrutador de salida LDP anuncia varios prefijos, los prefijos se enlazan a una sola etiqueta y se agregan en una sola clase de equivalencia de reenvío (FEC). De forma predeterminada, LDP mantiene esta agregación a medida que el anuncio atraviesa la red.
Normalmente, dado que un LSP no se divide en varios saltos siguientes y los prefijos están enlazados a un único LSP, no se produce un equilibrio de carga entre rutas de igual costo. Sin embargo, puede equilibrar la carga en rutas de acceso de igual costo si configura una directiva de equilibrio de carga y desagrega los FEC.
La desagregación de los FEC hace que cada prefijo se vincule a una etiqueta separada y se convierta en un LSP independiente.
Para configurar FEC desagregadas, incluya la deaggregate
instrucción:
deaggregate;
Para obtener una lista de los niveles jerárquicos en los que puede incluir esta instrucción, vea la sección de resumen de instrucción de esta instrucción.
Para todas las sesiones de LDP, solo puede configurar FEC desagregados globalmente.
La desagregación de un FEC permite que los múltiples LSP resultantes se distribuyan a través de múltiples rutas de igual costo y distribuye los LSP a través de los múltiples saltos siguientes en los segmentos de salida, pero instala solo un siguiente salto por LSP.
Para agregar FEC, incluya la no-deaggregate
instrucción:
no-deaggregate;
Para obtener una lista de los niveles jerárquicos en los que puede incluir esta instrucción, vea la sección de resumen de instrucción de esta instrucción.
Para todas las sesiones de LDP, solo puede configurar FEC agregados globalmente.
Configuración de políticas para FEC de LDP
Puede configurar Junos OS para rastrear y vigilar el tráfico de los FEC de LDP. Los policías de LDP FEC se pueden usar para realizar cualquiera de las siguientes acciones:
Rastrear o vigilar el tráfico de entrada para un LDP FEC.
Rastrear o vigilar el tráfico de tránsito para un FEC LDP.
Rastrear o vigilar el tráfico FEC de LDP que se origina en una clase de reenvío específica.
Rastree o vigile el tráfico FEC de LDP que se origina en un sitio de enrutamiento y reenvío virtual (VRF) específico.
Descarte el tráfico falso enlazado a una FEC de LDP específica.
Para controlar el tráfico de un FEC de LDP, primero debe configurar un filtro. En concreto, debe configurar la interface
instrucción o la interface-set
instrucción en el nivel jerárquico [edit firewall family protocol-family filter filter-name term term-name from]
. La interface
instrucción le permite hacer coincidir el filtro con una sola interfaz. La interface-set
instrucción le permite hacer coincidir el filtro con varias interfaces.
Para obtener más información acerca de cómo configurar la instrucción, la instrucción y los interface
aplicadores de políticas para FEC de LDP, consulte la Guía del usuario de directivas de enrutamiento, filtros de firewall y políticas de tráfico.interface-set
Una vez que haya configurado los filtros, debe incluirlos en la configuración de instrucciones policing
para LDP. Para configurar políticas para FEC de LDP, incluya la policing
instrucción:
policing { fec fec-address { ingress-traffic filter-name; transit-traffic filter-name; } }
Para obtener una lista de los niveles jerárquicos en los que puede incluir esta instrucción, vea la sección de resumen de instrucción de esta instrucción.
La policing
instrucción incluye las siguientes opciones:
fec
—Especifique la dirección FEC para el FEC LDP que desea vigilar.ingress-filter
: especifique el nombre del filtro de tráfico de entrada.transit-traffic
: especifique el nombre del filtro de tráfico de tránsito.
Configuración del filtrado FEC IPv4 de LDP
De forma predeterminada, cuando se establece una sesión LDP de destino, Junos OS siempre intercambia las clases de equivalencia de reenvío IPv4 (FEC) y las FEC del circuito de capa 2 por la sesión LDP de destino. Para una sesión LDP a un vecino conectado indirectamente, es posible que solo desee exportar FEC de circuito de capa 2 al vecino si la sesión se configuró específicamente para admitir circuitos de capa 2 o VPLS.
En una red de proveedores mixta donde todos los prefijos que no son BGP se anuncian en LDP, la base de datos LDP puede llegar a ser grande. Para este tipo de entorno, puede ser útil evitar la publicidad de FEC IPv4 a través de sesiones LDP formadas debido a la configuración del circuito de capa 2 o LDP VPLS. Del mismo modo, puede ser útil filtrar cualquier FEC IPv4 recibido en este tipo de entorno.
Si todos los vecinos de LDP asociados con una sesión de LDP son solo de capa 2, puede configurar Junos OS para que anuncie solo FEC de circuito de capa 2 configurando la l2-smart-policy
instrucción. Esta función también filtra automáticamente los FEC IPv4 recibidos en esta sesión. La configuración de una directiva explícita de exportación o importación que se activa para l2-smart-policy
deshabilita esta función en la dirección correspondiente.
Si uno de los vecinos de la sesión LDP se forma debido a una adyacencia descubierta o si la adyacencia se forma debido a una configuración de túnel LDP en uno o más LSP RSVP, los FEC IPv4 se anuncian y reciben utilizando el comportamiento predeterminado.
Para evitar que LDP exporte FEC IPv4 a través de sesiones LDP solo con vecinos de capa 2 y para filtrar los FEC IPv4 recibidos en dichas sesiones, incluya la l2-smart-policy
instrucción:
l2-smart-policy;
Para obtener una lista de los niveles de jerarquía en los que puede configurar esta instrucción, vea el resumen de instrucción de esta instrucción.
Configuración de BFD para LSP de LDP
Puede configurar la detección de reenvío bidireccional (BFD) para los LSP de LDP. El protocolo BFD es un mecanismo de saludo simple que detecta fallas en una red. Los paquetes Hello se envían en un intervalo regular especificado. Una falla de vecino se detecta cuando el enrutador deja de recibir una respuesta después de un intervalo especificado. BFD trabaja con una amplia variedad de entornos y topologías de red. Los temporizadores de detección de fallas para BFD tienen límites de tiempo más cortos que los mecanismos de detección de fallas de rutas estáticas, lo que proporciona una detección más rápida.
Se registra un error cada vez que falla una sesión BFD para una ruta. A continuación se muestra cómo pueden aparecer los mensajes de registro de BFD para LDP LSP:
RPD_LDP_BFD_UP: LDP BFD session for FEC 10.255.16.14/32 is up RPD_LDP_BFD_DOWN: LDP BFD session for FEC 10.255.16.14/32 is down
También puede configurar BFD para RSVP LSP, como se describe en Configuración de BFD para RSVP señalados por RSVP.
Los temporizadores de detección de fallos BFD son adaptativos y se pueden ajustar para ser más o menos agresivos. Por ejemplo, los temporizadores pueden adaptarse a un valor más alto si falla la adyacencia, o un vecino puede negociar un valor más alto para un temporizador que el valor configurado. Los temporizadores se adaptan a un valor más alto cuando un colgajo de sesión BFD ocurre más de tres veces en un lapso de 15 segundos. Un algoritmo de retroceso aumenta el intervalo de recepción (Rx) en dos si la instancia local de BFD es el motivo de la solapa de sesión. El intervalo de transmisión (Tx) aumenta en dos si la instancia remota de BFD es el motivo de la solapa de sesión. Puede utilizar el comando para devolver los clear bfd adaptation
temporizadores de intervalo BFD a sus valores configurados. El clear bfd adaptation
comando no tiene hits, lo que significa que el comando no afecta al flujo de tráfico en el dispositivo de enrutamiento.
Para habilitar BFD para LSP de LDP, incluya las oam
instrucciones y bfd-liveness-detection
:
oam { bfd-liveness-detection { detection-time threshold milliseconds; ecmp; failure-action { remove-nexthop; remove-route; } holddown-interval seconds; ingress-policy ingress-policy-name; minimum-interval milliseconds; minimum-receive-interval milliseconds; minimum-transmit-interval milliseconds; multiplier detection-time-multiplier; no-adaptation; transmit-interval { minimum-interval milliseconds; threshold milliseconds; } version (0 | 1 | automatic); } fec fec-address { bfd-liveness-detection { detection-time threshold milliseconds; ecmp; failure-action { remove-nexthop; remove-route; } holddown-interval milliseconds; ingress-policy ingress-policy-name; minimum-interval milliseconds; minimum-receive-interval milliseconds; minimum-transmit-interval milliseconds; multiplier detection-time-multiplier; no-adaptation; transmit-interval { minimum-interval milliseconds; threshold milliseconds; } version (0 | 1 | automatic); } no-bfd-liveness-detection; periodic-traceroute { disable; exp exp-value; fanout fanout-value; frequency minutes; paths number-of-paths; retries retry-attempts; source address; ttl ttl-value; wait seconds; } } lsp-ping-interval seconds; periodic-traceroute { disable; exp exp-value; fanout fanout-value; frequency minutes; paths number-of-paths; retries retry-attempts; source address; ttl ttl-value; wait seconds; } }
Puede habilitar BFD para los LSP de LDP asociados con una clase de equivalencia de reenvío (FEC) específica configurando la dirección FEC mediante la fec
opción en el nivel de [edit protocols ldp]
jerarquía. Como alternativa, puede configurar una directiva de entrada de administración y gestión de operaciones (OAM) para habilitar BFD en un rango de direcciones FEC. Para obtener más información, consulte Configuración de directivas de entrada OAM para LDP.
No puede habilitar LSP de LDP de BFD a menos que sus direcciones FEC equivalentes estén configuradas explícitamente u OAM esté habilitado en los FEC mediante una política de entrada de OAM. Si BFD no está habilitado para ninguna dirección FEC, la sesión BFD no aparecerá.
Puede configurar la oam
instrucción en los siguientes niveles jerárquicos:
[edit protocols ldp]
[edit logical-systems logical-system-name protocols ldp]
Los enrutadores de la serie ACX no admiten el nivel de jerarquía [edit logical-systems
].
La oam
instrucción incluye las siguientes opciones:
fec
: especifique la dirección FEC. Debe especificar una dirección FEC o configurar una directiva de entrada de OAM para asegurarse de que se produce la sesión BFD.lsp-ping-interval
: especifique la duración del intervalo de ping LSP en segundos. Para emitir un ping en un LSP con señal LDP, use elping mpls ldp
comando. Para obtener más información, consulte el Explorador de CLI.
La bfd-liveness-detection
instrucción incluye las siguientes opciones:
ecmp
: hace que LDP establezca sesiones BFD para todas las rutas ECMP configuradas para el FEC especificado. Si configura laecmp
opción, también debe configurar laperiodic-traceroute
instrucción para el FEC especificado. Si no lo hace, se producirá un error en la operación de confirmación. Puede configurar laperiodic-traceroute
instrucción en el nivel de jerarquía global ([edit protocols ldp oam]
) mientras sólo configura laecmp
opción para un FEC ([edit protocols ldp oam fec address bfd-liveness-detection]
).intervalo de espera: especifique el tiempo que la sesión BFD debe permanecer activa antes de agregar la ruta o el próximo salto. Si se especifica un tiempo de 0 segundos, se agrega la ruta o el siguiente salto tan pronto como se recupere la sesión de BFD.
minimum-interval
: especifique el intervalo mínimo de transmisión y recepción. Si configura laminimum-interval
opción, no es necesario configurar laminimum-receive-interval
opción o laminimum-transmit-interval
opción.minimum-receive-interval
: especifique el intervalo mínimo de recepción. El rango es de 1 a 255,000 milisegundos.minimum-transmit-interval
: especifique el intervalo mínimo de transmisión. El rango es de 1 a 255,000 milisegundos.multiplier
: especifique el multiplicador de tiempo de detección. El rango es de 1 a 255.versión: especifique la versión de BFD. Las opciones son BFD versión 0 o BFD versión 1. De forma predeterminada, el software Junos OS intenta determinar automáticamente la versión de BFD.
Configuración de BFD compatible con ECMP para LSP de LDP
Cuando se configura BFD para un FEC, se establece una sesión de BFD para un solo salto siguiente local activo para el enrutador. Sin embargo, puede configurar varias sesiones de BFD, una para cada FEC asociada a una ruta de acceso múltiple (ECMP) específica de igual costo. Para que esto funcione correctamente, también debe configurar LDP LSP periodic traceroute. (Consulte Configuración de LDP LSP Traceroute.) LDP LSP traceroute se utiliza para descubrir rutas ECMP. Se inicia una sesión BFD para cada ruta ECMP descubierta. Cada vez que falla una sesión BFD para una de las rutas ECMP, se registra un error.
LDP LSP traceroute se ejecuta periódicamente para comprobar la integridad de las rutas ECMP. Lo siguiente puede ocurrir cuando se descubre un problema:
Si la última ruta de seguimiento de LSP de LDP para un FEC difiere de la ruta de seguimiento anterior, las sesiones de BFD asociadas con ese FEC (las sesiones de BFD para rangos de direcciones que han cambiado con respecto a la ejecución anterior) se desactivan y se inician nuevas sesiones de BFD para las direcciones de destino en los rangos alterados.
Si la traceroute LSP de LDP devuelve un error (por ejemplo, un tiempo de espera), se desactivan todas las sesiones de BFD asociadas con ese FEC.
Para configurar LDP de modo que establezca sesiones BFD para todas las rutas ECMP configuradas para el FEC especificado, incluya la ecmp
instrucción.
ecmp;
Para obtener una lista de los niveles jerárquicos en los que puede incluir esta instrucción, vea la sección de resumen de instrucción de esta instrucción.
Junto con la ecmp
instrucción, también debe incluir la periodic-traceroute
instrucción, ya sea en la configuración global de LDP OAM (en el nivel de [edit protocols ldp oam]
jerarquía o [edit logical-systems logical-system-name protocols ldp oam]
) o en la configuración del FEC especificado (en el nivel de [edit protocols ldp oam fec address]
jerarquía o [edit logical-systems logical-system-name protocols ldp oam fec address]
). De lo contrario, se producirá un error en la operación de confirmación.
Los enrutadores de la serie ACX no admiten el nivel de jerarquía [edit logical-systems
].
Configuración de una acción de error para la sesión BFD en un LSP LDP
Puede configurar las propiedades de ruta y próximo salto en caso de un evento de error de sesión BFD en un LSP de LDP. El evento de error podría ser una sesión de BFD existente que se ha caído o podría ser una sesión de BFD que nunca se produjo. LDP vuelve a agregar la ruta o el siguiente salto cuando vuelve a aparecer la sesión BFD relevante.
Puede configurar una de las siguientes opciones de acción de error para la failure-action
instrucción en caso de que se produzca un error de sesión BFD en el LSP de LDP:
remove-nexthop
: quita la ruta correspondiente al siguiente salto de la ruta del LSP en el nodo de entrada cuando se detecta un evento de fallo de sesión BFD.remove-route
: quita la ruta correspondiente al LSP de las tablas de enrutamiento apropiadas cuando se detecta un evento de fallo de sesión BFD. Si el LSP está configurado con ECMP y una sesión BFD correspondiente a cualquier ruta deja de funcionar, la ruta se elimina.
Para configurar una acción de error en caso de que se produzca un error de sesión BFD en un LSP de LDP, incluya la remove-nexthop
opción o la remove-route
opción de la failure-action
instrucción:
failure-action { remove-nexthop; remove-route; }
Para obtener una lista de los niveles jerárquicos en los que puede incluir esta instrucción, vea la sección de resumen de instrucción de esta instrucción.
Configuración del intervalo de espera para la sesión BFD
Puede especificar la duración que debe durar la sesión BFD antes de agregar una ruta o un próximo salto configurando la holddown-interval
instrucción en el nivel de [edit protocols ldp oam bfd-livenesss-detection]
jerarquía o en el nivel de [edit protocols ldp oam fec address bfd-livenesss-detection]
jerarquía. Si se especifica un tiempo de 0 segundos, se agrega la ruta o el siguiente salto tan pronto como se recupere la sesión de BFD.
holddown-interval seconds;
Para obtener una lista de los niveles jerárquicos en los que puede incluir esta instrucción, vea la sección de resumen de instrucción de esta instrucción.
Configuración de LDP Link Protection
Puede configurar la protección de vínculos del Protocolo de distribución de etiquetas (LDP) para rutas de conmutación de etiquetas (LSP) de LDP de unidifusión y multidifusión, a fin de proporcionar resistencia durante un error de vínculo o nodo.
Antes de empezar:
Configure las interfaces del dispositivo.
Configure el ID del enrutador y el número de sistema autónomo del dispositivo.
Configure los protocolos siguientes:
Confirmación de asistencia (RSVP)
MPLS con capacidad de ingeniería de tráfico.
OSPF con capacidad de ingeniería de tráfico.
Nota:Para la protección de vínculos LDP de multidifusión con alternativa sin bucles (LFA), habilite la protección de vínculos.
[edit protocols] user@R0# set ospf area 0 interface all link-protection
Para configurar la protección de vínculos LDP:
Ejemplo: Configuración de LDP Link Protection
Descripción general de LDP Link Protection
- Introducción a LDP
- Implementación del protocolo LDP de Junos OS
- Descripción de las extensiones multipunto a LDP
- Uso de extensiones multipunto para LDP en sesiones de LDP específicas
- Limitaciones actuales de la protección de enlaces LDP
- Uso de RSVP LSP como solución
- Descripción de la protección de vínculos LDP de multidifusión
- Diferentes modos para proporcionar protección de vínculos LDP
- Operación de etiquetas para la protección de vínculos LDP
- Configuración de protección de vínculos LDP de multidifusión de ejemplo
- Hacer antes del descanso
- Advertencias y limitaciones
Introducción a LDP
El protocolo de distribución de etiquetas (LDP) es un protocolo para distribuir etiquetas en aplicaciones que no están diseñadas para el tráfico. LDP permite a los enrutadores establecer rutas de conmutación de etiquetas (LSP) a través de una red mediante la asignación de información de enrutamiento de la capa de red directamente a los LSP del vínculo de datos.
Estos LSP pueden tener un punto de conexión en un vecino conectado directamente (comparable al reenvío IP salto a salto) o en un nodo de salida de red, lo que permite la conmutación a través de todos los nodos intermediarios. Los LSP establecidos por LDP también pueden atravesar LSP de ingeniería de tráfico creados por RSVP.
LDP asocia una clase de equivalencia de reenvío (FEC) con cada LSP que crea. El FEC asociado con un LSP especifica qué paquetes se asignan a ese LSP. Los LSP se extienden a través de una red a medida que cada enrutador elige la etiqueta anunciada por el siguiente salto para el FEC y la empalma a la etiqueta que anuncia a todos los demás enrutadores. Este proceso forma un árbol de LSP que convergen en el enrutador de salida.
Implementación del protocolo LDP de Junos OS
La implementación de LDP en Junos OS admite la versión 1 de LDP. Junos OS admite un mecanismo sencillo para la tunelización entre enrutadores en un protocolo de puerta de enlace interior (IGP), a fin de eliminar la distribución necesaria de rutas externas dentro del núcleo. Junos OS permite que un túnel MPLS dé el siguiente salto a todos los enrutadores de salida de la red, con solo un IGP ejecutándose en el núcleo para distribuir las rutas a los enrutadores de salida. Los enrutadores perimetrales ejecutan BGP pero no distribuyen rutas externas al núcleo. En su lugar, la búsqueda de ruta recursiva en el borde se resuelve en un LSP conmutado al enrutador de salida. No se necesitan rutas externas en los enrutadores LDP de tránsito.
Descripción de las extensiones multipunto a LDP
Un LDP define mecanismos para configurar LSP punto a punto, multipunto a punto, punto a multipunto y multipunto a multipunto en la red. Los LSP punto a multipunto y multipunto a multipunto se denominan colectivamente LSP multipunto, donde el tráfico fluye desde una única fuente a múltiples destinos y desde varias fuentes a múltiples destinos, respectivamente. Los enrutadores de destino o de salida se denominan nodos hoja, y el tráfico del origen atraviesa uno o más nodos de tránsito antes de llegar a los nodos hoja.
Junos OS no ofrece compatibilidad con LSP de multipunto a multipunto.
Al aprovechar la capacidad de replicación de paquetes MPLS de la red, los LSP multipunto evitan la replicación de paquetes innecesaria en el enrutador de entrada. La replicación de paquetes sólo tiene lugar cuando los paquetes se reenvían a dos o más destinos diferentes que requieren rutas de red diferentes.
Uso de extensiones multipunto para LDP en sesiones de LDP específicas
La especificación para las extensiones multipunto a LDP requiere que los dos puntos finales de una sesión LDP estén conectados directamente por un medio de capa 2, o que el IGP de la red los considere vecinos. Esto se conoce como una sesión de vínculo LDP. Cuando los dos extremos de una sesión LDP no están conectados directamente, la sesión se denomina sesión LDP de destino.
Las implementaciones anteriores de Junos OS admiten LDP de multidifusión solo para sesiones de vínculo. Con la introducción de la función de protección de vínculos LDP, las capacidades de LDP de multidifusión se extienden a las sesiones de LDP específicas. Figura 2 muestra una topología de ejemplo.
Los enrutadores R7 y R8 son los enrutadores con conmutación de etiquetas (LSR) ascendentes (LSR-U) y descendentes (LSR-D), respectivamente, y despliegan LDP de multidifusión. El enrutador central, el enrutador R5, tiene habilitado RSVP-TE.
Cuando LSR-D configura el LSP punto a multipunto con atributos de ID de raíz y LSP, determina el LSR-U ascendente como un siguiente salto en la mejor ruta hacia la raíz (actualmente, se supone que este siguiente salto es un próximo salto IGP).
Con la compatibilidad con LDP de multidifusión en sesiones de LDP específicas, puede determinar si hay un próximo salto de LSP a LSR-U que se encuentre en la ruta de LSR-D a la raíz, donde LSR-D y LSR-U no son vecinos conectados directamente, sino pares de LDP de destino. La etiqueta de punto a multipunto anunciada en la sesión LDP dirigida entre LSR-D y LSR-U no se utiliza a menos que haya un LSP entre LSR-D y LSR-U. Por lo tanto, se requiere un LSP correspondiente en la dirección inversa de LSR-U a LSR-D.
Los datos se transmiten en el LSP punto a multipunto utilizando la replicación unidifusión de paquetes, donde LSR-U envía una copia a cada LSR descendente del LSP punto a multipunto.
La transmisión de datos se implementa de las siguientes maneras:
Se negocian las capacidades punto a multipunto en la sesión de LDP de destino.
Se cambia el algoritmo para seleccionar el LSR ascendente, donde si los siguientes saltos del IGP no están disponibles, o en otras palabras, no hay una sesión de enlace LDP entre LSR-D y LSR-U, se utiliza un LSP RSVP como el siguiente salto para llegar a LSR-U.
Las etiquetas entrantes recibidas en las sesiones de LDP de destino se instalan como un siguiente salto de bifurcación para esta ruta FEC de punto a multipunto con la etiqueta LDP como etiqueta interna y la etiqueta RSVP como etiqueta externa.
Limitaciones actuales de la protección de enlaces LDP
Cuando se produce un error de vínculo o nodo en una implementación de red LDP, se debe proporcionar una recuperación rápida del tráfico para recuperar los flujos de tráfico afectados para los servicios críticos de la misión. En el caso de los LSP multipunto, cuando uno de los enlaces del árbol punto a multipunto falla, los subárboles pueden separarse hasta que el IGP vuelva a converger y el LSP multipunto se establezca utilizando la mejor ruta desde el enrutador descendente al nuevo enrutador ascendente.
En el reenrutamiento rápido mediante reparación local para el tráfico LDP, se preinstala una ruta de respaldo (ruta de reparación) en el motor de reenvío de paquetes. Cuando se produce un error en la ruta principal, el tráfico se mueve rápidamente a la ruta de copia de seguridad sin tener que esperar a que los protocolos de enrutamiento converjan. La alternativa sin bucles (LFA) es uno de los métodos utilizados para proporcionar capacidad de reenrutamiento rápido IP en las redes centrales y de proveedores de servicios.
Sin LFA, cuando un vínculo o enrutador falla o se devuelve al servicio, los algoritmos de enrutamiento distribuido calculan las nuevas rutas en función de los cambios en la red. El tiempo durante el cual se calculan las nuevas rutas se denomina transición de enrutamiento. Hasta que se complete la transición de enrutamiento, la conectividad de red se interrumpe porque los enrutadores adyacentes a una falla continúan reenviando los paquetes de datos a través del componente fallido hasta que se identifica una ruta alternativa.
Sin embargo, LFA no proporciona cobertura completa en todas las implementaciones de red debido a las métricas de IGP. Como resultado, esta es una limitación a los esquemas actuales de protección de enlaces LDP.
Figura 3 ilustra una red de ejemplo con cobertura LFA incompleta, donde el tráfico fluye desde el enrutador de origen (S) al enrutador de destino (D) a través del enrutador R1. Suponiendo que cada vínculo de la red tiene la misma métrica, si el vínculo entre el enrutador S y el enrutador R1 falla, el enrutador R4 no es un LFA que proteja el vínculo S-R1, por lo que se pierde resistencia del tráfico. Por lo tanto, la cobertura total no se logra mediante el uso de LFA simple. En las redes típicas, siempre hay algún porcentaje de brecha de cobertura de LFA con LFA simple.
Uso de RSVP LSP como solución
La clave para proteger el tráfico que fluye a través de los LSP de LDP es tener un túnel explícito para redirigir el tráfico en caso de que se produzca un fallo de un vínculo o nodo. La ruta explícita debe terminar en el siguiente enrutador descendente y el tráfico debe aceptarse en la ruta explícita, donde debe pasar la comprobación RPF.
Los LSP de RSVP ayudan a superar las limitaciones actuales de la alternativa sin bucles (LFA) para los LSP de LDP punto a punto y punto a multipunto al extender la cobertura de LFA en los siguientes métodos:
LSP de RSVP configurados manualmente
Teniendo en cuenta el ejemplo utilizado en Figura 3, cuando el vínculo S-R1 falla y el enrutador R4 no es un LFA para ese enlace en particular, se utiliza un LSP RSVP creado manualmente como parche para proporcionar una cobertura completa de LFA. El RSVP LSP está preseñalado y preinstalado en el motor de reenvío de paquetes del enrutador S, de modo que pueda usarse tan pronto como el enrutador S detecte que el enlace ha fallado.
En este caso, se crea un LSP RSVP entre los enrutadores S, R4 y R3, como se ilustra en Figura 4. Se crea una sesión LDP dirigida entre el enrutador S y el enrutador R3, como resultado de lo cual, cuando el vínculo S-R1 falla, el tráfico llega al enrutador R3. El enrutador R3 reenvía el tráfico al enrutador R2, ya que es la ruta más corta para llegar al enrutador D.
LSP de RSVP configurados dinámicamente
En este método, los LSP RSVP se crean automáticamente y se preinstalan en el sistema para que puedan usarse inmediatamente cuando haya un error de vínculo. Aquí, la salida es el nodo en el otro lado del enlace que se está protegiendo, mejorando así la cobertura de LFA.
Benefits of Enabling Dynamic RSVP LSPs
Facilidad de configuración.
100 por ciento de cobertura contra fallas de enlaces, siempre y cuando haya una ruta alternativa al extremo más alejado del enlace que se está protegiendo.
La configuración y desactivación del LSP de derivación RSVP es automática.
RSVP LSP solo se usa para la protección de enlaces y no para reenviar tráfico mientras el enlace que se está protegiendo está activo.
Reduce el número total de RSVP LSP necesarios en el sistema.
Teniendo en cuenta el ejemplo utilizado en Figura 3, para proteger el tráfico contra el posible fallo del vínculo S-R1, dado que el enrutador R4 no es un LFA para ese vínculo en particular, se crea automáticamente un LSP de derivación RSVP en el enrutador R1, que es el nodo situado en la cara oculta del vínculo protegido, como se ilustra en Figura 5. Desde el enrutador R1, el tráfico se reenvía a su destino original, el enrutador D.
El RSVP LSP está preseñalado y preinstalado en el motor de reenvío de paquetes del enrutador S para que pueda usarse tan pronto como el enrutador S detecte que el enlace ha fallado.
Un modo alternativo de operación es no usar LFA en absoluto, y tener siempre el RSVP LSP creado para cubrir todas las fallas de vínculo.
Para habilitar los LSP de RSVP dinámicos, incluya la dynamic-rsvp-lsp
instrucción en el nivel de [edit protocols ldp interface interface-name link-protection]
jerarquía, además de habilitar el protocolo RSVP en las interfaces adecuadas.
Descripción de la protección de vínculos LDP de multidifusión
Una ruta de conmutación de etiquetas (LSP) LDP de punto a multipunto es un LSP con señal LDP que es punto a multipunto y se denomina LDP de multidifusión.
Un LSP LDP de multidifusión se puede utilizar para enviar tráfico desde un único nodo raíz o de entrada a varios nodos leaf o de salida que atraviesan uno o más nodos de tránsito. La protección de vínculos LDP de multidifusión permite redireccionar rápidamente el tráfico transportado a través de LSP LDP de punto a multipunto en caso de que falle un vínculo. Cuando uno de los vínculos del árbol punto a multipunto falla, los subárboles pueden separarse hasta que el IGP vuelva a converger y el LSP multipunto se establezca utilizando la mejor ruta desde el enrutador descendente hasta el nuevo enrutador ascendente.
Para proteger el tráfico que fluye a través del LSP de LDP de multidifusión, puede configurar un túnel explícito para reenrutar el tráfico en caso de que se produzca un error en el vínculo. La ruta explícita tiene que terminar en el siguiente enrutador descendente. El reenvío de ruta inversa para el tráfico debería realizarse correctamente.
La protección de vínculos LDP de multidifusión presenta las siguientes características y funcionalidades:
Uso de RSVP LSP dinámico como túneles de derivación
El objeto de ruta explícito (ERO) del RSVP LSP se calcula utilizando primero la ruta restringida más corta (CSPF) con la restricción como el vínculo que se debe evitar. El LSP se señaliza y se desactiva dinámicamente siempre que la protección del enlace es necesaria.
Hacer antes de romper
La función de hacer antes de interrumpir garantiza que haya una pérdida mínima de paquetes cuando se intenta señalar una nueva ruta de LSP antes de derribar la antigua ruta de LSP para el LSP de LDP de multidifusión.
Sesión específica de LDP
Una adyacencia dirigida al enrutador de conmutación de etiquetas descendente (LSR) se crea por dos razones:
Para mantener la sesión activa después de un error de vínculo.
Para usar la etiqueta de punto a multipunto recibida de la sesión para enviar tráfico al LSR descendente en el túnel de derivación de LSP RSVP.
Cuando el LSR descendente configura el LSP de LDP de multidifusión con el nodo raíz y el ID de LSP, utiliza ese LSR ascendente, que está en el mejor camino hacia la raíz.
La protección de vínculos LDP de multidifusión no es necesaria cuando hay varias adyacencias de vínculo (vínculos paralelos) al LSR descendente.
Diferentes modos para proporcionar protección de vínculos LDP
A continuación se presentan tres modos diferentes de operación disponibles para la protección de vínculos LDP de unidifusión y multidifusión:
Case A: LFA only
En este modo de operación, la protección de vínculo LDP de multidifusión se proporciona mediante una alternativa viable sin bucles (LFA) existente. En ausencia de un LFA viable, no se proporciona protección de vínculo para el LSP LDP de multidifusión.
Case B: LFA and Dynamic RSVP LSP
En este modo de operación, la protección de vínculo LDP de multidifusión se proporciona utilizando un LFA viable existente. En ausencia de un LFA viable, se crea automáticamente un LSP de derivación RSVP para proporcionar protección de vínculo para el LSP LDP de multidifusión.
Case C: Dynamic RSVP LSP only
En este modo de operación, LFA no se utiliza para la protección de vínculos. La protección de vínculos LDP de multidifusión se proporciona mediante el uso de LSP de derivación RSVP creado automáticamente.
Figura 6 es una topología de ejemplo que ilustra los diferentes modos de operación para la protección de vínculos LDP de multidifusión. El enrutador R5 es la raíz que se conecta a dos nodos hoja, los enrutadores R3 y R4. Los enrutadores R0 y R1 son los enrutadores con conmutación de etiquetas (LSR) ascendentes y descendentes, respectivamente. Un LSP LDP de multidifusión se ejecuta entre los nodos raíz y hoja.
Teniendo en cuenta que el enrutador R0 necesita proteger el LSP LDP de multidifusión en caso de que el vínculo R0-R1 falle, los diferentes modos de protección de enlaces funcionan de la siguiente manera:
Case A: LFA only
El enrutador R0 comprueba si existe una ruta LFA viable que pueda evitar que el vínculo R0-R1 llegue al enrutador R1. Según las métricas, el enrutador R2 es una ruta LFA válida para el vínculo R0-R1 y se utiliza para reenviar tráfico LDP de unidifusión. Si varios LSP LDP de multidifusión utilizan el vínculo R0-R1, se utiliza el mismo LFA (enrutador R2) para la protección del vínculo LDP de multidifusión.
Cuando se produce un error en el vínculo R0-R1, el enrutador R0 mueve el tráfico LSP LDP de multidifusión a la ruta LFA y la etiqueta LDP de unidifusión para llegar al enrutador R1 (L100) se inserta sobre la etiqueta LDP de multidifusión (L21).
Case B: LFA and Dynamic RSVP LSP
El enrutador R0 comprueba si existe una ruta LFA viable que pueda evitar que el vínculo R0-R1 llegue al enrutador R1. Según las métricas, el enrutador R2 es una ruta LFA válida para el vínculo R0-R1 y se utiliza para reenviar tráfico LDP de unidifusión. Si varios LSP LDP de multidifusión utilizan el vínculo R0-R1, se utiliza el mismo LFA (enrutador R2) para la protección del vínculo LDP de multidifusión. Cuando se produce un error en el vínculo R0-R1, el enrutador R0 mueve el tráfico LSP LDP de multidifusión a la ruta LFA.
Sin embargo, si la métrica en el vínculo R2-R1 era 50 en lugar de 10, el enrutador 2 no es un LFA válido para el vínculo R0-R1. En este caso, se crea automáticamente un LSP RSVP para proteger el tráfico LDP de multidifusión que viaja entre los enrutadores R0 y R1.
Case C: Dynamic RSVP LSP only
Un LSP RSVP se señaliza automáticamente desde el Router R0 al Router R1 a través del Router R2, evitando la interfaz ge-1/1/0. Si varios LSP LDP de multidifusión utilizan el vínculo R0-R1, se utiliza el mismo LSP RSVP para la protección del vínculo LDP de multidifusión.
Cuando se produce un error en el vínculo R0-R1, el enrutador R0 mueve el tráfico LSP LDP de multidifusión al LSP RSVP y la etiqueta RSVP para llegar al enrutador R1 (L100) se inserta sobre la etiqueta LDP de multidifusión (L21).
Operación de etiquetas para la protección de vínculos LDP
Con la misma topología de red que en la figura 5, Figura 7 se ilustra el funcionamiento de la etiqueta para la protección de vínculos LDP de unidifusión y multidifusión.
El enrutador R5 es la raíz que se conecta a dos nodos hoja, los enrutadores R3 y R4. Los enrutadores R0 y R1 son los enrutadores con conmutación de etiquetas (LSR) ascendentes y descendentes, respectivamente. Un LSP LDP de multidifusión se ejecuta entre los nodos raíz y hoja. Una ruta LDP de unidifusión conecta el enrutador R1 con el enrutador R5.
La operación de la etiqueta se realiza de manera diferente en los siguientes modos de protección de vínculos LDP:
Caso A: Solo LFA
Usando la salida del comando en el show route detail
enrutador R0, se puede derivar el tráfico LDP de unidifusión y el tráfico LDP de multidifusión.
user@R0> show route detail 299840 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Router Address: 0x93bc22c Next-hop reference count: 1 Next hop: 11.0.0.6 via ge-0/0/1.0 weight 0x1, selected Label operation: Swap 299824 Session Id: 0x1 Next hop: 11.0.0.10 via ge-0/0/2.0 weight 0xf000 Label operation: Swap 299808 Session Id: 0x3 State: <Active Int> Age: 3:16 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I Prefixes bound to route: 192.168.0.4/32 299856 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Flood Address: 0x9340e04 Next-hop reference count: 3 Next hop type: Router, Next hop index: 262143 Address: 0x93bc3dc Next-hop reference count: 2 Next hop: 11.0.0.6 via ge-0/0/1.0 weight 0x1 Label operation: Swap 299888 Next hop: 11.0.0.10 via ge-0/0/2.0 weight 0xf000 Label operation: Swap 299888, Push 299776(top) Label TTL action: prop-ttl, prop-ttl(top) State: <Active Int AckRequest> Age: 3:16 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I FECs bound to route: P2MP root-addr 192.168.0.5, lsp-id 99
La etiqueta 299840 es el tráfico que llega al enrutador R0 y que corresponde al tráfico LDP de unidifusión al enrutador R1. La 299856 de etiqueta es el tráfico que llega al enrutador 0 y que corresponde al tráfico LDP de multidifusión desde el nodo raíz R5 a los nodos de salida de hoja, R3 y R4.
La ruta principal para los LSP LDP de unidifusión y multidifusión es a través de la interfaz ge-0/0/1 (el vínculo al enrutador R1), y la ruta LFA es a través de la interfaz ge-0/0/2 (el vínculo al enrutador R2). La ruta LFA no se utiliza a menos que la interfaz ge-0/0/1 deje de funcionar.
En la operación de etiqueta para el caso A, el modo de operación solo LFA es diferente para el tráfico LDP de unidifusión y multidifusión:
Operación de etiqueta de unidifusión
Para el tráfico LDP de unidifusión, las FEC y las etiquetas asociadas se anuncian en todos los vínculos de la red en los que LDP está habilitado. Esto significa que para proporcionar una acción LFA para el tráfico LDP de unidifusión al enrutador R4, en lugar de cambiar la etiqueta entrante por 299824 de etiqueta anunciada por el enrutador R1 para FEC R4, el enrutador R0 simplemente cambia la etiqueta entrante por 299808 de etiqueta anunciada por el enrutador R2 para FEC R4. Esta es la operación LFA estándar de Junos OS para el tráfico LDP de unidifusión.
Figura 8 muestra la operación de etiqueta para el tráfico de unidifusión cuando se produce un error en el vínculo R0-R1. Los cuadros grises muestran el funcionamiento de la etiqueta para el tráfico LDP de unidifusión en condiciones normales, y los cuadros punteados muestran el funcionamiento de la etiqueta para el tráfico LDP de unidifusión cuando falla el vínculo R0-R1.
Figura 8: Operación de etiqueta LDP de unidifusiónOperación de etiqueta de multidifusión
La operación de etiqueta para el tráfico LDP de multidifusión difiere de la operación de etiqueta LDP de unidifusión, ya que las etiquetas LSP multipunto sólo se anuncian a lo largo de la mejor ruta desde el nodo leaf hasta el nodo de entrada. Como resultado, el enrutador R2 no tiene conocimiento del LDP de multidifusión. Para superar esto, el tráfico LSP LDP de multidifusión simplemente se tuneliza dentro de la ruta LSP de LDP de unidifusión a través del enrutador R2 que termina en el enrutador R1.
Para lograr esto, el enrutador R0 primero intercambia la etiqueta LSP LDP de multidifusión entrante 299856 para etiquetar 299888 anunciada por el enrutador R1. A continuación, se inserta la 299776 de la etiqueta en la parte superior, que es la etiqueta LDP anunciada por el enrutador R2 para FEC R1. Cuando el paquete llega al enrutador R2, la etiqueta superior aparece debido al penúltimo salto. Esto significa que el paquete llega al enrutador R1 con la etiqueta LDP de multidifusión 299888 que el enrutador R1 había anunciado originalmente para el enrutador R0.
Figura 9 muestra la operación de etiqueta para el tráfico LDP de multidifusión cuando se produce un error en el vínculo R0-R1. Los cuadros azules muestran el funcionamiento de la etiqueta para el tráfico LDP de multidifusión en condiciones normales, y los cuadros punteados muestran el funcionamiento de la etiqueta para el tráfico LDP de multidifusión cuando se produce un error en el vínculo R0-R1.
Figura 9: Operación de etiqueta LDP de multidifusión
Cuando la métrica del vínculo R2-R1 se establece en 1000 en lugar de 1, el enrutador R2 no es un LFA válido para el enrutador R0. En este caso, si el enrutador R2 recibe un paquete destinado al enrutador R1, R3 o R4 antes de que su IGP haya convergido, el paquete se envía de vuelta al enrutador R0, lo que da como resultado paquetes en bucle.
Dado que el enrutador R0 no tiene un LFA viable, no se instalan rutas de respaldo en el motor de reenvío de paquetes. Si se produce un error en el vínculo R0-R1, el flujo de tráfico se interrumpe hasta que el IGP y el LDP converjan y se instalen nuevas entradas en los enrutadores afectados.
El show route detail
comando muestra el estado cuando no hay ningún LFA disponible para la protección de vínculos.
user@host> show route detail 299840 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Router, Next hop index: 578 Address: 0x9340d20 Next-hop reference count: 2 Next hop: 11.0.0.6 via ge-0/0/1.0, selected Label operation: Swap 299824 Session Id: 0x1 State: <Active Int> Age: 5:38 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I Prefixes bound to route: 192.168.0.4/32 299856 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Flood Address: 0x9340e04 Next-hop reference count: 3 Next hop type: Router, Next hop index: 579 Address: 0x93407c8 Next-hop reference count: 2 Next hop: 11.0.0.6 via ge-0/0/1.0 Label operation: Swap 299888 State: <Active Int AckRequest> Age: 5:38 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I FECs bound to route: P2MP root-addr 192.168.0.5, lsp-id 99
Caso B: LFA y LSP de RSVP dinámico
En este modo de operación, si hay un vecino LFA viable, el comportamiento de operación de etiqueta es similar al del Caso A, modo solo LFA. Sin embargo, si no hay un vecino LFA viable, se crea automáticamente un túnel de derivación RSVP.
Si la métrica del vínculo R2-R1 se establece en 1000 en lugar de 1, el enrutador R2 no es un LFA para el enrutador R0. Al enterarse de que no hay rutas LFA para proteger la falla del vínculo R0-R1, se crea automáticamente un túnel de derivación RSVP con el enrutador R1 como nodo de salida y sigue una ruta que evita el vínculo R0-R1 (por ejemplo, R0-R2-R1).
Si se produce un error en el vínculo R0-R1, el tráfico LDP y LDP de multidifusión de unidifusión se tuneliza a través del túnel de derivación RSVP. El túnel de derivación RSVP no se utiliza para el reenvío normal y sólo se utiliza para proporcionar protección de vínculo al tráfico LDP en caso de fallo del vínculo R0-R1.
Con el show route detail
comando, se puede derivar el tráfico LDP de unidifusión y multidifusión.
user@host> show route detail 299840 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Router Address: 0x940c3dc Next-hop reference count: 1 Next hop: 11.0.0.6 via ge-0/0/1.0 weight 0x1, selected Label operation: Swap 299824 Session Id: 0x1 Next hop: 11.0.0.10 via ge-0/0/2.0 weight 0x8001 Label-switched-path ge-0/0/1.0:BypassLSP->192.168.0.1 Label operation: Swap 299824, Push 299872(top) Label TTL action: prop-ttl, prop-ttl(top) Session Id: 0x3 State: <Active Int NhAckRequest> Age: 19 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I Prefixes bound to route: 192.168.0.4/32 299856 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Flood Address: 0x9340e04 Next-hop reference count: 3 Next hop type: Router, Next hop index: 262143 Address: 0x940c154 Next-hop reference count: 2 Next hop: 11.0.0.6 via ge-0/0/1.0 weight 0x1 Label operation: Swap 299888 Next hop: 11.0.0.10 via ge-0/0/2.0 weight 0x8001 Label-switched-path ge-0/0/1.0:BypassLSP->192.168.0.1 Label operation: Swap 299888, Push 299872(top) Label TTL action: prop-ttl, prop-ttl(top) State: < Active Int AckRequest> Age: 20 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I FECs bound to route: P2MP root-addr 192.168.0.5, lsp-id 99
La ruta principal para el LSP LDP de unidifusión y multidifusión es a través de la interfaz ge-0/0/1 (el vínculo al enrutador R1), y la ruta LFA es a través de la interfaz ge-0/0/2 (el vínculo al enrutador R2). La ruta LFA no se utiliza a menos que la interfaz ge-0/0/1 deje de funcionar.
La etiqueta 299840 es el tráfico que llega al enrutador R0 y corresponde al tráfico LDP de unidifusión al enrutador R4. La 299856 de etiqueta es el tráfico que llega al enrutador 0 y que corresponde al tráfico LDP de multidifusión desde el nodo raíz R5 a los nodos de salida de hoja, R3 y R4.
Como se ve en la salida del show route detail
comando, las operaciones de etiqueta para la ruta de protección son las mismas para el tráfico LDP de unidifusión y LDP de multidifusión. La etiqueta LDP entrante en el enrutador R0 se cambia a la etiqueta LDP anunciada por el enrutador R1 al enrutador R0. La etiqueta RSVP 299872 para el túnel de derivación se inserta en el paquete. El penúltimo hop-popping se utiliza en el túnel de derivación, lo que hace que el enrutador R2 haga estallar esa etiqueta. Por lo tanto, el paquete llega al enrutador R1 con la etiqueta LDP que originalmente había anunciado para el enrutador R0.
Figura 10 muestra el funcionamiento de la etiqueta para el tráfico LDP de unidifusión y LDP de multidifusión protegido por el túnel de derivación RSVP. Los cuadros gris y azul representan los valores de etiqueta utilizados en condiciones normales para el tráfico LDP de unidifusión y multidifusión, respectivamente. Los cuadros punteados representan los valores de etiqueta utilizados cuando se produce un error en el vínculo R0-R1.
Caso C: Solo LSP de RSVP dinámico
En este modo de operación, LFA no se usa en absoluto. Se crea automáticamente un LSP de derivación de RSVP dinámico para proporcionar protección de enlaces. El resultado de las operaciones de show route detail
comando y etiqueta son similares al caso B, LFA y al modo LSP RSVP dinámico.
Configuración de protección de vínculos LDP de multidifusión de ejemplo
Para activar la protección de vínculos LDP de multidifusión, se requiere la siguiente configuración en el enrutador R0:
En este ejemplo, la protección de vínculos LDP de multidifusión está habilitada en la interfaz ge-1/0/0 del enrutador R0 que se conecta al enrutador R1, aunque normalmente todas las interfaces deben configurarse para la protección de vínculos.
Enrutador R0
protocols { rsvp { interface all; interface ge-0/0/0.0 { disable; } } mpls { interface all; interface ge-0/0/0.0 { disable; } } ospf { traffic-engineering; area 0.0.0.0 { interface lo0.0; interface ge-0/0/1.0 { link-protection; } interface ge-0/0/2.0; interface ge-0/0/3.0; } } ldp { make-before-break { timeout seconds; switchover-delay seconds; } interface ge-1/1/0.0 { link-protection { disable; dynamic-rsvp-lsp; } } } }
Las siguientes instrucciones de configuración se aplican a los distintos modos de protección LDP de multidifusión de la siguiente manera:
link-protection
Declaración en[edit protocols ospf interface ge-0/0/1.0]
Esta configuración se aplica únicamente a los modos de protección de vínculos LDP de multidifusión A (solo LFA) y B (LFA y LSP de RSVP dinámico). La configuración de la protección de vínculos bajo un IGP no es necesaria para el caso C (solo LSP de RSVP dinámico).
link-protection
Declaración en[edit protocols ldp interface ge-0/0/1.0]
Esta configuración es necesaria para todos los modos de protección LDP de multidifusión. Sin embargo, si el único tráfico LDP presente es la unidifusión y no se requieren derivaciones de RSVP dinámicas, esta configuración no es necesaria, ya que la
link-protection
instrucción en el nivel de[edit protocols ospf interface ge-0/0/1.0]
jerarquía da como resultado una acción LFA para el tráfico de unidifusión LDP.dynamic-rsvp-lsp
Declaración en[edit protocols ldp interface ge-0/0/1.0 link-protection]
Esta configuración se aplica únicamente a los modos de protección de vínculos LDP de caso B (LFA y RSVP LSP dinámico) y C (solo LSP de RSVP dinámico). La configuración del LSP del RSVP dinámico no se aplica al caso A (solo LFA).
Hacer antes del descanso
La función de hacer antes de romper está habilitada de forma predeterminada en Junos OS y ofrece algunas ventajas para los LSP punto a multipunto.
Para un LSP de punto a multipunto, un enrutador con conmutación de etiquetas (LSR) selecciona el LSR que es su próximo salto a la raíz del LSP como su LSR ascendente. Cuando cambia la mejor ruta para llegar a la raíz, el LSR elige un nuevo LSR ascendente. Durante este período, el LSP puede interrumpirse temporalmente, lo que provoca la pérdida de paquetes hasta que el LSP vuelve a converger a un nuevo LSR ascendente. El objetivo de hacer antes de la interrupción en este caso es minimizar la pérdida de paquetes. En los casos en que la mejor ruta desde el LSR a la raíz cambia, pero el LSP continúa reenviando el tráfico al siguiente salto anterior a la raíz, se debe establecer un nuevo LSP antes de retirar el antiguo LSP para minimizar la duración de la pérdida de paquetes.
Tomando, por ejemplo, después de una falla de vínculo, un LSR descendente (por ejemplo, LSR-D) todavía recibe y/o reenvía paquetes a los otros LSR descendentes, ya que continúa recibiendo paquetes del LSP RSVP de un salto. Una vez que el enrutamiento converge, LSR-D selecciona un nuevo LSR ascendente (LSR-U) para la FEC (FEC-A) de este LSP punto a multipunto. Es posible que el nuevo LSR ya esté reenviando paquetes para FEC-A a los LSR posteriores distintos de LSR-D. Después de que LSR-U recibe una etiqueta para FEC-A de LSR-D, notifica a LSR-D cuando se ha enterado de que LSP para FEC-A se ha establecido desde la raíz hasta sí mismo. Cuando LSR-D recibe dicha notificación, cambia su siguiente salto para la raíz LSP a LSR-U. Esta es una operación de eliminación y adición de rutas en LSR-D. En este punto, LSR-D realiza una conmutación de LSP, y el tráfico tunelizado a través de RSVP LSP o LFA se descarta, y se acepta el tráfico de LSR-U. Se agrega la nueva ruta de tránsito para LSR-U. La comprobación del RPF se cambia para aceptar tráfico de LSR-U y para eliminar el tráfico del antiguo LSR ascendente, o bien se elimina la ruta antigua y se agrega la nueva ruta.
La suposición es que LSR-U ha recibido una notificación de preparación antes de la interrupción de su enrutador ascendente para el LSP punto a multipunto FEC-A y ha instalado un estado de reenvío para el LSP. En ese momento, debe indicar a LSR-D mediante una notificación de preparación antes de la interrupción de que se ha convertido en parte del árbol identificado por FEC-A y que LSR-D debe iniciar su cambio al LSP. De lo contrario, LSR-U debe recordar que necesita enviar una notificación a LSR-D cuando recibe una notificación de preparación antes de la interrupción del LSR ascendente para FEC-A e instala un estado de reenvío para este LSP. LSR-D continúa recibiendo tráfico desde el siguiente salto antiguo al nodo raíz utilizando una ruta RSVP LSP o LFA de un salto hasta que cambia al nuevo LSP punto a multipunto a LSR-U.
La funcionalidad de hacer antes de romper con protección de vínculo LDP de multidifusión incluye las siguientes características:
Capacidad de hacer antes de romperse
Un LSR anuncia que es capaz de manejar LSP de fabricación antes de romperse utilizando el anuncio de capacidad. Si el par no es capaz de hacer antes de romper, los parámetros de hacer antes de romper no se envían a este par. Si un LSR recibe un parámetro make-before-break de un LSR DESCENDENTE (LSR-D) pero el LSR UPSTREAM (LSR-U) no es compatible con make-before-break, el LSR envía inmediatamente una notificación de make-before-break a LSR-D, y no se establece el LSP compatible con make-before-break. En su lugar, se establece el LSP normal.
Código de estado de hacer antes de romper
El código de estado de hacer antes de romper incluye:
1: Solicitud de preparación antes de interrupciones
2: Reconocimiento de hacer antes de romper
Cuando un LSR descendente envía un mensaje de asignación de etiquetas para un LSP punto a multipunto, incluye el código de estado de hacer antes de interrumpir como 1 (solicitud). Cuando el LSR ascendente actualiza el estado de reenvío para el LSP punto a multipunto, informa al LSR descendente con un mensaje de notificación que contiene el código de estado de hacer antes de interrumpir como 2 (confirmación). En ese punto, el LSR descendente realiza un cambio de LSP.
Advertencias y limitaciones
La implementación de Junos OS de la función de protección de vínculos LDP tiene las siguientes advertencias y limitaciones:
No se admite la preparación antes de la interrupción para los siguientes LSP de punto a multipunto en un LSR de salida:
Red privada virtual de multidifusión (MVPN) de última generación con etiqueta de enrutamiento y reenvío virtual (VRF)
LSP estático
No se admiten las siguientes características:
Enrutamiento activo sin interrupciones para LSP punto a multipunto en Junos OS versiones 12.3, 13.1 y 13.2
Reinicio agraciado del LSP punto a multipunto
Protección de vínculos para instancias de enrutamiento
Ejemplo: Configuración de LDP Link Protection
En este ejemplo se muestra cómo configurar la protección de vínculos del protocolo de distribución de etiquetas (LDP) para rutas de conmutación de etiquetas (LSP) LDP de unidifusión y multidifusión.
Requisitos
En este ejemplo, se utilizan los siguientes componentes de hardware y software:
Seis enrutadores que pueden ser una combinación de enrutadores serie M, serie MX o serie T con un nodo raíz y dos nodos leaf que ejecutan un LSP LDP punto a multipunto.
Junos OS versión 12.3 o posterior ejecutándose en todos los enrutadores.
Antes de empezar:
Configure las interfaces del dispositivo.
Configure los protocolos siguientes:
Confirmación de asistencia (RSVP)
MPLS
OSPF o cualquier otro IGP
LDP
Descripción general
La protección de vínculos LDP permite redireccionar rápidamente el tráfico transportado a través de los LSP de LDP en caso de que falle un vínculo. Los LSP punto a multipunto de LDP se pueden usar para enviar tráfico desde un único nodo raíz o de entrada a varios nodos leaf o nodos de salida que atraviesan uno o más nodos de tránsito. Cuando falla uno de los vínculos del árbol punto a multipunto, los subárboles pueden separarse hasta que el IGP vuelva a converger y el LDP de multidifusión inicie la asignación de etiquetas utilizando la mejor ruta desde el enrutador descendente hasta el nuevo enrutador ascendente. Para proteger el tráfico en caso de que se produzca un error en un vínculo, puede configurar un túnel explícito para que el tráfico se pueda reenrutar mediante el túnel. Junos OS admite capacidades de hacer antes de romper para garantizar una pérdida mínima de paquetes cuando se intenta señalar una nueva ruta de LSP antes de desmontar la antigua ruta de LSP. Esta función también agrega compatibilidad LDP específica para la protección de vínculos LDP de multidifusión.
Al configurar la protección de vínculos LDP, tenga en cuenta las siguientes consideraciones:
Configure la ingeniería de tráfico en IGP (si no es compatible de forma predeterminada) e incluya las interfaces configuradas para MPLS y RSVP de modo que el RSVP LSP dinámico protegido por vínculos restringidos sea señalado por RSVP mediante Constrained Shortest Path First (CSPF). Cuando no se cumple esta condición, es posible que el LSP RSVP no aparezca y que LDP no pueda usarlo como próximo salto protegido.
Configure una ruta entre dos enrutadores conmutados por etiquetas (LSR) para proporcionar conectividad IP entre los enrutadores cuando se produzca un error de vínculo. Esto permite a CSPF calcular una ruta alternativa para la protección de vínculos. Cuando se pierde la conectividad entre los enrutadores, no aparece la adyacencia de destino de LDP y no se puede señalar el LSP del RSVP dinámico, lo que da como resultado que no haya protección para la clase de equivalencia de reenvío (FEC) de LDP para la cual el par es el LSR descendente.
Si la protección de vínculos está activa sólo en un LSR, el otro LSR no debe configurarse con la
strict-targeted-hellos
instrucción. Esto permite que el LSR sin protección de vínculo permita el descubrimiento asimétrico del vecino remoto y envíe saludos periódicos dirigidos al LSR que inició el vecino remoto. Cuando no se cumple esta condición, no se forma la adyacencia dirigida a LDP.LDP debe estar habilitado en la interfaz de circuito cerrado del LSR para crear vecinos remotos basados en túnel LDP, servicio LAN privada virtual (VPLS) basado en LDP, circuitos de capa 2 o protección de sesión LDP. Cuando no se cumple esta condición, no se forma la adyacencia dirigida a LDP.
Para el LSP de LDP de unidifusión, se debe configurar una alternativa sin bucles (LFA) en IGP.
La ruta de entrada al punto de combinación debe tener al menos un salto siguiente evitando el vínculo principal entre el punto de combinación y el punto de reparación local para el LSP de LDP de unidifusión.
El punto de reparación local debe tener una etiqueta LDP de unidifusión para que el siguiente salto de la copia de seguridad llegue al punto de combinación.
Topología
En este ejemplo, el enrutador R5 es la raíz que se conecta a dos nodos hoja, los enrutadores R3 y R4. El enrutador R0 es el punto de reparación local.
Configuración
Configuración rápida de CLI
Para configurar rápidamente este ejemplo, copie los siguientes comandos, péguelos en un archivo de texto, elimine los saltos de línea, cambie los detalles necesarios para que coincidan con su configuración de red, copie y pegue los comandos en la CLI en el nivel de jerarquía [edit]
y, luego, ingrese commit
desde el modo de configuración.
R5
set interfaces ge-0/0/0 unit 0 family inet address 10.10.10.1/30 set interfaces ge-0/0/0 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.1.5/32 set routing-options router-id 10.255.1.5 set routing-options autonomous-system 100 set protocols rsvp interface all set protocols rsvp interface fxp0.0 disable set protocols mpls traffic-engineering set protocols mpls interface all set protocols mpls interface fxp0.0 disable set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all metric 1 set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface all link-protection dynamic-rsvp-lsp set protocols ldp interface fxp0.0 disable set protocols ldp p2mp
R0
set interfaces ge-0/0/0 unit 0 family inet address 10.10.10.2/30 set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 20.10.10.1/30 set interfaces ge-0/0/1 unit 0 family mpls set interfaces ge-0/0/2 unit 0 family inet address 30.10.10.1/30 set interfaces ge-0/0/2 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.1.0/32 set routing-options router-id 10.255.1.0 set routing-options autonomous-system 100 set protocols rsvp interface all set protocols rsvp interface fxp0.0 disable set protocols mpls traffic-engineering set protocols mpls interface all set protocols mpls interface fxp0.0 disable set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all metric 1 set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface all link-protection dynamic-rsvp-lsp set protocols ldp interface fxp0.0 disable set protocols ldp p2mp
R1
set interfaces ge-0/0/0 unit 0 family inet address 60.10.10.2/30 set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 40.10.10.1/30 set interfaces ge-0/0/1 unit 0 family mpls set interfaces ge-0/0/2 unit 0 family inet address 30.10.10.2/30 set interfaces ge-0/0/2 unit 0 family mpls set interfaces ge-0/0/3 unit 0 family inet address 50.10.10.1/30 set interfaces ge-0/0/3 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.1.1/32 set routing-options router-id 10.255.1.1 set routing-options autonomous-system 100 set protocols rsvp interface all set protocols rsvp interface fxp0.0 disable set protocols mpls traffic-engineering set protocols mpls interface all set protocols mpls interface fxp0.0 disable set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all metric 1 set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface all link-protection dynamic-rsvp-lsp set protocols ldp interface fxp0.0 disable set protocols ldp p2mp
R2
set interfaces ge-0/0/0 unit 0 family inet address 60.10.10.1/30 set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 20.10.10.2/30 set interfaces ge-0/0/1 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.1.2/32 set routing-options router-id 10.255.1.2 set routing-options autonomous-system 100 set protocols rsvp interface all set protocols rsvp interface fxp0.0 disable set protocols mpls traffic-engineering set protocols mpls interface all set protocols mpls interface fxp0.0 disable set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface all link-protection dynamic-rsvp-lsp set protocols ldp interface fxp0.0 disable set protocols ldp p2mp
R3
set interfaces ge-0/0/1 unit 0 family inet address 40.10.10.2/30 set interfaces ge-0/0/1 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.1.3/32 set routing-options router-id 10.255.1.3 set routing-options autonomous-system 100 set protocols rsvp interface all set protocols rsvp interface fxp0.0 disable set protocols mpls traffic-engineering set protocols mpls interface all set protocols mpls interface fxp0.0 disable set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all metric 1 set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface all link-protection dynamic-rsvp-lsp set protocols ldp interface fxp0.0 disable set protocols ldp p2mp root-address 10.255.1.5 lsp-id 1
R4
set interfaces ge-0/0/3 unit 0 family inet address 50.10.10.2/30 set interfaces ge-0/0/3 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.1.4/32 set protocols rsvp interface all set protocols rsvp interface fxp0.0 disable set protocols mpls traffic-engineering set protocols mpls interface all set protocols mpls interface fxp0.0 disable set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all metric 1 set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface all link-protection dynamic-rsvp-lsp set protocols ldp interface fxp0.0 disable set protocols ldp p2mp root-address 10.255.1.5 lsp-id 1
Procedimiento
Procedimiento paso a paso
En el ejemplo siguiente, debe explorar por varios niveles en la jerarquía de configuración. Para obtener información acerca de cómo navegar por la CLI, consulte Uso del editor de CLI en modo de configuración.
Para configurar el enrutador R0:
Configure las interfaces del enrutador R0.
[edit interfaces]
user@R0# set ge-0/0/0 unit 0 family inet address 10.10.10.2/30 user@R0# set ge-0/0/0 unit 0 family mpls user@R0# set ge-0/0/1 unit 0 family inet address 20.10.10.1/30 user@R0# set ge-0/0/1 unit 0 family mpls user@R0# set ge-0/0/2 unit 0 family inet address 30.10.10.1/30 user@R0# set ge-0/0/2 unit 0 family mpls user@R0# set lo0 unit 0 family inet address 10.255.1.0/32Configure el ID del enrutador y el sistema autónomo del enrutador R0.
[edit routing-options]
user@R0# set router-id 10.255.1.0 user@R0# set autonomous-system 100Active RSVP en todas las interfaces del enrutador R0 (excluyendo la interfaz de administración).
[edit protocols]
user@R0# set rsvp interface all user@R0# set rsvp interface fxp0.0 disableHabilite MPLS en todas las interfaces del enrutador R0 (excluyendo la interfaz de administración) junto con las capacidades de ingeniería de tráfico.
[edit protocols]
user@R0# set mpls traffic-engineering user@R0# set mpls interface all user@R0# set mpls interface fxp0.0 disableHabilite OSPF en todas las interfaces del enrutador R0 (excluyendo la interfaz de administración), asigne la misma métrica de costo para los vínculos y habilite las capacidades de ingeniería de tráfico.
[edit protocols]
user@R0# set ospf traffic-engineering user@R0# set ospf area 0.0.0.0 interface all metric 1 user@R0# set ospf area 0.0.0.0 interface fxp0.0 disableNota:Para la protección de vínculos LDP de multidifusión con alternativa sin bucles (LFA), habilite la siguiente configuración en el nivel de
[edit protocols]
jerarquía:set ospf area 0 interface all link-protection
Habilite LDP en todas las interfaces del enrutador R0 (excluyendo la interfaz de administración) y configure la protección de vínculos con LSP de derivación de RSVP dinámico.
[edit protocols]
user@R0# set ldp interface all link-protection dynamic-rsvp-lsp user@R0# set ldp interface fxp0.0 disable user@R0# set ldp p2mp
Resultados
Desde el modo de configuración, escriba los comandos , y show protocols
para confirmar la show interfaces
configuración. show routing-options
Si el resultado no muestra la configuración deseada, repita las instrucciones en este ejemplo para corregir la configuración.
user@R0# show interfaces ge-0/0/0 { unit 0 { family inet { address 10.10.10.2/30; } family mpls; } } ge-0/0/1 { unit 0 { family inet { address 20.10.10.1/30; } family mpls; } } ge-0/0/2 { unit 0 { family inet { address 30.10.10.1/30; } family mpls; } } lo0 { unit 0 { family inet { address 10.255.1.0/32; } } }
user@R0# show routing-options router-id 10.255.1.0; autonomous-system 100;
user@R0# show protocols rsvp { interface all; interface fxp0.0 { disable; } } mpls { traffic-engineering; interface all; interface fxp0.0 { disable; } } ospf { traffic-engineering; area 0.0.0.0 { interface all { metric 1; } interface fxp0.0 { disable; } } } ldp { interface all { link-protection { dynamic-rsvp-lsp; } } interface fxp0.0 { disable; } p2mp; }
Verificación
Compruebe que la configuración funciona correctamente.
Comprobación de la ruta de LSP de RSVP de omisión
Propósito
Compruebe que la ruta de LSP del RSVP de derivación se haya creado en el punto de reparación local (PLR).
Acción
Desde el modo operativo, ejecute el show route tale mpls.0
comando.
user@R0> show route tale mpls.0 mpls.0: 17 destinations, 17 routes (17 active, 0 holddown, 0 hidden) + = Active Route, - = Last Active, * = Both 0 *[MPLS/0] 05:28:13, metric 1 Receive 1 *[MPLS/0] 05:28:13, metric 1 Receive 2 *[MPLS/0] 05:28:13, metric 1 Receive 13 *[MPLS/0] 05:28:13, metric 1 Receive 299792 *[LDP/9] 00:41:41, metric 1 > to 30.10.10.2 via ge-0/0/2.0, Pop 299792(S=0) *[LDP/9] 00:41:41, metric 1 > to 30.10.10.2 via ge-0/0/2.0, Pop 299808 *[LDP/9] 00:41:41, metric 1 > to 20.10.10.2 via ge-0/0/1.0, Pop 299808(S=0) *[LDP/9] 00:41:41, metric 1 > to 20.10.10.2 via ge-0/0/1.0, Pop 299920 *[RSVP/7/1] 01:51:43, metric 1 > to 30.10.10.2 via ge-0/0/2.0, label-switched-path ge-0/0/0.0:BypassLSP->10.255.1.1 299920(S=0) *[RSVP/7/1] 01:51:43, metric 1 > to 30.10.10.2 via ge-0/0/2.0, label-switched-path ge-0/0/0.0:BypassLSP->10.255.1.1 299936 *[RSVP/7/1] 01:51:25, metric 1 > to 20.10.10.2 via ge-0/0/1.0, label-switched-path ge-0/0/0.0:BypassLSP->10.255.1.2 299936(S=0) *[RSVP/7/1] 01:51:25, metric 1 > to 20.10.10.2 via ge-0/0/1.0, label-switched-path ge-0/0/0.0:BypassLSP->10.255.1.2 299952 *[LDP/9] 00:06:11, metric 1 > to 10.10.10.1 via ge-0/0/0.0, Pop 299952(S=0) *[LDP/9] 00:06:11, metric 1 > to 10.10.10.1 via ge-0/0/0.0, Pop 299968 *[LDP/9] 00:05:39, metric 1 > to 30.10.10.2 via ge-0/0/2.0, Swap 299984 299984 *[LDP/9] 00:05:38, metric 1 > to 30.10.10.2 via ge-0/0/2.0, Swap 300000 300000 *[LDP/9] 00:05:15, metric 1 > to 30.10.10.2 via ge-0/0/2.0, Swap 300016
Significado
Cuando el vínculo R0-R1 deja de funcionar, se utiliza el LSP de derivación RSVP para enrutar el tráfico.
Verificación del funcionamiento de la etiqueta
Propósito
Verifique el intercambio de etiquetas en el PLR.
Acción
Desde el modo operativo, ejecute el show route table mpls.0 label label extensive
comando.
user@R0> show route table mpls.0 label 300000 extensive mpls.0: 17 destinations, 17 routes (17 active, 0 holddown, 0 hidden) 300000 (1 entry, 1 announced) TSI: KRT in-kernel 300000 /52 -> {Swap 300016} *LDP Preference: 9 Next hop type: Router, Next hop index: 589 Address: 0x9981610 Next-hop reference count: 2 Next hop: 30.10.10.2 via ge-0/0/2.0, selected Label operation: Swap 300016 Load balance label: Label 300016: None; Session Id: 0x2 State: <Active Int> Local AS: 100 Age: 12:50 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 1-KRT AS path: I Prefixes bound to route: 10.255.1.4/32
Significado
La etiqueta está destinada a llegar al enrutador R4, que es un nodo hoja.
Descripción del reenrutamiento rápido solo de multidifusión
El reenrutamiento rápido solo de multidifusión (MoFRR) minimiza la pérdida de paquetes para el tráfico en un árbol de distribución de multidifusión cuando se producen errores de vínculo, mejorando los protocolos de enrutamiento de multidifusión como la multidifusión independiente del protocolo (PIM) y el protocolo de distribución de etiquetas multipunto (LDP multipunto) en dispositivos que admiten estas funciones.
En los conmutadores, no se admite MoFRR con rutas de conmutación de etiquetas MPLS y LDP multipunto.
Para los enrutadores de la serie MX, MoFRR solo se admite en enrutadores de la serie MX con tarjetas de línea MPC. Como requisito previo, debe configurar el enrutador en network-services enhanced-ip
modo y todas las tarjetas de línea del enrutador deben ser MPC.
Con MoFRR habilitado, los dispositivos envían mensajes de unión en rutas ascendentes primarias y de respaldo hacia un origen de multidifusión. Los dispositivos reciben paquetes de datos de las rutas principal y de respaldo, y descartan los paquetes redundantes según la prioridad (pesos asignados a las rutas principal y de respaldo). Cuando un dispositivo detecta un error en la ruta principal, inmediatamente comienza a aceptar paquetes desde la interfaz secundaria (la ruta de copia de seguridad). El cambio rápido mejora en gran medida los tiempos de convergencia en caso de fallas de enlace de ruta primaria.
Una aplicación para MoFRR es la transmisión de IPTV. Las transmisiones de IPTV se multidifunden como transmisiones UDP, por lo que los paquetes perdidos no se retransmiten, lo que lleva a una experiencia de usuario menos que satisfactoria. MoFRR puede mejorar la situación.
- Descripción general de MoFRR
- Funcionalidad PIM
- Funcionalidad LDP multipunto
- Reenvío de paquetes
- Limitaciones y advertencias
Descripción general de MoFRR
Con el reenrutamiento rápido en transmisiones de unidifusión, un dispositivo de enrutamiento ascendente preestablece rutas MPLS conmutadas por etiquetas (LSP) o precalcula una ruta de respaldo de reenrutamiento rápido alternativa sin bucles IP (LFA) para manejar la falla de un segmento en la ruta descendente.
En el enrutamiento de multidifusión, el lado receptor suele originar los gráficos de distribución del tráfico. Esto es diferente al enrutamiento de unidifusión, que generalmente establece la ruta desde el origen hasta el receptor. PIM (para IP), LDP multipunto (para MPLS) y RSVP-TE (para MPLS) son protocolos capaces de establecer gráficos de distribución de multidifusión. De estos, los receptores PIM y LDP multipunto inician la configuración del gráfico de distribución, por lo que MoFRR puede trabajar con estos dos protocolos de multidifusión donde sean compatibles.
En un árbol de multidifusión, si el dispositivo detecta un fallo en un componente de red, se tarda algún tiempo en realizar una reparación reactiva, lo que provoca una pérdida de tráfico significativa al configurar una ruta alternativa. MoFRR reduce la pérdida de tráfico en un árbol de distribución de multidifusión cuando falla un componente de red. Con MoFRR, uno de los dispositivos de enrutamiento descendente establece una ruta alternativa hacia el origen para recibir una transmisión en vivo de respaldo del mismo tráfico de multidifusión. Cuando se produce un error en la secuencia principal, el dispositivo de enrutamiento MoFRR puede cambiar rápidamente a la secuencia de reserva.
Con MoFRR habilitado, para cada entrada (S,G), el dispositivo utiliza dos de las interfaces ascendentes disponibles para enviar un mensaje de unión y recibir tráfico de multidifusión. El protocolo intenta seleccionar dos rutas separadas si hay dos rutas disponibles. Si las rutas disjuntas no están disponibles, el protocolo selecciona dos rutas no separadas. Si no hay disponibles dos rutas no separadas, sólo se selecciona una ruta principal sin copia de seguridad. MoFRR prioriza la copia de seguridad separada en favor del equilibrio de carga de las rutas disponibles.
MoFRR es compatible con las familias de protocolos IPv4 e IPv6.
Figura 12 muestra dos rutas desde el dispositivo de enrutamiento del receptor de multidifusión (también denominado dispositivo perimetral del proveedor de salida (PE)) al dispositivo de enrutamiento de origen de multidifusión (también denominado dispositivo de PE de entrada).
Con MoFRR habilitado, el dispositivo de enrutamiento de salida (lado del receptor) configura dos árboles de multidifusión, una ruta principal y una ruta de respaldo, hacia el origen de multidifusión para cada uno (S, G). En otras palabras, el dispositivo de enrutamiento de salida propaga los mismos mensajes de unión (S,G) hacia dos vecinos ascendentes diferentes, creando así dos árboles de multidifusión.
Uno de los árboles de multidifusión pasa por el plano 1 y el otro por el plano 2, como se muestra en Figura 12. Para cada (S,G), el dispositivo de enrutamiento de salida reenvía el tráfico recibido en la ruta principal y descarta el tráfico recibido en la ruta de respaldo.
MoFRR se admite tanto en rutas multiruta de igual costo (ECMP) como en rutas no ECMP. El dispositivo debe habilitar rutas alternativas sin bucles (LFA) de unidifusión para admitir MoFRR en rutas que no sean ECMP. Las rutas LFA se habilitan mediante la link-protection
instrucción en la configuración del protocolo de puerta de enlace interior (IGP). Cuando se habilita la protección de vínculos en una interfaz OSPF o IS-IS, el dispositivo crea una ruta LFA de respaldo al próximo salto principal para todas las rutas de destino que atraviesan la interfaz protegida.
Junos OS implementa MoFRR en la red IP para MoFRR IP y en el dispositivo de enrutamiento de borde de etiqueta (LER) MPLS para MoFRR LDP multipunto.
Multipoint LDP MoFRR se utiliza en el dispositivo de salida de una red MPLS, donde los paquetes se reenvían a una red IP. Con el MoFRR LDP multipunto, el dispositivo establece dos rutas hacia el dispositivo de enrutamiento de PE ascendente para recibir dos flujos de paquetes MPLS en el LER. El dispositivo acepta una de las secuencias (la principal) y la otra (la copia de seguridad) se descarta en el LER. Si se produce un error en la ruta principal, el dispositivo acepta la secuencia de copia de seguridad en su lugar. La compatibilidad con la señalización en banda es un requisito previo para MoFRR con LDP multipunto (consulte Descripción de la señalización en banda de LDP multipunto para LSP de punto a multipunto).
Funcionalidad PIM
Junos OS admite MoFRR para las uniones de árbol de ruta más corta (SPT) en multidifusión específica de fuente PIM (SSM) y multidifusión de cualquier fuente (ASM). MoFRR es compatible con los rangos SSM y ASM. Para habilitar MoFRR para las uniones (*,G), incluya la instrucción de mofrr-asm-starg
configuración en la [edit routing-options multicast stream-protection]
jerarquía. Para cada grupo G, MoFRR operará para (S,G) o (*,G), pero no para ambos. (S,G) siempre tiene prioridad sobre (*,G).
Con MoFRR habilitado, un dispositivo de enrutamiento PIM propaga mensajes de unión en dos interfaces de reenvío de ruta inversa (RPF) ascendentes para recibir tráfico de multidifusión en ambos vínculos para la misma solicitud de unión. MoFRR da preferencia a dos rutas que no convergen al mismo dispositivo de enrutamiento ascendente inmediato. PIM instala las rutas de multidifusión adecuadas con los siguientes saltos del RPF ascendente con dos interfaces (para las rutas principal y de respaldo).
Cuando se produce un error en la ruta principal, la ruta de copia de seguridad se actualiza al estado principal y el dispositivo reenvía el tráfico en consecuencia. Si hay rutas alternativas disponibles, MoFRR calcula una nueva ruta de copia de seguridad y actualiza o instala la ruta de multidifusión adecuada.
Puede habilitar MoFRR con equilibrio de carga de unión PIM (consulte la join-load-balance automatic
instrucción). Sin embargo, en ese caso, la distribución de los mensajes de unión entre los enlaces podría no ser uniforme. Cuando se agrega un nuevo vínculo ECMP, los mensajes de unión en la ruta principal se redistribuyen y se equilibran la carga. Es posible que los mensajes de unión de la ruta de copia de seguridad sigan la misma ruta y que no se redistribuyan de manera uniforme.
MoFRR se habilita mediante la instrucción configuration stream-protection
en la [edit routing-options multicast]
jerarquía. MoFRR se administra mediante un conjunto de políticas de filtro.
Cuando un dispositivo de enrutamiento PIM de salida recibe un mensaje de unión o un informe IGMP, comprueba si hay una configuración de MoFRR y procede de la siguiente manera:
Si la configuración de MoFRR no está presente, PIM envía un mensaje de unión ascendente hacia un vecino ascendente (por ejemplo, el plano 2 de ).Figura 12
Si la configuración de MoFRR está presente, el dispositivo comprueba si hay una configuración de directiva.
Si no hay una política, el dispositivo comprueba las rutas principales y de respaldo (interfaces ascendentes) y procede de la siguiente manera:
Si las rutas principal y de reserva no están disponibles, PIM envía un mensaje de unión ascendente hacia un vecino ascendente (por ejemplo, el plano 2 de ).Figura 12
Si hay rutas principales y de respaldo disponibles, PIM envía el mensaje de unión ascendente hacia dos de los vecinos ascendentes disponibles. Junos OS configura rutas de multidifusión primarias y secundarias para recibir tráfico de multidifusión (por ejemplo, el plano 1 de ).Figura 12
Si hay una política, el dispositivo comprueba si la política permite MoFRR para esto (S,G) y procede de la siguiente manera:
Si se produce un error en esta comprobación de directivas, PIM envía un mensaje de unión ascendente hacia un vecino ascendente (por ejemplo, el plano 2 de ).Figura 12
Si se aprueba esta comprobación de directivas: el dispositivo comprueba las rutas principales y de respaldo (interfaces ascendentes).
Si las rutas principal y de reserva no están disponibles, PIM envía un mensaje de unión ascendente hacia un vecino ascendente (por ejemplo, el plano 2 de ).Figura 12
Si las rutas principal y de reserva están disponibles, PIM envía el mensaje de unión aguas arriba hacia dos de los vecinos ascendentes disponibles. El dispositivo configura rutas de multidifusión primarias y secundarias para recibir tráfico de multidifusión (por ejemplo, el plano 1 de ).Figura 12
Funcionalidad LDP multipunto
Para evitar la duplicación de tráfico MPLS, el LDP multipunto suele seleccionar solo una ruta ascendente. (Ver sección 2.4.1.1. Determinación del 'LSR ascendente' de uno en RFC 6388, Extensiones de protocolo de distribución de etiquetas para rutas conmutadas de etiquetas punto a multipunto y multipunto a multipunto.)
Para LDP multipunto con MoFRR, el dispositivo LDP multipunto selecciona dos pares ascendentes independientes y envía dos etiquetas independientes, una a cada par ascendente. El dispositivo utiliza el mismo algoritmo descrito en RFC 6388 para seleccionar la ruta ascendente principal. El dispositivo utiliza el mismo algoritmo para seleccionar la ruta ascendente de copia de seguridad, pero excluye el LSR ascendente primario como candidato. Los dos pares ascendentes diferentes envían dos flujos de tráfico MPLS al dispositivo de enrutamiento de salida. El dispositivo selecciona solo una de las rutas vecinas ascendentes como ruta principal desde la que aceptar el tráfico MPLS. La otra ruta se convierte en la ruta de respaldo y el dispositivo elimina ese tráfico. Cuando se produce un error en la ruta ascendente principal, el dispositivo comienza a aceptar tráfico desde la ruta de copia de seguridad. El dispositivo LDP multipunto selecciona las dos rutas ascendentes en función del próximo salto del dispositivo raíz del protocolo de puerta de enlace interior (IGP).
Una clase de equivalencia de reenvío (FEC) es un grupo de paquetes IP que se reenvían de la misma manera, por la misma ruta y con el mismo tratamiento de reenvío. Normalmente, la etiqueta que se coloca en un paquete en particular representa el FEC al que está asignado ese paquete. En MoFRR, se colocan dos rutas en la tabla mpls.0 para cada FEC: una ruta para la etiqueta principal y la otra ruta para la etiqueta de respaldo.
Si hay vínculos paralelos hacia el mismo dispositivo ascendente inmediato, el dispositivo considera que ambos vínculos paralelos son los principales. En cualquier momento, el dispositivo ascendente envía tráfico solo en uno de los múltiples vínculos paralelos.
Un nodo de brote es un LSR que es un LSR de salida, pero también tiene uno o más LSR descendentes conectados directamente. Para un nodo de brote, el tráfico de la ruta ascendente principal se reenvía a un LSR descendente. Si se produce un error en la ruta ascendente principal, el tráfico MPLS de la ruta ascendente de copia de seguridad se reenvía al LSR descendente. Esto significa que el siguiente salto LSR descendente se agrega a ambas rutas MPLS junto con el siguiente salto de salida.
Al igual que con PIM, MoFRR se habilita con LDP multipunto mediante la stream-protection
instrucción configuration en la [edit routing-options multicast]
jerarquía, y se administra mediante un conjunto de políticas de filtro.
Si ha habilitado el FEC punto a multipunto LDP multipunto para MoFRR, el dispositivo tiene en cuenta las siguientes consideraciones al seleccionar la ruta ascendente:
Las sesiones de LDP de destino se omiten si hay una sesión de LDP no dirigida. Si hay una sola sesión de LDP de destino, se selecciona la sesión de LDP de destino, pero el FEC de punto a multipunto correspondiente pierde la capacidad de MoFRR porque no hay ninguna interfaz asociada con la sesión de LDP de destino.
Todas las interfaces que pertenecen al mismo LSR ascendente se consideran la ruta principal.
Para cualquier actualización de ruta de nodo raíz, la ruta ascendente se cambia en función de los próximos saltos más recientes del IGP. Si hay una ruta mejor disponible, LDP multipunto intenta cambiar a la ruta mejor.
Reenvío de paquetes
Para PIM o LDP multipunto, el dispositivo realiza la selección de flujo de origen de multidifusión en la interfaz de entrada. Esto preserva el ancho de banda de la estructura y maximiza el rendimiento de reenvío porque:
Evita enviar flujos duplicados a través de la estructura
Evita múltiples búsquedas de rutas (que dan lugar a caídas de paquetes).
Para PIM, cada secuencia de multidifusión IP contiene la misma dirección de destino. Independientemente de la interfaz en la que lleguen los paquetes, los paquetes tienen la misma ruta. El dispositivo comprueba la interfaz a la que llega cada paquete y reenvía solo los que provienen de la interfaz principal. Si la interfaz coincide con una interfaz de secuencia de reserva, el dispositivo descarta los paquetes. Si la interfaz no coincide con la interfaz de flujo principal o de respaldo, el dispositivo maneja los paquetes como excepciones en el plano de control.
Figura 13 muestra este proceso con interfaces principales y de respaldo de ejemplo para enrutadores con PIM. Figura 14 muestra esto de manera similar para los conmutadores con PIM.
Para MoFRR con LDP multipunto en enrutadores, el dispositivo utiliza varias etiquetas MPLS para controlar la selección de flujo MoFRR. Cada etiqueta representa una ruta independiente, pero cada una hace referencia a la misma comprobación de lista de interfaces. El dispositivo solo reenvía la etiqueta principal y elimina todas las demás. Varias interfaces pueden recibir paquetes utilizando la misma etiqueta.
Figura 15 muestra este proceso para enrutadores con LDP multipunto.
Limitaciones y advertencias
- Limitaciones y advertencias de MoFRR en dispositivos de conmutación y enrutamiento
- Limitaciones de MoFRR en dispositivos de conmutación con PIM
- Limitaciones y advertencias de MoFRR en dispositivos de enrutamiento con LDP multipunto
Limitaciones y advertencias de MoFRR en dispositivos de conmutación y enrutamiento
MoFRR tiene las siguientes limitaciones y advertencias en los dispositivos de enrutamiento y conmutación:
La detección de errores de MoFRR se admite para la protección inmediata de vínculos del dispositivo de enrutamiento en el que está habilitado MoFRR y no en todos los vínculos (de extremo a extremo) de la ruta de tráfico de multidifusión.
MoFRR admite el reenrutamiento rápido en dos rutas disjuntas seleccionadas hacia la fuente. Dos de los vecinos ascendentes seleccionados no pueden estar en la misma interfaz, es decir, dos vecinos ascendentes en un segmento LAN. Lo mismo ocurre si la interfaz ascendente resulta ser una interfaz de túnel de multidifusión.
No se admite la detección del número máximo de rutas ascendentes disjuntas de extremo a extremo. El dispositivo de enrutamiento del lado receptor (salida) solo se asegura de que haya un dispositivo ascendente separado (el salto inmediatamente anterior). PIM y LDP multipunto no admiten el equivalente de objetos de ruta explícitos (ERO). Por lo tanto, la detección de ruta ascendente disjunta se limita al control sobre el dispositivo de salto inmediatamente anterior. Debido a esta limitación, es posible que se comparta la ruta al dispositivo ascendente del salto anterior seleccionado como principal y de respaldo.
Es posible que vea alguna pérdida de tráfico en los siguientes escenarios:
Una mejor ruta ascendente está disponible en un dispositivo de salida.
MoFRR está habilitado o deshabilitado en el dispositivo de salida mientras hay un flujo de tráfico activo.
No se admite el equilibrio de carga de unión PIM para mensajes de unión para rutas de copia de seguridad.
Para un grupo G de multidifusión, MoFRR no está permitido para los mensajes de unión (S,G) y (*,G). Los mensajes de unión (S,G) tienen prioridad sobre (*,G).
MoFRR no se admite para flujos de tráfico de multidifusión que utilizan dos grupos de multidifusión diferentes. Cada combinación (S,G) se trata como un flujo de tráfico de multidifusión único.
El rango PIM bidireccional no es compatible con MoFRR.
El modo denso PIM no es compatible con MoFRR.
PIM no mantiene estadísticas de multidifusión para el flujo de tráfico de reserva y, por lo tanto, no están disponibles en la salida operativa de
show
los comandos.No se admite la supervisión de tasas.
Limitaciones de MoFRR en dispositivos de conmutación con PIM
MoFRR con PIM tiene las siguientes limitaciones en los dispositivos de conmutación:
MoFRR no se admite cuando la interfaz ascendente es una interfaz de enrutamiento y puente integrados (IRB), lo que afecta a otras características de multidifusión, como el espionaje del Protocolo de administración de grupos de Internet versión 3 (IGMPv3).
La replicación de paquetes y las búsquedas de multidifusión al reenviar tráfico de multidifusión pueden hacer que los paquetes vuelvan a circular a través de PFE varias veces. Como resultado, los valores mostrados para los
show pfe statistics traffic
recuentos de paquetes de multidifusión del comando pueden mostrar números más altos de lo esperado en los campos de salida comoInput packets
yOutput packets
. Es posible que observe este comportamiento con más frecuencia en escenarios de MoFRR porque las secuencias principales y de reserva duplicadas aumentan el flujo de tráfico en general.
Limitaciones y advertencias de MoFRR en dispositivos de enrutamiento con LDP multipunto
MoFRR tiene las siguientes limitaciones y advertencias en los enrutadores cuando se utiliza con LDP multipunto:
MoFRR no se aplica al tráfico LDP multipunto recibido en un túnel RSVP porque el túnel RSVP no está asociado con ninguna interfaz.
No se admite el MoFRR ascendente mixto. Esto se refiere a la señalización en banda de LDP multipunto PIM, en la que una ruta ascendente es a través de LDP multipunto y la segunda ruta ascendente es a través de PIM.
No se admiten etiquetas LDP multipunto como etiquetas internas.
Si se puede acceder al origen a través de varios dispositivos de enrutamiento perimetral (PE) del proveedor de entrada (lado de origen), no se admite MoFRR de LDP multipunto.
Las sesiones ascendentes de LDP dirigidas no se seleccionan como dispositivo ascendente para MoFRR.
No se admite la protección de vínculos LDP multipunto en la ruta de copia de seguridad porque no hay compatibilidad con etiquetas internas de MoFRR.
Configuración del reenrutamiento rápido solo de multidifusión
Puede configurar el reenrutamiento rápido solo de multidifusión (MoFRR) para minimizar la pérdida de paquetes en una red cuando hay un error de vínculo.
Cuando se aplica un reenrutamiento rápido a flujos de unidifusión, un enrutador ascendente preestablece rutas MPLS conmutadas por etiqueta (LSP) o precalcula una ruta de respaldo de reenrutamiento rápido alternativa sin bucles (LFA) para manejar el error de un segmento en la ruta descendente.
En el enrutamiento de multidifusión, los gráficos de distribución de tráfico suelen ser originados por el receptor. Esto es diferente al enrutamiento de unidifusión, que generalmente establece la ruta desde la fuente hasta el receptor. Los protocolos que son capaces de establecer gráficos de distribución de multidifusión son PIM (para IP), LDP multipunto (para MPLS) y RSVP-TE (para MPLS). De estos, los receptores PIM y LDP multipunto inician la configuración del gráfico de distribución y, por lo tanto:
En la serie QFX, MoFRR se admite en dominios PIM.
En las series MX y SRX, MoFRR se admite en dominios PIM y LDP multipunto.
Los pasos de configuración son los mismos para habilitar MoFRR para PIM en todos los dispositivos que admitan esta función, a menos que se indique lo contrario. También se indican los pasos de configuración que no son aplicables a MoFRR de LDP multipunto.
(Solo para enrutadores de la serie MX) MoFRR es compatible con enrutadores de la serie MX con tarjetas de línea MPC. Como requisito previo, todas las tarjetas de línea del enrutador deben ser MPC.
Para configurar MoFRR en enrutadores o conmutadores:
Ejemplo: Configuración del reenrutamiento rápido solo de multidifusión en un dominio LDP multipunto
En este ejemplo se muestra cómo configurar el reenrutamiento rápido solo de multidifusión (MoFRR) para minimizar la pérdida de paquetes en una red cuando hay un error de vínculo.
Multipoint LDP MoFRR se utiliza en el nodo de salida de una red MPLS, donde los paquetes se reenvían a una red IP. En el caso de MoFRR LDP multipunto, las dos rutas hacia el enrutador perimetral del proveedor (PE) ascendente se establecen para recibir dos flujos de paquetes MPLS en el enrutador de borde de etiqueta (LER). Se acepta una de las secuencias (la principal) y la otra (la copia de seguridad) se coloca en el LER. La secuencia de copia de seguridad se acepta si se produce un error en la ruta principal.
Requisitos
No se necesita ninguna configuración especial más allá de la inicialización del dispositivo antes de configurar este ejemplo.
En un dominio LDP multipunto, para que MoFRR funcione, solo el enrutador de PE de salida necesita tener habilitado MoFRR. Los otros enrutadores no necesitan compatibilidad con MoFRR.
MoFRR es compatible con plataformas de la serie MX con tarjetas de línea MPC. Como requisito previo, el enrutador debe estar configurado en network-services enhanced-ip
modo y todas las tarjetas de línea de la plataforma deben ser MPC.
Este ejemplo requiere Junos OS versión 14.1 o posterior en el enrutador de PE de salida.
Descripción general
En este ejemplo, el dispositivo R3 es el enrutador perimetral de salida. MoFRR solo está habilitado en este dispositivo.
OSPF se utiliza para la conectividad, aunque se puede utilizar cualquier protocolo de puerta de enlace interior (IGP) o rutas estáticas.
Para fines de prueba, los enrutadores se utilizan para simular la fuente y el receptor. Los dispositivos R4 y R8 están configurados para unirse estáticamente al grupo deseado mediante el set protocols igmp interface interface-name static group group
comando. En el caso de que no se disponga de un host receptor de multidifusión real, como en este ejemplo, esta configuración IGMP estática es útil. En los receptores, para que escuchen la dirección del grupo de multidifusión, este ejemplo utiliza set protocols sap listen group
.
La configuración de MoFRR incluye una opción de política que no se muestra en este ejemplo, pero que se explica por separado. La opción se configura de la siguiente manera:
stream-protection { policy policy-name; }
Topología
Figura 16 muestra la red de ejemplo.
Configuración rápida de CLI muestra la configuración de todos los dispositivos en Figura 16.
En la sección Configuración se describen los pasos del dispositivo R3.
Configuración rápida de CLI
Configuración rápida de CLI
Para configurar rápidamente este ejemplo, copie los siguientes comandos, péguelos en un archivo de texto, elimine los saltos de línea, cambie los detalles necesarios para que coincidan con su configuración de red y, a continuación, copie y pegue los comandos en la CLI en el nivel de [edit]
jerarquía.
Dispositivo src1
set interfaces ge-1/2/10 unit 0 description src1-to-R1 set interfaces ge-1/2/10 unit 0 family inet address 10.5.0.1/30 set interfaces ge-1/2/11 unit 0 description src1-to-R1 set interfaces ge-1/2/11 unit 0 family inet address 192.168.219.11/24 set interfaces lo0 unit 0 family inet address 10.0.1.17/32 set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive
Dispositivo src2
set interfaces ge-1/2/24 unit 0 description src2-to-R5 set interfaces ge-1/2/24 unit 0 family inet address 10.5.0.2/30 set interfaces lo0 unit 0 family inet address 10.0.1.18/32 set protocols rsvp interface all set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive
Dispositivo R1
set interfaces ge-1/2/12 unit 0 description R1-to-R2 set interfaces ge-1/2/12 unit 0 family inet address 10.1.2.1/30 set interfaces ge-1/2/12 unit 0 family mpls set interfaces ge-1/2/13 unit 0 description R1-to-R6 set interfaces ge-1/2/13 unit 0 family inet address 10.1.6.1/30 set interfaces ge-1/2/13 unit 0 family mpls set interfaces ge-1/2/10 unit 0 description R1-to-src1 set interfaces ge-1/2/10 unit 0 family inet address 10.1.0.2/30 set interfaces ge-1/2/11 unit 0 description R1-to-src1 set interfaces ge-1/2/11 unit 0 family inet address 192.168.219.9/30 set interfaces lo0 unit 0 family inet address 10.1.1.1/32 set protocols rsvp interface all set protocols mpls interface all set protocols bgp group ibgp local-address 10.1.1.1 set protocols bgp group ibgp export static-route-tobgp set protocols bgp group ibgp peer-as 65010 set protocols bgp group ibgp neighbor 10.1.1.3 set protocols bgp group ibgp neighbor 10.1.1.7 set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ldp interface ge-1/2/12.0 set protocols ldp interface ge-1/2/13.0 set protocols ldp interface lo0.0 set protocols ldp p2mp set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim rp static address 10.1.1.5 set protocols pim interface lo0.0 set protocols pim interface ge-1/2/10.0 set protocols pim interface ge-1/2/11.0 set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set policy-options policy-statement mldppim-ex term A from source-address-filter 10.1.1.7/32 orlonger set policy-options policy-statement mldppim-ex term A from source-address-filter 10.1.0.0/30 orlonger set policy-options policy-statement mldppim-ex term A then accept set policy-options policy-statement static-route-tobgp term static from protocol static set policy-options policy-statement static-route-tobgp term static from protocol direct set policy-options policy-statement static-route-tobgp term static then accept set routing-options autonomous-system 65010
Dispositivo R2
set interfaces ge-1/2/12 unit 0 description R2-to-R1 set interfaces ge-1/2/12 unit 0 family inet address 10.1.2.2/30 set interfaces ge-1/2/12 unit 0 family mpls set interfaces ge-1/2/14 unit 0 description R2-to-R3 set interfaces ge-1/2/14 unit 0 family inet address 10.2.3.1/30 set interfaces ge-1/2/14 unit 0 family mpls set interfaces ge-1/2/16 unit 0 description R2-to-R5 set interfaces ge-1/2/16 unit 0 family inet address 10.2.5.1/30 set interfaces ge-1/2/16 unit 0 family mpls set interfaces ge-1/2/17 unit 0 description R2-to-R7 set interfaces ge-1/2/17 unit 0 family inet address 10.2.7.1/30 set interfaces ge-1/2/17 unit 0 family mpls set interfaces ge-1/2/15 unit 0 description R2-to-R3 set interfaces ge-1/2/15 unit 0 family inet address 10.2.94.1/30 set interfaces ge-1/2/15 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.2/32 set interfaces lo0 unit 0 family mpls set protocols rsvp interface all set protocols mpls interface all set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ldp interface all set protocols ldp p2mp set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set routing-options autonomous-system 65010
Dispositivo R3
set chassis network-services enhanced-ip set interfaces ge-1/2/14 unit 0 description R3-to-R2 set interfaces ge-1/2/14 unit 0 family inet address 10.2.3.2/30 set interfaces ge-1/2/14 unit 0 family mpls set interfaces ge-1/2/18 unit 0 description R3-to-R4 set interfaces ge-1/2/18 unit 0 family inet address 10.3.4.1/30 set interfaces ge-1/2/18 unit 0 family mpls set interfaces ge-1/2/19 unit 0 description R3-to-R6 set interfaces ge-1/2/19 unit 0 family inet address 10.3.6.2/30 set interfaces ge-1/2/19 unit 0 family mpls set interfaces ge-1/2/21 unit 0 description R3-to-R7 set interfaces ge-1/2/21 unit 0 family inet address 10.3.7.1/30 set interfaces ge-1/2/21 unit 0 family mpls set interfaces ge-1/2/22 unit 0 description R3-to-R8 set interfaces ge-1/2/22 unit 0 family inet address 10.3.8.1/30 set interfaces ge-1/2/22 unit 0 family mpls set interfaces ge-1/2/15 unit 0 description R3-to-R2 set interfaces ge-1/2/15 unit 0 family inet address 10.2.94.2/30 set interfaces ge-1/2/15 unit 0 family mpls set interfaces ge-1/2/20 unit 0 description R3-to-R6 set interfaces ge-1/2/20 unit 0 family inet address 10.2.96.2/30 set interfaces ge-1/2/20 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.3/32 primary set routing-options autonomous-system 65010 set routing-options multicast stream-protection set protocols rsvp interface all set protocols mpls interface all set protocols bgp group ibgp local-address 10.1.1.3 set protocols bgp group ibgp peer-as 10 set protocols bgp group ibgp neighbor 10.1.1.1 set protocols bgp group ibgp neighbor 10.1.1.5 set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ldp interface all set protocols ldp p2mp set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim interface lo0.0 set protocols pim interface ge-1/2/18.0 set protocols pim interface ge-1/2/22.0 set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then accept set policy-options policy-statement mldppim-ex term A from source-address-filter 10.1.0.1/30 orlonger set policy-options policy-statement mldppim-ex term A then accept set policy-options policy-statement static-route-tobgp term static from protocol static set policy-options policy-statement static-route-tobgp term static from protocol direct set policy-options policy-statement static-route-tobgp term static then accept
Dispositivo R4
set interfaces ge-1/2/18 unit 0 description R4-to-R3 set interfaces ge-1/2/18 unit 0 family inet address 10.3.4.2/30 set interfaces ge-1/2/18 unit 0 family mpls set interfaces ge-1/2/23 unit 0 description R4-to-R7 set interfaces ge-1/2/23 unit 0 family inet address 10.4.7.1/30 set interfaces lo0 unit 0 family inet address 10.1.1.4/32 set protocols igmp interface ge-1/2/18.0 version 3 set protocols igmp interface ge-1/2/18.0 static group 232.1.1.1 group-count 2 set protocols igmp interface ge-1/2/18.0 static group 232.1.1.1 source 192.168.219.11 set protocols igmp interface ge-1/2/18.0 static group 232.2.2.2 source 10.2.7.7 set protocols sap listen 232.1.1.1 set protocols sap listen 232.2.2.2 set protocols rsvp interface all set protocols mpls interface all set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim interface ge-1/2/23.0 set protocols pim interface ge-1/2/18.0 set protocols pim interface lo0.0 set policy-options policy-statement static-route-tobgp term static from protocol static set policy-options policy-statement static-route-tobgp term static from protocol direct set policy-options policy-statement static-route-tobgp term static then accept set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set routing-options autonomous-system 65010
Dispositivo R5
set interfaces ge-1/2/24 unit 0 description R5-to-src2 set interfaces ge-1/2/24 unit 0 family inet address 10.5.0.1/30 set interfaces ge-1/2/16 unit 0 description R5-to-R2 set interfaces ge-1/2/16 unit 0 family inet address 10.2.5.2/30 set interfaces ge-1/2/16 unit 0 family mpls set interfaces ge-1/2/25 unit 0 description R5-to-R6 set interfaces ge-1/2/25 unit 0 family inet address 10.5.6.1/30 set interfaces ge-1/2/25 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.5/32 set protocols rsvp interface all set protocols mpls interface all set protocols bgp group ibgp local-address 10.1.1.5 set protocols bgp group ibgp export static-route-tobgp set protocols bgp group ibgp peer-as 65010 set protocols bgp group ibgp neighbor 10.1.1.7 set protocols bgp group ibgp neighbor 10.1.1.3 set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ldp interface ge-1/2/16.0 set protocols ldp interface ge-1/2/25.0 set protocols ldp p2mp set protocols pim interface lo0.0 set protocols pim interface ge-1/2/24.0 set policy-options policy-statement static-route-tobgp term static from protocol static set policy-options policy-statement static-route-tobgp term static from protocol direct set policy-options policy-statement static-route-tobgp term static then accept set routing-options autonomous-system 65010
Dispositivo R6
set interfaces ge-1/2/13 unit 0 description R6-to-R1 set interfaces ge-1/2/13 unit 0 family inet address 10.1.6.2/30 set interfaces ge-1/2/13 unit 0 family mpls set interfaces ge-1/2/19 unit 0 description R6-to-R3 set interfaces ge-1/2/19 unit 0 family inet address 10.3.6.1/30 set interfaces ge-1/2/19 unit 0 family mpls set interfaces ge-1/2/25 unit 0 description R6-to-R5 set interfaces ge-1/2/25 unit 0 family inet address 10.5.6.2/30 set interfaces ge-1/2/25 unit 0 family mpls set interfaces ge-1/2/26 unit 0 description R6-to-R7 set interfaces ge-1/2/26 unit 0 family inet address 10.6.7.1/30 set interfaces ge-1/2/26 unit 0 family mpls set interfaces ge-1/2/20 unit 0 description R6-to-R3 set interfaces ge-1/2/20 unit 0 family inet address 10.2.96.1/30 set interfaces ge-1/2/20 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.6/30 set protocols rsvp interface all set protocols mpls interface all set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ldp interface all set protocols ldp p2mp
Dispositivo R7
set interfaces ge-1/2/17 unit 0 description R7-to-R2 set interfaces ge-1/2/17 unit 0 family inet address 10.2.7.2/30 set interfaces ge-1/2/17 unit 0 family mpls set interfaces ge-1/2/21 unit 0 description R7-to-R3 set interfaces ge-1/2/21 unit 0 family inet address 10.3.7.2/30 set interfaces ge-1/2/21 unit 0 family mpls set interfaces ge-1/2/23 unit 0 description R7-to-R4 set interfaces ge-1/2/23 unit 0 family inet address 10.4.7.2/30 set interfaces ge-1/2/23 unit 0 family mpls set interfaces ge-1/2/26 unit 0 description R7-to-R6 set interfaces ge-1/2/26 unit 0 family inet address 10.6.7.2/30 set interfaces ge-1/2/26 unit 0 family mpls set interfaces ge-1/2/27 unit 0 description R7-to-R8 set interfaces ge-1/2/27 unit 0 family inet address 10.7.8.1/30 set interfaces ge-1/2/27 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.7/32 set protocols rsvp interface all set protocols mpls interface all set protocols bgp group ibgp local-address 10.1.1.7 set protocols bgp group ibgp export static-route-tobgp set protocols bgp group ibgp peer-as 65010 set protocols bgp group ibgp neighbor 10.1.1.5 set protocols bgp group ibgp neighbor 10.1.1.1 set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ldp interface ge-1/2/17.0 set protocols ldp interface ge-1/2/21.0 set protocols ldp interface ge-1/2/26.0 set protocols ldp p2mp set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim interface lo0.0 set protocols pim interface ge-1/2/27.0 set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then accept set policy-options policy-statement mldppim-ex term A from source-address-filter 10.1.0.1/30 orlonger set policy-options policy-statement mldppim-ex term A then accept set policy-options policy-statement static-route-tobgp term static from protocol static set policy-options policy-statement static-route-tobgp term static from protocol direct set policy-options policy-statement static-route-tobgp term static then accept set routing-options autonomous-system 65010 set routing-options multicast stream-protection policy mldppim-ex
Dispositivo R8
set interfaces ge-1/2/22 unit 0 description R8-to-R3 set interfaces ge-1/2/22 unit 0 family inet address 10.3.8.2/30 set interfaces ge-1/2/22 unit 0 family mpls set interfaces ge-1/2/27 unit 0 description R8-to-R7 set interfaces ge-1/2/27 unit 0 family inet address 10.7.8.2/30 set interfaces ge-1/2/27 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.8/32 set protocols igmp interface ge-1/2/22.0 version 3 set protocols igmp interface ge-1/2/22.0 static group 232.1.1.1 group-count 2 set protocols igmp interface ge-1/2/22.0 static group 232.1.1.1 source 192.168.219.11 set protocols igmp interface ge-1/2/22.0 static group 232.2.2.2 source 10.2.7.7 set protocols sap listen 232.1.1.1 set protocols sap listen 232.2.2.2 set protocols rsvp interface all set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim interface ge-1/2/27.0 set protocols pim interface ge-1/2/22.0 set protocols pim interface lo0.0 set policy-options policy-statement static-route-tobgp term static from protocol static set policy-options policy-statement static-route-tobgp term static from protocol direct set policy-options policy-statement static-route-tobgp term static then accept set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set routing-options autonomous-system 65010
Configuración
Procedimiento
Procedimiento paso a paso
El ejemplo siguiente requiere que navegue por varios niveles en la jerarquía de configuración. Para obtener información acerca de cómo navegar por la CLI, consulte Uso del editor de CLI en modo de configuración en la Guía del usuario de CLI de Junos OS.
Para configurar el dispositivo R3:
Habilite el modo IP mejorado.
[edit chassis] user@R3# set network-services enhanced-ip
Configure las interfaces del dispositivo.
[edit interfaces] user@R3# set ge-1/2/14 unit 0 description R3-to-R2 user@R3# set ge-1/2/14 unit 0 family inet address 10.2.3.2/30 user@R3# set ge-1/2/14 unit 0 family mpls user@R3# set ge-1/2/18 unit 0 description R3-to-R4 user@R3# set ge-1/2/18 unit 0 family inet address 10.3.4.1/30 user@R3# set ge-1/2/18 unit 0 family mpls user@R3# set ge-1/2/19 unit 0 description R3-to-R6 user@R3# set ge-1/2/19 unit 0 family inet address 10.3.6.2/30 user@R3# set ge-1/2/19 unit 0 family mpls user@R3# set ge-1/2/21 unit 0 description R3-to-R7 user@R3# set ge-1/2/21 unit 0 family inet address 10.3.7.1/30 user@R3# set ge-1/2/21 unit 0 family mpls user@R3# set ge-1/2/22 unit 0 description R3-to-R8 user@R3# set ge-1/2/22 unit 0 family inet address 10.3.8.1/30 user@R3# set ge-1/2/22 unit 0 family mpls user@R3# set ge-1/2/15 unit 0 description R3-to-R2 user@R3# set ge-1/2/15 unit 0 family inet address 10.2.94.2/30 user@R3# set ge-1/2/15 unit 0 family mpls user@R3# set ge-1/2/20 unit 0 description R3-to-R6 user@R3# set ge-1/2/20 unit 0 family inet address 10.2.96.2/30 user@R3# set ge-1/2/20 unit 0 family mpls user@R3# set lo0 unit 0 family inet address 10.1.1.3/32 primary
Configure el número de sistema autónomo (AS).
user@R3# set routing-options autonomous-system 6510
Configure las directivas de enrutamiento.
[edit policy-options policy-statement mldppim-ex] user@R3# set term B from source-address-filter 192.168.0.0/24 orlonger user@R3# set term B from source-address-filter 192.168.219.11/32 orlonger user@R3# set term B then accept user@R3# set term A from source-address-filter 10.1.0.1/30 orlonger user@R3# set term A then accept [edit policy-options policy-statement static-route-tobgp] user@R3# set term static from protocol static user@R3# set term static from protocol direct user@R3# set term static then accept
Configure PIM.
[edit protocols pim] user@R3# set mldp-inband-signalling policy mldppim-ex user@R3# set interface lo0.0 user@R3# set interface ge-1/2/18.0 user@R3# set interface ge-1/2/22.0
Configure LDP.
[edit protocols ldp] user@R3# set interface all user@R3# set p2mp
Configure un IGP o rutas estáticas.
[edit protocols ospf] user@R3# set traffic-engineering user@R3# set area 0.0.0.0 interface all user@R3# set area 0.0.0.0 interface fxp0.0 disable user@R3# set area 0.0.0.0 interface lo0.0 passive
Configure el BGP interno.
[edit protocols bgp group ibgp] user@R3# set local-address 10.1.1.3 user@R3# set peer-as 65010 user@R3# set neighbor 10.1.1.1 user@R3# set neighbor 10.1.1.5
Configure MPLS y, opcionalmente, RSVP.
[edit protocols mpls] user@R3# set interface all [edit protocols rsvp] user@R3# set interface all
Habilite MoFRR.
[edit routing-options multicast] user@R3# set stream-protection
Resultados
Desde el modo de configuración, escriba los comandos , show interfaces
, show policy-options
show protocols
, y show routing-options
para confirmar la show chassis
configuración. Si el resultado no muestra la configuración deseada, repita las instrucciones en este ejemplo para corregir la configuración.
user@R3# show chassis network-services enhanced-ip;
user@R3# show interfaces ge-1/2/14 { unit 0 { description R3-to-R2; family inet { address 10.2.3.2/30; } family mpls; } } ge-1/2/18 { unit 0 { description R3-to-R4; family inet { address 10.3.4.1/30; } family mpls; } } ge-1/2/19 { unit 0 { description R3-to-R6; family inet { address 10.3.6.2/30; } family mpls; } } ge-1/2/21 { unit 0 { description R3-to-R7; family inet { address 10.3.7.1/30; } family mpls; } } ge-1/2/22 { unit 0 { description R3-to-R8; family inet { address 10.3.8.1/30; } family mpls; } } ge-1/2/15 { unit 0 { description R3-to-R2; family inet { address 10.2.94.2/30; } family mpls; } } ge-1/2/20 { unit 0 { description R3-to-R6; family inet { address 10.2.96.2/30; } family mpls; } } lo0 { unit 0 { family inet { address 192.168.15.1/32; address 10.1.1.3/32 { primary; } } } }
user@R3# show protocols rsvp { interface all; } mpls { interface all; } bgp { group ibgp { local-address 10.1.1.3; peer-as 65010; neighbor 10.1.1.1; neighbor 10.1.1.5; } } ospf { traffic-engineering; area 0.0.0.0 { interface all; interface fxp0.0 { disable; } interface lo0.0 { passive; } } } ldp { interface all; p2mp; } pim { mldp-inband-signalling { policy mldppim-ex; } interface lo0.0; interface ge-1/2/18.0; interface ge-1/2/22.0; }
user@R3# show policy-options policy-statement mldppim-ex { term B { from { source-address-filter 192.168.0.0/24 orlonger; source-address-filter 192.168.219.11/32 orlonger; } then accept; } term A { from { source-address-filter 10.1.0.1/30 orlonger; } then accept; } } policy-statement static-route-tobgp { term static { from protocol [ static direct ]; then accept; } }
user@R3# show routing-options autonomous-system 65010; multicast { stream-protection; }
Cuando termine de configurar el dispositivo, ingrese commit
en el modo de configuración.
Verificación
Confirme que la configuración funcione correctamente.
- Comprobación de las clases de equivalencia de reenvío punto a multipunto de LDP
- Examinar la información de la etiqueta
- Comprobación de las rutas de multidifusión
- Comprobación de las estadísticas de tráfico punto a multipunto de LDP
Comprobación de las clases de equivalencia de reenvío punto a multipunto de LDP
Propósito
Asegúrese de que el MoFRR esté habilitado y determine qué etiquetas se están utilizando.
Acción
user@R3> show ldp p2mp fec LDP P2MP FECs: P2MP root-addr 10.1.1.1, grp: 232.1.1.1, src: 192.168.219.11 MoFRR enabled Fec type: Egress (Active) Label: 301568 P2MP root-addr 10.1.1.1, grp: 232.1.1.2, src: 192.168.219.11 MoFRR enabled Fec type: Egress (Active) Label: 301600
Significado
El resultado muestra que MoFRR está habilitado y muestra que las etiquetas 301568 y 301600 se están utilizando para los dos LSP punto a multipunto del LDP multipunto.
Examinar la información de la etiqueta
Propósito
Asegúrese de que el dispositivo de salida tiene dos interfaces ascendentes para la unión de grupo de multidifusión.
Acción
user@R3> show route label 301568 detail mpls.0: 18 destinations, 18 routes (18 active, 0 holddown, 0 hidden) 301568 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Flood Address: 0x2735208 Next-hop reference count: 3 Next hop type: Router, Next hop index: 1397 Address: 0x2735d2c Next-hop reference count: 3 Next hop: 10.3.8.2 via ge-1/2/22.0 Label operation: Pop Load balance label: None; Next hop type: Router, Next hop index: 1395 Address: 0x2736290 Next-hop reference count: 3 Next hop: 10.3.4.2 via ge-1/2/18.0 Label operation: Pop Load balance label: None; State: <Active Int AckRequest MulticastRPF> Local AS: 65010 Age: 54:05 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I FECs bound to route: P2MP root-addr 10.1.1.1, grp: 232.1.1.1, src: 192.168.219.11 Primary Upstream : 10.1.1.3:0--10.1.1.2:0 RPF Nexthops : ge-1/2/15.0, 10.2.94.1, Label: 301568, weight: 0x1 ge-1/2/14.0, 10.2.3.1, Label: 301568, weight: 0x1 Backup Upstream : 10.1.1.3:0--10.1.1.6:0 RPF Nexthops : ge-1/2/20.0, 10.2.96.1, Label: 301584, weight: 0xfffe ge-1/2/19.0, 10.3.6.1, Label: 301584, weight: 0xfffe
user@R3> show route label 301600 detail mpls.0: 18 destinations, 18 routes (18 active, 0 holddown, 0 hidden) 301600 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Flood Address: 0x27356b4 Next-hop reference count: 3 Next hop type: Router, Next hop index: 1520 Address: 0x27350f4 Next-hop reference count: 3 Next hop: 10.3.8.2 via ge-1/2/22.0 Label operation: Pop Load balance label: None; Next hop type: Router, Next hop index: 1481 Address: 0x273645c Next-hop reference count: 3 Next hop: 10.3.4.2 via ge-1/2/18.0 Label operation: Pop Load balance label: None; State: <Active Int AckRequest MulticastRPF> Local AS: 65010 Age: 54:25 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I FECs bound to route: P2MP root-addr 10.1.1.1, grp: 232.1.1.2, src: 192.168.219.11 Primary Upstream : 10.1.1.3:0--10.1.1.6:0 RPF Nexthops : ge-1/2/20.0, 10.2.96.1, Label: 301600, weight: 0x1 ge-1/2/19.0, 10.3.6.1, Label: 301600, weight: 0x1 Backup Upstream : 10.1.1.3:0--1.1.1.2:0 RPF Nexthops : ge-1/2/15.0, 10.2.94.1, Label: 301616, weight: 0xfffe ge-1/2/14.0, 10.2.3.1, Label: 301616, weight: 0xfffe
Significado
El resultado muestra las rutas ascendentes primarias y las rutas ascendentes de reserva. También muestra los siguientes saltos del FPR.
Comprobación de las rutas de multidifusión
Propósito
Examine la tabla de reenvío de multidifusión IP para asegurarse de que hay una lista de interfaces RPF ascendentes, con una interfaz principal y una interfaz de reserva.
Acción
user@R3> show ldp p2mp path P2MP path type: Transit/Egress Output Session (label): 10.1.1.2:0 (301568) (Primary) Egress Nexthops: Interface ge-1/2/18.0 Interface ge-1/2/22.0 RPF Nexthops: Interface ge-1/2/15.0, 10.2.94.1, 301568, 1 Interface ge-1/2/20.0, 10.2.96.1, 301584, 65534 Interface ge-1/2/14.0, 10.2.3.1, 301568, 1 Interface ge-1/2/19.0, 10.3.6.1, 301584, 65534 Attached FECs: P2MP root-addr 10.1.1.1, grp: 232.1.1.1, src: 192.168.219.11 (Active) P2MP path type: Transit/Egress Output Session (label): 10.1.1.6:0 (301584) (Backup) Egress Nexthops: Interface ge-1/2/18.0 Interface ge-1/2/22.0 RPF Nexthops: Interface ge-1/2/15.0, 10.2.94.1, 301568, 1 Interface ge-1/2/20.0, 10.2.96.1, 301584, 65534 Interface ge-1/2/14.0, 10.2.3.1, 301568, 1 Interface ge-1/2/19.0, 10.3.6.1, 301584, 65534 Attached FECs: P2MP root-addr 10.1.1.1, grp: 232.1.1.1, src: 192.168.219.11 (Active) P2MP path type: Transit/Egress Output Session (label): 10.1.1.6:0 (301600) (Primary) Egress Nexthops: Interface ge-1/2/18.0 Interface ge-1/2/22.0 RPF Nexthops: Interface ge-1/2/15.0, 10.2.94.1, 301616, 65534 Interface ge-1/2/20.0, 10.2.96.1, 301600, 1 Interface ge-1/2/14.0, 10.2.3.1, 301616, 65534 Interface ge-1/2/19.0, 10.3.6.1, 301600, 1 Attached FECs: P2MP root-addr 10.1.1.1, grp: 232.1.1.2, src: 192.168.219.11 (Active) P2MP path type: Transit/Egress Output Session (label): 10.1.1.2:0 (301616) (Backup) Egress Nexthops: Interface ge-1/2/18.0 Interface ge-1/2/22.0 RPF Nexthops: Interface ge-1/2/15.0, 10.2.94.1, 301616, 65534 Interface ge-1/2/20.0, 10.2.96.1, 301600, 1 Interface ge-1/2/14.0, 10.2.3.1, 301616, 65534 Interface ge-1/2/19.0, 10.3.6.1, 301600, 1 Attached FECs: P2MP root-addr 10.1.1.1, grp: 232.1.1.2, src: 192.168.219.11 (Active)
Significado
El resultado muestra las sesiones principales y de copia de seguridad, y los siguientes saltos del RPF.
Comprobación de las estadísticas de tráfico punto a multipunto de LDP
Propósito
Asegúrese de que se enumeran las estadísticas principales y de respaldo.
Acción
user@R3> show ldp traffic-statistics p2mp P2MP FEC Statistics: FEC(root_addr:lsp_id/grp,src) Nexthop Packets Bytes Shared 10.1.1.1:232.1.1.1,192.168.219.11, Label: 301568 10.3.8.2 0 0 No 10.3.4.2 0 0 No 10.1.1.1:232.1.1.1,192.168.219.11, Label: 301584, Backup route 10.3.4.2 0 0 No 10.3.8.2 0 0 No 10.1.1.1:232.1.1.2,192.168.219.11, Label: 301600 10.3.8.2 0 0 No 10.3.4.2 0 0 No 10.1.1.1:232.1.1.2,192.168.219.11, Label: 301616, Backup route 10.3.4.2 0 0 No 10.3.8.2 0 0 No
Significado
El resultado muestra las rutas principales y de respaldo con las etiquetas.
Ejemplo: Configuración de LDP Downstream on Demand
En este ejemplo se muestra cómo configurar LDP descendente a petición. LDP se configura comúnmente utilizando el modo de publicidad no solicitada descendente, lo que significa que los anuncios de etiqueta para todas las rutas se reciben de todos los pares de LDP. A medida que los proveedores de servicios integran las redes de acceso y agregación en un único dominio MPLS, se necesita LDP descendente a petición para distribuir los enlaces entre las redes de acceso y agregación y para reducir los requisitos de procesamiento para el plano de control.
Los nodos descendentes podrían recibir decenas de miles de enlaces de etiquetas de nodos de agregación ascendentes. En lugar de aprender y almacenar todos los enlaces de etiquetas para todas las direcciones de circuito cerrado posibles dentro de toda la red MPLS, el nodo de agregación descendente se puede configurar utilizando LDP descendente a petición para solicitar solo los enlaces de etiquetas para los FEC correspondientes a las direcciones de bucle invertido de los nodos de salida en los que tiene servicios configurados.
Requisitos
En este ejemplo, se utilizan los siguientes componentes de hardware y software:
-
Enrutador serie M
-
Junos OS 12.2
Descripción general
Puede habilitar el anuncio de etiqueta a petición de LDP descendente para una sesión de LDP incluyendo la instrucción descendente a petición en el nivel jerárquico [edit protocols ldp session]
. Si ha configurado la cadena descendente a pedido, el enrutador de Juniper Networks anuncia la solicitud descendente a petición a sus enrutadores pares. Para que se establezca una sesión descendente bajo demanda entre dos enrutadores, ambos deben anunciar el modo descendente bajo demanda durante el establecimiento de la sesión LDP. Si un enrutador anuncia modo descendente no solicitado y el otro anuncia modo descendente a pedido, se utiliza el modo descendente no solicitado.
Configuración
- Configuración de LDP Downstream on Demand
- Distribución de rutas descendentes de LDP a pedido en BGP etiquetado
Configuración de LDP Downstream on Demand
Procedimiento paso a paso
Para configurar una directiva de LDP a petición descendente y, a continuación, configurar esa directiva y habilitar LDP descendente a petición en la sesión de LDP:
-
Configure la directiva a petición descendente (DOD-Request-Loopbacks en este ejemplo).
Esta política hace que el enrutador reenvíe mensajes de solicitud de etiqueta solo a los FEC que coinciden con la DOD-Request-Loopbacks política.
[edit policy-options] user@host# set prefix-list Request-Loopbacks 10.1.1.1/32 user@host# set prefix-list Request-Loopbacks 10.1.1.2/32 user@host# set prefix-list Request-Loopbacks 10.1.1.3/32 user@host# set prefix-list Request-Loopbacks 10.1.1.4/32 user@host# set policy-statement DOD-Request-Loopbacks term 1 from prefix-list Request-Loopbacks user@host# set policy-statement DOD-Request-Loopbacks term 1 then accept
-
Especifique la directiva DOD-Request-Loopbacks mediante la
dod-request-policy
instrucción en el nivel de[edit protocols ldp]
jerarquía.La directiva especificada con la instrucción se utiliza para identificar los prefijos para enviar mensajes de solicitud de
dod-request-policy
etiqueta. Esta directiva es similar a una política de salida o una directiva de importación. Al procesar rutas desde la tabla de enrutamiento inet.0, el software Junos OS comprueba si las rutas coinciden con laDOD-Request-Loopbacks
directiva (en este ejemplo). Si la ruta coincide con la política y la sesión LDP se negocia con el modo de anuncio DOD, los mensajes de solicitud de etiqueta se envían a la sesión LDP descendente correspondiente.[edit protocols ldp] user@host# set dod-request-policy DOD-Request-Loopbacks
-
Incluya la instrucción en la configuración de la sesión LDP para habilitar el
downstream-on-demand
modo de distribución a petición descendente.[edit protocols ldp] user@host# set session 172.16.1.1 downstream-on-demand
Distribución de rutas descendentes de LDP a pedido en BGP etiquetado
Procedimiento paso a paso
Para distribuir LDP aguas abajo en rutas a pedido en BGP etiquetado, utilice una política de exportación de BGP.
-
Configure la directiva de rutas de LDP (
redistribute_ldp
en este ejemplo).[edit policy-options] user@host# set policy-statement redistribute_ldp term 1 from protocol ldp user@host# set policy-statement redistribute_ldp term 1 from tag 1000 user@host# set policy-statement redistribute_ldp term 1 then accept
-
Incluya la directiva
redistribute_ldp
de ruta LDP en la configuración de BGP (como parte de la configuraciónebgp-to-abr
de grupo BGP en este ejemplo).BGP reenvía las rutas de LDP según la
redistribute_ldp
política al enrutador de PE remoto[edit protocols bgp] user@host# set group ebgp-to-abr type external user@host# set group ebgp-to-abr local-address 192.168.0.1 user@host# set group ebgp-to-abr peer-as 65319 user@host# set group ebgp-to-abr local-as 65320 user@host# set group ebgp-to-abr neighbor 192.168.6.1 family inet unicast user@host# set group ebgp-to-abr neighbor 192.168.6.1 family inet labeled-unicast rib inet.3 user@host# set group ebgp-to-abr neighbor 192.168.6.1 export redistribute_ldp
Procedimiento paso a paso
Para restringir la propagación de etiquetas a otros enrutadores configurados en modo descendente no solicitado (en lugar de descendente a petición), configure las siguientes directivas:
-
Configure la
dod-routes
directiva para aceptar rutas de LDP.user@host# set policy-options policy-statement dod-routes term 1 from protocol ldp user@host# set policy-options policy-statement dod-routes term 1 from tag 1145307136 user@host# set policy-options policy-statement dod-routes term 1 then accept
-
Configure la
do-not-propagate-du-sessions
directiva para que no reenvíe rutas a vecinos10.1.1.1
,10.2.2.2
, y10.3.3.3
.user@host# set policy-options policy-statement do-not-propagate-du-sessions term 1 to neighbor 10.1.1.1 user@host# set policy-options policy-statement do-not-propagate-du-sessions term 1 to neighbor 10.2.2.2 user@host# set policy-options policy-statement do-not-propagate-du-sessions term 1 to neighbor 10.3.3.3 user@host# set policy-options policy-statement do-not-propagate-du-sessions term 1 then reject
-
Configure la
filter-dod-on-du-sessions
directiva para impedir que las rutas examinadas por ladod-routes
directiva se reenvíen a los enrutadores vecinos definidos en lado-not-propagate-du-sessions
directiva.user@host# set policy-options policy-statement filter-dod-routes-on-du-sessions term 1 from policy dod-routes user@host# set policy-options policy-statement filter-dod-routes-on-du-sessions term 1 to policy do-not-propagate-du-sessions
-
Especifique la
filter-dod-routes-on-du-sesssion
política como política de exportación para BGP groupebgp-to-abr
.[edit protocols bgp] user@host# set group ebgp-to-abr neighbor 192.168.6.2 export filter-dod-routes-on-du-sessions
Resultados
Desde el modo de configuración, escriba los comandos show policy-options
y show protocols ldp
para confirmar la configuración. Si el resultado no muestra la configuración deseada, repita las instrucciones en este ejemplo para corregir la configuración.
user@host# show policy-options prefix-list Request-Loopbacks { 10.1.1.1/32; 10.1.1.2/32; 10.1.1.3/32; 10.1.1.4/32; } policy-statement DOD-Request-Loopbacks { term 1 { from { prefix-list Request-Loopbacks; } then accept; } } policy-statement redistribute_ldp { term 1 { from { protocol ldp; tag 1000; } then accept; } }
user@host# show protocols ldp dod-request-policy DOD-Request-Loopbacks; session 172.16.1.1 { downstream-on-demand; }
user@host# show protocols bgp group ebgp-to-abr { type external; local-address 192.168.0.1; peer-as 65319; local-as 65320; neighbor 192.168.6.1 { family inet { unicast; labeled-unicast { rib { inet.3; } } } export redistribute_ldp; } }
Verificación
Verificar el modo de anuncio de etiqueta
Propósito
Confirme que la configuración funcione correctamente.
Utilice el show ldp session
comando para comprobar el estado del modo de anuncio de etiqueta para la sesión LDP.
Acción
Emita los show ldp session
comandos y show ldp session detail
:
-
La siguiente salida de comando para el
show ldp session
comando indica que elAdv. Mode
(modo de anuncio de etiqueta) esDOD
(lo que significa que la sesión bajo demanda posterior de LDP está operativa):user@host>
show ldp session
Address State Connection Hold time Adv. Mode 172.16.1.2 Operational Open 22 DOD -
La siguiente salida del comando para el
show ldp session detail
comando indica que esDownstream unsolicited
Local Label Advertisement mode
, el valor predeterminado (lo que significa que la secuencia descendente a petición no está configurada en la sesión local). Por el contrario, elRemote Label Advertisement mode
y ambosNegotiated Label Advertisement mode
indican queDownstream on demand
está configurado en la sesión remotauser@host>
show ldp session detail
Address: 172.16.1.2, State: Operational, Connection: Open, Hold time: 24 Session ID: 10.1.1.1:0--10.1.1.2:0 Next keepalive in 4 seconds Passive, Maximum PDU: 4096, Hold time: 30, Neighbor count: 1 Neighbor types: configured-tunneled Keepalive interval: 10, Connect retry interval: 1 Local address: 10.1.1.1, Remote address: 10.1.1.2 Up for 17:54:52 Capabilities advertised: none Capabilities received: none Protection: disabled Local - Restart: disabled, Helper mode: enabled, Remote - Restart: disabled, Helper mode: enabled Local maximum neighbor reconnect time: 120000 msec Local maximum neighbor recovery time: 240000 msec Local Label Advertisement mode: Downstream unsolicited Remote Label Advertisement mode: Downstream on demand Negotiated Label Advertisement mode: Downstream on demand Nonstop routing state: Not in sync Next-hop addresses received: 10.1.1.2
Configuración de la compatibilidad con IPv6 nativo de LDP
LDP se admite en una red solo IPv6 y en una red de doble pila IPv6 o IPv4, como se describe en RFC 7552. Configure la familia de direcciones como inet
IPv4 o inet6
IPv6 o ambas, y la preferencia de transporte sea o IPv4
IPv6
. La dual-transport
instrucción permite a Junos OS LDP establecer la conexión TCP a través de IPv4 con vecinos IPv4 y a través de IPv6 con vecinos IPv6 como un LSR de una sola pila. Los inet-lsr-id
ID y inet6-lsr-id
son los dos ID de LSR que deben configurarse para establecer una sesión LDP a través de IPv4 y transporte TCP IPv6. Estos dos ID deben ser distintos de cero y deben configurarse con valores diferentes.
Antes de configurar IPv6 como pila dual, asegúrese de configurar los protocolos de enrutamiento y señalización.
Para configurar la compatibilidad nativa con IPv6 de LDP, debe hacer lo siguiente:
Ejemplo: Configuración de la compatibilidad con IPv6 nativo de LDP
En este ejemplo se muestra cómo permitir que el Protocolo de distribución de etiquetas (LDP) de Junos OS establezca la conexión TCP a través de IPv4 con vecinos IPv4 y a través de IPv6 con vecinos IPv6 como un LSR de una sola pila. Esto ayuda a evitar la tunelización de IPv6 a través de núcleo MPLS IPv4 con rutas de conmutación de etiquetas (LSP) de MPLS señalizadas por IPv4.
Requisitos
En este ejemplo, se utilizan los siguientes componentes de hardware y software:
-
Dos enrutadores serie MX
-
Junos OS versión 16.1 o posterior ejecutándose en todos los dispositivos
Antes de configurar IPv6 como pila dual, asegúrese de configurar los protocolos de enrutamiento y señalización.
Descripción general
LDP se admite en una red solo IPv6 y en una red de doble pila IPv6 o IPv4, como se describe en RFC 7552. Configure la familia de direcciones como inet
IPv4 o inet6
IPv6. De forma predeterminada, IPv6 se utiliza como transporte TCP para la sesión LDP con sus pares cuando IPv4 e IPv6 están habilitados. La instrucción dual-transport permite a Junos LDP establecer la conexión TCP a través de IPv4 con vecinos IPv4 y a través de IPv6 con vecinos IPv6 como un LSR de una sola pila. El inet-lsr-id
y inet6-lsr-id
son los dos ID de LSR que deben configurarse para establecer una sesión LDP a través de IPv4 y transporte TCP IPv6. Estos dos ID deben ser distintos de cero y deben configurarse con valores diferentes.
Topología
Figura 17 muestra el LDP IPv6 configurado como de doble pila en los dispositivos R1 y R2.
Configuración
- Configuración rápida de CLI
- Configuración de R1
- Configure la preferencia de transporte para seleccionar el transporte preferido
- Configurar el transporte dual para establecer sesiones independientes para IPv4 con un vecino IPv4 e IPv6 con un vecino IPv6
Configuración rápida de CLI
Para configurar rápidamente este ejemplo, copie los siguientes comandos, péguelos en un archivo de texto, elimine los saltos de línea, cambie los detalles necesarios para que coincidan con su configuración de red, copie y pegue los comandos en la CLI en el nivel de jerarquía [edit] y, luego, ingrese commit
desde el modo de configuración.
R1
set interfaces ge-1/0/0 unit 0 family inet address 192.168.12.1/24 set interfaces ge-1/0/0 unit 0 family iso set interfaces ge-1/0/0 unit 0 family inet6 address 2001:db8:0:12::/64 eui-64 set interfaces ge-1/0/0 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.0.1/32 set interfaces lo0 unit 0 family iso address 49.0001.1720.1600.1010.00 set interfaces lo0 unit 0 family inet6 address 2001:db8::1/128 set protocols isis interface ge-1/0/0.0 set protocols isis interface lo0.0 set protocols mpls interface ge-1/0/0.0 set protocols ldp deaggregate set protocols ldp interface ge-1/0/0.0 set protocols ldp interface lo0.0 set protocols ldp family inet6 set protocols ldp family inet
R2
set interfaces ge-1/0/1 unit 0 family inet address 192.168.12.2/24 set interfaces ge-1/0/1 unit 0 family iso set interfaces ge-1/0/1 unit 0 family inet6 address 2001:db8:0:12::/64 eui-64 set interfaces ge-1/0/1 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.0.2/32 set interfaces lo0 unit 0 family iso address 49.0001.1720.1600.2020.00 set interfaces lo0 unit 0 family inet6 address 2001:db8::2/128 set protocols isis interface ge-1/0/1.0 set protocols isis interface lo0.0 set protocols mpls interface ge-1/0/1.0 set protocols ldp deaggregate set protocols ldp interface ge-1/0/1.0 set protocols ldp interface lo0.0 set protocols ldp family inet6 set protocols ldp family inet
Configuración de R1
Procedimiento paso a paso
El ejemplo siguiente requiere que navegue por varios niveles en la jerarquía de configuración. Para obtener información acerca de cómo navegar por la CLI, consulte " Using the CLI Editor in Configuration Mode " en la Guía del usuario de la CLI de Junos OS.
Para configurar el dispositivo R1:
-
Configure las interfaces.
[edit interfaces] set ge-1/0/0 unit 0 family inet address 192.168.12.1/24 set ge-1/0/0 unit 0 family iso set ge-1/0/0 unit 0 family inet6 address 2001:db8:0:12::/64 eui-64 set ge-1/0/0 unit 0 family mpls
-
Asigne una dirección de circuito cerrado al dispositivo.
[edit interfaces lo0 unit 0] set family inet address 10.255.0.1/32 set family iso address 49.0001.1720.1600.1010.00 set family inet6 address 2001:db8::1/128
-
Configure las interfaces IS-IS.
[edit protocols isis] set interface ge-1/0/0.0 set interface lo0.0
-
Configure MPLS para usar interfaces LDP en el dispositivo.
[edit protocols mpls] set protocols mpls interface ge-1/0/0.0 set interface ge-1/0/0.0 set interface lo0.0
-
Habilite la desagregación de clase de equivalencia de reenvío (FEC) para usar etiquetas diferentes para diferentes familias de direcciones.
[edit protocols ldp] set deaggregate
-
Configurar familias de direcciones LDP.
[edit protocols ldp] set family inet6 set family inet
Resultados
Desde el modo de configuración, escriba los comandos show interfaces y show protocols para confirmar la configuración. Si el resultado no muestra la configuración deseada, repita las instrucciones en este ejemplo para corregir la configuración.
user@R1# show interfaces ge-1/0/0 { unit 0 { family inet { address 192.168.12.1/24; } family iso; family inet6 { address 2001:db8:0:12::/64 { eui-64; } } family mpls; } } lo0 { unit 0 { family inet { address 10.255.0.1/32; } family iso { address 49.0001.1720.1600.1010.00 } family inet6 { address 2001:db8::1/128; } } }
user@R1# show protocols mpls { interface ge-1/0/0.0; } isis { interface ge-1/0/0.0; interface lo0.0; } ldp { deaggregate; interface ge-1/0/0.0; interface lo0.0; family { inet6; inet; } }
Configure la preferencia de transporte para seleccionar el transporte preferido
Configuración rápida de CLI
Procedimiento paso a paso
Puede configurar la transport-preference
instrucción para seleccionar el transporte preferido para una conexión TCP cuando IPv4 e IPv6 están habilitados. De forma predeterminada, IPv6 se utiliza como transporte TCP para establecer una conexión LDP.
-
(Opcional) Configure la preferencia de transporte para una conexión LDP.
[edit protocols ldp] set transport-preference ipv4
Procedimiento paso a paso
Resultados
Desde el modo de configuración, confírmela con el comando show protocols. Si el resultado no muestra la configuración deseada, repita las instrucciones en este ejemplo para corregir la configuración.
user@R1# show protocols mpls { interface ge-1/0/0.0; } isis { interface ge-1/0/0.0; interface lo0.0; } ldp { deaggregate; interface ge-1/0/0.0; interface lo0.0; family { inet6; inet; } transport-preference ipv4; }
Configurar el transporte dual para establecer sesiones independientes para IPv4 con un vecino IPv4 e IPv6 con un vecino IPv6
Procedimiento paso a paso
Puede configurar la dual-transport
instrucción para permitir que LDP establezca una sesión IPv4 independiente con un vecino IPv4 y una sesión IPv6 con un vecino IPv6. Esto requiere la configuración de como el ID de LSR para IPv4 y inet6-lsr-id
como el ID de inet-lsr-id
LSR para IPv6.
-
(Opcional) Configure el transporte dual para permitir que LDP establezca la conexión TCP sobre IPv4 con vecinos IPv4 y sobre IPv6 con vecinos IPv6 como un LSR de pila única.
[edit protocols ldp dual-transport] set inet-lsr-id 10.255.0.1 set inet6-lsr-id 10.1.1.1
Resultados
Desde el modo de configuración, confírmela con el comando show protocols. Si el resultado no muestra la configuración deseada, repita las instrucciones en este ejemplo para corregir la configuración.
user@R1# show protocols mpls { interface ge-1/0/0.0; } isis { interface ge-1/0/0.0; interface lo0.0; } ldp { deaggregate; interface ge-1/0/0.0; interface lo0.0; family { inet6; inet; } dual-transport { inet-lsr-id 10.255.0.1; inet6-lsr-id 10.1.1.1; } }
Verificación
Confirme que la configuración funcione correctamente.
- Comprobación de las entradas de ruta en la tabla mpls.0
- Verificación de las entradas de ruta en la tabla inet.3
- Comprobación de las entradas de ruta en la tabla inet6.3
- Verificación de la base de datos LDP
- Verificación de la información del vecino de LDP
- Verificación de la información de sesión de LDP
Comprobación de las entradas de ruta en la tabla mpls.0
Propósito
Muestra la información de la tabla de rutas mpls.0.
Acción
En el dispositivo R1, desde el modo operativo, ejecute el show route table mpls.0
comando para mostrar la información de la tabla de rutas mpls.0.
user@R1> show route table mpls.0
mpls.0: 8 destinations, 8 routes (8 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
0 *[MPLS/0] 05:19:58, metric 1
Receive
1 *[MPLS/0] 05:19:58, metric 1
Receive
2 *[MPLS/0] 05:19:58, metric 1
Receive
13 *[MPLS/0] 05:19:58, metric 1
Receive
299824 *[LDP/9] 04:28:45, metric 1
> to fe80::21f:1200:cb6:4c8d via ge-1/0/0.0, Pop
299824(S=0) *[LDP/9] 04:28:45, metric 1
> to fe80::21f:1200:cb6:4c8d via ge-1/0/0.0, Pop
299888 *[LDP/9] 00:56:12, metric 1
> to 192.168.12.2 via ge-1/0/0.0, Pop
299888(S=0) *[LDP/9] 00:56:12, metric 1
> to 192.168.12.2 via ge-1/0/0.0, Pop
Significado
El resultado muestra la información de la tabla de rutas mpls.0.
Verificación de las entradas de ruta en la tabla inet.3
Propósito
Muestra la información de la tabla de rutas inet.3.
Acción
En el dispositivo R1, desde el modo operativo, ejecute el show route table inet.3
comando para mostrar la información de la tabla de rutas inet.3.
user@R1> show route table inet.3
inet.3: 1 destinations, 1 routes (1 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
10.255.0.2/32 *[LDP/9] 00:58:38, metric 1
> to 192.168.12.2 via ge-1/0/0.0
Significado
El resultado muestra la información de la tabla de rutas inet.3.
Comprobación de las entradas de ruta en la tabla inet6.3
Propósito
Muestra la información de la tabla de rutas inet6.3.
Acción
En el dispositivo R1, desde el modo operativo, ejecute el show route table inet6.3
comando para mostrar la información de la tabla de rutas inet6.3.
user@R1> show route table inet6.3
inet6.3: 1 destinations, 1 routes (1 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
2001:db8::2/128 *[LDP/9] 04:31:17, metric 1
> to fe80::21f:1200:cb6:4c8d via ge-1/0/0.0
Significado
El resultado muestra la información de la tabla de rutas inet6.3.
Verificación de la base de datos LDP
Propósito
Mostrar la información de la base de datos LDP.
Acción
En el dispositivo R1, desde el modo operativo, ejecute el show ldp database
comando para mostrar la información de la base de datos LDP.
user@R1> show ldp database
Input label database, 10.255.0.1:0--10.255.0.2:0
Labels received: 3
Label Prefix
299840 10.255.0.1/32
3 10.255.0.2/32
299808 2001:db8::1/128
3 2001:db8::2/128
Output label database, 10.255.0.1:0--10.255.0.2:0
Labels advertised: 3
Label Prefix
3 10.255.0.1/32
299888 10.255.0.2/32
3 2001:db8::1/128
299824 2001:db8::2/128
Significado
El resultado muestra las entradas en la base de datos LDP.
Verificación de la información del vecino de LDP
Propósito
Mostrar la información del vecino de LDP.
Acción
En el dispositivo R1, desde el modo operativo, ejecute los comandos y show ldp neighbor extensive
para mostrar la show ldp neighbor
información del vecino de LDP.
user@R1>show ldp neighbor
Address Interface Label space ID Hold time fe80::21f:1200:cb6:4c8d ge-1/0/0.0 10.255.0.2:0 12 192.168.12.2 ge-1/0/0.0 10.255.0.2:0 11 user@R1>show ldp neighbor extensive
Address Interface Label space ID Hold time 192.168.12.2 ge-1/0/0.0 10.255.0.2:0 11 Transport address: 10.255.0.2, Transport preference: IPv6, Configuration sequence: 10 Up for 00:04:35 Reference count: 1 Hold time: 15, Proposed local/peer: 15/15 Hello flags: none Neighbor types: discovered Address Interface Label space ID Hold time fe80::21f:1200:cb6:4c8d ge-1/0/0.0 10.255.0.2:0 14 Transport address: 2001:db8::2, Transport preference: IPv6, Configuration sequence: 10 Up for 00:04:35 Reference count: 1 Hold time: 15, Proposed local/peer: 15/15 Hello flags: none Neighbor types: discovered
Significado
El resultado muestra información de vecinos de LDP de direcciones IPv4 e IPv6.
Verificación de la información de sesión de LDP
Propósito
Mostrar la información de la sesión de LDP.
Acción
En el dispositivo R1, desde el modo operativo, ejecute los comandos y show ldp session extensive
para mostrar la show ldp session
información de la sesión LDP.
user@R1>show ldp session
session Address State Connection Hold time Adv. Mode 2001:db8::2 Operational Open 20 DU user@R1>show ldp session extensive
Address: 2001:db8::2, State: Operational, Connection: Open, Hold time: 29 Session ID: 10.255.0.1:0--10.255.0.2:0 Next keepalive in 9 seconds Passive, Maximum PDU: 4096, Hold time: 30, Neighbor count: 1 Neighbor types: discovered Keepalive interval: 10, Connect retry interval: 1 Local address: 2001:db8::1, Remote address: 2001:db8::2 Up for 00:05:31 Capabilities advertised: none Capabilities received: none Protection: disabled Session flags: none Local - Restart: disabled, Helper mode: enabled Remote - Restart: disabled, Helper mode: enabled Local maximum neighbor reconnect time: 120000 msec Local maximum neighbor recovery time: 240000 msec Local Label Advertisement mode: Downstream unsolicited Remote Label Advertisement mode: Downstream unsolicited Negotiated Label Advertisement mode: Downstream unsolicited MTU discovery: disabled Nonstop routing state: Not in sync Next-hop addresses received: 10.255.0.2 192.168.12.2 2001:db8::2 fe80::21f:1200:cb6:4c8d Queue depth: 0 Message type Total Last 5 seconds Sent Received Sent Received Initialization 1 1 0 0 Keepalive 34 34 0 0 Notification 0 0 0 0 Address 1 1 0 0 Address withdraw 0 0 0 0 Label mapping 3 3 0 0 Label request 0 0 0 0 Label withdraw 0 0 0 0 Label release 0 0 0 0 Label abort 0 0 0 0
Significado
El resultado muestra información para la sesión LDP utilizando IPv6 como transporte TCP.
Verificación
Confirme que la configuración funcione correctamente.
Verificación de la información del vecino de LDP
Propósito
Mostrar la información del vecino de LDP.
Acción
En el dispositivo R1, desde el modo operativo, ejecute el comando para mostrar la show ldp neighbor extensive
información del vecino de LDP.
user@R1> show ldp neighbor extensive
Address Interface Label space ID Hold time
192.168.12.2 ge-1/0/0.0 10.255.0.2:0 14
Transport address: 10.255.0.2, Transport preference: IPv4, Configuration sequence: 9
Up for 00:00:14
Reference count: 1
Hold time: 15, Proposed local/peer: 15/15
Hello flags: none
Neighbor types: discovered
Address Interface Label space ID Hold time
fe80::21f:1200:cb6:4c8d ge-1/0/0.0 10.255.0.2:0 14
Transport address: 2001:db8::2, Transport preference: IPv4, Configuration sequence: 9
Up for 00:00:14
Reference count: 1
Hold time: 15, Proposed local/peer: 15/15
Hello flags: none
Neighbor types: discovered
Significado
El resultado muestra información de vecinos de LDP para las direcciones IPv4 e IPv6.
Verificación de la información de sesión de LDP
Propósito
Mostrar la información de la sesión de LDP.
Acción
En el dispositivo R1, desde el modo operativo, ejecute el show ldp session extensive
comando para mostrar la información de la sesión LDP.
user@R1> show ldp session extensive
Address: 10.255.0.2, State: Operational, Connection: Open, Hold time: 24
Session ID: 10.255.0.1:0--10.255.0.2:0
Next keepalive in 4 seconds
Passive, Maximum PDU: 4096, Hold time: 30, Neighbor count: 2
Neighbor types: discovered
Keepalive interval: 10, Connect retry interval: 1
Local address: 10.255.0.1, Remote address: 10.255.0.2
Up for 00:05:26
Capabilities advertised: none
Capabilities received: none
Protection: disabled
Session flags: none
Local - Restart: disabled, Helper mode: enabled
Remote - Restart: disabled, Helper mode: enabled
Local maximum neighbor reconnect time: 120000 msec
Local maximum neighbor recovery time: 240000 msec
Local Label Advertisement mode: Downstream unsolicited
Remote Label Advertisement mode: Downstream unsolicited
Negotiated Label Advertisement mode: Downstream unsolicited
MTU discovery: disabled
Nonstop routing state: Not in sync
Next-hop addresses received:
10.255.0.2
192.168.12.2
2001:db8::2
fe80::21f:1200:cb6:4c8d
Queue depth: 0
Message type Total Last 5 seconds
Sent Received Sent Received
Initialization 1 1 0 0
Keepalive 33 33 1 1
Notification 0 0 0 0
Address 2 2 0 0
Address withdraw 0 0 0 0
Label mapping 6 6 0 0
Label request 0 0 0 0
Label withdraw 0 0 0 0
Label release 0 0 0 0
Label abort 0 0 0 0
Significado
El resultado muestra información para la sesión LDP utilizando IPv6 como transporte TCP.
Verificación
Confirme que la configuración funcione correctamente.
Verificación de la información del vecino de LDP
Propósito
Mostrar la información del vecino de LDP.
Acción
En el dispositivo R1, desde el modo operativo, ejecute el comando para mostrar la show ldp neighbor extensive
información del vecino de LDP.
user@R1> show ldp neighbor extensive
Address Interface Label space ID Hold time
192.168.12.2 ge-1/0/0.0 10.255.0.2:0 11
Transport address: 10.255.0.2, Configuration sequence: 10
Up for 00:04:35
Reference count: 1
Hold time: 15, Proposed local/peer: 15/15
Hello flags: none
Neighbor types: discovered
Address Interface Label space ID Hold time
fe80::21f:1200:cb6:4c8d ge-1/0/0.0 10.255.0.2:0 14
Transport address: 2001:db8::2, Configuration sequence: 10
Up for 00:04:35
Reference count: 1
Hold time: 15, Proposed local/peer: 15/15
Hello flags: none
Neighbor types: discovered
Significado
El resultado muestra información de vecinos de LDP para las direcciones IPv4 e IPv6.
Verificación de la información de sesión de LDP
Propósito
Mostrar la información de la sesión de LDP.
Acción
En el dispositivo R1, desde el modo operativo, ejecute el comando para mostrar la show ldp session extensive
información del vecino de LDP.
user@R1> show ldp session extensive
Address: 2001:db8::2, State: Operational, Connection: Open, Hold time: 29
Session ID: 10.1.1.1:0--10.255.0.2:0
Next keepalive in 9 seconds
Passive, Maximum PDU: 4096, Hold time: 30, Neighbor count: 1
Neighbor types: discovered
Keepalive interval: 10, Connect retry interval: 1
Local address: 2001:db8::1, Remote address: 2001:db8::2
Up for 00:05:31
Capabilities advertised: none
Capabilities received: none
Protection: disabled
Session flags: none
Local - Restart: disabled, Helper mode: enabled
Remote - Restart: disabled, Helper mode: enabled
Local maximum neighbor reconnect time: 120000 msec
Local maximum neighbor recovery time: 240000 msec
Local Label Advertisement mode: Downstream unsolicited
Remote Label Advertisement mode: Downstream unsolicited
Negotiated Label Advertisement mode: Downstream unsolicited
MTU discovery: disabled
Nonstop routing state: Not in sync
Next-hop addresses received:
2001:db8::2
fe80::21f:1200:cb6:4c8d
Queue depth: 0
Message type Total Last 5 seconds
Sent Received Sent Received
Initialization 1 1 0 0
Keepalive 34 34 0 0
Notification 0 0 0 0
Address 1 1 0 0
Address withdraw 0 0 0 0
Label mapping 3 3 0 0
Label request 0 0 0 0
Label withdraw 0 0 0 0
Label release 0 0 0 0
Label abort 0 0 0 0
Address: 10.255.0.2, State: Operational, Connection: Open, Hold time: 29
Session ID: 10.255.0.1:0--10.255.0.2:0
Next keepalive in 9 seconds
Passive, Maximum PDU: 4096, Hold time: 30, Neighbor count: 1
Neighbor types: discovered
Keepalive interval: 10, Connect retry interval: 1
Local address: 10.255.0.1, Remote address: 10.255.0.2
Up for 00:05:31
Capabilities advertised: none
Capabilities received: none
Protection: disabled
Session flags: none
Local - Restart: disabled, Helper mode: enabled
Remote - Restart: disabled, Helper mode: enabled
Local maximum neighbor reconnect time: 120000 msec
Local maximum neighbor recovery time: 240000 msec
Local Label Advertisement mode: Downstream unsolicited
Remote Label Advertisement mode: Downstream unsolicited
Negotiated Label Advertisement mode: Downstream unsolicited
MTU discovery: disabled
Nonstop routing state: Not in sync
Next-hop addresses received:
10.255.0.2
192.168.12.2
Queue depth: 0
Message type Total Last 5 seconds
Sent Received Sent Received
Initialization 1 1 0 0
Keepalive 34 34 0 0
Notification 0 0 0 0
Address 1 1 0 0
Address withdraw 0 0 0 0
Label mapping 3 3 0 0
Label request 0 0 0 0
Label withdraw 0 0 0 0
Label release 0 0 0 0
Label abort 0 0 0 0
Ejemplo: Configuración de la señalización en banda LDP multipunto para LSP de punto a multipunto
- Descripción de la señalización en banda LDP multipunto para LSP de punto a multipunto
- Ejemplo: Configuración de la señalización en banda LDP multipunto para LSP de punto a multipunto
Descripción de la señalización en banda LDP multipunto para LSP de punto a multipunto
El protocolo de distribución de etiquetas multipunto (M-LDP) para rutas de conmutación de etiquetas punto a multipunto (LSP) con señalización en banda es útil en una implementación con una red troncal IP/MPLS existente, en la que se necesita transportar tráfico de multidifusión, por ejemplo, para IPTV.
Durante años, la solución más utilizada para transportar tráfico de multidifusión ha sido usar multidifusión IP nativa en el núcleo del proveedor de servicios con tunelización IP multipunto para aislar el tráfico del cliente. Se implementa un protocolo de enrutamiento de multidifusión, normalmente multidifusión independiente del protocolo (PIM), para configurar las rutas de reenvío. El enrutamiento de multidifusión IP se utiliza para el reenvío, utilizando la señalización PIM en el núcleo. Para que este modelo funcione, la red central debe estar habilitada para multidifusión. Esto permite implementaciones eficaces y estables aun en casos de sistemas interautónomos (AS).
Sin embargo, en una red IP/MPLS existente, la implementación de PIM podría no ser la primera opción. Algunos proveedores de servicios están interesados en reemplazar la tunelización IP por encapsulación de etiquetas MPLS. Las motivaciones para pasar a la conmutación de etiquetas MPLS son aprovechar las características de ingeniería y protección del tráfico MPLS y reducir la cantidad de sobrecarga de tráfico de control en el núcleo del proveedor.
Para ello, los proveedores de servicios están interesados en aprovechar la extensión de los despliegues existentes para permitir el paso del tráfico de multidifusión. Las extensiones de multidifusión existentes para IP/MPLS son extensiones punto a multipunto para RSVP-TE y extensiones punto a multipunto y multipunto a multipunto para LDP. Estos escenarios de despliegue se describen en RFC 6826, Multipoint LDP In-Band Signaling for Point-to-Multipoint and Multipoint-to-Multipoint Label Switched Paths. Esta descripción general de las características se limita a las extensiones punto a multipunto para LDP.
- Cómo funciona M-LDP
- Terminología
- Traducción de unión de entrada y manejo de pseudointerfaces
- Empalme de entrada
- Reenvío de ruta inversa
- Detección de raíz LSP
- Traducción de unión de salida y manejo de pseudointerfaces
- Empalme de salida
- Funcionalidad admitida
- Funcionalidad no compatible
- Funcionalidad LDP
- Funcionalidad LER de salida
- Funcionalidad de Transit LSR
- Funcionalidad LER de entrada
Cómo funciona M-LDP
- Enlaces de etiquetas en la señalización M-LDP
- M-LDP en núcleo MPLS sin PIM
- M-LDP en núcleo MPLS habilitado para PIM
Enlaces de etiquetas en la señalización M-LDP
La extensión multipunto para LDP utiliza elementos de clase de equivalencia de reenvío (FEC) de punto a multipunto y de multipunto a multipunto (definidos en RFC 5036, Especificación LDP) junto con anuncios de capacidad, asignación de etiquetas y procedimientos de señalización. Los elementos FEC incluyen la idea de la raíz LSP, que es una dirección IP, y un valor "opaco", que es un selector que agrupa los nodos leaf que comparten el mismo valor opaco. El valor opaco es transparente para los nodos intermedios, pero tiene significado para la raíz LSP. Cada nodo LDP anuncia su etiqueta de entrada local que se vincula al nodo LDP ascendente en la ruta más corta a la dirección IP raíz que se encuentra en la FEC. El nodo ascendente que recibe los enlaces de etiqueta crea su propia etiqueta local e interfaces de salida. Este proceso de asignación de etiquetas puede dar lugar a la replicación de paquetes, si hay varias ramas salientes. Como se muestra en Figura 18, un nodo LDP combina los enlaces de etiqueta para el mismo valor opaco si encuentra nodos descendentes que comparten el mismo nodo ascendente. Esto permite la construcción efectiva de LSP punto a multipunto y la conservación de etiquetas.
M-LDP en núcleo MPLS sin PIM
Figura 19 muestra un escenario de implementación reducida. Dos dominios PIM separados están interconectados por un sitio central sin PIM. Los enrutadores de borde de este sitio principal admiten PIM en las interfaces de borde. Además, estos enrutadores de borde recopilan y distribuyen la información de enrutamiento desde los sitios adyacentes a la red principal. Los enrutadores perimetrales del sitio C ejecutan BGP para la detección de nodos raíz. Las rutas del protocolo de puerta de enlace interior (IGP) no se pueden usar para la detección de entrada porque, en la mayoría de los casos, el siguiente salto de reenvío proporcionado por el IGP no proporcionaría información sobre el dispositivo de entrada hacia el origen. La señalización en banda M-LDP tiene un mapeo uno a uno entre el LSP punto a multipunto y el flujo (S,G). Con la señalización en banda, los mensajes PIM se traducen directamente en enlaces FEC M-LDP. Por el contrario, la señalización fuera de banda se basa en la configuración manual. Una aplicación para la señalización en banda M-LDP es transportar tráfico de multidifusión IPTV en una red troncal MPLS.
Configuración
La instrucción de configuración mldp-inband-signalling
en el enrutador de borde de etiqueta (LER) permite que PIM utilice la señalización en banda M-LDP para los vecinos ascendentes cuando el LER no detecta un vecino PIM ascendente. La configuración estática de la raíz LSP de MPLS se incluye en la configuración PIM, mediante la directiva. Esto es necesario cuando el IBGP no está disponible en el sitio principal o para anular la detección de raíz LSP basada en IBGP.
Por ejemplo:
protocols { pim { mldp-inband-signalling { policy lsp-mapping-policy-example; } } }
policy-options { policy-statement lsp-mapping-policy-example { term channel1 { from { source-address-filter ip-prefix</prefix-length>; #policy filter for channel1 } then { p2mp-lsp-root { # Statically configured ingress address of edge # used by channel1 address ip-address; } accept; } } } }
M-LDP en núcleo MPLS habilitado para PIM
A partir de Junos OS versión 14.1, para migrar los servicios de IPTV existentes de multidifusión IP nativa a multidifusión MPLS, debe realizar una transición fluida de LSP punto a multipunto PIM a M-LDP con una interrupción mínima. Figura 20 muestra una topología M-LDP similar a Figura 19, pero con un escenario diferente. El núcleo está habilitado con PIM, con una fuente que transmite todos los canales de IPTV. Los canales de TV se envían como transmisiones ASM con cada canal identificado por su dirección de grupo. Anteriormente, estos canales se transmitían en el núcleo como flujos IP y se señalizaban mediante PIM.
Al configurar el en este escenario, la mldp-inband-signaling
señalización M-LDP se inicia sólo cuando no hay ningún vecino PIM hacia el origen. Sin embargo, dado que siempre hay un vecino PIM hacia el origen a menos que PIM se desactive en las interfaces ascendentes del PE de salida, PIM tiene prioridad sobre M-LDP y M-LDP no surte efecto.
Configuración
Para migrar progresivamente canal por canal al núcleo MPLS de M-LDP con pocas transmisiones que usen M-LDP ascendente y otras transmisiones que usen PIM existente ascendente, incluya la instrucción de selected-mldp-egress
configuración junto con filtros basados en grupos en el filtro de políticas para la señalización en banda M-LDP.
El filtro de política de señalización en banda M-LDP puede incluir la instrucción o la source-address-filter
route-filter
instrucción, o una combinación de ambas.
Por ejemplo:
protocols { pim { mldp-inband-signalling { policy lsp-mapping-policy-example; } } }
policy-options { policy-statement lsp-mapping-policy-example { term channel1 { from { source-address-filter ip-prefix</prefix-length>; #policy filter for channel1 } then { selected-mldp-egress; accept; } } term channel2 { from { source-address-filter ip-prefix</prefix-length>; #policy filter for channel2 route-filter ip-prefix</prefix-length>; #policy filter on multicast group address } then { selected-mldp-egress; p2mp-lsp-root { # Statically configured ingress address of edge # used by channel2 address ip-address; } accept; } } term channel3 { from { route-filter ip-prefix</prefix-length>; #policy filter on multicast group address } then { selected-mldp-egress; accept; } } } }
Algunas de las limitaciones de la configuración anterior son las siguientes:
La
selected-mldp-egress
instrucción solo debe configurarse en el LER. La configuración de laselected-mldp-egress
instrucción en enrutadores PIM que no salen puede provocar errores en la configuración de rutas.Cuando se realizan cambios de política para cambiar el tráfico de PIM ascendente a M-LDP ascendente y viceversa, se puede esperar una pérdida de paquetes a medida que se realiza un mecanismo de interrupción y fabricación en el plano de control.
Terminología
Los siguientes términos son importantes para comprender la señalización en banda M-LDP para el tráfico de multidifusión.
Point-to-point LSP | Un LSP que tiene un enrutador con conmutación de etiquetas de entrada (LSR) y un LSR de salida. |
Multipoint LSP | Un LSP de punto a multipunto o de multipunto a multipunto. |
Point-to-multipoint LSP | Un LSP que tiene un LSR de entrada y uno o más LSR de salida. |
Multipoint-to-point LSP | Un LSP que tiene uno o más LSR de entrada y un LSR de salida único. |
Multipoint-to-multipoint LSP | Un LSP que conecta un conjunto de nodos, de modo que el tráfico enviado por cualquier nodo del LSP se entrega a todos los demás. |
Ingress LSR | Un LSR de entrada para un LSP determinado es un LSR que puede enviar un paquete de datos a lo largo del LSP. Los LSP de multipunto a multipunto pueden tener LSR de entrada múltiple. Los LSP de punto a multipunto tienen solo uno, y ese nodo a menudo se denomina nodo raíz. |
Egress LSR | Un LSR de salida para un LSP determinado es un LSR que puede eliminar un paquete de datos de ese LSP para su posterior procesamiento. Los LSP punto a punto y multipunto a punto tienen un solo nodo de salida. Los LSP punto a multipunto y multipunto a multipunto pueden tener varios nodos de salida. |
Transit LSR | Un LSR que tiene accesibilidad a la raíz del LSP multipunto a través de un LSR ascendente conectado directamente y uno o más LSR descendentes conectados directamente. |
Bud LSR | Un LSR que es una salida pero también tiene uno o más LSR descendentes conectados directamente. |
Leaf node | Un LSR de salida o de brote en el contexto de un LSP punto a multipunto. En el contexto de un LSP multipunto a multipunto, un LSR es tanto la entrada como la salida para el mismo LSP multipunto a multipunto y también puede ser un LSR excepcional. |
Traducción de unión de entrada y manejo de pseudointerfaces
En el LER de entrada, LDP notifica a PIM acerca de los mensajes (S,G) que se reciben a través de la señalización en banda. PIM asocia cada mensaje (S,G) con una pseudointerfaz. Posteriormente, se inicia un mensaje de unión del árbol de ruta más corta (SPT) hacia el origen. PIM trata esto como un nuevo tipo de receptor local. Cuando se desactiva el LSP, PIM elimina este receptor local basándose en la notificación de LDP.
Empalme de entrada
LDP proporciona a PIM un siguiente salto que se asociará con cada entrada (S, G). PIM instala una ruta de multidifusión PIM (S,G) con el próximo salto LDP y otros receptores PIM. El siguiente salto es un siguiente salto compuesto de receptores locales + la lista de vecinos PIM aguas abajo + un siguiente salto de subnivel para el túnel LDP.
Reenvío de ruta inversa
El cálculo del reenvío de ruta inversa (RPF) de PIM se realiza en el nodo de salida.
PIM realiza la señalización en banda M-LDP cuando se cumplen todas las condiciones siguientes:
No hay vecinos PIM hacia la fuente.
Se configura la instrucción de señalización en banda M-LDP.
El siguiente salto se aprende a través de BGP o está presente en la asignación estática (especificada en una política de señalización en banda M-LDP).
De lo contrario, si se produce un error en la detección de raíz de LSP, PIM conserva la entrada (S,G) con un estado RPF de sin resolver.
PIM RPF registra esta dirección de origen cada vez que cambia la información de enrutamiento de unidifusión. Por lo tanto, si la ruta hacia el origen cambia, se repetirá el recálculo del FPR. Los siguientes saltos del protocolo BGP hacia la fuente también se supervisan para detectar cambios en la raíz LSP. Estos cambios pueden causar interrupciones del tráfico durante períodos cortos.
Detección de raíz LSP
Si la operación RPF detecta la necesidad de señalización en banda M-LDP aguas arriba, se detecta la raíz LSP (entrada). Esta raíz es un parámetro para la señalización LSP de LDP.
El nodo raíz se detecta de la siguiente manera:
Si la configuración estática existente especifica la dirección de origen, la raíz se toma como se indica en la configuración.
Se realiza una búsqueda en la tabla de enrutamiento de unidifusión. Si se encuentra la dirección de origen, el siguiente salto del protocolo hacia el origen se utiliza como raíz de LSP.
Antes de Junos OS versión 16.1, el LSP punto a multipunto de M-LDP se señalizaba desde una salida a la entrada utilizando la dirección raíz del LSR de entrada. Solo se puede acceder a esta dirección raíz a través de IGP, lo que limita el LSP punto a multipunto de M-LDP a un único sistema autónomo. Si la dirección raíz no es accesible a través de un IGP, pero accesible a través de BGP, y si esa ruta BGP se resuelve recursivamente a través de un LSP MPLS, entonces el LSP punto a multipunto no se señaliza más lejos de ese punto hacia la dirección raíz LSR de entrada.
Es necesario que estos LSP punto a multipunto no segmentados se señalicen a través de múltiples sistemas autónomos, lo que se puede utilizar para las siguientes aplicaciones:
interAS MVPN con LSP de punto a multipunto no segmentados.
La señalización en banda entre M-LDP del M-LDP entre las redes de cliente conectadas por una red de núcleo de CEMP.
Señalización en banda MVPN o M-LDP entre áreas con LSP punto a multipunto no segmentados (multidifusión MPLS sin interrupciones).
A partir de Junos OS versión 16.1, M-LDP puede señalar LSP punto a multipunto en ASBR o tránsito o salida cuando la dirección raíz es una ruta BGP que se resuelve recursivamente a través de un LSP MPLS.
Traducción de unión de salida y manejo de pseudointerfaces
En el LER de salida, PIM notifica a LDP el mensaje (S,G) que se va a señalar junto con la raíz LSP. PIM crea una pseudointerfaz como interfaz ascendente para este mensaje (S,G). Cuando se recibe un mensaje de poda (S,G), se elimina esta asociación.
Empalme de salida
En el nodo de salida de la red principal, donde se recibe el mensaje de unión (S,G) del sitio descendente, este mensaje de unión se traduce a parámetros de señalización en banda M-LDP y se notifica a LDP. Además, el desmontaje de LSP se produce cuando se pierde la entrada (S,G), cuando cambia la raíz de LSP o cuando se puede acceder a la entrada (S,G) a través de un vecino PIM.
Funcionalidad admitida
Para la señalización en banda M-LDP, Junos OS admite la siguiente funcionalidad:
Empalme de salida del próximo salto PIM con la ruta LDP
Empalme de entrada de la ruta PIM con el siguiente salto LDP
Traducción de mensajes de unión PIM a parámetros de configuración de LSP punto a multipunto de LDP
Traducción de parámetros LSP en banda M-LDP para configurar mensajes de unión PIM
Configuración estática y detección de raíz LSP basada en el próximo salto del protocolo BGP
Estados de PIM (S,G) en los intervalos de multidifusión de fuente específica (SSM) y multidifusión de cualquier fuente (ASM)
Instrucciones de configuración en los LER de entrada y salida para permitirles actuar como enrutadores perimetrales
Mensajes de unión IGMP en LER
Llevar la dirección de origen y grupo IPv6 como información opaca hacia un nodo raíz IPv4
Configuración estática para asignar un IPv6 (S,G) a una dirección raíz IPv4
Funcionalidad no compatible
Para la señalización en banda M-LDP, Junos OS no admite la siguiente funcionalidad:
Soporte completo para PIM ASM
El
mpls lsp point-to-multipoint ping
comando con una opción (S,G)Enrutamiento activo sin interrupciones (NSR)
Hacer antes de romper (MBB) para PIM
Direcciones raíz de LSP IPv6 (LDP no admite LSP IPv6).
Relación de vecino entre altavoces PIM que no están conectados directamente
Reinicio virtuoso
Modo denso PIM
Modo bidireccional PIM
Funcionalidad LDP
La información PIM (S,G) se transporta como codificaciones M-LDP opaque type-length-value (TLV). El elemento FEC punto a multipunto consta de la dirección del nodo raíz. En el caso de las VPN de multidifusión de próxima generación (NGEN MVPN), el LSP punto a multipunto se identifica mediante la dirección del nodo raíz y el ID del LSP.
Funcionalidad LER de salida
En el LER de salida, PIM activa LDP con la siguiente información para crear un LSP de punto a multipunto:
Nodo raíz
(S,G)
Siguiente salto
PIM busca el nodo raíz basándose en el origen del árbol de multidifusión. Si la dirección raíz está configurada para esta entrada (S,G), la dirección configurada se utiliza como raíz LSP de punto a multipunto. De lo contrario, la tabla de enrutamiento se utiliza para buscar la ruta al origen. Si la ruta al origen del árbol de multidifusión es una ruta aprendida por BGP, PIM recupera la dirección del próximo salto BGP y la utiliza como nodo raíz para el LSP punto a multipunto.
LDP encuentra el nodo ascendente basándose en el nodo raíz, asigna una etiqueta y envía la asignación de etiqueta al nodo ascendente. LDP no utiliza el penúltimo salto (PHP) para la señalización M-LDP en banda.
Si cambian las direcciones raíz del origen del árbol de multidifusión, PIM elimina el LSP de punto a multipunto y activa LDP para crear un nuevo LSP de punto a multipunto. Cuando esto sucede, la lista de interfaces salientes se convierte en NULL, PIM activa LDP para eliminar el LSP de punto a multipunto y LDP envía un mensaje de retirada de etiquetas al nodo ascendente.
Funcionalidad de Transit LSR
El LSR de tránsito anuncia una etiqueta al LSR ascendente hacia el origen del FEC punto a multipunto e instala el estado de reenvío necesario para reenviar los paquetes. El LSR de tránsito puede ser cualquier enrutador compatible con M-LDP.
Funcionalidad LER de entrada
En el LER de entrada, LDP proporciona la siguiente información a PIM al recibir la asignación de etiquetas:
(S,G)
Inundar el próximo salto
A continuación, PIM instala el estado de reenvío. Si se agregan o eliminan las nuevas ramas, el siguiente salto de inundación se actualiza en consecuencia. Si todas las ramas se eliminan debido a que se retira una etiqueta, LDP envía información actualizada a PIM. Si hay varios vínculos entre los vecinos ascendentes y descendentes, el LSP punto a multipunto no tiene equilibrio de carga.
Consulte también
Ejemplo: Configuración de la señalización en banda LDP multipunto para LSP de punto a multipunto
En este ejemplo se muestra cómo configurar la señalización en banda LDP MULTIPUNTO (M-LDP) para el tráfico de multidifusión, como una extensión del protocolo de multidifusión independiente del protocolo (PIM) o como sustituto de PIM.
Requisitos
Este ejemplo se puede configurar con los siguientes componentes de hardware y software:
Junos OS versión 13.2 o posterior
Plataformas de enrutamiento universal 5G serie MX o enrutadores perimetrales multiservicio serie M para enrutadores perimetrales de proveedor (PE)
Enrutadores de transporte de paquetes de la serie PTX que actúan como enrutadores con conmutación de etiquetas de tránsito
Enrutadores de núcleo de la serie T para los enrutadores principales
Los enrutadores PE también podrían ser enrutadores de núcleo de la serie T, pero eso no es típico. Según sus requisitos de escalabilidad, los enrutadores principales también podrían ser plataformas de enrutamiento universal 5G serie MX o enrutadores de borde multiservicio serie M. Los dispositivos perimetrales del cliente (CE) podrían ser otros enrutadores o conmutadores de Juniper Networks u otro proveedor.
No se necesita ninguna configuración especial más allá de la inicialización del dispositivo antes de configurar este ejemplo.
Descripción general
Configuración rápida de CLI muestra la configuración de todos los dispositivos en Figura 21. En esta sección #d358e63__d358e831 se describen los pasos del Device EgressPE.
Configuración
Procedimiento
Configuración rápida de CLI
Para configurar rápidamente este ejemplo, copie los siguientes comandos, péguelos en un archivo de texto, elimine los saltos de línea, cambie los detalles necesarios para que coincidan con su configuración de red y, a continuación, copie y pegue los comandos en la CLI en el nivel de [edit]
jerarquía.
Dispositivo src1
set logical-systems src1 interfaces fe-1/2/0 unit 0 family inet address 10.2.7.7/24 set logical-systems src1 interfaces lo0 unit 0 family inet address 10.1.1.7/32 set logical-systems src1 protocols ospf area 0.0.0.0 interface all
Entrada de dispositivosPE
set interfaces so-0/1/2 unit 0 family inet address 192.168.93.9/28 set interfaces fe-1/2/0 unit 0 family inet address 10.2.3.2/24 set interfaces fe-1/2/0 unit 0 family mpls set interfaces fe-1/2/1 unit 0 family inet address 10.2.5.2/24 set interfaces fe-1/2/2 unit 0 family inet address 10.2.6.2/24 set interfaces fe-1/2/2 unit 0 family mpls set interfaces fe-1/2/3 unit 0 family inet address 10.2.7.2/24 set interfaces fe-1/3/1 unit 0 family inet address 192.168.219.9/28 set interfaces lo0 unit 0 family inet address 10.1.1.2/32 set protocols igmp interface fe-1/2/1.0 version 3 set protocols igmp interface fe-1/2/1.0 static group 232.1.1.1 source 192.168.219.11 set protocols bgp group ibgp type internal set protocols bgp group ibgp local-address 10.1.1.2 set protocols bgp group ibgp family inet any set protocols bgp group ibgp family inet-vpn any set protocols bgp group ibgp neighbor 10.1.1.3 set protocols bgp group ibgp neighbor 10.1.1.4 set protocols bgp group ibgp neighbor 10.1.1.1 set protocols ospf area 0.0.0.0 interface all set protocols ldp interface fe-1/2/0.0 set protocols ldp interface fe-1/2/2.0 set protocols ldp interface lo0.0 set protocols ldp p2mp set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim rp static address 10.1.1.5 set protocols pim interface fe-1/3/1.0 set protocols pim interface lo0.0 set protocols pim interface fe-1/2/0.21 set protocols pim interface fe-1/2/3.0 set protocols pim interface fe-1/2/1.0 set protocols pim interface so-0/1/2.0 set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then accept set policy-options policy-statement mldppim-ex term A from source-address-filter 10.1.1.7/32 orlonger set policy-options policy-statement mldppim-ex term A from source-address-filter 10.2.7.0/24 orlonger set policy-options policy-statement mldppim-ex term A then accept set routing-options autonomous-system 64510
Salida del dispositivo PE
set interfaces so-0/1/3 unit 0 point-to-point set interfaces so-0/1/3 unit 0 family inet address 192.168.92.9/28 set interfaces fe-1/2/0 unit 0 family inet address 10.1.3.1/24 set interfaces fe-1/2/0 unit 0 family mpls set interfaces fe-1/2/1 unit 0 family inet address 10.1.4.1/24 set interfaces fe-1/2/2 unit 0 family inet address 10.1.6.1/24 set interfaces fe-1/2/2 unit 0 family mpls set interfaces fe-1/3/0 unit 0 family inet address 192.168.209.9/28 set interfaces lo0 unit 0 family inet address 10.1.1.1/32 set routing-options autonomous-system 64510 set protocols igmp interface fe-1/3/0.0 version 3 set protocols igmp interface fe-1/3/0.0 static group 232.1.1.1 group-count 3 set protocols igmp interface fe-1/3/0.0 static group 232.1.1.1 source 192.168.219.11 set protocols igmp interface fe-1/3/0.0 static group 227.1.1.1 set protocols igmp interface so-0/1/3.0 version 3 set protocols igmp interface so-0/1/3.0 static group 232.1.1.1 group-count 2 set protocols igmp interface so-0/1/3.0 static group 232.1.1.1 source 192.168.219.11 set protocols igmp interface so-0/1/3.0 static group 232.2.2.2 source 10.2.7.7 set protocols mpls interface fe-1/2/0.0 set protocols mpls interface fe-1/2/2.0 set protocols bgp group ibgp type internal set protocols bgp group ibgp local-address 10.1.1.1 set protocols bgp group ibgp family inet any set protocols bgp group ibgp neighbor 10.1.1.2 set protocols msdp local-address 10.1.1.1 set protocols msdp peer 10.1.1.5 set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface fe-1/2/0.0 set protocols ldp interface fe-1/2/2.0 set protocols ldp interface lo0.0 set protocols ldp p2mp set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim rp local address 10.1.1.1 set protocols pim rp local group-ranges 227.0.0.0/8 set protocols pim rp static address 10.1.1.4 set protocols pim rp static address 10.2.7.7 group-ranges 226.0.0.0/8 set protocols pim interface lo0.0 set protocols pim interface fe-1/3/0.0 set protocols pim interface fe-1/2/0.0 set protocols pim interface fe-1/2/1.0 set protocols pim interface so-0/1/3.0 set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set policy-options policy-statement mldppim-ex term A from source-address-filter 10.2.7.0/24 orlonger set policy-options policy-statement mldppim-ex term A then accept
Dispositivo p6
set interfaces fe-1/2/0 unit 0 family inet address 10.1.6.6/24 set interfaces fe-1/2/0 unit 0 family mpls set interfaces fe-1/2/1 unit 0 family inet address 10.2.6.6/24 set interfaces fe-1/2/1 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.6/32 set interfaces lo0 unit 0 family mpls set protocols ospf area 0.0.0.0 interface all set protocols ldp interface fe-1/2/0.0 set protocols ldp interface fe-1/2/1.0 set protocols ldp interface lo0.0 set protocols ldp p2mp
Dispositivo pr3
set interfaces ge-0/3/1 unit 0 family inet address 192.168.215.9/28 set interfaces fe-1/2/0 unit 0 family inet address 10.1.3.3/24 set interfaces fe-1/2/0 unit 0 family mpls set interfaces fe-1/2/1 unit 0 family inet address 10.2.3.3/24 set interfaces fe-1/2/1 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.3/32 set protocols igmp interface ge-0/3/1.0 version 3 set protocols igmp interface ge-0/3/1.0 static group 232.1.1.2 source 192.168.219.11 set protocols igmp interface ge-0/3/1.0 static group 232.2.2.2 source 10.2.7.7 set protocols bgp group ibgp local-address 10.1.1.3 set protocols bgp group ibgp type internal set protocols bgp group ibgp neighbor 10.1.1.2 set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface fe-1/2/1.0 metric 2 set protocols ldp interface fe-1/2/0.0 set protocols ldp interface fe-1/2/1.0 set protocols ldp interface lo0.0 set protocols ldp p2mp set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim interface fe-0/3/1.0 set protocols pim interface lo0.0 set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 10.2.7.7/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set routing-options autonomous-system 64510
Dispositivo pr4
set interfaces ge-0/3/0 unit 0 family inet address 192.168.207.9/28 set interfaces fe-1/2/0 unit 0 family inet address 10.1.4.4/24 set interfaces fe-1/2/0 unit 0 family iso set interfaces lo0 unit 0 family inet address 10.1.1.4/32 set protocols igmp interface ge-0/3/0.0 version 3 set protocols igmp interface ge-0/3/0.0 static group 232.1.1.2 source 192.168.219.11 set protocols igmp interface ge-0/3/0.0 static group 225.1.1.1 set protocols bgp group ibgp local-address 10.1.1.4 set protocols bgp group ibgp type internal set protocols bgp group ibgp neighbor 10.1.1.2 set protocols msdp local-address 10.1.1.4 set protocols msdp peer 10.1.1.5 set protocols ospf area 0.0.0.0 interface all set protocols pim rp local address 10.1.1.4 set protocols pim interface ge-0/3/0.0 set protocols pim interface lo0.0 set protocols pim interface fe-1/2/0.0 set routing-options autonomous-system 64510
Dispositivo pr5
set interfaces fe-1/2/0 unit 0 family inet address 10.2.5.5/24 set interfaces lo0 unit 0 family inet address 10.1.1.5/24 set protocols igmp interface lo0.0 version 3 set protocols igmp interface lo0.0 static group 232.1.1.1 source 192.168.219.11 set protocols msdp local-address 10.1.1.5 set protocols msdp peer 10.1.1.4 set protocols msdp peer 10.1.1.1 set protocols ospf area 0.0.0.0 interface all set protocols pim rp local address 10.1.1.5 set protocols pim interface all
Procedimiento paso a paso
En el ejemplo siguiente, debe explorar por varios niveles en la jerarquía de configuración. Para obtener información acerca de cómo navegar por la CLI, consulte Uso del editor de CLI en modo de configuración en la Guía del usuario de CLI.
Para configurar Device EgressPE:
Configure las interfaces.
Habilite MPLS en las interfaces orientadas al núcleo. En los próximos saltos de salida, no es necesario habilitar MPLS.
[edit interfaces] user@EgressPE# set fe-1/2/0 unit 0 family inet address 10.1.3.1/24 user@EgressPE# set fe-1/2/0 unit 0 family mpls user@EgressPE# set fe-1/2/2 unit 0 family inet address 10.1.6.1/24 user@EgressPE# set fe-1/2/2 unit 0 family mpls user@EgressPE# set so-0/1/3 unit 0 point-to-point user@EgressPE# set so-0/1/3 unit 0 family inet address 192.168.92.9/28 user@EgressPE# set fe-1/2/1 unit 0 family inet address 10.1.4.1/24 user@EgressPE# set fe-1/3/0 unit 0 family inet address 192.168.209.9/28 user@EgressPE# set lo0 unit 0 family inet address 10.1.1.1/32
Configure IGMP en las interfaces de salida.
Para fines de prueba, este ejemplo incluye direcciones estáticas de grupo y origen.
[edit protocols igmp] user@EgressPE# set interface fe-1/3/0.0 version 3 user@EgressPE# set interface fe-1/3/0.0 static group 232.1.1.1 group-count 3 user@EgressPE# set interface fe-1/3/0.0 static group 232.1.1.1 source 192.168.219.11 user@EgressPE# set interface fe-1/3/0.0 static group 227.1.1.1 user@EgressPE# set interface so-0/1/3.0 version 3 user@EgressPE# set interface so-0/1/3.0 static group 232.1.1.1 group-count 2 user@EgressPE# set interface so-0/1/3.0 static group 232.1.1.1 source 192.168.219.11 user@EgressPE# set interface so-0/1/3.0 static group 232.2.2.2 source 10.2.7.7
Configure MPLS en las interfaces orientadas al núcleo.
[edit protocols mpls] user@EgressPE# set interface fe-1/2/0.0 user@EgressPE# set interface fe-1/2/2.0
Configure BGP.
BGP es un protocolo basado en políticas, por lo que también configure y aplique las políticas de enrutamiento necesarias.
Por ejemplo, es posible que desee exportar rutas estáticas a BGP.
[edit protocols bgp group ibgp] user@EgressPE# set type internal user@EgressPE# set local-address 10.1.1.1 user@EgressPE# set family inet any user@EgressPE# set neighbor 10.1.1.2
(Opcional) Configure una conexión de par MSDP con el dispositivo pr5 para interconectar los dominios PIM dispares, habilitando así RP redundantes.
[edit protocols msdp] user@EgressPE# set local-address 10.1.1.1 user@EgressPE# set peer 10.1.1.5
Configure OSPF.
[edit protocols ospf area 0.0.0.0] user@EgressPE# set interface all user@EgressPE# set interface fxp0.0 disable
Configure LDP en las interfaces orientadas al núcleo y en la interfaz de circuito cerrado.
[edit protocols ldp] user@EgressPE# set interface fe-1/2/0.0 user@EgressPE# set interface fe-1/2/2.0 user@EgressPE# set interface lo0.0
Habilite los LSP MPLS punto a multipunto.
[edit protocols ldp] user@EgressPE# set p2mp
Configure PIM en las interfaces descendentes.
[edit protocols pim] user@EgressPE# set interface lo0.0 user@EgressPE# set interface fe-1/3/0.0 user@EgressPE# set interface fe-1/2/1.0 user@EgressPE# set interface so-0/1/3.0
Configure las opciones de RP porque este dispositivo sirve como punto de encuentro (RP) PIM.
[edit protocols pim] user@EgressPE# set rp local address 10.1.1.1 user@EgressPE# set rp local group-ranges 227.0.0.0/8 user@EgressPE# set rp static address 10.1.1.4 user@EgressPE# set rp static address 10.2.7.7 group-ranges 226.0.0.0/8
Active la señalización en banda de M-LDP y establezca la política asociada.
[edit protocols pim] user@EgressPE# set mldp-inband-signalling policy mldppim-ex
Configure la directiva de enrutamiento que especifica la dirección raíz para el LSP punto a multipunto y las direcciones de origen asociadas.
[edit policy-options policy-statement mldppim-ex] user@EgressPE# set term B from source-address-filter 192.168.0.0/24 orlonger user@EgressPE# set term B from source-address-filter 192.168.219.11/32 orlonger user@EgressPE# set term B then p2mp-lsp-root address 10.1.1.2 user@EgressPE# set term B then accept user@EgressPE# set term A from source-address-filter 10.2.7.0/24 orlonger user@EgressPE# set term A then accept
Configure el ID del sistema autónomo (AS).
[edit routing-options] user@EgressPE# set autonomous-system 64510
Resultados
Desde el modo de configuración, ingrese los comandos show interfaces
, show protocols
, show policy-options
y show routing-options
para confirmar la configuración. Si el resultado no muestra la configuración deseada, repita las instrucciones en este ejemplo para corregir la configuración.
Salida del dispositivo PE
user@EgressPE# show interfaces
so-0/1/3 {
unit 0 {
point-to-point;
family inet {
address 192.168.92.9/28;
}
}
}
fe-1/2/0 {
unit 0 {
family inet {
address 10.1.3.1/24;
}
family mpls;
}
}
fe-1/2/1 {
unit 0 {
family inet {
address 10.1.4.1/24;
}
}
}
fe-1/2/2 {
unit 0 {
family inet {
address 10.1.6.1/24;
}
family mpls;
}
}
fe-1/3/0 {
unit 0 {
family inet {
address 192.168.209.9/28;
}
}
}
lo0 {
unit 0 {
family inet {
address 10.1.1.1/32;
}
}
}
user@EgressPE# show protocols
igmp {
interface fe-1/3/0.0 {
version 3;
static {
group 232.1.1.1 {
group-count 3;
source 192.168.219.11;
}
group 227.1.1.1;
}
}
interface so-0/1/3.0 {
version 3;
static {
group 232.1.1.1 {
group-count 2;
source 192.168.219.11;
}
group 232.2.2.2 {
source 10.2.7.7;
}
}
}
}
mpls {
interface fe-1/2/0.0;
interface fe-1/2/2.0;
}
bgp {
group ibgp {
type internal;
local-address 10.1.1.1;
family inet {
any;
}
neighbor 10.1.1.2;
}
}
msdp {
local-address 10.1.1.1;
peer 10.1.1.5;
}
ospf {
area 0.0.0.0 {
interface all;
interface fxp0.0 {
disable;
}
}
}
ldp {
interface fe-1/2/0.0;
interface fe-1/2/2.0;
interface lo0.0;
p2mp;
}
pim {
mldp-inband-signalling {
policy mldppim-ex;
}
rp {
local {
address 10.1.1.1;
group-ranges {
227.0.0.0/8;
}
}
static {
address 10.1.1.4;
address 10.2.7.7 {
group-ranges {
226.0.0.0/8;
}
}
}
}
interface lo0.0;
interface fe-1/3/0.0;
interface fe-1/2/0.0;
interface fe-1/2/1.0;
interface so-0/1/3.0;
}
user@EgressPE# show policy-options
policy-statement mldppim-ex {
term B {
from {
source-address-filter 192.168.0.0/24 orlonger;
source-address-filter 192.168.219.11/32 orlonger;
}
then {
p2mp-lsp-root {
address 10.1.1.2;
}
accept;
}
}
term A {
from {
source-address-filter 10.2.7.0/24 orlonger;
}
then accept;
}
}
user@EgressPE# show routing-options
autonomous-system 64510;
Del mismo modo, configure los demás dispositivos de salida.
Si ha terminado de configurar los dispositivos, ingrese commit
desde el modo de configuración.
Verificación
Confirme que la configuración funcione correctamente.
- Comprobación de los estados de unión de PIM
- Comprobación de los orígenes PIM
- Comprobación de la base de datos LDP
- Buscar la información de ruta para la etiqueta MPLS
- Comprobación de las estadísticas de tráfico de LDP
Comprobación de los estados de unión de PIM
Propósito
Muestra información sobre los estados de unión PIM para verificar los detalles de M-LDP en banda ascendente y descendente. En el dispositivo de entrada, se muestra Pseudo-MLDP
el show pim join extensive
comando para la interfaz descendente. En la salida, se muestra Pseudo-MLDP
el show pim join extensive
comando para la interfaz ascendente.
Acción
Desde el modo operativo, ingrese el comando show pim join extensive
.
user@IngressPE> show pim join extensive Instance: PIM.master Family: INET R = Rendezvous Point Tree, S = Sparse, W = Wildcard Group: 232.1.1.1 Source: 192.168.219.11 Flags: sparse,spt Upstream interface: fe-1/3/1.0 Upstream neighbor: Direct Upstream state: Local Source Keepalive timeout: Uptime: 1d 23:00:12 Downstream neighbors: Interface: Pseudo-MLDP Interface: fe-1/2/1.0 10.2.5.2 State: Join Flags: S Timeout: Infinity Uptime: 1d 23:00:12 Time since last Join: 1d 23:00:12 Group: 232.1.1.2 Source: 192.168.219.11 Flags: sparse,spt Upstream interface: fe-1/3/1.0 Upstream neighbor: Direct Upstream state: Local Source Keepalive timeout: Uptime: 1d 22:59:59 Downstream neighbors: Interface: Pseudo-MLDP Group: 232.1.1.3 Source: 192.168.219.11 Flags: sparse,spt Upstream interface: fe-1/3/1.0 Upstream neighbor: Direct Upstream state: Local Source Keepalive timeout: Uptime: 1d 22:07:31 Downstream neighbors: Interface: Pseudo-MLDP Group: 232.2.2.2 Source: 10.2.7.7 Flags: sparse,spt Upstream interface: fe-1/2/3.0 Upstream neighbor: Direct Upstream state: Local Source Keepalive timeout: Uptime: 1d 22:59:59 Downstream neighbors: Interface: Pseudo-MLDP user@EgressPE> show pim join extensive Instance: PIM.master Family: INET R = Rendezvous Point Tree, S = Sparse, W = Wildcard Group: 227.1.1.1 Source: * RP: 10.1.1.1 Flags: sparse,rptree,wildcard Upstream interface: Local Upstream neighbor: Local Upstream state: Local RP Uptime: 1d 23:14:21 Downstream neighbors: Interface: fe-1/3/0.0 192.168.209.9 State: Join Flags: SRW Timeout: Infinity Uptime: 1d 23:14:21 Time since last Join: 1d 20:12:35 Group: 232.1.1.1 Source: 192.168.219.11 Flags: sparse,spt Upstream protocol: MLDP Upstream interface: Pseudo MLDP Upstream neighbor: MLDP LSP root <10.1.1.2> Upstream state: Join to Source Keepalive timeout: Uptime: 1d 23:14:22 Downstream neighbors: Interface: so-0/1/3.0 192.168.92.9 State: Join Flags: S Timeout: Infinity Uptime: 1d 20:12:35 Time since last Join: 1d 20:12:35 Downstream neighbors: Interface: fe-1/3/0.0 192.168.209.9 State: Join Flags: S Timeout: Infinity Uptime: 1d 20:12:35 Time since last Join: 1d 20:12:35 Group: 232.1.1.2 Source: 192.168.219.11 Flags: sparse,spt Upstream protocol: MLDP Upstream interface: Pseudo MLDP Upstream neighbor: MLDP LSP root <10.1.1.2> Upstream state: Join to Source Keepalive timeout: Uptime: 1d 23:14:22 Downstream neighbors: Interface: so-0/1/3.0 192.168.92.9 State: Join Flags: S Timeout: Infinity Uptime: 1d 20:12:35 Time since last Join: 1d 20:12:35 Downstream neighbors: Interface: fe-1/2/1.0 10.1.4.4 State: Join Flags: S Timeout: 198 Uptime: 1d 22:59:59 Time since last Join: 00:00:12 Downstream neighbors: Interface: fe-1/3/0.0 192.168.209.9 State: Join Flags: S Timeout: Infinity Uptime: 1d 20:12:35 Time since last Join: 1d 20:12:35 Group: 232.1.1.3 Source: 192.168.219.11 Flags: sparse,spt Upstream protocol: MLDP Upstream interface: Pseudo MLDP Upstream neighbor: MLDP LSP root <10.1.1.2> Upstream state: Join to Source Keepalive timeout: Uptime: 1d 20:12:35 Downstream neighbors: Interface: fe-1/3/0.0 192.168.209.9 State: Join Flags: S Timeout: Infinity Uptime: 1d 20:12:35 Time since last Join: 1d 20:12:35 Group: 232.2.2.2 Source: 10.2.7.7 Flags: sparse,spt Upstream protocol: MLDP Upstream interface: Pseudo MLDP Upstream neighbor: MLDP LSP root <10.1.1.2> Upstream state: Join to Source Keepalive timeout: Uptime: 1d 20:12:35 Downstream neighbors: Interface: so-0/1/3.0 192.168.92.9 State: Join Flags: S Timeout: Infinity Uptime: 1d 20:12:35 Time since last Join: 1d 20:12:35 user@pr3> show pim join extensive Instance: PIM.master Family: INET R = Rendezvous Point Tree, S = Sparse, W = Wildcard Group: 232.1.1.2 Source: 192.168.219.11 Flags: sparse,spt Upstream protocol: MLDP Upstream interface: Pseudo MLDP Upstream neighbor: MLDP LSP root <10.1.1.2> Upstream state: Join to Source Keepalive timeout: Uptime: 1d 20:14:40 Downstream neighbors: Interface: Pseudo-GMP ge-0/3/1.0 Group: 232.2.2.2 Source: 10.2.7.7 Flags: sparse,spt Upstream protocol: MLDP Upstream interface: Pseudo MLDP Upstream neighbor: MLDP LSP root <10.1.1.2> Upstream state: Join to Source Keepalive timeout: Uptime: 1d 20:14:40 Downstream neighbors: Interface: Pseudo-GMP ge-0/3/1.0 user@pr4> show pim join extensive Instance: PIM.master Family: INET R = Rendezvous Point Tree, S = Sparse, W = Wildcard Group: 225.1.1.1 Source: * RP: 10.1.1.4 Flags: sparse,rptree,wildcard Upstream interface: Local Upstream neighbor: Local Upstream state: Local RP Uptime: 1d 23:13:43 Downstream neighbors: Interface: ge-0/3/0.0 192.168.207.9 State: Join Flags: SRW Timeout: Infinity Uptime: 1d 23:13:43 Time since last Join: 1d 23:13:43 Group: 232.1.1.2 Source: 192.168.219.11 Flags: sparse,spt Upstream interface: fe-1/2/0.0 Upstream neighbor: 10.1.4.1 Upstream state: Local RP, Join to Source Keepalive timeout: 0 Uptime: 1d 23:13:43 Downstream neighbors: Interface: ge-0/3/0.0 192.168.207.9 State: Join Flags: S Timeout: Infinity Uptime: 1d 23:13:43 Time since last Join: 1d 23:13:43 user@pr5> show pim join extensive ge-0/3/1.0 Instance: PIM.master Family: INET R = Rendezvous Point Tree, S = Sparse, W = Wildcard Instance: PIM.master Family: INET6 R = Rendezvous Point Tree, S = Sparse, W = Wildcard
Comprobación de los orígenes PIM
Propósito
Verifique que las fuentes PIM tengan los detalles esperados de M-LDP en banda ascendente y descendente.
Acción
Desde el modo operativo, ingrese el comando show pim source
.
user@IngressPE> show pim source Instance: PIM.master Family: INET Source 10.1.1.1 Prefix 10.1.1.1/32 Upstream interface Local Upstream neighbor Local Source 10.2.7.7 Prefix 10.2.7.0/24 Upstream protocol MLDP Upstream interface Pseudo MLDP Upstream neighbor MLDP LSP root <10.1.1.2> Source 192.168.219.11 Prefix 192.168.219.0/28 Upstream protocol MLDP Upstream interface Pseudo MLDP Upstream neighbor MLDP LSP root <10.1.1.2>
user@EgressPE> show pim source Instance: PIM.master Family: INET Source 10.2.7.7 Prefix 1.2.7.0/24 Upstream interface fe-1/2/3.0 Upstream neighbor 10.2.7.2 Source 10.2.7.7 Prefix 10.2.7.0/24 Upstream interface fe-1/2/3.0 Upstream neighbor Direct Source 192.168.219.11 Prefix 192.168.219.0/28 Upstream interface fe-1/3/1.0 Upstream neighbor 192.168.219.9 Source 192.168.219.11 Prefix 192.168.219.0/28 Upstream interface fe-1/3/1.0 Upstream neighbor Direct
user@pr3> show pim source Instance: PIM.master Family: INET Source 10.2.7.7 Prefix 1.2.7.0/24 Upstream protocol MLDP Upstream interface Pseudo MLDP Upstream neighbor MLDP LSP root <10.1.1.2> Source 192.168.219.11 Prefix 192.168.219.0/28 Upstream protocol MLDP Upstream interface Pseudo MLDP Upstream neighbor MLDP LSP root <10.1.1.2>
user@pr4> show pim source Instance: PIM.master Family: INET Source 10.1.1.4 Prefix 10.1.1.4/32 Upstream interface Local Upstream neighbor Local Source 192.168.219.11 Prefix 192.168.219.0/28 Upstream interface fe-1/2/0.0 Upstream neighbor 10.1.4.1
Comprobación de la base de datos LDP
Propósito
Asegúrese de que el show ldp database
comando muestra los enlaces de raíz a (S,G) esperados.
Acción
user@IngressPE> show ldp database Input label database, 10.255.2.227:0--10.1.1.3:0 Label Prefix 300096 10.1.1.2/32 3 10.1.1.3/32 299856 10.1.1.6/32 299776 10.255.2.227/32 Output label database, 10.255.2.227:0--10.1.1.3:0 Label Prefix 300144 10.1.1.2/32 299776 10.1.1.3/32 299856 10.1.1.6/32 3 10.255.2.227/32 Input label database, 10.255.2.227:0--10.1.1.6:0 Label Prefix 299936 10.1.1.2/32 299792 10.1.1.3/32 3 10.1.1.6/32 299776 10.255.2.227/32 Output label database, 10.255.2.227:0--10.1.1.6:0 Label Prefix 300144 10.1.1.2/32 299776 10.1.1.3/32 299856 10.1.1.6/32 3 10.255.2.227/32 300432 P2MP root-addr 10.1.1.2, grp: 232.2.2.2, src: 10.2.7.7 300288 P2MP root-addr 10.1.1.2, grp: 232.1.1.1, src: 192.168.219.11 300160 P2MP root-addr 10.1.1.2, grp: 232.1.1.2, src: 192.168.219.11 300480 P2MP root-addr 10.1.1.2, grp: 232.1.1.3, src: 192.168.219.11
user@EgressPE> show ldp database Input label database, 10.1.1.2:0--10.1.1.3:0 Label Prefix 300096 10.1.1.2/32 3 10.1.1.3/32 299856 10.1.1.6/32 299776 10.255.2.227/32 300144 P2MP root-addr 10.1.1.2, grp: 232.2.2.2, src: 10.2.7.7 300128 P2MP root-addr 10.1.1.2, grp: 232.1.1.2, src: 192.168.219.11 Output label database, 10.1.1.2:0--10.1.1.3:0 Label Prefix 3 10.1.1.2/32 299776 10.1.1.3/32 299808 10.1.1.6/32 299792 10.255.2.227/32 Input label database, 10.1.1.2:0--10.1.1.6:0 Label Prefix 299936 10.1.1.2/32 299792 10.1.1.3/32 3 10.1.1.6/32 299776 10.255.2.227/32 300128 P2MP root-addr 10.1.1.2, grp: 232.2.2.2, src: 10.2.7.7 299984 P2MP root-addr 10.1.1.2, grp: 232.1.1.1, src: 192.168.219.11 299952 P2MP root-addr 10.1.1.2, grp: 232.1.1.2, src: 192.168.219.11 300176 P2MP root-addr 10.1.1.2, grp: 232.1.1.3, src: 192.168.219.11 300192 P2MP root-addr 10.1.1.2, grp: ff3e::1:2, src: 2001:db8:abcd::10:2:7:7 Output label database, 10.1.1.2:0--10.1.1.6:0 Label Prefix 3 10.1.1.2/32 299776 10.1.1.3/32 299808 10.1.1.6/32 299792 10.255.2.227/32 ----- logical-system: default Input label database, 10.255.2.227:0--10.1.1.3:0 Label Prefix 300096 10.1.1.2/32 3 10.1.1.3/32 299856 10.1.1.6/32 299776 10.255.2.227/32 Output label database, 10.255.2.227:0--10.1.1.3:0 Label Prefix 300144 10.1.1.2/32 299776 10.1.1.3/32 299856 10.1.1.6/32 3 10.255.2.227/32 Input label database, 10.255.2.227:0--10.1.1.6:0 Label Prefix 299936 10.1.1.2/32 299792 10.1.1.3/32 3 10.1.1.6/32 299776 10.255.2.227/32 Output label database, 10.255.2.227:0--10.1.1.6:0 Label Prefix 300144 10.1.1.2/32 299776 10.1.1.3/32 299856 10.1.1.6/32 3 10.255.2.227/32 300432 P2MP root-addr 10.1.1.2, grp: 232.2.2.2, src: 10.2.7.7 300288 P2MP root-addr 10.1.1.2, grp: 232.1.1.1, src: 192.168.219.11 300160 P2MP root-addr 10.1.1.2, grp: 232.1.1.2, src: 192.168.219.11 300480 P2MP root-addr 10.1.1.2, grp: 232.1.1.3, src: 192.168.219.11 300496 P2MP root-addr 10.1.1.2, grp: ff3e::1:2, src: 2001:db8:abcd::10:2:7:7
user@p6> show ldp database Input label database, 10.1.1.6:0--10.1.1.2:0 Label Prefix 3 10.1.1.2/32 299776 10.1.1.3/32 299808 10.1.1.6/32 Output label database, 10.1.1.6:0--10.1.1.2:0 Label Prefix 299776 10.1.1.2/32 299792 10.1.1.3/32 3 10.1.1.6/32
user@pr3> show ldp database Input label database, 10.1.1.3:0--10.1.1.2:0 Label Prefix 3 10.1.1.2/32 299776 10.1.1.3/32 299808 10.1.1.6/32 299792 10.255.2.227/32 Output label database, 10.1.1.3:0--10.1.1.2:0 Label Prefix 300096 10.1.1.2/32 3 10.1.1.3/32 299856 10.1.1.6/32 299776 10.255.2.227/32 300144 P2MP root-addr 10.1.1.2, grp: 232.2.2.2, src: 10.2.7.7 300128 P2MP root-addr 10.1.1.2, grp: 232.1.1.2, src: 192.168.219.11 Input label database, 10.1.1.3:0--10.255.2.227:0 Label Prefix 300144 10.1.1.2/32 299776 10.1.1.3/32 299856 10.1.1.6/32 3 10.255.2.227/32 Output label database, 10.1.1.3:0--10.255.2.227:0 Label Prefix 300096 10.1.1.2/32 3 10.1.1.3/32 299856 10.1.1.6/32 299776 10.255.2.227/32
Buscar la información de ruta para la etiqueta MPLS
Propósito
Mostrar la información de FEC punto a multipunto.
Acción
user@EgressPE> show route label 299808 detail mpls.0: 14 destinations, 14 routes (14 active, 0 holddown, 0 hidden) 299808 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Flood Address: 0x931922c Next-hop reference count: 3 Next hop type: Router, Next hop index: 1109 Address: 0x9318b0c Next-hop reference count: 2 Next hop: via so-0/1/3.0 Label operation: Pop Next hop type: Router, Next hop index: 1110 Address: 0x93191e0 Next-hop reference count: 2 Next hop: 192.168.209.11 via fe-1/3/0.0 Label operation: Pop State: **Active Int AckRequest> Local AS: 10 Age: 13:08:15 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I FECs bound to route: P2MP root-addr 10.1.1.2, grp: 232.1.1.1, src: 192.168.219.11
Comprobación de las estadísticas de tráfico de LDP
Propósito
Supervise las estadísticas de tráfico de datos para el LSP punto a multipunto.
Acción
user@EgressPE> show ldp traffic-statistics p2mp P2MP FEC Statistics: FEC(root_addr:lsp_id/grp,src) Nexthop Packets Bytes Shared 10.1.1.2:232.2.2.2,10.2.7.7 so-0/1/3.0 0 0 No 10.1.1.2:232.1.1.1,192.168.219.11 so-0/1/3.0 0 0 No fe-1/3/0.0 0 0 No 10.1.1.2:232.1.1.2,192.168.219.11 so-0/1/3.0 0 0 No fe-1/3/0.0 0 0 No lt-1/2/0.14 0 0 No 10.1.1.2:232.1.1.3,192.168.219.11 fe-1/3/0.0 0 0 No 10.1.1.2:ff3e::1:2,2001:db8:abcd::1:2:7:7 fe-1/3/0.0 0 0 No
Asignación de cliente y servidor para enrutamiento de segmentos a la interoperabilidad de LDP
El servidor de mapeo de enrutamiento de segmentos y la compatibilidad con clientes permite la interoperabilidad entre las islas de red que ejecutan LDP y el enrutamiento de segmentos (SR o SPRING). Esta interoperabilidad es útil durante una migración de LDP a SR. Durante la transición , puede haber islas (o dominios) con dispositivos que solo admitan LDP o solo enrutamiento por segmentos. Para que estos dispositivos interactúen, se requiere la funcionalidad del servidor de mapeo de enrutamiento de segmentos (SRMS) y del cliente de mapeo de enrutamiento de segmentos (SRMC). Estas funciones de servidor y cliente se habilitan en un dispositivo de la red de enrutamiento de segmentos.
La funcionalidad de servidor y cliente de mapeo de SR es compatible con OSPF o ISIS.
- Descripción general de la interoperabilidad del enrutamiento por segmentos a LDP
- Interoperabilidad de enrutamiento por segmentos a LDP mediante OSPF
- Interoperabilidad del enrutamiento por segmentos con LDP mediante ISIS
Descripción general de la interoperabilidad del enrutamiento por segmentos a LDP
Figura 22 muestra una topología de red LDP sencilla para ilustrar cómo funciona la interoperabilidad de los dispositivos de enrutamiento de segmentos con dispositivos LDP. Tenga en cuenta que tanto OSPF como ISIS son compatibles, por lo que por ahora mantendremos las cosas agnósticas con respecto al IGP. La topología de ejemplo tiene seis dispositivos, R1 a R6, en una red que está experimentando una migración de LDP a enrutamiento de segmentos.
En la topología, los dispositivos R1, R2 y R3 están configurados solo para el enrutamiento de segmentos. Los dispositivos R5 y R6 forman parte de un dominio LDP heredado y actualmente no admiten SR. El dispositivo R4 admite tanto LDP como enrutamiento de segmentos. Se muestran las direcciones de circuito cerrado de todos los dispositivos. Estos bucleres invertidos se anuncian como FEC de salida en el dominio LDP y como ID de nodo de SR en el dominio de SR. La interoperabilidad se basa en la asignación de un FEC de LDP en un ID de nodo de SR, y viceversa.
Para que R1 interfuncione con R6, se necesitan un servidor de mapeo de enrutamiento de segmentos (SRMS) y un cliente de mapeo de enrutamiento de segmentos (SRMC). Es más fácil entender el papel del SRMS y SRMC observando el flujo de tráfico de una manera unidireccional. Basándonos en Figura 22, diremos que el tráfico que fluye de izquierda a derecha se origina en el dominio SR y termina en el dominio LDP. Del mismo modo, el tráfico que fluye de derecha a izquierda se origina en el dominio LDP y termina en el dominio SR.
El SRMS proporciona la información necesaria para unir el tráfico de izquierda a derecha. El SRMC proporciona una asignación para el tráfico que fluye de derecha a izquierda.
- Flujo de tráfico de izquierda a derecha: El servidor de asignación de enrutamiento por segmentos
El SRMS facilita la unión de LSP entre los dominios SR y LDP. El servidor asigna FEC de LDP a identificadores de nodo de SR. Configure las FEC de LDP para que se asignen en el nivel de
[edit routing-options source-packet-routing]
jerarquía. Normalmente, debe asignar todas las direcciones de bucle invertido de nodo LDP para una conectividad completa. Como se muestra a continuación, puede asignar prefijos contiguos en una sola instrucción de rango. Si los loopbacks del nodo LDP no son contiguos, debe definir varias instrucciones de asignación.La configuración de asignación de SRMS se aplica en el nivel de
[edit protocols ospf]
jerarquía o[edit protocols isis]
. Esta elección depende de qué IGP se está utilizando. Tenga en cuenta que los nodos SR y LDP comparten un dominio de enrutamiento IGP común de área o nivel único.El SRMS genera una lista de prefijos extendida LSA (o LSP en el caso de ISIS). La información de este LSA permite a los nodos de SR asignar prefijos LDP (FEC) a identificadores de nodo de SR. Las rutas asignadas para los prefijos LDP se instalan en las
inet.3
mpls.0
tablas y enrutamiento de los nodos SR para facilitar la entrada de LSP y las operaciones de unión para el tráfico en la dirección izquierda a derecha.El LSA extendido (o LSP) se inunda en toda el área (única) de IGP. Esto significa que usted es libre de colocar la configuración de SRMS en cualquier enrutador del dominio de SR. El nodo SRMS no tiene que ejecutar LDP.
- Flujo de tráfico de derecha a izquierda: El cliente de asignación de enrutamiento por segmentos
Para interoperar de derecha a izquierda, es decir, desde la isla LDP a la isla SR, simplemente habilite la funcionalidad de cliente de mapeo de enrutamiento de segmentos en un nodo que hable tanto SR como LDP. En nuestro ejemplo eso es R4. La funcionalidad SRMC se activa con la
mapping-client
instrucción en la[edit protocols ldp]
jerarquía.La configuración de SRMC activa automáticamente una política de salida de LDP para anunciar el nodo y el prefijo SID del dominio de SR como FEC de salida de LDP. Esto proporciona a los nodos LDP accesibilidad LSP a los nodos del dominio SR.
- La función SRMC debe configurarse en un enrutador que se conecte a los dominios SR y LSP. Si se desea, el mismo nodo también puede funcionar como SRMS.
Interoperabilidad de enrutamiento por segmentos a LDP mediante OSPF
Consulte a Figura 22, suponga que device R2 (en la red de enrutamiento de segmentos) es el SRMS.
-
Defina la función SRMS:
[edit routing-options source-packet-routing ] user@R2# set mapping-server-entry ospf-mapping-server prefix-segment-range ldp-lo0s start-prefix 192.168.0.5 user@R2# set mapping-server-entry ospf-mapping-server prefix-segment-range ldp-lo0s start-index 1000 user@R2# set mapping-server-entry ospf-mapping-server prefix-segment-range ldp-lo0s size 2
Esta configuración crea un bloque de asignación para las direcciones de bucle invertido del dispositivo LDP en la topología de ejemplo. El índice inicial de ID de segmento (SID) asignado al circuito cerrado de R5 es
1000
. Si se especifica el tamaño2
, el índice SID 10001 se asigna a la dirección de bucle invertido de R6.Nota:La dirección IP utilizada como dirección
start-prefix
de circuito cerrado de un dispositivo en la red LDP (R5, en este ejemplo). Para una conectividad completa, debe asignar todas las direcciones de circuito cerrado de los enrutadores LDP al dominio SR. Si las direcciones de circuito cerrado son contiguas, puede hacerlo con una solaprefix-segment-range
instrucción. Los bucles invertidos no contiguos requieren la definición de varias instrucciones de asignación de prefijos.Nuestro ejemplo usa loopbacks contiguos para que se muestre un solo arriba
prefix-segment-range
. Este es un ejemplo de múltiples asignaciones para admitir el caso de dos nodos LDP con direccionamiento de circuito cerrado no contiguo:[edit routing-options source-packet-routing] show mapping-server-entry map-server-name { prefix-segment-range lo1 { start-prefix 192.168.0.5/32; start-index 1000; size 1; } prefix-segment-range lo2 { start-prefix 192.168.0.10/32; start-index 2000; size 1; } } }
-
A continuación, configure la compatibilidad de OSPF para el LSA extendido utilizado para inundar los prefijos asignados.
[edit protocols] user@R2# set ospf source-packet-routing mapping-server ospf-mapping-server
Una vez confirmada la configuración del servidor de asignación en el dispositivo R2, el TLV de rango de prefijo extendido se inunda en el área OSPF. Los dispositivos capaces de enrutamiento de segmentos (R1, R2 y R3) instalan rutas de enrutamiento de segmentos OSPF para la dirección de circuito cerrado especificada (R5 y R6 en este ejemplo), con un índice de ID de segmento (SID). El índice SID también se actualiza en la tabla de
mpls.0
enrutamiento mediante los dispositivos de enrutamiento de segmento. -
Habilite la funcionalidad SRMC. Para nuestra topología de ejemplo, debe habilitar la funcionalidad SRMC en R4.
[edit protocols] user@R4# set ldp sr-mapping-client
Una vez confirmada la configuración del cliente de asignación en el dispositivo R4, los ID de nodo de SR y los bloques de etiquetas se anuncian como FEC de salida al enrutador R5, que luego los vuelve a anunciar a R6.
La compatibilidad con el enrutamiento de segmentos de unión y los próximos saltos de LDP con OSPF comenzó en Junos OS 19.1R1.
Unsupported Features and Functionality for Segment Routing interoperability with LDP using OSPF
-
Los conflictosde prefijos s solo se detectan en el SRMS. Cuando hay un conflicto de intervalo de prefijos, prevalece el SID de prefijo del ID de enrutador inferior. En tales casos, se genera un mensaje de error de registro del sistema—
RPD_OSPF_PFX_SID_RANGE_CONFLICT
—. -
No se admiten prefijos IPv6.
-
No se admite la inundación del LSA opaco del prefijo extendido OSPF a través de los límites del AS (inter-AS).
-
No se admite la funcionalidad del servidor de asignación de LDP entre áreas.
-
No se admite la funcionalidad ABR del LSA opaco del prefijo extendido.
-
La funcionalidad ASBR del prefijo extendido opaco LSA no es compatible.
-
No se admite el TLV de preferencia del servidor de asignación de enrutamiento segment.
Interoperabilidad del enrutamiento por segmentos con LDP mediante ISIS
Consulte , Figura 22suponga que el dispositivo R2 (en la red de enrutamiento de segmentos) es el SRMS. Se agrega la siguiente configuración para la función de asignación:
-
Defina la función SRMS:
[edit routing-options source-packet-routing ] user@R2# set mapping-server-entry isis-mapping-server prefix-segment-range ldp-lo0s start-prefix 192.168.0.5 user@R2# set mapping-server-entry isis-mapping-server prefix-segment-range ldp-lo0s start-index 1000 user@R2# set mapping-server-entry isis-mapping-server prefix-segment-range ldp-lo0s size 2
Esta configuración crea un bloque de asignación para las direcciones de bucle invertido del dispositivo LDP en la topología de ejemplo. El índice inicial de ID de segmento (SID) asignado al circuito cerrado de R5 es
1000
. Si se especifica el tamaño2
, el índice SID 10001 se asigna a la dirección de bucle invertido de R6.Nota:La dirección IP utilizada como dirección
start-prefix
de circuito cerrado de un dispositivo en la red LDP (R5, en este ejemplo). Para una conectividad completa, debe asignar todas las direcciones de circuito cerrado de los enrutadores LDP en el dominio de SR. Si las direcciones de circuito cerrado son contiguas, puede hacerlo con unaprefix-segment-range
instrucción. Los loopbacks no contiguos requieren la definición de varias instrucciones de asignación.Nuestro ejemplo usa loopbacks contiguos para que se muestre un solo arriba
prefix-segment-range
. Este es un ejemplo de asignaciones de prefijo para manejar el caso de dos enrutadores LDP con direccionamiento de circuito cerrado no contiguo:[edit routing-options source-packet-routing] show mapping-server-entry map-server-name { prefix-segment-range lo1 { start-prefix 192.168.0.5/32; start-index 1000; size 1; } prefix-segment-range lo2 { start-prefix 192.168.0.10/32; start-index 2000; size 1; } } }
-
A continuación, configure la compatibilidad con ISIS para el LSP extendido utilizado para inundar los prefijos asignados.
[edit protocols] user@R2# set isis source-packet-routing mapping-server isis-mapping-server
Una vez confirmada la configuración del servidor de asignación en el dispositivo R2, el TLV de rango de prefijo extendido se inunda en el área OSPF. Los dispositivos capaces de enrutamiento de segmentos (R1, R2 y R3) instalan rutas de enrutamiento de segmentos ISIS para la dirección de circuito cerrado especificada (R5 y R6 en este ejemplo), con un índice de ID de segmento (SID). El índice SID también se actualiza en la tabla de
mpls.0
enrutamiento mediante los dispositivos de enrutamiento de segmento. -
Habilite la funcionalidad SRMC. Para nuestra topología de ejemplo, debe habilitar la funcionalidad SRMC en R4.
[edit protocols] user@R4# set ldp sr-mapping-client
Una vez confirmada la configuración del cliente de asignación en el dispositivo R4, los ID de nodo de SR y los bloques de etiqueta se anuncian como FEC de salida al enrutador R5 y, de ahí en adelante, a R6.
La compatibilidad con el enrutamiento de segmentos y los próximos saltos de LDP con ISIS comenzó en Junos OS 17.4R1.
Unsupported Features and Functionality for Interoperability of Segment Routing with LDP using ISIS
-
No se admite el comportamiento de estallido de penúltimo salto para el TLV de enlace de etiquetas.
-
No se admite la publicidad del rango de prefijos en el TLV de enlace de etiquetas.
-
No se admite la resolución de conflictos de enrutamiento por segmentos.
-
Las estadísticas de tráfico de LDP no funcionan.
-
No se admite el enrutamiento activo sin detención (NSR) ni el cambio normal de motor de enrutamiento (GRES).
-
ISIS internivel no es compatible.
-
RFC 7794, No se admiten atributos de prefijo IS-IS para IPv4 extendido .
-
No se admite la redistribución de la ruta LDP como un prefix-sid en el nodo de unión.
Propiedades Misceláneas de LDP
En las secciones siguientes se describe cómo configurar varias propiedades de LDP.
- Configurar LDP para usar la métrica de ruta del IGP
- Impedir la adición de rutas de entrada a la tabla de enrutamiento inet.0
- VPN de múltiples instancias de LDP y de portadora de carriers
- Configure MPLS y LDP para que aparezcan la etiqueta en el enrutador de salto definitivo
- Habilitar LDP sobre LSP establecidos por RSVP
- Habilite LDP sobre LSP establecidos por RSVP en redes heterogéneas
- Configurar la firma TCP MD5 para sesiones LDP
- Configuración de la protección de sesión LDP
- Deshabilitar capturas SNMP para LDP
- Configuración de la sincronización de LDP con el IGP en vínculos LDP
- Configuración de la sincronización de LDP con el IGP en el enrutador
- Configuración del temporizador de retirada de etiquetas
- Ignorar la comprobación de subred de LDP
Configurar LDP para usar la métrica de ruta del IGP
Utilice la track-igp-metric
instrucción si desea que la métrica de ruta del protocolo de puerta de enlace interior (IGP) se use para las rutas LDP en lugar de la métrica de ruta LDP predeterminada (la métrica de ruta LDP predeterminada es 1).
Para usar la métrica de ruta del IGP, incluya la track-igp-metric
instrucción:
track-igp-metric;
Para obtener una lista de los niveles jerárquicos en los que puede incluir esta instrucción, vea la sección de resumen de instrucción de esta instrucción.
Impedir la adición de rutas de entrada a la tabla de enrutamiento inet.0
Mediante la configuración de la no-forwarding
instrucción, puede evitar que las rutas de entrada se agreguen a la tabla de enrutamiento inet.0 en lugar de a la tabla de enrutamiento inet.3, incluso si habilitó la traffic-engineering bgp-igp
instrucción en el nivel de [edit protocols mpls]
jerarquía o [edit logical-systems logical-system-name protocols mpls]
. De forma predeterminada, la no-forwarding
instrucción está deshabilitada.
Los enrutadores de la serie ACX no admiten el nivel de jerarquía [edit logical-systems
].
Para omitir rutas de entrada de la tabla de enrutamiento inet.0, incluya la no-forwarding
instrucción:
no-forwarding;
Para obtener una lista de los niveles jerárquicos en los que puede incluir esta instrucción, vea la sección de resumen de instrucción de esta instrucción.
VPN de múltiples instancias de LDP y de portadora de carriers
Al configurar varias instancias de enrutamiento LDP, puede usar LDP para anunciar etiquetas en una VPN de operadora desde un enrutador perimetral (PE) de proveedor de servicios hasta un enrutador perimetral de cliente (CE) de operadora de cliente. Esto es especialmente útil cuando el cliente operador es un proveedor de servicios de Internet (ISP) básico y desea restringir rutas completas de Internet a sus enrutadores PE. Al usar LDP en lugar de BGP, el cliente operador protege sus otros enrutadores internos de Internet. El LDP de instancias múltiples también es útil cuando un cliente operador desea proporcionar servicios VPN de capa 2 o capa 3 a sus clientes.
Para obtener un ejemplo de cómo configurar varias instancias de enrutamiento LDP para VPN de operadoras, consulte la Guía del usuario de varias instancias para el protocolo de distribución de etiquetas.
Configure MPLS y LDP para que aparezcan la etiqueta en el enrutador de salto definitivo
La etiqueta anunciada predeterminada es la etiqueta 3 (etiqueta nula implícita). Si se anuncia la etiqueta 3, el enrutador del penúltimo salto quita la etiqueta y envía el paquete al enrutador de salida. Si el estallido de último salto está habilitado, se anuncia la etiqueta 0 (etiqueta nula explícita IPv4). El último salto garantiza que cualquier paquete que atraviese una red MPLS incluya una etiqueta.
Para configurar la ventana emergente de último salto, incluya la explicit-null
instrucción:
explicit-null;
Para obtener una lista de los niveles jerárquicos en los que puede incluir esta instrucción, vea la sección de resumen de instrucción de esta instrucción.
Los enrutadores de Juniper Networks ponen en cola los paquetes según la etiqueta entrante. Los enrutadores de otros proveedores pueden poner los paquetes en cola de manera diferente. Tenga esto en cuenta cuando trabaje con redes que contengan enrutadores de varios proveedores.
Para obtener más información acerca de las etiquetas, vea Descripción general de etiquetas MPLS y Asignación de etiquetas MPLS.
Habilitar LDP sobre LSP establecidos por RSVP
Puede ejecutar LDP sobre LSP establecidos por RSVP, tunelizando efectivamente el LSP establecido por LDP a través del establecido por RSVP. Para ello, habilite LDP en la interfaz lo0.0 (consulte Habilitación y desactivación de LDP). También debe configurar los LSP sobre los que desea que funcione LDP incluyendo la ldp-tunneling
instrucción en el nivel de [edit protocols mpls label-switched-path lsp-name]
jerarquía:
[edit] protocols { mpls { label-switched-path lsp-name { from source; to destination; ldp-tunneling; } } }
Para obtener una lista de los niveles jerárquicos en los que puede incluir esta instrucción, vea la sección de resumen de instrucción de esta instrucción.
LDP se puede tunelizar a través de una sesión RSVP que tenga habilitada la protección de vínculos. A partir de Junos OS Release 21.1R1, al mostrar detalles sobre la ruta tunelizada LDP, se muestran los siguientes saltos principales y de derivación de LSP. En versiones anteriores de Junos OS, el siguiente salto del LSP de derivación mostraba el siguiente salto del LSP principal.
Habilite LDP sobre LSP establecidos por RSVP en redes heterogéneas
Algunos otros proveedores utilizan una métrica OSPF de 1 para la dirección de circuito cerrado. Los enrutadores de Juniper Networks utilizan una métrica OSPF de 0 para la dirección de circuito cerrado. Esto podría requerir que configure manualmente la métrica RSVP al implementar túnel LDP sobre LSP RSVP en redes heterogéneas.
Cuando un enrutador de Juniper Networks está vinculado al enrutador de otro proveedor a través de un túnel RSVP y la tunelización LDP también está habilitada, de forma predeterminada es posible que el enrutador de Juniper Networks no utilice el túnel RSVP para enrutar el tráfico a los destinos LDP aguas abajo del enrutador de salida del otro proveedor si la ruta RSVP tiene una métrica de 1 mayor que la ruta OSPF física.
Para asegurarse de que la tunelización de LDP funciona correctamente en redes heterogéneas, puede configurar OSPF para que ignore la métrica RSVP LSP incluyendo la ignore-lsp-metrics
instrucción:
ignore-lsp-metrics;
Puede configurar esta instrucción en los siguientes niveles jerárquicos:
-
[edit protocols ospf traffic-engineering shortcuts]
-
[edit logical-systems logical-system-name protocols ospf traffic-engineering shortcuts]
Los enrutadores de la serie ACX no admiten el nivel de jerarquía [edit logical-systems
].
Para habilitar LDP sobre RSVP LSP, también debe completar el procedimiento de la sección Habilitar LDP sobre LSP establecidos por RSVP.
Configurar la firma TCP MD5 para sesiones LDP
Puede configurar una firma MD5 para una conexión TCP LDP a fin de protegerla contra la introducción de segmentos TCP falsificados en flujos de conexión de sesión LDP. Para obtener más información acerca de la autenticación TCP, consulte TCP. Para obtener información sobre cómo utilizar la opción de autenticación TCP (TCP-AO) en lugar de TCP MD5, consulte No link title.
Un enrutador que utiliza la opción de firma MD5 se configura con una contraseña para cada par para el que se requiere autenticación. La contraseña se almacena cifrada.
Las adyacencias de saludo LDP se pueden crear incluso cuando las interfaces de emparejamiento están configuradas con diferentes firmas de seguridad. Sin embargo, la sesión TCP no se puede autenticar y nunca se establece.
Puede configurar el código de autenticación de mensajes hash (HMAC) y la autenticación MD5 para sesiones LDP como una configuración por sesión o una configuración de coincidencia de subred (es decir, coincidencia de prefijo más larga). La compatibilidad con la autenticación de coincidencia de subred proporciona flexibilidad en la configuración de la autenticación para sesiones LDP de destino automático (TLDP). Esto facilita la implementación de la alternativa remota sin bucles (LFA) y los pseudocables FEC 129.
Para configurar una firma MD5 para una conexión TCP LDP, incluya la authentication-key
instrucción como parte del grupo de sesiones:
[edit protocols ldp] session-group prefix-length { authentication-key md5-authentication-key; }
Utilice la session-group
instrucción para configurar la dirección para el extremo remoto de la sesión LDP.
El md5-authentication-key
, o contraseña, en la configuración puede tener hasta 69 caracteres. Los caracteres pueden incluir cualquier cadena ASCII. Si incluye espacios, escriba todos los caracteres entre comillas.
También puede configurar un mecanismo de actualización de claves de autenticación para el protocolo de enrutamiento LDP. Este mecanismo permite actualizar las claves de autenticación sin interrumpir los protocolos de enrutamiento y señalización asociados, como Open Shortest Path First (OSPF) y Resource Reservation Setup Protocol (RSVP).
Para configurar el mecanismo de actualización de claves de autenticación, incluya la key-chain
instrucción en el [edit security authentication-key-chains]
nivel de jerarquía y especifique la key
opción para crear un llavero que conste de varias claves de autenticación.
[edit security authentication-key-chains] key-chain key-chain-name { key key { secret secret-data; start-time yyyy-mm-dd.hh:mm:ss; } }
Para configurar el mecanismo de actualización de claves de autenticación para el protocolo de enrutamiento LDP, incluya la authentication-key-chain
instrucción en el nivel de [edit protocols ldp]
jerarquía para asociar el protocolo con las claves de [edit security suthentication-key-chains]
autenticación. También debe configurar el algoritmo de autenticación incluyendo la authentication-algorithm algorithm
instrucción en el [edit protocols ldp]
nivel de jerarquía.
[edit protocols ldp] group group-name { neighbor address { authentication-algorithm algorithm; authentication-key-chain key-chain-name; } }
Para obtener más información acerca de la característica de actualización de claves de autenticación, consulte Configuración del mecanismo de actualización de claves de autenticación para protocolos de enrutamiento BGP y LDP.
Configuración de la protección de sesión LDP
Una sesión LDP normalmente se crea entre un par de enrutadores que están conectados por uno o más vínculos. Los enrutadores forman una adyacencia de hola para cada enlace que los conecta y asocian todas las adyacencias con la sesión LDP correspondiente. Cuando desaparece la última adyacencia de saludo para una sesión de LDP, la sesión de LDP se termina. Es posible que desee modificar este comportamiento para evitar que una sesión LDP se termine y restablezca innecesariamente.
Puede configurar Junos OS para que deje activa la sesión LDP entre dos enrutadores, incluso si no hay adyacencias de saludo en los vínculos que conectan los dos enrutadores, configurando la session-protection
instrucción. Opcionalmente, puede especificar un tiempo en segundos mediante la timeout
opción. La sesión permanece activa durante el tiempo especificado mientras los enrutadores mantengan la conectividad de red IP.
session-protection { timeout seconds; }
Para obtener una lista de los niveles jerárquicos en los que puede incluir esta instrucción, consulte la sección Resumen de instrucciones.
Deshabilitar capturas SNMP para LDP
Cada vez que un LSP LDP realiza una transición de arriba hacia abajo o de abajo hacia arriba, el enrutador envía una captura SNMP. Sin embargo, es posible deshabilitar las capturas SNMP de LDP en un enrutador, sistema lógico o instancia de enrutamiento.
Para obtener información acerca de las capturas SNMP de LDP y la MIB de LDP propietaria, consulte el Explorador de MIB de SNMP.
Para deshabilitar las capturas SNMP para LDP, especifique la trap disable
opción para la log-updown
instrucción:
log-updown { trap disable; }
Para obtener una lista de los niveles jerárquicos en los que puede incluir esta instrucción, vea la sección de resumen de instrucción de esta instrucción.
Configuración de la sincronización de LDP con el IGP en vínculos LDP
LDP es un protocolo para distribuir etiquetas en aplicaciones sin ingeniería de tráfico. Las etiquetas se distribuyen a lo largo del mejor camino determinado por el IGP. Si no se mantiene la sincronización entre LDP y el IGP, el LSP deja de funcionar. Cuando LDP no está completamente operativo en un enlace determinado (no se establece una sesión y no se intercambian etiquetas), el IGP anuncia el enlace con la métrica de costo máximo. No se prefiere el vínculo, pero permanece en la topología de red.
La sincronización LDP solo se admite en interfaces punto a punto activas e interfaces LAN configuradas como punto a punto bajo el IGP. La sincronización LDP no se admite durante el reinicio correcto.
Para anunciar la métrica de costo máximo hasta que LDP esté operativo para la sincronización, incluya la ldp-synchronization
instrucción:
ldp-synchronization { disable; hold-time seconds; }
Para deshabilitar la sincronización, incluya la disable
instrucción. Para configurar el período de tiempo para anunciar la métrica de costo máximo de un vínculo que no está completamente operativo, incluya la hold-time
instrucción.
Para obtener una lista de los niveles de jerarquía en los que puede configurar esta instrucción, vea la sección resumen de instrucción de esta instrucción.
Configuración de la sincronización de LDP con el IGP en el enrutador
Puede configurar el tiempo que espera el LDP antes de informar al IGP de que el vecino y la sesión del LDP de una interfaz están operativos. Para redes grandes con numerosas FEC, es posible que deba configurar un valor más largo para permitir tiempo suficiente para que se intercambien las bases de datos de etiquetas LDP.
Para configurar el tiempo que espera el LDP antes de informar al IGP de que el vecino y la sesión del LDP están operativos, incluya la igp-synchronization
instrucción y especifique un tiempo en segundos para la holddown-interval
opción:
igp-synchronization holddown-interval seconds;
Para obtener una lista de los niveles de jerarquía en los que puede configurar esta instrucción, vea la sección resumen de instrucción de esta instrucción.
Configuración del temporizador de retirada de etiquetas
El temporizador de retiro de etiquetas retrasa el envío de un mensaje de retiro de etiqueta para un FEC a un vecino. Cuando un enlace IGP a un vecino falla, la etiqueta asociada con el FEC tiene que ser retirada de todos los enrutadores ascendentes si el vecino es el siguiente salto para la FEC. Después de que el IGP converge y se recibe una etiqueta de un nuevo salto siguiente, la etiqueta se vuelve a anunciar a todos los enrutadores ascendentes. Este es el comportamiento típico de la red. Al retrasar la retirada de la etiqueta por un pequeño período de tiempo (por ejemplo, hasta que el IGP converja y el enrutador reciba una nueva etiqueta para el FEC del próximo salto aguas abajo), se podría evitar la retirada de la etiqueta y el envío de un mapeo de etiquetas pronto. La label-withdrawal-delay
instrucción le permite configurar este tiempo de retraso. De forma predeterminada, el retraso es de 60 segundos.
Si el enrutador recibe la nueva etiqueta antes de que se agote el temporizador, el temporizador de retirada de la etiqueta se cancela. Sin embargo, si se agota el temporizador, la etiqueta del FEC se retira de todos los enrutadores ascendentes.
De forma predeterminada, LDP espera 60 segundos antes de retirar las etiquetas para evitar volver a señalar los LSP varias veces mientras el IGP está reconvergiendo. Para configurar el tiempo de retraso de retirada de la etiqueta en segundos, incluya la label-withdrawal-delay
instrucción:
label-withdrawal-delay seconds;
Para obtener una lista de los niveles de jerarquía en los que puede configurar esta instrucción, vea la sección resumen de instrucción de esta instrucción.
Ignorar la comprobación de subred de LDP
En la versión 8.4 y posteriores de Junos OS, se realiza una comprobación de subred de la dirección de origen LDP durante el procedimiento de establecimiento del vecino. La dirección de origen en el paquete de saludo del vínculo LDP se compara con la dirección de la interfaz. Esto causa un problema de interoperabilidad con los equipos de otros proveedores.
Para deshabilitar la comprobación de subred, incluya la allow-subnet-mismatch
instrucción:
allow-subnet-mismatch;
Esta instrucción se puede incluir en los siguientes niveles jerárquicos:
-
[edit protocols ldp interface interface-name]
-
[edit logical-systems logical-system-name protocols ldp interface interface-name]
Los enrutadores de la serie ACX no admiten el nivel de jerarquía [edit logical-systems
].
Consulte también
Configuración de LDP LSP Traceroute
Puede rastrear la ruta seguida por un LSP con señal LDP. LDP LSP traceroute se basa en RFC 4379, Detecting Multi-Protocol Label Switched (MPLS) Data Plane Failures. Esta función le permite rastrear periódicamente todas las rutas en un FEC. La información de topología FEC se almacena en una base de datos accesible desde la CLI.
Un cambio de topología no desencadena automáticamente un seguimiento de un LSP de LDP. Sin embargo, puede iniciar manualmente un traceroute. Si la solicitud traceroute es para un FEC que se encuentra actualmente en la base de datos, el contenido de la base de datos se actualiza con los resultados.
La característica traceroute periódica se aplica a todas las FEC especificadas por la oam
instrucción configurada en el nivel de [edit protocols ldp]
jerarquía. Para configurar la traceroute periódica de LSP de LDP, incluya la periodic-traceroute
instrucción:
periodic-traceroute { disable; exp exp-value; fanout fanout-value; frequency minutes; paths number-of-paths; retries retry-attempts; source address; ttl ttl-value; wait seconds; }
Puede configurar esta instrucción en los siguientes niveles jerárquicos:
Puede configurar la periodic-traceroute
instrucción sola o con cualquiera de las siguientes opciones:
exp
: especifique la clase de servicio que se utilizará al enviar sondeos.fanout
: especifique el número máximo de próximos saltos para buscar por nodo.frequency
: especifique el intervalo entre los intentos de traceroute.paths
: especifique el número máximo de rutas que se van a buscar.retries
: especifique el número de intentos de enviar una sonda a un nodo específico antes de darse por vencido.source
: especifique la dirección de origen IPv4 que se utilizará al enviar sondeos.ttl
: especifique el valor máximo de tiempo de vida. No se realiza un seguimiento de los nodos que superan este valor.wait
: especifique el intervalo de espera antes de volver a enviar un paquete de sondeo.
Recopilación de estadísticas de LDP
Las estadísticas de tráfico LDP muestran el volumen de tráfico que ha pasado a través de un FEC particular en un enrutador.
Cuando se configura la traffic-statistics
instrucción en el nivel de [edit protocols ldp]
jerarquía, las estadísticas de tráfico de LDP se recopilan periódicamente y se escriben en un archivo. Puede configurar la frecuencia con la que se recopilan las estadísticas (en segundos) mediante la interval
opción. El intervalo de recolección predeterminado es de 5 minutos. Debe configurar un archivo de estadísticas LDP; de lo contrario, no se recopilan estadísticas de tráfico de LDP. Si el LSP deja de funcionar, se restablecen las estadísticas de LDP.
Para recopilar estadísticas de tráfico de LDP, incluya la traffic-statistics
instrucción:
traffic-statistics { file filename <files number> <size size> <world-readable | no-world-readable>; interval interval; no-penultimate-hop; }
Para obtener una lista de los niveles jerárquicos en los que puede incluir esta instrucción, vea la sección de resumen de instrucción de esta instrucción.
Esta sección incluye los siguientes temas:
- Resultado de estadísticas de LDP
- Deshabilitar estadísticas de LDP en el enrutador de penúltimo salto
- Limitaciones de las estadísticas de LDP
Resultado de estadísticas de LDP
El siguiente resultado de ejemplo procede de un archivo de estadísticas LDP:
FEC Type Packets Bytes Shared 10.255.350.448/32 Transit 0 0 No Ingress 0 0 No 10.255.350.450/32 Transit 0 0 Yes Ingress 0 0 No 10.255.350.451/32 Transit 0 0 No Ingress 0 0 No 220.220.220.1/32 Transit 0 0 Yes Ingress 0 0 No 220.220.220.2/32 Transit 0 0 Yes Ingress 0 0 No 220.220.220.3/32 Transit 0 0 Yes Ingress 0 0 No May 28 15:02:05, read 12 statistics in 00:00:00 seconds
El archivo de estadísticas LDP incluye las siguientes columnas de datos:
FEC
—FEC para el que se recopilan estadísticas de tráfico de LDP.Type
: tipo de tráfico que se origina en un enrutador, ya seaIngress
(originado en este enrutador) oTransit
(reenviado a través de este enrutador).Packets
—Número de paquetes aprobados por la FEC desde que apareció su LSP.Bytes
—Número de bytes de datos pasados por la FEC desde que apareció su LSP.Shared
: unYes
valor indica que varios prefijos están enlazados a la misma etiqueta (por ejemplo, cuando se anuncian varios prefijos con una política de salida). Las estadísticas de tráfico de LDP para este caso se aplican a todos los prefijos y deben tratarse como tales.read
: este número (que aparece junto a la fecha y la hora) puede diferir del número real de las estadísticas mostradas. Algunas de las estadísticas se resumen antes de ser mostradas.
Deshabilitar estadísticas de LDP en el enrutador de penúltimo salto
La recopilación de estadísticas de tráfico LDP en el enrutador del penúltimo salto puede consumir recursos excesivos del sistema, en particular en las rutas del próximo salto. Este problema se agrava si ha configurado la deaggregate
instrucción además de la traffic-statistics
instrucción. En el caso de los enrutadores que alcanzan su límite de uso de rutas del próximo salto, recomendamos configurar la no-penultimate-hop
opción para la traffic-statistics
instrucción:
traffic-statistics { no-penultimate-hop; }
Para obtener una lista de los niveles de jerarquía en los que puede configurar la traffic-statistics
instrucción, vea la sección resumen de la instrucción para esta instrucción.
Al configurar la no-penultimate-hop
opción, no hay estadísticas disponibles para los FEC que son el penúltimo salto para este enrutador.
Siempre que incluya o quite esta opción de la configuración, las sesiones de LDP se desactivan y, a continuación, se reinician.
La siguiente salida de ejemplo proviene de un archivo de estadísticas LDP que muestra los enrutadores en los que está configurada la no-penultimate-hop
opción:
FEC Type Packets Bytes Shared 10.255.245.218/32 Transit 0 0 No Ingress 4 246 No 10.255.245.221/32 Transit statistics disabled Ingress statistics disabled 13.1.1.0/24 Transit statistics disabled Ingress statistics disabled 13.1.3.0/24 Transit statistics disabled Ingress statistics disabled
Limitaciones de las estadísticas de LDP
Los siguientes son problemas relacionados con la recopilación de estadísticas de LDP mediante la configuración de la traffic-statistics
instrucción:
No puede borrar las estadísticas de LDP.
Si acorta el intervalo especificado, sólo se emite una nueva solicitud de estadísticas LDP si el temporizador de estadísticas caduca después del nuevo intervalo.
Una nueva operación de recopilación de estadísticas de LDP no puede iniciarse hasta que haya finalizado la anterior. Si el intervalo es corto o si el número de estadísticas de LDP es grande, el intervalo de tiempo entre las dos recopilaciones de estadísticas puede ser mayor que el intervalo.
Cuando un LSP deja de funcionar, se restablecen las estadísticas de LDP.
Seguimiento del tráfico del protocolo LDP
En las secciones siguientes se describe cómo configurar las opciones de seguimiento para examinar el tráfico del protocolo LDP:
- Seguimiento del tráfico del protocolo LDP en los niveles de instancia de protocolo y enrutamiento
- Rastreo del tráfico del protocolo LDP dentro de las FEC
- Ejemplos: Seguimiento del tráfico del protocolo LDP
Seguimiento del tráfico del protocolo LDP en los niveles de instancia de protocolo y enrutamiento
Para realizar un seguimiento del tráfico del protocolo LDP, puede especificar opciones en la instrucción global traceoptions
en el nivel de [edit routing-options]
jerarquía y puede especificar opciones específicas de LDP incluyendo la traceoptions
instrucción:
traceoptions { file filename <files number> <size size> <world-readable | no-world-readable>; flag flag <flag-modifier> <disable>; }
Para obtener una lista de los niveles jerárquicos en los que puede incluir esta instrucción, vea la sección de resumen de instrucción de esta instrucción.
Utilice la file
instrucción para especificar el nombre del archivo que recibe el resultado de la operación de seguimiento. Todos los archivos se colocan en el directorio /var/log. Le recomendamos que coloque el resultado del seguimiento de LDP en el archivo ldp-log.
Los siguientes indicadores de seguimiento muestran las operaciones asociadas con el envío y la recepción de varios mensajes LDP. Cada uno puede llevar uno o más de los siguientes modificadores:
address
—Rastrear el funcionamiento de la dirección y los mensajes de retirada de direcciones.binding
: rastrea las operaciones de encuadernación de etiquetas.error
: condiciones de error de rastreo.event
: rastrea eventos de protocolo.initialization
: rastrea el funcionamiento de los mensajes de inicialización.label
: realiza un seguimiento del funcionamiento de los mensajes de solicitud de etiqueta, mapa de etiquetas, retirada de etiquetas y liberación de etiquetas.notification
: rastrea el funcionamiento de los mensajes de notificación.packets
: rastree la operación de la dirección, la retirada de direcciones, la inicialización, la solicitud de etiqueta, el mapa de etiquetas, la retirada de etiquetas, la liberación de etiquetas, la notificación y los mensajes periódicos. Este modificador equivale a establecer losaddress
modificadores,initialization
,notification
label
, yperiodic
modificadores.También puede configurar el modificador de
filter
indicador con lamatch-on address
subopción para elpackets
indicador. Esto le permite realizar un seguimiento basado en las direcciones de origen y destino de los paquetes.path
: rastree las operaciones de las rutas conmutadas por etiquetas.path
: rastree las operaciones de las rutas conmutadas por etiquetas.periodic
: permite rastrear el funcionamiento de los mensajes de saludo y keepalive.route
: permite realizar un seguimiento del funcionamiento de los mensajes de ruta.state
: transiciones de estado del protocolo de seguimiento.
Rastreo del tráfico del protocolo LDP dentro de las FEC
LDP asocia una clase de equivalencia de reenvío (FEC) con cada LSP que crea. El FEC asociado con un LSP especifica qué paquetes se asignan a ese LSP. Los LSP se extienden a través de una red a medida que cada enrutador elige la etiqueta anunciada por el siguiente salto para el FEC y la empalma a la etiqueta que anuncia a todos los demás enrutadores.
Puede rastrear el tráfico del protocolo LDP dentro de un FEC específico y filtrar las instrucciones de seguimiento LDP basadas en un FEC. Esto resulta útil cuando desea rastrear o solucionar problemas del tráfico del protocolo LDP asociado a una FEC. Los siguientes indicadores de seguimiento están disponibles para este propósito: route
, path
, y binding
.
En el ejemplo siguiente se muestra cómo puede configurar la instrucción LDP traceoptions
para filtrar las instrucciones de seguimiento LDP basadas en una FEC:
[edit protocols ldp traceoptions] set flag route filter match-on fec policy "filter-policy-for-ldp-fec";
Esta característica tiene las siguientes limitaciones:
La capacidad de filtrado solo está disponible para FEC compuestos por prefijos IP versión 4 (IPv4).
Los FEC del circuito de capa 2 no se pueden filtrar.
Cuando se configura tanto el seguimiento de rutas como el filtrado, las rutas MPLS no se muestran (el filtro las bloquea).
El filtrado viene determinado por la directiva y el valor configurado para la
match-on
opción. Al configurar la directiva, asegúrese de que el comportamiento predeterminado es siemprereject
.La única
match-on
opción esfec
. Por consiguiente, el único tipo de directiva que debe incluir es una directiva de filtro de ruta.
Ejemplos: Seguimiento del tráfico del protocolo LDP
Realice un seguimiento detallado de los mensajes de ruta de acceso de LDP:
[edit] protocols { ldp { traceoptions { file ldp size 10m files 5; flag path; } } }
Rastree todos los mensajes salientes de LDP:
[edit] protocols { ldp { traceoptions { file ldp size 10m files 5; flag packets; } } }
Rastree todas las condiciones de error de LDP:
[edit] protocols { ldp { traceoptions { file ldp size 10m files 5; flag error; } } }
Rastree todos los mensajes entrantes de LDP y todas las operaciones de enlace de etiquetas:
[edit] protocols { ldp { traceoptions { file ldp size 10m files 5 world-readable; flag packets receive; flag binding; } interface all { } } }
Rastrear el tráfico del protocolo LDP para un FEC asociado con el LSP:
[edit] protocols { ldp { traceoptions { flag route filter match-on fec policy filter-policy-for-ldp-fec; } } }
Tabla de historial de cambios
La compatibilidad de la función depende de la plataforma y la versión que utilice. Utilice Feature Explorer a fin de determinar si una función es compatible con la plataforma.