Nesta página
Configuração do atraso antes que os vizinhos do LDP sejam considerados desativados
Habilitando mensagens de olá direcionadas rigorosas para LDP
Configuração do intervalo para mensagens de manutenção de LDP
Endereço de transporte de controle usado para sessão targeted-LDP
Configuração dos prefixos anunciados em LDP a partir da tabela de roteamento
Configurando uma ação de falha para a sessão de BFD em um LSP LDP
Configuração do redirecionamento rápido somente para multicast
Exemplo: Configuração do redirecionamento rápido somente multicast em um domínio de LDP multiponto
Exemplo: Configuração da sinalização de LDP em banda multiponto para LSPs de ponto a multiponto
Mapeamento de clientes e servidores para o roteamento por segmentos para a interoperabilidade do LDP
Configuração do LDP
Configuração LDP mínima
Para habilitar o LDP com configuração mínima:
Habilite todas as interfaces relevantes sob o MPLS da família. No caso do LDP direcionado, a interface de loopback precisa ser habilitada com MPLS da família.
(Opcional) Configure as interfaces relevantes sob o nível de
[edit protocol mpls]
hierarquia.Habilite o LDP em uma única interface, inclua a
ldp
declaração e especifique a interface usando ainterface
declaração.
Esta é a configuração mínima de LDP. Todas as outras declarações de configuração de LDP são opcionais.
ldp { interface interface-name; }
Para habilitar o LDP em todas as interfaces, especifique all
para interface-name
.
Para obter uma lista de níveis de hierarquia nos quais você pode incluir essas declarações, veja as seções de resumo da declaração.
Habilitação e desativação do LDP
O LDP reconhece as instâncias de roteamento. Para habilitar o LDP em uma interface específica, inclua as seguintes declarações:
ldp { interface interface-name; }
Para obter uma lista de níveis de hierarquia nos quais você pode incluir essas declarações, veja as seções de resumo da declaração.
Para habilitar o LDP em todas as interfaces, especifique all
para interface-name
.
Se você tiver propriedades de interface configuradas em um grupo de interfaces e quiser desabilitar o LDP em uma das interfaces, inclua a interface
declaração com a opção disable
:
interface interface-name { disable; }
Para obter uma lista de níveis de hierarquia nos quais você pode incluir esta declaração, veja a seção de resumo da declaração.
Configurando o timer LDP para mensagens de olá
As mensagens de olá LDP permitem que nós LDP descubram uns aos outros e detectem a falha de um vizinho ou do link para o vizinho. Mensagens de olá são enviadas periodicamente em todas as interfaces onde o LDP está habilitado.
Existem dois tipos de mensagens de olá para LDP:
Link hello messages — Enviado pela interface LDP como pacotes UDP endereçados à porta de descoberta de LDP. O recebimento de uma mensagem de olá de link LDP em uma interface identifica uma adjacência com o roteador de peer LDP.
Mensagens de olá direcionadas — enviadas como pacotes UDP endereçados à porta de descoberta de LDP em um endereço específico. Mensagens de olá direcionadas são usadas para oferecer suporte a sessões de LDP entre roteadores que não estão diretamente conectados. Um roteador direcionado determina se deve responder ou ignorar uma mensagem de olá direcionada. Um roteador direcionado que escolhe responder o faz enviando periodicamente mensagens de olá direcionadas de volta ao roteador de iniciação.
Por padrão, o LDP envia mensagens de olá a cada 5 segundos para mensagens de olá de link e a cada 15 segundos para mensagens de olá direcionadas. Você pode configurar o timer LDP para alterar a frequência com que ambos os tipos de mensagens de olá são enviadas. No entanto, você não pode configurar um tempo para o temporizar LDP que seja maior do que o tempo de espera do LDP. Para obter mais informações, consulte Configurar o atraso antes que os vizinhos do LDP sejam considerados desativados.
- Configurando o timer LDP para mensagens de olá de link
- Configurando o temporizador LDP para mensagens de olá direcionadas
Configurando o timer LDP para mensagens de olá de link
Para modificar a frequência com que o LDP envia mensagens de olá de link, especifique um novo intervalo de mensagens de link olá para o tempordor LDP usando a hello-interval
declaração:
hello-interval seconds;
Para obter uma lista de níveis de hierarquia em que você possa incluir esta declaração, veja a seção de resumo da declaração para esta declaração.
Configurando o temporizador LDP para mensagens de olá direcionadas
Para modificar a frequência com que o LDP envia mensagens de olá direcionadas, especifique um novo intervalo de mensagens de olá direcionado para o temporizador LDP configurando a hello-interval
declaração como uma opção para a targeted-hello
declaração:
targeted-hello { hello-interval seconds; }
Para obter uma lista de níveis de hierarquia nos quais você pode incluir essas declarações, veja as seções de resumo da declaração para essas declarações.
Configuração do atraso antes que os vizinhos do LDP sejam considerados desativados
O tempo de espera determina quanto tempo um nó LDP deve esperar por uma mensagem de olá antes de declarar que um vizinho está desativado. Esse valor é enviado como parte de uma mensagem de olá para que cada nó LDP diga aos vizinhos quanto tempo esperar. Os valores enviados por cada vizinho não precisam corresponder.
O tempo de espera normalmente deve ser pelo menos três vezes o intervalo de olá. O padrão é de 15 segundos para mensagens de olá de link e 45 segundos para mensagens de olá direcionadas. No entanto, é possível configurar um tempo de espera de LDP próximo do valor para o intervalo de olá.
Ao configurar um tempo de espera de LDP perto do intervalo de olá (menos de três vezes o intervalo de olá), as falhas no vizinho LDP podem ser detectadas com mais rapidez. No entanto, isso também aumenta a possibilidade de que o roteador possa declarar um vizinho LDP para baixo que ainda está funcionando normalmente. Para obter mais informações, veja Configurando o timer LDP para mensagens de olá.
O tempo de espera do LDP também é negociado automaticamente entre os pares do LDP. Quando dois pares de LDP anunciam tempos diferentes de retenção de LDP uns aos outros, o valor menor é usado. Se um roteador peer LDP anunciar um tempo de espera menor do que o valor que você configurou, o tempo de espera anunciado do roteador peer será usado. Essa negociação também pode afetar o intervalo de manutenção do LDP.
Se o tempo de espera do LDP local não for reduzido durante a negociação por peer LDP, o intervalo de manutenção configurado pelo usuário permanecerá inalterado. No entanto, se o tempo de espera local for reduzido durante a negociação por pares, o intervalo keepalive será recalculado. Se o tempo de espera do LDP tiver sido reduzido durante a negociação por pares, o intervalo keepalive será reduzido para um terço do novo valor de tempo de espera. Por exemplo, se o novo valor de tempo de espera for de 45 segundos, o intervalo keepalive será definido para 15 segundos.
Este cálculo automatizado de intervalos keepalive pode fazer com que diferentes intervalos keepalive sejam configurados em cada roteador peer. Isso permite que os roteadores sejam flexíveis na frequência com que enviam mensagens keepalive, porque a negociação por pares do LDP garante que eles sejam enviados com mais frequência do que o tempo de espera do LDP.
Quando você reconfigura o intervalo de espera, as alterações não surtiram efeito até que a sessão seja reiniciada. O tempo de espera é negociado quando a sessão de peering do LDP é iniciada e não pode ser renegociada enquanto a sessão estiver ativa (exigida pela RFC 5036, Especificação do LDP). Para forçar manualmente a sessão de LDP a redefinir, emita o clear ldp session
comando.
- Configurando o tempo de espera do LDP para mensagens de olá de link
- Configurando o tempo de espera do LDP para mensagens de olá direcionadas
Configurando o tempo de espera do LDP para mensagens de olá de link
Para modificar quanto tempo um nó LDP deve esperar por uma mensagem de olá de link antes de declarar o vizinho desativado, especifique um novo tempo em segundos usando a hold-time
declaração:
hold-time seconds;
Para obter uma lista de níveis de hierarquia em que você possa incluir esta declaração, veja a seção de resumo da declaração para esta declaração.
Configurando o tempo de espera do LDP para mensagens de olá direcionadas
Para modificar quanto tempo um nó LDP deve esperar por uma mensagem de olá direcionada antes de declarar o vizinho desativado, especifique um novo tempo em segundos usando a hold-time
declaração como opção para a targeted-hello
declaração:
targeted-hello { hold-time seconds; }
Para obter uma lista de níveis de hierarquia nos quais você pode incluir essas declarações, veja as seções de resumo da declaração para essas declarações.
Habilitando mensagens de olá direcionadas rigorosas para LDP
Use mensagens de olá direcionadas rigorosas para evitar que as sessões de LDP sejam estabelecidas com vizinhos remotos que não tenham sido configuradas especificamente. Se você configurar a strict-targeted-hellos
declaração, um peer LDP não responderá a mensagens de olá direcionadas vindas de uma fonte que não é um de seus vizinhos remotos configurados. Vizinhos remotos configurados podem incluir:
Endpoints de túneis RSVP para os quais o tunelamento LDP está configurado
Vizinhos de circuito de camada 2
Se um vizinho não configurado enviar uma mensagem de olá, o peer do LDP ignora a mensagem e registra um erro (com a bandeira de error
rastreamento) indicando a fonte. Por exemplo, se o peer LDP receber um olá direcionado do endereço da Internet 10.0.0.1 e nenhum vizinho com este endereço estiver especificamente configurado, a mensagem a seguir será impressa no arquivo de log LDP:
LDP: Ignoring targeted hello from 10.0.0.1
Para permitir mensagens de olá direcionadas rigorosas, inclua a strict-targeted-hellos
declaração:
strict-targeted-hellos;
Para obter uma lista de níveis de hierarquia em que você possa incluir esta declaração, veja a seção de resumo da declaração para esta declaração.
Configuração do intervalo para mensagens de manutenção de LDP
O intervalo keepalive determina a frequência com que uma mensagem é enviada durante a sessão para garantir que o tempo limite keepalive não seja excedido. Se nenhum outro tráfego LDP for enviado durante a sessão por tanto tempo, uma mensagem keepalive é enviada. O padrão é de 10 segundos. O valor mínimo é de 1 segundo.
O valor configurado para o intervalo keepalive pode ser alterado durante a negociação da sessão de LDP se o valor configurado para o tempo de espera do LDP no roteador peer for menor do que o valor configurado localmente. Para obter mais informações, consulte Configurar o atraso antes que os vizinhos do LDP sejam considerados desativados.
Para modificar o intervalo keepalive, inclua a keepalive-interval
declaração:
keepalive-interval seconds;
Para obter uma lista de níveis de hierarquia em que você possa incluir esta declaração, veja a seção de resumo da declaração para esta declaração.
Configuração do tempo limite de manutenção do LDP
Após a criação de uma sessão de LDP, as mensagens devem ser trocadas periodicamente para garantir que a sessão ainda esteja funcionando. O tempo limite de manutenção define o tempo que o nó LDP vizinho espera antes de decidir que a sessão falhou. Esse valor geralmente é definido para pelo menos três vezes o intervalo keepalive. O padrão é de 30 segundos.
Para modificar o intervalo keepalive, inclua a keepalive-timeout
declaração:
keepalive-timeout seconds;
Para obter uma lista de níveis de hierarquia em que você possa incluir esta declaração, veja a seção de resumo da declaração para esta declaração.
O valor configurado para a keepalive-timeout
declaração é exibido como o tempo de espera quando você emite o show ldp session detail
comando.
Configurando a correspondência mais longa para LDP
Para permitir que o LDP aprenda as rotas agregadas ou resumidas em áreas de OSPF ou níveis de ISIS em entre domínios, o Junos OS permite que você configure a correspondência mais longa para LDP com base em RFC5283.
Antes de configurar a correspondência mais longa para LDP, você deve fazer o seguinte:
Configure as interfaces do dispositivo.
Configure o protocolo MPLS .
Configure o protocolo OSPF.
Para configurar a correspondência mais longa para LDP, você deve fazer o seguinte:
Exemplo: Configurando a correspondência mais longa para LDP
Este exemplo mostra como configurar a correspondência mais longa para LDP com base em RFC5283. Isso permite que o LDP aprenda as rotas agregadas ou resumidas em áreas de OSPF ou níveis de ISIS em inter domínio.. A política de correspondência mais longa fornece por granularidade de prefixo.
Requisitos
Este exemplo usa os seguintes componentes de hardware e software:
Seis roteadores da Série MX com protocolo OSPF e LDP habilitados nas interfaces conectadas.
Junos OS Release 16.1 ou posterior em todos os dispositivos.
Antes de começar:
Configure as interfaces do dispositivo.
Configure OSPF.
Visão geral
O LDP é frequentemente usado para estabelecer caminhos comuados por rótulos MPLS (LSPs) em todo um domínio de rede usando um IGP como OSPF ou IS-IS. Em tal rede, todos os links no domínio têm adjacências de IGP, bem como adjacências de LDP. O LDP estabelece os LSPs no caminho mais curto para um destino, conforme determinado pelo encaminhamento ip. No Junos OS, a implementação do LDP faz uma busca exata no endereço IP da FEC nas rotas RIB ou IGP para mapeamento de rótulos. Este mapeamento exato requer que os endereços IP de endpoint LDP de ponta a ponta MPLS sejam configurados em todos os LERs. Isso derrota o propósito do design hierárquico de IP ou roteamento padrão em dispositivos de acesso. A configuração longest-match
ajuda a superar isso suprimindo o comportamento exato da correspondência e a configuração de LSP com base na rota de correspondência mais longa por prefixo.
Topologia
Na topologia, mostra que Figura 1a correspondência mais longa para LDP está configurada no dispositivo R0.
Configuração
Configuração rápida da CLI
Para configurar rapidamente este exemplo, copie os seguintes comandos, cole-os em um arquivo de texto, remova quaisquer quebras de linha, altere todos os detalhes necessários para combinar com a configuração da sua rede, copiar e colar os comandos na CLI no nível de [edit] hierarquia e, em seguida, entrar no commit
modo de configuração.
R0
set interfaces ge-0/0/0 unit 0 family inet address 22.22.22.1/24 set interfaces ge-0/0/1 unit 0 family inet address 15.15.15.1/24 set interfaces ge-0/0/2 unit 0 family inet address 11.11.11.1/24 set interfaces ge-0/0/2 unit 0 family iso set interfaces ge-0/0/2 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.112.1/32 primary set interfaces lo0 unit 0 family inet address 10.255.112.1/32 preferred set interfaces lo0 unit 0 family iso address 49.0002.0192.0168.0001.00 set routing-options router-id 10.255.112.1 set protocols mpls interface ge-0/0/2.0 set protocols ospf area 0.0.0.1 interface ge-0/0/2.0 set protocols ospf area 0.0.0.1 interface lo0.0 passive set protocols ldp longest-match set protocols ldp interface ge-0/0/2.0 set protocols ldp interface lo0.0
R1
set interfaces ge-0/0/0 unit 0 family inet address 11.11.11.2/24 set interfaces ge-0/0/0 unit 0 family iso set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 12.12.12.1/24 set interfaces ge-0/0/1 unit 0 family iso set interfaces ge-0/0/1 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.112.2/32 primary set interfaces lo0 unit 0 family inet address 10.255.112.2/32 preferred set interfaces lo0 unit 0 family iso address 49.0002.0192.0168.0002.00 set routing-options router-id 10.255.112.2 set protocols mpls interface ge-0/0/0.0 set protocols mpls interface ge-0/0/1.0 set protocols ospf area 0.0.0.0 interface ge-0/0/1.0 set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ospf area 0.0.0.1 interface ge-0/0/0.0 set protocols ldp longest-match set protocols ldp interface ge-0/0/0.0 set protocols ldp interface ge-0/0/1.0 set protocols ldp interface lo0.0
R2
set interfaces ge-0/0/0 unit 0 family inet address 24.24.24.1/24 set interfaces ge-0/0/0 unit 0 family iso set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 12.12.12.2/24 set interfaces ge-0/0/1 unit 0 family iso set interfaces ge-0/0/1 unit 0 family mpls set interfaces ge-0/0/2 unit 0 family inet address 23.23.23.1/24 set interfaces ge-0/0/2 unit 0 family iso set interfaces ge-0/0/2 unit 0 family mpls set interfaces ge-0/0/3 unit 0 family inet address 22.22.22.2/24 set interfaces ge-0/0/4 unit 0 family inet address 25.25.25.1/24 set interfaces ge-0/0/4 unit 0 family iso set interfaces ge-0/0/4 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.111.4/32 primary set interfaces lo0 unit 0 family inet address 10.255.111.4/32 preferred set interfaces lo0 unit 0 family iso address 49.0003.0192.0168.0003.00 set routing-options router-id 10.255.111.4 set protocols mpls interface ge-0/0/1.0 set protocols mpls interface ge-0/0/2.0 set protocols mpls interface ge-0/0/0.0 set protocols mpls interface ge-0/0/4.0 set protocols ospf area 0.0.0.0 interface ge-0/0/1.0 set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ospf area 0.0.0.2 area-range 10.255.111.0/24 set protocols ospf area 0.0.0.2 interface ge-0/0/2.0 set protocols ospf area 0.0.0.2 interface ge-0/0/0.0 set protocols ospf area 0.0.0.2 interface ge-0/0/4.0 set protocols ldp interface ge-0/0/0.0 set protocols ldp interface ge-0/0/1.0 set protocols ldp interface ge-0/0/2.0 set protocols ldp interface ge-0/0/4.0 set protocols ldp interface lo0.0
R3
set interfaces ge-0/0/0 unit 0 family inet address 35.35.35.1/24 set interfaces ge-0/0/0 unit 0 family iso set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 23.23.23.2/24 set interfaces ge-0/0/1 unit 0 family iso set interfaces ge-0/0/1 unit 0 family mpls set interfaces ge-0/0/2 unit 0 family inet address 34.34.34.1/24 set interfaces ge-0/0/2 unit 0 family iso set interfaces ge-0/0/2 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.111.1/32 primary set interfaces lo0 unit 0 family inet address 10.255.111.1/32 preferred set interfaces lo0 unit 0 family iso address 49.0003.0192.0168.0004.00 set routing-options router-id 10.255.111.1 set protocols mpls interface ge-0/0/1.0 set protocols ospf area 0.0.0.2 interface ge-0/0/1.0 set protocols ospf area 0.0.0.2 interface fxp0.0 disable set protocols ospf area 0.0.0.2 interface lo0.0 passive set protocols ldp interface ge-0/0/1.0 set protocols ldp interface lo0.0
R4
set interfaces ge-0/0/0 unit 0 family inet address 45.45.45.1/24 set interfaces ge-0/0/0 unit 0 family iso set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 24.24.24.2/24 set interfaces ge-0/0/1 unit 0 family iso set interfaces ge-0/0/1 unit 0 family mpls set interfaces ge-0/0/2 unit 0 family inet address 34.34.34.2/24 set interfaces ge-0/0/2 unit 0 family iso set interfaces ge-0/0/2 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.111.2/32 primary set interfaces lo0 unit 0 family inet address 10.255.111.2/32 preferred set interfaces lo0 unit 0 family iso address 49.0003.0192.0168.0005.00 set routing-options router-id 10.255.111.2 set protocols mpls interface ge-0/0/1.0 set protocols ospf area 0.0.0.2 interface ge-0/0/1.0 set protocols ospf area 0.0.0.2 interface fxp0.0 disable set protocols ospf area 0.0.0.2 interface lo0.0 passive set protocols ldp interface ge-0/0/1.0 set protocols ldp interface lo0.0
R5
set interfaces ge-0/0/0 unit 0 family inet address 25.25.25.2/24 set interfaces ge-0/0/0 unit 0 family iso set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 15.15.15.2/24 set interfaces ge-0/0/2 unit 0 family inet address 35.35.35.2/24 set interfaces ge-0/0/3 unit 0 family inet address 45.45.45.2/24 set interfaces ge-0/0/3 unit 0 family iso set interfaces ge-0/0/3 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.111.3/32 primary set interfaces lo0 unit 0 family inet address 10.255.111.3/32 preferred set interfaces lo0 unit 0 family iso address 49.0003.0192.0168.0006.00 set routing-options router-id 10.255.111.3 set protocols mpls interface ge-0/0/0.0 set protocols ospf area 0.0.0.2 interface ge-0/0/0.0 set protocols ospf area 0.0.0.2 interface fxp0.0 disable set protocols ospf area 0.0.0.2 interface lo0.0 passive set protocols ldp interface ge-0/0/0.0 set protocols ldp interface lo0.0
Configuração do dispositivo R0
Procedimento passo a passo
O exemplo a seguir exige que você navegue por vários níveis na hierarquia de configuração. Para obter informações sobre como navegar na CLI, consulte Usando o Editor de CLI no modo de configuração no Guia do usuário da CLI.
Para configurar o dispositivo R0:
Configure as interfaces.
[edit interfaces] set ge-0/0/0 unit 0 family inet address 22.22.22.1/24 set ge-0/0/1 unit 0 family inet address 15.15.15.1/24 set ge-0/0/2 unit 0 family inet address 11.11.11.1/24 set ge-0/0/2 unit 0 family iso set ge-0/0/2 unit 0 family mpls
Atribua os endereços de loopback ao dispositivo.
[edit interfaces lo0 unit 0 family] set inet address 10.255.112.1/32 primary set inet address 10.255.112.1/32 preferred set iso address 49.0002.0192.0168.0001.00
Configure a ID do roteador.
[edit routing-options] set router-id 10.255.112.1
Configure o protocolo MPLS na interface.
[edit protocols mpls] set interface ge-0/0/2.0
Configure o protocolo OSPF na interface.
[edit protocols ospf] set area 0.0.0.1 interface ge-0/0/2.0 set area 0.0.0.1 interface lo0.0 passive
Configure a correspondência mais longa para o protocolo LDP.
[edit protocols ldp] set longest-match
Configure o protocolo LDP na interface.
[edit protocols ldp] set interface ge-0/0/2.0 set interface lo0.0
Resultados
A partir do modo de configuração, confirme sua configuração entrando no show interfaces, show protocolse show routing-options comandos. Se a saída não exibir a configuração pretendida, repita as instruções neste exemplo para corrigir a configuração.
user@R0# show interfaces ge-0/0/0 { unit 0 { family inet { address 22.22.22.1/24; } } } ge-0/0/1 { unit 0 { family inet { address 15.15.15.1/24; } } } ge-0/0/2 { unit 0 { family inet { address 11.11.11.1/24; } family iso; family mpls; } } lo0 { unit 0 { family inet { address 10.255.112.1/32 { primary; preferred; } } family iso { address 49.0002.0192.0168.0001.00; } } }
user@R0# show protocols mpls { interface ge-0/0/2.0; } ospf { area 0.0.0.1 { interface ge-0/0/2.0; interface lo0.0 { passive; } } } ldp { longest-match; interface ge-0/0/2.0; interface lo0.0; }
user@R0# show routing-options router-id 10.255.112.1;
Se você terminar de configurar o dispositivo, entre commit
no modo de configuração.
Verificação
Confirme se a configuração está funcionando corretamente.
- Verificação das rotas
- Verificação das informações de visão geral do LDP
- Verifique as entradas de LDP na tabela de topologia interna
- Verifique apenas as informações fec da rota LDP
- Verifique as rotas DE FEC e sombra do LDP
Verificação das rotas
Propósito
Verifique se as rotas esperadas são aprendidas.
Ação
No dispositivo R0, a partir do modo operacional, execute o show route
comando para exibir as rotas na tabela de roteamento.
user@R0> show route
inet.0: 62 destinations, 62 routes (62 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
10.4.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.5.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.6.128.0/17 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.9.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.10.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.13.4.0/23 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.13.10.0/23 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.82.0.0/15 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.84.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.85.12.0/22 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.92.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.92.16.0/20 *[Direct/0] 10:08:01
> via fxp0.0
10.92.20.175/32 *[Local/0] 10:08:01
Local via fxp0.0
10.94.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.99.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.102.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.150.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.155.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.157.64.0/19 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.160.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.204.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.205.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.206.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.207.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.209.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.212.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.213.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.214.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.215.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.216.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.218.13.0/24 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.218.14.0/24 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.218.16.0/20 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.218.32.0/20 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.227.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.255.111.0/24 *[OSPF/10] 09:52:14, metric 3
> to 11.11.11.2 via ge-0/0/2.0
10.255.111.4/32 *[OSPF/10] 09:54:10, metric 2
> to 11.11.11.2 via ge-0/0/2.0
10.255.112.1/32 *[Direct/0] 09:55:05
> via lo0.0
10.255.112.2/32 *[OSPF/10] 09:54:18, metric 1
> to 11.11.11.2 via ge-0/0/2.0
11.11.11.0/24 *[Direct/0] 09:55:05
> via ge-0/0/2.0
11.11.11.1/32 *[Local/0] 09:55:05
Local via ge-0/0/2.0
12.12.12.0/24 *[OSPF/10] 09:54:18, metric 2
> to 11.11.11.2 via ge-0/0/2.0
15.15.15.0/24 *[Direct/0] 09:55:05
> via ge-0/0/1.0
15.15.15.1/32 *[Local/0] 09:55:05
Local via ge-0/0/1.0
22.22.22.0/24 *[Direct/0] 09:55:05
> via ge-0/0/0.0
22.22.22.1/32 *[Local/0] 09:55:05
Local via ge-0/0/0.0
23.23.23.0/24 *[OSPF/10] 09:54:10, metric 3
> to 11.11.11.2 via ge-0/0/2.0
24.24.24.0/24 *[OSPF/10] 09:54:10, metric 3
> to 11.11.11.2 via ge-0/0/2.0
25.25.25.0/24 *[OSPF/10] 09:54:10, metric 3
> to 11.11.11.2 via ge-0/0/2.0
128.92.17.45/32 *[OSPF/10] 09:54:05, metric 3
> to 11.11.11.2 via ge-0/0/2.0
128.92.20.175/32 *[Direct/0] 10:08:01
> via lo0.0
128.92.21.186/32 *[OSPF/10] 09:54:10, metric 3
> to 11.11.11.2 via ge-0/0/2.0
128.92.25.135/32 *[OSPF/10] 09:54:10, metric 3
> to 11.11.11.2 via ge-0/0/2.0
128.92.27.91/32 *[OSPF/10] 09:54:18, metric 1
> to 11.11.11.2 via ge-0/0/2.0
128.92.28.70/32 *[OSPF/10] 09:54:10, metric 2
> to 11.11.11.2 via ge-0/0/2.0
172.16.0.0/12 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
192.168.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
192.168.102.0/23 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
207.17.136.0/24 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
207.17.136.192/32 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
207.17.137.0/24 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
224.0.0.5/32 *[OSPF/10] 09:55:05, metric 1
MultiRecv
inet.3: 5 destinations, 5 routes (5 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
10.255.111.1/32 *[LDP/9] 09:41:03, metric 3
> to 11.11.11.2 via ge-0/0/2.0, Push 300128
10.255.111.2/32 *[LDP/9] 09:41:03, metric 3
> to 11.11.11.2 via ge-0/0/2.0, Push 300144
10.255.111.3/32 *[LDP/9] 09:41:03, metric 3
> to 11.11.11.2 via ge-0/0/2.0, Push 300160
10.255.111.4/32 *[LDP/9] 09:54:10, metric 2, tag 0
> to 11.11.11.2 via ge-0/0/2.0, Push 300000
10.255.112.2/32 *[LDP/9] 09:54:48, metric 1, tag 0
> to 11.11.11.2 via ge-0/0/2.0
iso.0: 2 destinations, 2 routes (2 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
47.0005.80ff.f800.0000.0108.0001.1280.9202.0175/152
*[Direct/0] 10:08:01
> via lo0.0
49.0002.0192.0168.0001/72
*[Direct/0] 09:55:05
> via lo0.0
mpls.0: 10 destinations, 10 routes (10 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
0 *[MPLS/0] 09:55:05, metric 1
Receive
1 *[MPLS/0] 09:55:05, metric 1
Receive
2 *[MPLS/0] 09:55:05, metric 1
Receive
13 *[MPLS/0] 09:55:05, metric 1
Receive
300064 *[LDP/9] 09:54:48, metric 1
> to 11.11.11.2 via ge-0/0/2.0, Pop
300064(S=0) *[LDP/9] 09:54:48, metric 1
> to 11.11.11.2 via ge-0/0/2.0, Pop
300112 *[LDP/9] 09:54:10, metric 2, tag 0
> to 11.11.11.2 via ge-0/0/2.0, Swap 300000
300192 *[LDP/9] 09:41:03, metric 3
> to 11.11.11.2 via ge-0/0/2.0, Swap 300128
300208 *[LDP/9] 09:41:03, metric 3
> to 11.11.11.2 via ge-0/0/2.0, Swap 300144
300224 *[LDP/9] 09:41:03, metric 3
> to 11.11.11.2 via ge-0/0/2.0, Swap 300160
inet6.0: 2 destinations, 2 routes (2 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
abcd::128:92:20:175/128
*[Direct/0] 10:08:01
> via lo0.0
fe80::5668:a50f:fcc1:1f9c/128
*[Direct/0] 10:08:01
> via lo0.0
Significado
A saída mostra todas as rotas na tabela de roteamento do Dispositivo R0.
Verificação das informações de visão geral do LDP
Propósito
Exibir informações de visão geral do LDP.
Ação
No dispositivo R0, a partir do modo operacional, execute o show ldp overview
comando para exibir a visão geral do LDP.
user@R0> show ldp overview
Instance: master
Reference count: 2
Router ID: 10.255.112.1
Message id: 8
Configuration sequence: 6
Deaggregate: disabled
Explicit null: disabled
IPv6 tunneling: disabled
Strict targeted hellos: disabled
Loopback if added: yes
Route preference: 9
Unicast transit LSP chaining: disabled
P2MP transit LSP chaining: disabled
Transit LSP statistics based on route statistics: disabled
LDP route acknowledgement: enabled
LDP mtu discovery: disabled
Longest Match: enabled
Capabilities enabled: none
Egress FEC capabilities enabled: entropy-label-capability
Downstream unsolicited Sessions:
Operational: 1
Retention: liberal
Control: ordered
Auto targeted sessions:
Auto targeted: disabled
Timers:
Keepalive interval: 10, Keepalive timeout: 30
Link hello interval: 5, Link hello hold time: 15
Targeted hello interval: 15, Targeted hello hold time: 45
Label withdraw delay: 60, Make before break timeout: 30
Make before break switchover delay: 3
Link protection timeout: 120
Graceful restart:
Restart: disabled, Helper: enabled, Restart in process: false
Reconnect time: 60000, Max neighbor reconnect time: 120000
Recovery time: 160000, Max neighbor recovery time: 240000
Traffic Engineering:
Bgp igp: disabled
Both ribs: disabled
Mpls forwarding: disabled
IGP:
Tracking igp metric: disabled
Sync session up delay: 10
Session protection:
Session protection: disabled
Session protection timeout: 0
Interface addresses advertising:
11.11.11.1
10.255.112.1
128.92.20.175
Label allocation:
Current number of LDP labels allocated: 5
Total number of LDP labels allocated: 11
Total number of LDP labels freed: 6
Total number of LDP label allocation failure: 0
Current number of labels allocated by all protocols: 5
Significado
A saída exibe as informações de visão geral do LDP do Dispositivo R0
Verifique as entradas de LDP na tabela de topologia interna
Propósito
Exibir as entradas de rota na tabela de topologia interna do Protocolo de Distribuição de Rótulos (LDP).
Ação
No dispositivo R0, a partir do modo operacional, execute o show ldp route
comando para exibir a tabela de topologia interna do LDP.
user@R0> show ldp route
Destination Next-hop intf/lsp/table Next-hop address
10.4.0.0/16 fxp0.0 10.92.31.254
10.5.0.0/16 fxp0.0 10.92.31.254
10.6.128.0/17 fxp0.0 10.92.31.254
10.9.0.0/16 fxp0.0 10.92.31.254
10.10.0.0/16 fxp0.0 10.92.31.254
10.13.4.0/23 fxp0.0 10.92.31.254
10.13.10.0/23 fxp0.0 10.92.31.254
10.82.0.0/15 fxp0.0 10.92.31.254
10.84.0.0/16 fxp0.0 10.92.31.254
10.85.12.0/22 fxp0.0 10.92.31.254
10.92.0.0/16 fxp0.0 10.92.31.254
10.92.16.0/20 fxp0.0
10.92.20.175/32
10.94.0.0/16 fxp0.0 10.92.31.254
10.99.0.0/16 fxp0.0 10.92.31.254
10.102.0.0/16 fxp0.0 10.92.31.254
10.150.0.0/16 fxp0.0 10.92.31.254
10.155.0.0/16 fxp0.0 10.92.31.254
10.157.64.0/19 fxp0.0 10.92.31.254
10.160.0.0/16 fxp0.0 10.92.31.254
10.204.0.0/16 fxp0.0 10.92.31.254
10.205.0.0/16 fxp0.0 10.92.31.254
10.206.0.0/16 fxp0.0 10.92.31.254
10.207.0.0/16 fxp0.0 10.92.31.254
10.209.0.0/16 fxp0.0 10.92.31.254
10.212.0.0/16 fxp0.0 10.92.31.254
10.213.0.0/16 fxp0.0 10.92.31.254
10.214.0.0/16 fxp0.0 10.92.31.254
10.215.0.0/16 fxp0.0 10.92.31.254
10.216.0.0/16 fxp0.0 10.92.31.254
10.218.13.0/24 fxp0.0 10.92.31.254
10.218.14.0/24 fxp0.0 10.92.31.254
10.218.16.0/20 fxp0.0 10.92.31.254
10.218.32.0/20 fxp0.0 10.92.31.254
10.227.0.0/16 fxp0.0 10.92.31.254
10.255.111.0/24 ge-0/0/2.0 11.11.11.2
10.255.111.4/32 ge-0/0/2.0 11.11.11.2
10.255.112.1/32 lo0.0
10.255.112.2/32 ge-0/0/2.0 11.11.11.2
11.11.11.0/24 ge-0/0/2.0
11.11.11.1/32
12.12.12.0/24 ge-0/0/2.0 11.11.11.2
15.15.15.0/24 ge-0/0/1.0
15.15.15.1/32
22.22.22.0/24 ge-0/0/0.0
22.22.22.1/32
23.23.23.0/24 ge-0/0/2.0 11.11.11.2
24.24.24.0/24 ge-0/0/2.0 11.11.11.2
25.25.25.0/24 ge-0/0/2.0 11.11.11.2
128.92.17.45/32 ge-0/0/2.0 11.11.11.2
128.92.20.175/32 lo0.0
128.92.21.186/32 ge-0/0/2.0 11.11.11.2
128.92.25.135/32 ge-0/0/2.0 11.11.11.2
128.92.27.91/32 ge-0/0/2.0 11.11.11.2
128.92.28.70/32 ge-0/0/2.0 11.11.11.2
172.16.0.0/12 fxp0.0 10.92.31.254
192.168.0.0/16 fxp0.0 10.92.31.254
192.168.102.0/23 fxp0.0 10.92.31.254
207.17.136.0/24 fxp0.0 10.92.31.254
207.17.136.192/32 fxp0.0 10.92.31.254
207.17.137.0/24 fxp0.0 10.92.31.254
224.0.0.5/32
Significado
A saída exibe as entradas de rota na tabela de topologia interna do Protocolo de Distribuição de Rótulos (LDP) do Dispositivo R0.
Verifique apenas as informações fec da rota LDP
Propósito
Exibir apenas as informações FEC da rota LDP.
Ação
No dispositivo R0, a partir do modo operacional, execute o show ldp route fec-only
comando para exibir as rotas na tabela de roteamento.
user@R0> show ldp route fec-only
Destination Next-hop intf/lsp/table Next-hop address
10.255.111.1/32 ge-0/0/2.0 11.11.11.2
10.255.111.2/32 ge-0/0/2.0 11.11.11.2
10.255.111.3/32 ge-0/0/2.0 11.11.11.2
10.255.111.4/32 ge-0/0/2.0 11.11.11.2
10.255.112.1/32 lo0.0
10.255.112.2/32 ge-0/0/2.0 11.11.11.2
Significado
A saída exibe apenas as rotas FEC do protocolo LDP disponíveis para o dispositivo R0.
Verifique as rotas DE FEC e sombra do LDP
Propósito
Exibir o FEC e as rotas de sombra na tabela de roteamento.
Ação
No dispositivo R0, a partir do modo operacional, execute o show ldp route fec-and-route
comando para exibir as rotas FEC e sombra na tabela de roteamento.
user@R0> show ldp route fec-and-route
Destination Next-hop intf/lsp/table Next-hop address
10.4.0.0/16 fxp0.0 10.92.31.254
10.5.0.0/16 fxp0.0 10.92.31.254
10.6.128.0/17 fxp0.0 10.92.31.254
10.9.0.0/16 fxp0.0 10.92.31.254
10.10.0.0/16 fxp0.0 10.92.31.254
10.13.4.0/23 fxp0.0 10.92.31.254
10.13.10.0/23 fxp0.0 10.92.31.254
10.82.0.0/15 fxp0.0 10.92.31.254
10.84.0.0/16 fxp0.0 10.92.31.254
10.85.12.0/22 fxp0.0 10.92.31.254
10.92.0.0/16 fxp0.0 10.92.31.254
10.92.16.0/20 fxp0.0
10.92.20.175/32
10.94.0.0/16 fxp0.0 10.92.31.254
10.99.0.0/16 fxp0.0 10.92.31.254
10.102.0.0/16 fxp0.0 10.92.31.254
10.150.0.0/16 fxp0.0 10.92.31.254
10.155.0.0/16 fxp0.0 10.92.31.254
10.157.64.0/19 fxp0.0 10.92.31.254
10.160.0.0/16 fxp0.0 10.92.31.254
10.204.0.0/16 fxp0.0 10.92.31.254
10.205.0.0/16 fxp0.0 10.92.31.254
10.206.0.0/16 fxp0.0 10.92.31.254
10.207.0.0/16 fxp0.0 10.92.31.254
10.209.0.0/16 fxp0.0 10.92.31.254
10.212.0.0/16 fxp0.0 10.92.31.254
10.213.0.0/16 fxp0.0 10.92.31.254
10.214.0.0/16 fxp0.0 10.92.31.254
10.215.0.0/16 fxp0.0 10.92.31.254
10.216.0.0/16 fxp0.0 10.92.31.254
10.218.13.0/24 fxp0.0 10.92.31.254
10.218.14.0/24 fxp0.0 10.92.31.254
10.218.16.0/20 fxp0.0 10.92.31.254
10.218.32.0/20 fxp0.0 10.92.31.254
10.227.0.0/16 fxp0.0 10.92.31.254
10.255.111.0/24 ge-0/0/2.0 11.11.11.2
10.255.111.1/32 ge-0/0/2.0 11.11.11.2
10.255.111.2/32 ge-0/0/2.0 11.11.11.2
10.255.111.3/32 ge-0/0/2.0 11.11.11.2
10.255.111.4/32 ge-0/0/2.0 11.11.11.2
10.255.111.4/32 ge-0/0/2.0 11.11.11.2
10.255.112.1/32 lo0.0
10.255.112.1/32 lo0.0
10.255.112.2/32 ge-0/0/2.0 11.11.11.2
10.255.112.2/32 ge-0/0/2.0 11.11.11.2
11.11.11.0/24 ge-0/0/2.0
11.11.11.1/32
12.12.12.0/24 ge-0/0/2.0 11.11.11.2
15.15.15.0/24 ge-0/0/1.0
15.15.15.1/32
22.22.22.0/24 ge-0/0/0.0
22.22.22.1/32
23.23.23.0/24 ge-0/0/2.0 11.11.11.2
24.24.24.0/24 ge-0/0/2.0 11.11.11.2
25.25.25.0/24 ge-0/0/2.0 11.11.11.2
128.92.17.45/32 ge-0/0/2.0 11.11.11.2
128.92.20.175/32 lo0.0
128.92.21.186/32 ge-0/0/2.0 11.11.11.2
128.92.25.135/32 ge-0/0/2.0 11.11.11.2
128.92.27.91/32 ge-0/0/2.0 11.11.11.2
128.92.28.70/32 ge-0/0/2.0 11.11.11.2
172.16.0.0/12 fxp0.0 10.92.31.254
192.168.0.0/16 fxp0.0 10.92.31.254
192.168.102.0/23 fxp0.0 10.92.31.254
207.17.136.0/24 fxp0.0 10.92.31.254
207.17.136.192/32 fxp0.0 10.92.31.254
207.17.137.0/24 fxp0.0 10.92.31.254
224.0.0.5/32
Significado
A saída exibe o FEC e as rotas de sombra do Dispositivo R0
Configuração das preferências de rota do LDP
Quando vários protocolos calculam rotas para o mesmo destino, são usadas preferências de rota para selecionar qual rota está instalada na tabela de encaminhamento. A rota com o menor valor de preferência é selecionada. O valor de preferência pode ser um número na faixa de 0 a 255. Por padrão, as rotas LDP têm um valor de preferência de 9.
Para modificar as preferências de rota, inclua a preference
declaração:
preference preference;
Para obter uma lista de níveis de hierarquia em que você possa incluir esta declaração, veja a seção de resumo da declaração para esta declaração.
Reinício gracioso do LDP
A reinicialização graciosa do LDP permite que um roteador cujo plano de controle LDP esteja passando por uma reinicialização continue a encaminhar o tráfego enquanto recupera seu estado dos roteadores vizinhos. Ele também permite um roteador no qual o modo de helper é habilitado para ajudar um roteador vizinho que está tentando reiniciar o LDP.
Durante a inicialização da sessão, um roteador anuncia sua capacidade de realizar a reinicialização graciosa do LDP ou de tirar proveito de um vizinho realizando o reinício gracioso do LDP enviando o gracioso TLV de reinicialização. Este TLV contém dois campos relevantes para a reinicialização graciosa do LDP: o tempo de reconexão e o tempo de recuperação. Os valores dos tempos de reconexão e recuperação indicam os recursos de reinicialização graciosos suportados pelo roteador.
Quando um roteador descobre que um roteador vizinho está reiniciando, ele espera até o fim do tempo de recuperação antes de tentar se reconectar. O tempo de recuperação é o tempo que um roteador espera que o LDP reinicie graciosamente. O período de recuperação começa quando uma mensagem de inicialização é enviada ou recebida. Esse período de tempo também é tipicamente o tempo que um roteador vizinho mantém suas informações sobre o roteador reiniciando, permitindo que ele continue a encaminhar o tráfego.
Você pode configurar o reinício gracioso do LDP tanto na instância principal para o protocolo LDP quanto para uma instância de roteamento específica. Você pode desabilitar a reinicialização graciosa no nível global de todos os protocolos, no nível de protocolo apenas para LDP e em uma instância de roteamento específica. A reinicialização graciosa do LDP é desativada por padrão, porque, no nível global, a reinicialização graciosa é desativada por padrão. No entanto, o modo helper (a capacidade de ajudar um roteador vizinho a tentar uma reinicialização graciosa) é habilitado por padrão.
A seguir, alguns dos comportamentos associados à reinicialização graciosa do LDP:
As etiquetas de saída não são mantidas em reinicializações. Novos rótulos de saída são alocados.
Quando um roteador está reiniciando, nenhuma mensagem de mapa de rótulos é enviada aos vizinhos que suportem a reinicialização graciosa até que o roteador de reinicialização se estabilize (mensagens de mapa de rótulos são imediatamente enviadas a vizinhos que não suportam a reinicialização graciosa). No entanto, todas as outras mensagens (keepalive, mensagem de endereço, notificação e versão) são enviadas normalmente. A distribuição dessas outras mensagens impede que o roteador distribua informações incompletas.
O modo helper e a reinicialização graciosa são independentes. Você pode desabilitar uma reinicialização graciosa na configuração, mas ainda assim permitir que o roteador coopere com um vizinho que tenta reiniciar graciosamente.
Configuração do reinício gracioso do LDP
Quando você altera a configuração de reinicialização graciosa nos níveis de hierarquia ou [edit protocols ldp graceful-restart]
na hierarquia, qualquer sessão de LDP em [edit routing-options graceful-restart]
execução é reiniciada automaticamente para aplicar a configuração de reinicialização graciosa. Esse comportamento espelha o comportamento do BGP quando você altera sua configuração de reinicialização graciosa.
Por padrão, o modo de helper de reinicialização graciosa é habilitado, mas a reinicialização graciosa é desativada. Assim, o comportamento padrão de um roteador é ajudar os roteadores vizinhos a tentar uma reinicialização graciosa, mas não tentar uma reinicialização graciosa em si.
Para configurar a reinicialização graciosa do LDP, veja as seguintes seções:
- Ativando o recomeço gracioso
- Desativação do LDP gracioso de reinicialização ou modo de helper
- Configurando o tempo de reconexão
- Configurando o tempo de recuperação e o tempo máximo de recuperação
Ativando o recomeço gracioso
Para habilitar a reinicialização graciosa do LDP, você também precisa habilitar uma reinicialização graciosa no roteador. Para ativar a reinicialização graciosa, inclua a graceful-restart
declaração:
graceful-restart;
Você pode incluir essa declaração nos seguintes níveis de hierarquia:
[edit routing-options]
[edit logical-systems logical-system-name routing-options]
Os roteadores da Série ACX não suportam [edit logical-systems logical-system-name routing-options
] nível de hierarquia.
A graceful-restart
declaração permite a reinicialização graciosa de todos os protocolos com suporte a esse recurso no roteador. Para obter mais informações sobre a reinicialização graciosa, consulte a Biblioteca de protocolos de roteamento do Junos OS para dispositivos de roteamento.
Por padrão, a reinicialização graciosa do LDP é habilitada quando você permite a reinicialização graciosa tanto no nível de protocolo LDP quanto em todas as instâncias de roteamento. No entanto, você pode desabilitar o reinício gracioso do LDP e o modo de helper de reinicialização graciosa do LDP.
Desativação do LDP gracioso de reinicialização ou modo de helper
Para desativar a reinicialização e a recuperação graciosas do LDP, inclua a disable
declaração:
ldp { graceful-restart { disable; } }
Para obter uma lista de níveis de hierarquia em que você possa incluir esta declaração, veja a seção de resumo da declaração para esta declaração.
Você pode desativar o modo de helper apenas no nível de protocolos LDP. Você não pode desabilitar o modo helper para uma instância de roteamento específica. Para desativar o modo de helper LDP, inclua a helper-disable
declaração:
ldp { graceful-restart { helper-disable; } }
Para obter uma lista de níveis de hierarquia em que você possa incluir esta declaração, veja a seção de resumo da declaração para esta declaração.
As seguintes configurações de reinício graciosas do LDP são possíveis:
A reinicialização graciosa do LDP e o modo helper estão habilitados.
A reinicialização graciosa do LDP é desativada, mas o modo de ajuda está habilitado. Um roteador configurado dessa forma não pode reiniciar graciosamente, mas pode ajudar um vizinho reiniciado.
A reinicialização graciosa do LDP e o modo helper são desativados. O roteador não usa a reinicialização graciosa do LDP ou o gracioso tipo, comprimento e valor de reinicialização (TLV) enviados na mensagem de inicialização. O roteador se comporta como um roteador que não pode suportar a reinicialização graciosa do LDP.
Um erro de configuração é emitido se você tentar ativar o modo de helper de reinicialização e desativação graciosa.
Configurando o tempo de reconexão
Após a falha na conexão de LDP entre vizinhos, os vizinhos esperam um certo tempo para que o roteador reiniciado graciosamente retome o envio de mensagens LDP. Após o período de espera, a sessão de LDP pode ser restabelecida. Você pode configurar o período de espera em segundos. Esse valor está incluído na sessão tolerante a falhas que o TLV enviou em mensagens de inicialização de LDP quando a reinicialização graciosa do LDP é habilitada.
Suponha que o roteador A e o roteador B sejam vizinhos do LDP. O roteador A é o roteador de reiniciamento. O tempo de reconexão é o momento em que o roteador A diz ao Roteador B para esperar após o roteador B detectar que o Roteador A foi reiniciado.
Para configurar o tempo de reconexão, inclua a reconnect-time
declaração:
graceful-restart { reconnect-time seconds; }
Você pode definir o tempo de reconexão a um valor na faixa de 30 a 300 segundos. Por padrão, são 60 segundos.
Para obter uma lista de níveis de hierarquia nos quais você pode configurar essas declarações, veja as seções de resumo da declaração para essas declarações.
Configurando o tempo de recuperação e o tempo máximo de recuperação
O tempo de recuperação é a quantidade de tempo que um roteador espera que o LDP reinicie graciosamente. O período de recuperação começa quando uma mensagem de inicialização é enviada ou recebida. Esse período também normalmente é a quantidade de tempo que um roteador vizinho mantém suas informações sobre o roteador reiniciador, permitindo que ele continue a encaminhar o tráfego.
Para evitar que um roteador vizinho seja afetado negativamente se receber um valor falso pelo tempo de recuperação do roteador reiniciado, você pode configurar o tempo máximo de recuperação no roteador vizinho. Um roteador vizinho mantém seu estado pelo menor tempo das duas vezes. Por exemplo, o roteador A está realizando uma reinicialização graciosa do LDP. Ele enviou um tempo de recuperação de 900 segundos para o roteador B vizinho. No entanto, o roteador B tem seu tempo máximo de recuperação configurado em 400 segundos. O roteador B só vai esperar por 400 segundos antes de expurgar suas informações de LDP do Roteador A.
Para configurar o tempo de recuperação, inclua a recovery-time
declaração e a maximum-neighbor-recovery-time
declaração:
graceful-restart { maximum-neighbor-recovery-time seconds; recovery-time seconds; }
Para obter uma lista de níveis de hierarquia nos quais você pode configurar essas declarações, veja as seções de resumo da declaração para essas declarações.
Vinculações de rótulo de LDP de entrada filtragem
Você pode filtrar as vinculações de rótulos LDP recebidas, aplicando políticas para aceitar ou negar vinculações anunciadas por roteadores vizinhos. Para configurar a filtragem de rótulo recebido, inclua a import
declaração:
import [ policy-names ];
Para obter uma lista de níveis de hierarquia em que você possa incluir esta declaração, veja a seção de resumo da declaração para esta declaração.
A política nomeada (configurada no nível de [edit policy-options]
hierarquia) é aplicada a todas as vinculações de rótulo recebidas de todos os vizinhos do LDP. Toda filtragem é feita com from
declarações. Tabela 1 lista os únicos from
operadores que se aplicam à filtragem de rótulos recebidos do LDP.
from Operador |
Descrição |
---|---|
|
Correspondências em ligações recebidas de um vizinho adjacente na interface especificada |
|
Correspondências em vinculações recebidas do ID do roteador LDP especificado |
|
Correspondências em vinculações recebidas de um vizinho anunciando o endereço de interface especificado |
|
Correspondências em vinculações com o prefixo especificado |
Se uma ligação for filtrada, ela ainda aparece no banco de dados LDP, mas não é considerada para instalação como parte de um caminho comutado por rótulos (LSP).
Geralmente, a aplicação de políticas no LDP só pode ser usada para bloquear o estabelecimento de LSPs, não para controlar seu roteamento. Isso ocorre porque o caminho que um LSP segue é determinado pelo roteamento unicast, e não pelo LDP. No entanto, quando existem vários caminhos de igual custo para o destino por meio de diferentes vizinhos, você pode usar a filtragem de LDP para excluir alguns dos possíveis próximos saltos de consideração. (Caso contrário, o LDP escolhe um dos próximos saltos possíveis aleatoriamente.)
As sessões de LDP não estão vinculadas a interfaces ou endereços de interface. O LDP anuncia apenas rótulos por roteador (não por interface); portanto, se existirem vários links paralelos entre dois roteadores, apenas uma sessão de LDP será estabelecida, e ela não está vinculada a uma única interface. Quando um roteador tem várias adjacências para o mesmo vizinho, tome cuidado para garantir que o filtro faça o que é esperado. (Geralmente, usar next-hop
e interface
não é apropriado neste caso.)
Se um rótulo tiver sido filtrado (o que significa que ele foi rejeitado pela política e não for usado para construir um LSP), ele será marcado como filtrado no banco de dados:
user@host> show ldp database Input label database, 10.10.255.1:0-10.10.255.6:0 Label Prefix 3 10.10.255.6/32 (Filtered) Output label database, 10.10.255.1:0-10.10.255.6:0 Label Prefix 3 10.10.255.1/32 (Filtered)
Para obter mais informações sobre como configurar políticas para LDP, consulte as políticas de roteamento, filtros de firewall e guia de usuários de policiais de tráfego.
Exemplos: Vinculações de rótulo de LDP de entrada filtragem
Aceite apenas /32 prefixos de todos os vizinhos:
[edit] protocols { ldp { import only-32; ... } } policy-options { policy-statement only-32 { term first { from { route-filter 0.0.0.0/0 upto /31; } then reject; } then accept; } }
Aceite 131.108/16
ou a maior parte da ID 10.10.255.2
do roteador e aceite todos os prefixos de todos os outros vizinhos:
[edit] protocols { ldp { import nosy-neighbor; ... } } policy-options { policy-statement nosy-neighbor { term first { from { neighbor 10.10.255.2; route-filter 131.108.0.0/16 orlonger accept; route-filter 0.0.0.0/0 orlonger reject; } } then accept; } }
Vinculações de rótulo de LDP de saída filtragem
Você pode configurar políticas de exportação para filtrar rótulos de saída de LDP. Você pode filtrar as vinculações de rótulos de saída aplicando políticas de roteamento para impedir que as vinculações sejam anunciadas para roteadores vizinhos. Para configurar a filtragem de rótulos de saída, inclua a export
declaração:
export [policy-name];
Para obter uma lista de níveis de hierarquia em que você possa incluir esta declaração, veja a seção de resumo da declaração para esta declaração.
A política de exportação nomeada (configurada no nível de [edit policy-options]
hierarquia) é aplicada a todas as vinculações de rótulos transmitidas a todos os vizinhos do LDP. O único from
operador que se aplica à filtragem de rótulos de saída LDP é route-filter
, que combina ligações com o prefixo especificado. Os únicos to
operadores que se aplicam à filtragem de rótulos de saída são os operadores em Tabela 2.
para operadora |
Descrição |
---|---|
|
Correspondências em ligações enviadas a um vizinho que é adjacente na interface especificada |
|
Correspondências em vinculações enviadas ao ID do roteador LDP especificado |
|
Correspondências em vinculações enviadas a um vizinho anunciando o endereço de interface especificado |
Se uma ligação for filtrada, a ligação não será anunciada ao roteador vizinho, mas pode ser instalada como parte de um LSP no roteador local. Você pode aplicar políticas no LDP para bloquear o estabelecimento de LSPs, mas não para controlar seu roteamento. O caminho que um LSP segue é determinado pelo roteamento unicast, não pelo LDP.
As sessões de LDP não estão vinculadas a interfaces ou endereços de interface. O LDP anuncia apenas rótulos por roteador (não por interface). Se existirem vários links paralelos entre dois roteadores, apenas uma sessão de LDP será estabelecida, e ela não está vinculada a uma única interface.
Não use o e interface
os next-hop
operadores quando um roteador tem várias adjacências para o mesmo vizinho.
Rótulos filtrados estão marcados no banco de dados:
user@host> show ldp database Input label database, 10.10.255.1:0-10.10.255.3:0 Label Prefix 100007 10.10.255.2/32 3 10.10.255.3/32 Output label database, 10.10.255.1:0-10.10.255.3:0 Label Prefix 3 10.10.255.1/32 100001 10.10.255.6/32 (Filtered)
Para obter mais informações sobre como configurar políticas para LDP, consulte as políticas de roteamento, filtros de firewall e guia de usuários de policiais de tráfego.
Exemplos: Vinculações de rótulo de LDP de saída filtragem
Bloqueie a transmissão da rota para 10.10.255.6/32
qualquer vizinho:
[edit protocols] ldp { export block-one; } policy-options { policy-statement block-one { term first { from { route-filter 10.10.255.6/32 exact; } then reject; } then accept; } }
Envie apenas 131.108/16
ou mais tempo para a ID 10.10.255.2
do roteador e envie todos os prefixos para todos os outros roteadores:
[edit protocols] ldp { export limit-lsps; } policy-options { policy-statement limit-lsps { term allow-one { from { route-filter 131.108.0.0/16 orlonger; } to { neighbor 10.10.255.2; } then accept; } term block-the-rest { to { neighbor 10.10.255.2; } then reject; } then accept; } }
Especificando o endereço de transporte usado pelo LDP
Os roteadores devem primeiro estabelecer uma sessão de TCP entre si antes que eles possam estabelecer uma sessão de LDP. A sessão de TCP permite que os roteadores troquem os anúncios de rótulos necessários para a sessão de LDP. Para estabelecer a sessão de TCP, cada roteador deve aprender o endereço de transporte do outro roteador. O endereço de transporte é um endereço IP usado para identificar a sessão de TCP sobre a qual a sessão LDP será executada.
Para configurar o endereço de transporte LDP, inclua a declaração de endereço de transporte:
transport-address (router-id | interface);
Para obter uma lista de níveis de hierarquia em que você possa incluir esta declaração, veja a seção de resumo da declaração para esta declaração.
Se você especificar a opção router-id
, o endereço do identificador do roteador é usado como endereço de transporte (a menos que configurado de outra forma, o identificador do roteador é tipicamente o mesmo que o endereço loopback). Se você especificar a opção interface
, o endereço da interface é usado como endereço de transporte para quaisquer sessões de LDP para vizinhos que possam ser alcançadas por essa interface. Observe que o identificador do roteador é usado como endereço de transporte por padrão.
Para uma operação adequada, o endereço de transporte LDP deve ser acessível. O ID do roteador é um identificador, não um endereço IP roteável. Por essa razão, recomendou que o ID do roteador fosse definido para combinar com o endereço de loopback, e que o endereço de loopback fosse anunciado pelo IGP.
Você não pode especificar a opção interface
quando há vários links paralelos com o mesmo vizinho LDP, porque a especificação do LDP exige que o mesmo endereço de transporte seja anunciado em todas as interfaces para o mesmo vizinho. Se o LDP detectar vários links paralelos ao mesmo vizinho, ele desativa interfaces para aquele vizinho um a um até que a condição seja limpa, seja desconectando o vizinho em uma interface ou especificando a opção router-id
.
Endereço de transporte de controle usado para sessão targeted-LDP
Para estabelecer uma sessão de TCP entre dois dispositivos, cada dispositivo deve aprender o endereço de transporte do outro dispositivo. O endereço de transporte é um endereço IP usado para identificar a sessão de TCP sobre a qual a sessão LDP opera. Antes, esse endereço de transporte só poderia ser o ID do roteador ou um endereço de interface. Com o recurso de endereço de transporte LDP, você pode configurar explicitamente qualquer endereço IP como endereço de transporte para vizinhos LDP direcionados para adjacências de circuito de Camada 2, MPLS e VPLS. Isso permite que você controle as sessões de LDP direcionadas usando a configuração de endereço de transporte.
- Benefícios do controle do endereço de transporte usado para sessão targeted-LDP
- Visão geral do endereço de transporte targeted-LDP
- Preferência por endereços de transporte
- Resolução de problemas da configuração de endereços de transporte
Benefícios do controle do endereço de transporte usado para sessão targeted-LDP
Configurar o endereço de transporte para estabelecer sessões de LDP direcionadas tem os seguintes benefícios:
Flexible interface configurations— Oferece a flexibilidade de configurar vários endereços IP para uma interface de loopback sem interromper a criação de sessão de LDP entre os vizinhos-alvo-LDP.
Ease of operation— O endereço de transporte configurado no nível de interface permite que você use mais de um protocolo no backbone IGP para LDP. Isso permite operações suaves e fáceis.
Visão geral do endereço de transporte targeted-LDP
Antes do Junos OS Release 19.1R1, o LDP forneceu suporte apenas para iD de roteador ou endereço de interface como endereço de transporte em qualquer interface LDP. As adjacências formadas nessa interface usavam um dos endereços IP atribuídos à interface ou ao roteador-ID. Em caso de adjacência direcionada, a interface é a interface de loopback. Quando vários endereços de loopback foram configurados no dispositivo, o endereço de transporte não poderia ser derivado para a interface e, como resultado, a sessão de LDP não pôde ser estabelecida.
A partir do Junos OS Release 19.1R1, além dos endereços IP padrão usados para endereço de transporte de sessões de LDP direcionadas, você pode configurar qualquer outro endereço IP como endereço de transporte sob as session
declarações de configuração e interface
configuraçãosession-group
. A configuração do endereço de transporte é aplicável para vizinhos configurados, incluindo apenas circuitos de Camada 2, MPLS e adjacências VPLS. Essa configuração não se aplica a adjacências descobertas (direcionadas ou não).
Preferência por endereços de transporte
Você pode configurar o endereço de transporte para sessões de LDP direcionadas no nível de sessão, grupo de sessão e interface.
Após a configuração do endereço de transporte, a sessão targeted-LDP é estabelecida com base na preferência do endereço de transporte do LDP.
A ordem de preferência do endereço de transporte para vizinho alvo (configurado por circuito de Camada 2, MPLS, VPLS e configuração LDP) é a seguinte:
Sob
[edit protocols ldp session]
hierarquia.Sob
[edit protocols ldp session-group]
hierarquia.Sob
[edit protocols ldp interfcae lo0]
hierarquia.Sob
[edit protocols ldp]
hierarquia.Endereço padrão.
A ordem de preferência do endereço de transporte para os vizinhos descobertos é a seguinte:
Sob
[edit protocols ldp interfcae]
hierarquia.Sob
[edit protocols ldp]
hierarquia.Endereço padrão.
A ordem de preferência do endereço de transporte para vizinhos auto-direcionados onde o LDP está configurado para aceitar pacotes olá é a seguinte:
Sob
[edit protocols ldp interfcae lo0]
hierarquia.Sob
[edit protocols ldp]
hierarquia.Endereço padrão.
Resolução de problemas da configuração de endereços de transporte
Você pode usar as seguintes saídas de comando de exibição para solucionar problemas de sessões de LDP direcionadas:
show ldp session
show ldp neighbor
O
detail
nível de saída doshow ldp neighbor
comando exibe o endereço de transporte enviado nas mensagens de olá para o vizinho alvo. Se esse endereço não for acessível do vizinho, a sessão de LDP não será atualizada.show configuration protocols ldp
Você também pode habilitar traceoptions de LDP para uma solução de problemas adicionais.
Se a configuração for alterada de usar um endereço de transporte inválido (não acessável) para um endereço de transporte válido, os seguintes vestígios podem ser observados:
May 29 10:47:11.569722 Incoming connect from 10.55.1.4 May 29 10:47:11.570064 Connection 10.55.1.4 state Closed -> Open May 29 10:47:11.570727 Session 10.55.1.4 state Nonexistent -> Initialized May 29 10:47:11.570768 Session 10.55.1.4 state Initialized -> OpenRec May 29 10:47:11.570799 LDP: Session param Max PDU length 4096 from 10.55.1.4, negotiated 4096 May 29 10:47:11.570823 Session 10.55.1.4 GR state Nonexistent -> Operational May 29 10:47:11.669295 Session 10.55.1.4 state OpenRec -> Operational May 29 10:47:11.669387 RPD_LDP_SESSIONUP: LDP session 10.55.1.4 is up
Se a configuração for alterada de usar um endereço de transporte válido para o endereço de transporte inválido (não acessável), os seguintes vestígios podem ser observados:
May 29 10:42:36.317942 Session 10.55.1.4 GR state Operational -> Nonexistent May 29 10:42:36.318171 Session 10.55.1.4 state Operational -> Closing May 29 10:42:36.318208 LDP session 10.55.1.4 is down, reason: received notification from peer May 29 10:42:36.318236 RPD_LDP_SESSIONDOWN: LDP session 10.55.1.4 is down, reason: received notification from peer May 29 10:42:36.320081 Connection 10.55.1.4 state Open -> Closed May 29 10:42:36.322411 Session 10.55.1.4 state Closing -> Nonexistent
Em caso de configuração defeituosa, execute as seguintes tarefas de solução de problemas:
Confira.
address family
O endereço de transporte configurado sob asession
declaração deve pertencer à mesma família de endereço que o vizinho ou sessão.O endereço configurado como endereço de transporte em uma
neighbor
ousession
declaração deve ser local ao roteador para que as mensagens de olá direcionadas comecem. Você pode verificar se o endereço está configurado. Se o endereço não estiver configurado em nenhuma interface, a configuração será descartada.
Configuração dos prefixos anunciados em LDP a partir da tabela de roteamento
Você pode controlar o conjunto de prefixos anunciados em LDP e fazer com que o roteador seja o roteador de saída para esses prefixos. Por padrão, apenas o endereço de loopback é anunciado em LDP. Para configurar o conjunto de prefixos da tabela de roteamento a ser anunciado em LDP, inclua a egress-policy
declaração:
egress-policy policy-name;
Para obter uma lista de níveis de hierarquia em que você possa incluir esta declaração, veja a seção de resumo da declaração para esta declaração.
Se você configurar uma política de saída para LDP que não inclua o endereço de loopback, ele não será mais anunciado no LDP. Para continuar a anunciar o endereço de loopback, você precisa configurá-lo explicitamente como parte da política de saída do LDP.
A política nomeada (configurada no [edit policy-options]
nível ou [edit logical-systems logical-system-name policy-options]
hierarquia) é aplicada a todas as rotas da tabela de roteamento. Essas rotas compatíveis com a política são anunciadas no LDP. Você pode controlar o conjunto de vizinhos aos quais esses prefixos são anunciados usando a export
declaração. Considera-se apenas from operadores; você pode usar qualquer operador válido from . Para obter mais informações, consulte a Biblioteca de protocolos de roteamento do Junos OS para dispositivos de roteamento.
Os roteadores da Série ACX não suportam [edit logical-systems
] nível de hierarquia.
Exemplo: Configuração dos prefixos anunciados em LDP
Anuncie todas as rotas conectadas em LDP:
[edit protocols] ldp { egress-policy connected-only; } policy-options { policy-statement connected-only { from { protocol direct; } then accept; } }
Configuração da desagregação fec
Quando um roteador de saída LDP anuncia vários prefixos, os prefixos ficam vinculados a um único rótulo e agregados em uma única classe de equivalência de encaminhamento (FEC). Por padrão, o LDP mantém essa agregação enquanto o anúncio atravessa a rede.
Normalmente, como um LSP não é dividido em vários saltos seguintes e os prefixos são vinculados a um único LSP, o balanceamento de carga em caminhos de igual custo não ocorre. Você pode, no entanto, equilibrar a carga em caminhos de igual custo se configurar uma política de balanceamento de carga e desagregar os FECs.
A desagregação dos FECs faz com que cada prefixo seja vinculado a um rótulo separado e se torne um LSP separado.
Para configurar FECs desagregados, inclua a deaggregate
declaração:
deaggregate;
Para obter uma lista de níveis de hierarquia em que você possa incluir esta declaração, veja a seção de resumo da declaração para esta declaração.
Para todas as sessões de LDP, você pode configurar FECs desagregados apenas globalmente.
A desagregação de um FEC permite que vários LSPs resultantes sejam distribuídos por vários caminhos de igual custo e distribui LSPs por vários saltos seguintes nos segmentos de saída, mas instala apenas um próximo salto por LSP.
Para agregar FECs, inclua a no-deaggregate
declaração:
no-deaggregate;
Para obter uma lista de níveis de hierarquia em que você possa incluir esta declaração, veja a seção de resumo da declaração para esta declaração.
Para todas as sessões de LDP, você pode configurar FECs agregados apenas globalmente.
Configuração de policiais para FECs LDP
Você pode configurar o Junos OS para rastrear e policiar o tráfego para FECs LDP. Os policiais LDP FEC podem ser usados para fazer qualquer um dos seguintes:
Rastrear ou policiar o tráfego de entrada para um LDP FEC.
Rastrear ou policiar o tráfego de trânsito para um LDP FEC.
Rastrear ou policiar o tráfego LDP FEC originário de uma classe de encaminhamento específica.
Rastrear ou policiar o tráfego LDP FEC originário de um site específico de roteamento e encaminhamento virtual (VRF).
Descarte tráfego falso vinculado a um LDP FEC específico.
Para policiar o tráfego de um LDP FEC, você deve primeiro configurar um filtro. Especificamente, você precisa configurar a interface
declaração ou a interface-set
declaração no nível de [edit firewall family protocol-family filter filter-name term term-name from]
hierarquia. A interface
declaração permite combinar o filtro com uma única interface. A interface-set
declaração permite combinar o filtro com várias interfaces.
Para obter mais informações sobre como configurar a interface
declaração, o interface-set
comunicado e os policiais para LDP FECs, consulte as políticas de roteamento, filtros de firewall e guia de usuário dos policiais de tráfego.
Depois de configurar os filtros, você precisa incluí-los na configuração de policing
declaração para LDP. Para configurar policiais para LDP FECs, inclua a policing
declaração:
policing { fec fec-address { ingress-traffic filter-name; transit-traffic filter-name; } }
Para obter uma lista de níveis de hierarquia em que você possa incluir esta declaração, veja a seção de resumo da declaração para esta declaração.
A policing
declaração inclui as seguintes opções:
fec
— Especifique o endereço FEC para o LDP FEC que você deseja policiar.ingress-filter
— Especifique o nome do filtro de tráfego de entrada.transit-traffic
— Especifique o nome do filtro de tráfego de trânsito.
Configuração da filtragem de FEC IPv4 LDP
Por padrão, quando uma sessão de LDP direcionada é estabelecida, o Junos OS sempre troca as classes de equivalência de encaminhamento IPv4 (FECs) e os FECs de circuito de Camada 2 na sessão LDP direcionada. Para uma sessão de LDP para um vizinho indiretamente conectado, você só pode querer exportar FECs de circuito de Camada 2 para o vizinho se a sessão for configurada especificamente para oferecer suporte a circuitos de Camada 2 ou VPLS.
Em uma rede mista de fornecedores onde todos os prefixos não BGP são anunciados em LDP, o banco de dados LDP pode se tornar grande. Para esse tipo de ambiente, pode ser útil evitar o anúncio de FECs IPv4 em sessões de LDP formadas por causa do circuito de Camada 2 ou configuração LDP VPLS. Da mesma forma, pode ser útil filtrar quaisquer FECs IPv4 recebidos nesse tipo de ambiente.
Se todos os vizinhos de LDP associados a uma sessão de LDP forem apenas de Camada 2, você pode configurar o Junos OS para anunciar apenas FECs de circuito de Camada 2 configurando a l2-smart-policy
declaração. Esse recurso também filtra automaticamente os FECs IPv4 recebidos nesta sessão. Configuração de uma política explícita de exportação ou importação ativada para l2-smart-policy
desativar esse recurso na direção correspondente.
Se um dos vizinhos da sessão de LDP for formado por causa de uma adjacência descoberta ou se a adjacência for formada por causa de uma configuração de tunelamento LDP em um ou mais LSPs RSVP, os FECs IPv4 são anunciados e recebidos usando o comportamento padrão.
Para evitar que o LDP exporte OS FECs IPv4 em sessões de LDP apenas com vizinhos de Camada 2 e filtrar os FECs IPv4 recebidos nessas sessões, inclua a l2-smart-policy
declaração:
l2-smart-policy;
Para obter uma lista de níveis de hierarquia nos quais você pode configurar esta declaração, veja o resumo da declaração para esta declaração.
Configuração de BFD para LSPs LDP
Você pode configurar a detecção de encaminhamento bidirecional (BFD) para LSPs LDP. O protocolo BFD é um mecanismo simples de olá que detecta falhas em uma rede. Olá, os pacotes são enviados em um intervalo específico e regular. Uma falha no vizinho é detectada quando o roteador para de receber uma resposta após um intervalo especificado. A BFD trabalha com uma ampla variedade de ambientes de rede e topologias. Os temporistas de detecção de falhas para BFD têm prazos mais curtos do que os mecanismos de detecção de falhas de rotas estáticas, proporcionando uma detecção mais rápida.
Um erro é registrado sempre que uma sessão de BFD para um caminho falha. O seguinte mostra como as mensagens de log BFD para LSP LDP podem aparecer:
RPD_LDP_BFD_UP: LDP BFD session for FEC 10.255.16.14/32 is up RPD_LDP_BFD_DOWN: LDP BFD session for FEC 10.255.16.14/32 is down
Você também pode configurar o BFD para LSPs RSVP, conforme descrito na configuração de BFD para LSPs sinalizados por RSVP.
Os temporizadores de detecção de falhas de BFD são adaptativos e podem ser ajustados para serem mais ou menos agressivos. Por exemplo, os timers podem se adaptar a um valor mais alto se a adjacência falhar, ou um vizinho pode negociar um valor mais alto por um temporizador do que o valor configurado. Os tempores se adaptam a um valor mais alto quando uma aba de sessão BFD ocorre mais de três vezes em um período de 15 segundos. Um algoritmo de back-off aumenta o intervalo de recebimento (Rx) em dois se a instância local de BFD for a razão para a aba da sessão. O intervalo de transmissão (Tx) é aumentado em dois se a instância BFD remota for a razão para a aba da sessão. Você pode usar o clear bfd adaptation
comando para devolver os temporizador de intervalo BFD aos seus valores configurados. O clear bfd adaptation
comando é sem impacto, o que significa que o comando não afeta o fluxo de tráfego no dispositivo de roteamento.
Para habilitar o BFD para LSPs LDP, inclua as e bfd-liveness-detection
as oam
declarações:
oam { bfd-liveness-detection { detection-time threshold milliseconds; ecmp; failure-action { remove-nexthop; remove-route; } holddown-interval seconds; ingress-policy ingress-policy-name; minimum-interval milliseconds; minimum-receive-interval milliseconds; minimum-transmit-interval milliseconds; multiplier detection-time-multiplier; no-adaptation; transmit-interval { minimum-interval milliseconds; threshold milliseconds; } version (0 | 1 | automatic); } fec fec-address { bfd-liveness-detection { detection-time threshold milliseconds; ecmp; failure-action { remove-nexthop; remove-route; } holddown-interval milliseconds; ingress-policy ingress-policy-name; minimum-interval milliseconds; minimum-receive-interval milliseconds; minimum-transmit-interval milliseconds; multiplier detection-time-multiplier; no-adaptation; transmit-interval { minimum-interval milliseconds; threshold milliseconds; } version (0 | 1 | automatic); } no-bfd-liveness-detection; periodic-traceroute { disable; exp exp-value; fanout fanout-value; frequency minutes; paths number-of-paths; retries retry-attempts; source address; ttl ttl-value; wait seconds; } } lsp-ping-interval seconds; periodic-traceroute { disable; exp exp-value; fanout fanout-value; frequency minutes; paths number-of-paths; retries retry-attempts; source address; ttl ttl-value; wait seconds; } }
Você pode habilitar o BFD para os LSPs LDP associados a uma classe de equivalência de encaminhamento específico (FEC) configurando o endereço FEC usando a opção fec
no nível de [edit protocols ldp]
hierarquia. Alternativamente, você pode configurar uma política de entrada de Administração e Gerenciamento de Operações (OAM) para habilitar a BFD em uma variedade de endereços FEC. Para obter mais informações, consulte Configuração de políticas de entrada OAM para LDP.
Você não pode habilitar LSPs BFD LDP a menos que seus endereços FEC equivalentes estejam explicitamente configurados ou o OAM esteja habilitado para os FECs usando uma política de entrada OAM. Se a BFD não estiver habilitada para nenhum endereço FEC, a sessão de BFD não aparecerá.
Você pode configurar a oam
declaração nos seguintes níveis de hierarquia:
[edit protocols ldp]
[edit logical-systems logical-system-name protocols ldp]
Os roteadores da Série ACX não suportam [edit logical-systems
] nível de hierarquia.
A oam
declaração inclui as seguintes opções:
fec
— Especifique o endereço FEC. Você deve especificar um endereço FEC ou configurar uma política de entrada OAM para garantir que a sessão de BFD seja concluída.lsp-ping-interval
— Especifique a duração do intervalo de ping LSP em segundos. Para emitir um ping em um LSP sinalizado por LDP, use oping mpls ldp
comando. Para obter mais informações, veja o CLI Explorer.
A bfd-liveness-detection
declaração inclui as seguintes opções:
ecmp
— Fazer com que o LDP estabeleça sessões de BFD para todos os caminhos ECMP configurados para o FEC especificado. Se você configurar a opçãoecmp
, você também deve configurar aperiodic-traceroute
declaração para o FEC especificado. Se você não fizer isso, a operação de confirmação falha. Você pode configurar aperiodic-traceroute
declaração no nível de hierarquia global ([edit protocols ldp oam]
) ao mesmo tempo em que configura apenas a opçãoecmp
para uma FEC específica ([edit protocols ldp oam fec address bfd-liveness-detection]
).intervalo de holddown — Especifique a duração da sessão de BFD antes de adicionar a rota ou o próximo salto. Especificar um tempo de 0 segundos faz com que a rota ou o próximo salto sejam adicionados assim que a sessão de BFD voltar.
minimum-interval
— Especifique o intervalo mínimo de transmissão e recebimento. Se você configurar a opçãominimum-interval
, você não precisa configurar a opçãominimum-receive-interval
ou a opçãominimum-transmit-interval
.minimum-receive-interval
— Especifique o intervalo mínimo de recebimento. A faixa é de 1 a 255.000 milissegundos.minimum-transmit-interval
— Especifique o intervalo mínimo de transmissão. A faixa é de 1 a 255.000 milissegundos.multiplier
— Especifique o multiplicador de tempo de detecção. A faixa é de 1 a 255.versão — Especifique a versão BFD. As opções são a versão BFD 0 ou BFD versão 1. Por padrão, o software Junos OS tenta determinar automaticamente a versão BFD.
Configuração de BFD consciente de ECMP para LSPs LDP
Quando você configura a BFD para um FEC, uma sessão de BFD é estabelecida para apenas um próximo salto local ativo para o roteador. No entanto, você pode configurar várias sessões de BFD, uma para cada FEC associada a um caminho multicaminho de igual custo (ECMP) específico. Para que isso funcione corretamente, você também precisa configurar o traceroute periódico LSP de LDP. (Veja configuração do traceroute LSP de LDP.) O traceroute LSP de LDP é usado para descobrir caminhos ECMP. Uma sessão de BFD é iniciada para cada caminho ECMP descoberto. Sempre que uma sessão de BFD para um dos caminhos ECMP falha, um erro é registrado.
O traceroute LSP de LDP é executado periodicamente para verificar a integridade dos caminhos ECMP. O seguinte pode ocorrer quando um problema é descoberto:
Se o traceroute LSP de LDP mais recente para uma FEC difere do traceroute anterior, as sessões de BFD associadas a esse FEC (as sessões de BFD para intervalos de endereços que mudaram em relação à execução anterior) são derrubadas e novas sessões de BFD são iniciadas para os endereços de destino nas faixas alteradas.
Se o traceroute LSP de LDP devolver um erro (por exemplo, um tempo limite), todas as sessões de BFD associadas a essa FEC serão demolidas.
Para configurar o LDP para estabelecer sessões de BFD para todos os caminhos ECMP configurados para o FEC especificado, inclua a ecmp
declaração.
ecmp;
Para obter uma lista de níveis de hierarquia em que você possa incluir esta declaração, veja a seção de resumo da declaração para esta declaração.
Juntamente com a ecmp
declaração, você também deve incluir a periodic-traceroute
declaração, seja na configuração OAM LDP global (no [edit protocols ldp oam]
nível ou [edit logical-systems logical-system-name protocols ldp oam]
hierarquia) ou na configuração para o FEC especificado (no [edit protocols ldp oam fec address]
nível da [edit logical-systems logical-system-name protocols ldp oam fec address]
hierarquia). Caso contrário, a operação de confirmação falha.
Os roteadores da Série ACX não suportam [edit logical-systems
] nível de hierarquia.
Configurando uma ação de falha para a sessão de BFD em um LSP LDP
Você pode configurar propriedades de rota e próximo salto no caso de um evento de falha de sessão BFD em um LSP LDP. O evento de falha pode ser uma sessão de BFD existente que foi para baixo ou pode ser uma sessão de BFD que nunca apareceu. O LDP adiciona de volta a rota ou o próximo salto quando a sessão BFD relevante voltar.
Você pode configurar uma das seguintes opções de ação de falha para a failure-action
declaração no caso de uma falha de sessão de BFD no LDP LSP:
remove-nexthop
— Remove a rota correspondente ao próximo salto da rota do LSP no nó de entrada quando um evento de falha de sessão de BFD é detectado.remove-route
— Remove a rota correspondente ao LSP das tabelas de roteamento apropriadas quando um evento de falha de sessão de BFD é detectado. Se o LSP estiver configurado com ECMP e uma sessão de BFD correspondente a qualquer caminho cair, a rota será removida.
Para configurar uma ação de falha no caso de uma falha de sessão de BFD em um LSP LDP, inclua a opção remove-nexthop
ou a opção remove-route
para a failure-action
declaração:
failure-action { remove-nexthop; remove-route; }
Para obter uma lista de níveis de hierarquia em que você possa incluir esta declaração, veja a seção de resumo da declaração para esta declaração.
Configurando o intervalo de retenção para a sessão de BFD
Você pode especificar a duração da sessão de BFD antes de adicionar uma rota ou um próximo salto configurando a holddown-interval
declaração no nível de [edit protocols ldp oam bfd-livenesss-detection]
hierarquia ou no nível de [edit protocols ldp oam fec address bfd-livenesss-detection]
hierarquia. Especificar um tempo de 0 segundos faz com que a rota ou o próximo salto sejam adicionados assim que a sessão de BFD voltar.
holddown-interval seconds;
Para obter uma lista de níveis de hierarquia em que você possa incluir esta declaração, veja a seção de resumo da declaração para esta declaração.
Configuração da proteção de enlaces LDP
Você pode configurar a proteção de link do Protocolo de distribuição de rótulos (LDP) para caminhos comuados por rótulos (LSPs) unicast e multicast para fornecer resiliência durante a falha de link ou nó.
Antes de começar:
Configure as interfaces do dispositivo.
Configure a ID do roteador e o número do sistema autônomo para o dispositivo.
Configure os seguintes protocolos:
RSVP
MPLS com recursos de engenharia de tráfego.
OSPF com recursos de engenharia de tráfego.
Nota:Para a proteção de enlaces LDP multicast com uma alternativa sem loop (LFA), habilite a proteção de enlaces.
[edit protocols] user@R0# set ospf area 0 interface all link-protection
Para configurar a proteção de enlaces LDP:
Exemplo: Configuração da proteção de enlaces LDP
Visão geral da proteção de enlaces LDP
- Introdução ao LDP
- Implementação do protocolo LDP do Junos OS
- Entendendo extensões multiponto para LDP
- Usando extensões multiponto para LDP em sessões de LDP direcionadas
- Limitações atuais da proteção de enlaces LDP
- Usando o RSVP LSP como solução
- Entendendo a proteção de enlaces de LDP multicast
- Modos diferentes para fornecer proteção de enlaces LDP
- Operação de rótulos para proteção de enlaces LDP
- Configuração de proteção de enlace de LDP multicast
- Faça antes do intervalo
- Advertências e limitações
Introdução ao LDP
O protocolo de distribuição de rótulos (LDP) é um protocolo para a distribuição de rótulos em aplicativos não projetados para tráfego. O LDP permite que os roteadores estabeleçam caminhos comuídos por rótulos (LSPs) por meio de uma rede mapeando informações de roteamento de camada de rede diretamente para os LSPs do link de dados.
Esses LSPs podem ter um endpoint em um vizinho diretamente conectado (comparável ao encaminhamento IP hop-by-hop) ou em um nó de saída de rede, permitindo a comutação por todos os nós intermediários. Os LSPs estabelecidos pelo LDP também podem atravessar LSPs projetados por tráfego criados pelo RSVP.
O LDP associa uma classe de equivalência de encaminhamento (FEC) a cada LSP que cria. O FEC associado a um LSP especifica quais pacotes são mapeados para esse LSP. Os LSPs são estendidos por uma rede, pois cada roteador escolhe o rótulo anunciado pelo próximo salto para a FEC e o junta ao rótulo que anuncia a todos os outros roteadores. Esse processo forma uma árvore de LSPs que convergem no roteador de saída.
Implementação do protocolo LDP do Junos OS
A implementação do Junos OS do LDP oferece suporte ao LDP versão 1. O Junos OS oferece suporte a um mecanismo simples de tunelamento entre roteadores em um protocolo de gateway interior (IGP), para eliminar a distribuição necessária de rotas externas dentro do núcleo. O Junos OS permite um túnel MPLS próximo salto para todos os roteadores de saída na rede, com apenas um IGP sendo executado no núcleo para distribuir rotas para roteadores de saída. Os roteadores de borda executam BGP, mas não distribuem rotas externas para o núcleo. Em vez disso, o olhar de rota recursivo para a borda resolve um LSP comuto para o roteador de saída. Não são necessárias rotas externas nos roteadores LDP de trânsito.
Entendendo extensões multiponto para LDP
Um LDP define mecanismos para a configuração de LSPs ponto a ponto, multiponto a ponto, ponto a multiponto e multiponto para multiponto na rede. Os LSPs de ponto a multiponto e multiponto para multiponto são coletivamente chamados de LSPs multiponto, onde o tráfego flui de uma única fonte para vários destinos, e de várias fontes a vários destinos, respectivamente. Os roteadores de destino ou saída são chamados de nós leaf, e o tráfego da fonte atravessa um ou mais nós de trânsito antes de chegar aos nós leaf.
O Junos OS não oferece suporte para LSPs multiponto a multiponto.
Aproveitando o recurso de replicação de pacotes MPLS da rede, os LSPs multipontos evitam a replicação desnecessária de pacotes no roteador de entrada. A replicação de pacotes ocorre apenas quando os pacotes são encaminhados para dois ou mais destinos diferentes que exigem caminhos de rede diferentes.
Usando extensões multiponto para LDP em sessões de LDP direcionadas
A especificação das extensões multiponto para LDP exige que os dois endpoints de uma sessão de LDP sejam conectados diretamente por um meio de Camada 2 ou sejam considerados vizinhos pelo IGP da rede. Isso é referido como uma sessão de link LDP. Quando os dois endpoints de uma sessão de LDP não estão diretamente conectados, a sessão é referida como uma sessão LDP direcionada.
Implementações anteriores do Junos OS oferecem suporte a LDP multicast apenas para sessões de link. Com a introdução do recurso de proteção de link LDP, os recursos de LDP multicast são estendidos para sessões de LDP direcionadas. Figura 2 mostra uma topologia de amostra.
Os roteadores R7 e R8 são os roteadores upstream (LSR-U) e downstream (LSR-D) comutados por rótulos (LSRs), respectivamente, e implantam LDP multicast. O roteador de núcleo, Roteador R5, tem RSVP-TE habilitado.
Quando o LSR-D está configurando o LSP de ponto a multiponto com atributos ID raiz e LSP, ele determina o LSR-U upstream como um próximo salto no melhor caminho para a raiz (atualmente, este próximo salto é assumido como um próximo salto IGP).
Com o suporte multicast de LDP em sessões de LDP direcionadas, você pode determinar se há um LSP próximo salto para LSR-U que está no caminho da LSR-D para a raiz, onde LSR-D e LSR-você não estão diretamente conectados vizinhos, mas pares LDP direcionados. O rótulo de ponto a multiponto anunciado na sessão de LDP direcionada entre LSR-D e LSR-U não é usado a menos que haja um LSP entre LSR-D e LSR-U. Portanto, é necessário um LSP correspondente na direção inversa do LSR-you ao LSR-D.
Os dados são transmitidos no LSP de ponto a multiponto usando a replicação unicast de pacotes, onde o LSR-U envia uma cópia para cada LSR downstream do LSP ponto a multiponto.
A transmissão de dados é implementada das seguintes maneiras:
Os recursos de ponto a multiponto na sessão de LDP direcionada são negociados.
O algoritmo para selecionar o LSR upstream é alterado, onde se os próximos saltos IGP estiverem indisponíveis ou, em outras palavras, não houver sessão de enlace de LDP entre LSR-D e LSR-U, um LSP RSVP é usado como o próximo salto para chegar ao LSR-U.
Os rótulos de entrada recebidos nas sessões de LDP direcionadas são instalados como um próximo salto de filial para esta rota FEC de ponto a multiponto com o rótulo LDP como rótulo interno e o rótulo RSVP como rótulo externo.
Limitações atuais da proteção de enlaces LDP
Quando há uma falha de enlace ou nó em uma implantação de rede LDP, a recuperação rápida do tráfego deve ser fornecida para recuperar fluxos de tráfego impactados para serviços essenciais de missão. No caso de LSPs multiponto, quando um dos links da árvore de ponto a multiponto falha, as sub-árvores podem se separar até que o IGP se reconverge e o LSP multiponto seja estabelecido usando o melhor caminho do roteador downstream até o novo roteador upstream.
Em redirecionamento rápido usando o reparo local para tráfego LDP, um caminho de backup (caminho de reparo) é pré-instalado no Mecanismo de encaminhamento de pacotes. Quando o caminho principal falha, o tráfego é rapidamente movido para o caminho de backup sem precisar esperar que os protocolos de roteamento convergam. A alternativa sem loop (LFA) é um dos métodos usados para fornecer recursos de redirecionamento rápido de IP nas redes núcleo e de provedores de serviços.
Sem LFA, quando um link ou um roteador falha ou é devolvido ao serviço, os algoritmos de roteamento distribuído computam as novas rotas com base nas mudanças na rede. O tempo durante o qual as novas rotas são computadas é referido como transição de roteamento. Até que a transição de roteamento seja concluída, a conectividade de rede é interrompida porque os roteadores adjacentes a uma falha continuam a encaminhar os pacotes de dados através do componente com falha até que um caminho alternativo seja identificado.
No entanto, o LFA não oferece cobertura completa em todas as implantações de rede devido às métricas de IGP. Como resultado, isso é uma limitação para os esquemas atuais de proteção de enlaces de LDP.
Figura 3 ilustra uma rede de amostra com cobertura LFA incompleta, onde o tráfego flui do roteador de origem (S) até o roteador de destino (D) pelo Roteador R1. Assumindo que cada link na rede tenha a mesma métrica, se o enlace entre o Roteador S e o Roteador R1 falhar, o Roteador R4 não é um LFA que protege o enlace S-R1, de modo que a resiliência do tráfego é perdida. Assim, a cobertura completa não é alcançada usando LFA simples. Em redes típicas, há sempre alguma porcentagem de lacuna de cobertura LFA com LFA simples.
Usando o RSVP LSP como solução
A chave para proteger o tráfego que flui por LSPs LDP é ter um túnel explícito para redirecionar o tráfego em caso de falha no enlace ou nó. O caminho explícito tem que terminar no próximo roteador downstream, e o tráfego precisa ser aceito no caminho explícito, onde a verificação de RPF deve passar.
Os LSPs RSVP ajudam a superar as limitações atuais do alternativo sem loop (LFA) tanto para ponto a ponto quanto para LSPs LDP de ponto a multiponto, estendendo a cobertura LFA nos seguintes métodos:
LSPs RSVP configurados manualmente
Considerando o exemplo usado em Figura 3, quando o link S-R1 falha, e o Roteador R4 não é um LFA para esse link em particular, um RSVP LSP criado manualmente é usado como um patch para fornecer cobertura LFA completa. O RSVP LSP está pré-sinalizado e pré-instalado no Mecanismo de encaminhamento de pacotes do roteador S, de modo que possa ser usado assim que o Roteador S detectar que o link falhou.
Neste caso, um RSVP LSP é criado entre roteadores S, R4 e R3, conforme ilustrado em Figura 4. Uma sessão de LDP direcionada é criada entre o Roteador S e o Roteador R3, resultado da qual, quando o enlace S-R1 falha, o tráfego chega ao Roteador R3. O roteador R3 encaminha o tráfego para o Roteador R2, pois é o caminho mais curto para chegar ao destino, o Roteador D.
LSPs RSVP configurados dinamicamente
Neste método, os LSPs RSVP são criados automaticamente e pré-instalados no sistema para que possam ser usados imediatamente quando houver uma falha no link. Aqui, a saída é o nó do outro lado do enlace que está sendo protegido, melhorando assim a cobertura LFA.
Benefits of Enabling Dynamic RSVP LSPs
Facilidade de configuração.
Cobertura de 100% contra falha de enlace, desde que haja um caminho alternativo até a extremidade distante do enlace que está sendo protegido.
A configuração e a demolição do LSP de bypass RSVP são automáticas.
RSVP LSP usado apenas para proteção de enlaces e não para encaminhamento de tráfego enquanto o link está sendo protegido está funcionando.
Reduz o número total de LSPs RSVP necessários no sistema.
Considerando o exemplo usado em Figura 3, a fim de proteger o tráfego contra a falha potencial do link S-R1, porque o Roteador R4 não é um LFA para esse link específico, um LSP de bypass RSVP é criado automaticamente para o Roteador R1, que é o nó no outro lado do link protegido conforme ilustrado em Figura 5. Do Roteador R1, o tráfego é encaminhado para seu destino original, o Roteador D.
O RSVP LSP está pré-sinalizado e pré-instalado no Mecanismo de encaminhamento de pacotes do roteador S para que possa ser usado assim que o Roteador S detectar que o link falhou.
Um modo de operação alternativo é não usar o LFA, e sempre ter o RSVP LSP criado para cobrir todas as falhas de enlace.
Para habilitar LSPs RSVP dinâmicos, inclua a dynamic-rsvp-lsp
declaração no nível de [edit protocols ldp interface interface-name link-protection]
hierarquia, além de habilitar o protocolo RSVP nas interfaces apropriadas.
Entendendo a proteção de enlaces de LDP multicast
Um caminho comutado por rótulos de LDP de ponto a multiponto (LSP) é um LSP sinalizado por LDP que é de ponto a multiponto, e é referido como LDP multicast.
Um LSP LDP multicast pode ser usado para enviar tráfego de um único nó de raiz ou entrada para uma série de nós de folha ou saída que atravessam um ou mais nós de trânsito. A proteção de enlace multicast de LDP permite o redirecionamento rápido do tráfego transportado por LSPs LDP de ponto a multiponto em caso de falha no enlace. Quando um dos links da árvore de ponto a multiponto falha, as sub-árvores podem se separar até que o IGP se reconverge e o LSP multiponto seja estabelecido usando o melhor caminho do roteador downstream para o novo roteador upstream.
Para proteger o tráfego que flui pelo LSP LDP multicast, você pode configurar um túnel explícito para redirecionar o tráfego em caso de falha no enlace. O caminho explícito tem que terminar no próximo roteador downstream. O encaminhamento do caminho inverso para o tráfego deve ser bem-sucedido.
A proteção de enlace multicast de LDP apresenta os seguintes recursos e funcionalidades:
Uso do RSVP LSP dinâmico como túneis de desvio
O objeto de rota explícita (ERO) do RSVP LSP é calculado usando O caminho mais curto limitado primeiro (CSPF) com a restrição como o link a evitar. O LSP é sinalizado e demolido dinamicamente sempre que a proteção do enlace é necessária.
Faça antes do intervalo
O recurso make-before-break garante que haja perda mínima de pacotes ao tentar sinalizar um novo caminho LSP antes de rasgar o antigo caminho LSP para o LDP LSP multicast.
Sessão de LDP direcionada
Uma adjacência direcionada ao roteador de comutação de rótulos downstream (LSR) é criada por dois motivos:
Para manter a sessão ativa após falha no link.
Para usar o rótulo de ponto a multiponto recebido da sessão para enviar tráfego ao LSR downstream no túnel de desvio RSVP LSP.
Quando o LSR downstream configura o LSP LDP multicast com o nó raiz e O ID LSP, ele usa esse LSR upstream, que está no melhor caminho para a raiz.
A proteção de enlace multicast de LDP não é necessária quando existem várias adjacências de enlace (links paralelos) ao LSR downstream.
Modos diferentes para fornecer proteção de enlaces LDP
A seguir, três modos de operação diferentes disponíveis para proteção de enlaces LDP unicast e multicast:
Case A: LFA only
Sob este modo de operação, a proteção de enlace de LDP multicast é fornecida usando uma alternativa sem loop (LFA) viável. Na ausência de um LFA viável, a proteção de enlaces não é fornecida para o LSP LDP multicast.
Case B: LFA and Dynamic RSVP LSP
Sob este modo de operação, a proteção de enlace de LDP multicast é fornecida usando um LFA viável existente. Na ausência de um LFA viável, um LSP de bypass RSVP é criado automaticamente para fornecer proteção de link para o LDP LSP multicast.
Case C: Dynamic RSVP LSP only
Nesse modo de operação, o LFA não é usado para a proteção de enlaces. A proteção de enlace de LDP multicast é fornecida usando o LSP de bypass RSVP criado automaticamente.
Figura 6 é uma topologia de amostra que ilustra os diferentes modos de operação para a proteção de enlaces LDP multicast. O roteador R5 é a raiz que se conecta a dois nós leaf, roteadores R3 e R4. O roteador R0 e o roteador R1 são os roteadores comutada por rótulos upstream e downstream (LSRs), respectivamente. Um LSP LDP multicast é executado entre os nós raiz e leaf.
Considerando que o Roteador R0 precisa proteger o LSP LDP multicast no caso de o link R0-R1 falhar, os diferentes modos de proteção de enlace operam da seguinte maneira:
Case A: LFA only
O roteador R0 verifica se existe um caminho LFA viável que pode evitar o link R0-R1 para chegar ao Roteador R1. Com base nas métricas, o Roteador R2 é um caminho LFA válido para o link R0-R1 e é usado para encaminhar o tráfego LDP unicast. Se vários LSPs LDP multicast usarem o link R0-R1, o mesmo LFA (Roteador R2) é usado para proteção de enlaces LDP multicast.
Quando o link R0-R1 falha, o tráfego LSP LDP multicast é movido para o caminho LFA pelo Roteador R0, e o rótulo de LDP unicast para chegar ao Roteador R1 (L100) é empurrado para cima do rótulo LDP multicast (L21).
Case B: LFA and Dynamic RSVP LSP
O roteador R0 verifica se existe um caminho LFA viável que pode evitar o link R0-R1 para chegar ao Roteador R1. Com base nas métricas, o Roteador R2 é um caminho LFA válido para o link R0-R1 e é usado para encaminhar o tráfego LDP unicast. Se vários LSPs LDP multicast usarem o link R0-R1, o mesmo LFA (Roteador R2) é usado para proteção de enlaces LDP multicast. Quando o link R0-R1 falha, o tráfego LSP LDP multicast é movido para o caminho LFA pelo Roteador R0.
No entanto, se a métrica no link R2-R1 fosse de 50 em vez de 10, o Roteador 2 não é um LFA válido para o link R0-R1. Neste caso, um RSVP LSP é criado automaticamente para proteger o tráfego LDP multicast que viaja entre os roteadores R0 e R1.
Case C: Dynamic RSVP LSP only
Um RSVP LSP é sinalizado automaticamente do Roteador R0 ao Roteador R1 pelo Roteador R2, evitando a interface ge-1/1/0. Se vários LSPs LDP multicast usarem o link R0-R1, o mesmo RSVP LSP é usado para proteção de enlaces LDP multicast.
Quando o link R0-R1 falha, o tráfego LSP LDP multicast é movido para o RSVP LSP pelo Roteador R0, e o rótulo RSVP para chegar ao Roteador R1 (L100) é empurrado para cima do rótulo LDP multicast (L21).
Operação de rótulos para proteção de enlaces LDP
Usando a mesma topologia de rede da Figura 5, Figura 7 ilustra a operação do rótulo para a proteção de enlaces LDP unicast e multicast.
O roteador R5 é a raiz que se conecta a dois nós leaf, roteadores R3 e R4. O roteador R0 e o roteador R1 são os roteadores comutada por rótulos upstream e downstream (LSRs), respectivamente. Um LSP LDP multicast é executado entre os nós raiz e leaf. Um caminho unicast LDP conecta o roteador R1 ao roteador R5.
A operação do rótulo é realizada de maneira diferente nos seguintes modos de proteção de enlaces LDP:
Caso A: Somente LFA
Usando a show route detail
saída de comando no Roteador R0, o tráfego LDP unicast e o tráfego LDP multicast podem ser derivados.
user@R0> show route detail 299840 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Router Address: 0x93bc22c Next-hop reference count: 1 Next hop: 11.0.0.6 via ge-0/0/1.0 weight 0x1, selected Label operation: Swap 299824 Session Id: 0x1 Next hop: 11.0.0.10 via ge-0/0/2.0 weight 0xf000 Label operation: Swap 299808 Session Id: 0x3 State: <Active Int> Age: 3:16 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I Prefixes bound to route: 192.168.0.4/32 299856 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Flood Address: 0x9340e04 Next-hop reference count: 3 Next hop type: Router, Next hop index: 262143 Address: 0x93bc3dc Next-hop reference count: 2 Next hop: 11.0.0.6 via ge-0/0/1.0 weight 0x1 Label operation: Swap 299888 Next hop: 11.0.0.10 via ge-0/0/2.0 weight 0xf000 Label operation: Swap 299888, Push 299776(top) Label TTL action: prop-ttl, prop-ttl(top) State: <Active Int AckRequest> Age: 3:16 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I FECs bound to route: P2MP root-addr 192.168.0.5, lsp-id 99
O rótulo 299840 é o tráfego que chega ao Roteador R0 que corresponde ao tráfego LDP unicast ao Roteador R1. O 299856 de rótulos é o tráfego que chega ao Roteador 0 que corresponde ao tráfego LDP multicast desde o nó raiz R5 até os nós de saída leaf, R3 e R4.
O caminho principal para LSPs LDP unicast e multicast é através da interface ge-0/0/1 (o link para o Roteador R1), e o caminho LFA é por meio da interface ge-0/0/2 (o link para o Roteador R2). O caminho LFA não é usado a menos que a interface ge-0/0/1 seja diminuída.
Na operação de rótulos para o caso A, o modo de operação somente LFA é diferente para tráfego LDP unicast e multicast:
Operação de rótulo da Unicast
Para tráfego LDP unicast, os FECs e rótulos associados são anunciados em todos os links da rede em que o LDP está habilitado. Isso significa que, a fim de fornecer ação LFA para o tráfego unicast LDP para o Roteador R4, em vez de trocar o rótulo de entrada por 299824 anunciado pelo Roteador R1 para FEC R4, o Roteador R0 simplesmente troca o rótulo de entrada por 299808 anunciado pelo Roteador R2 para FEC R4. Esta é a operação padrão do Junos OS LFA para tráfego LDP unicast.
Figura 8 ilustra a operação do rótulo para tráfego unicast quando o link R0-R1 falha. As caixas cinzas mostram a operação do rótulo para tráfego LDP unicast em condições normais, e as caixas pontilhadas mostram a operação do rótulo para tráfego LDP unicast quando o enlace R0-R1 falha.
Figura 8: Operação de rótulo unicast LDPOperação de rótulo multicast
A operação de rótulos para tráfego LDP multicast difere da operação do rótulo LDP unicast, porque os rótulos LSP multiponto são anunciados apenas no melhor caminho do nó leaf até o nó de entrada. Como resultado, o Roteador R2 não tem conhecimento do LDP multicast. Para superar isso, o tráfego LSP LDP multicast é simplesmente tunelado dentro do caminho LSP LDP unicast pelo Roteador R2 que termina no Roteador R1.
Para isso, o Roteador R0 troca pela primeira vez o 299856 de rótulo LDP LSP multicast de entrada para rotular 299888 anunciados pelo Roteador R1. O rótulo 299776 é então empurrado por cima, que é o rótulo LDP anunciado pelo Roteador R2 para FEC R1. Quando o pacote chega ao Router R2, a etiqueta superior é estourada devido ao penúltimo salto. Isso significa que o pacote chega ao Roteador R1 com o rótulo multicast LDP 299888 que o Roteador R1 havia anunciado originalmente para o Roteador R0.
Figura 9 ilustra a operação do rótulo para tráfego LDP multicast quando o link R0-R1 falha. As caixas azuis mostram a operação do rótulo para tráfego LDP multicast em condições normais, e as caixas pontilhadas mostram a operação do rótulo para tráfego LDP multicast quando o enlace R0-R1 falha.
Figura 9: Operação de rótulo multicast LDP
Quando a métrica do link R2-R1 é definida para 1000 em vez de 1, o Roteador R2 não é um LFA válido para o Roteador R0. Neste caso, se o Roteador R2 receber um pacote destinado ao Roteador R1, R3 ou R4 antes de seu IGP convergir, o pacote será enviado de volta ao Roteador R0, resultando em pacotes de looping.
Como o Roteador R0 não tem LFA viável, nenhum caminho de backup está instalado no Mecanismo de encaminhamento de pacotes. Se o link R0-R1 falhar, o fluxo de tráfego será interrompido até que o IGP e o LDP convergam e novas entradas sejam instaladas nos roteadores afetados.
O show route detail
comando exibe o estado quando não há LFA disponível para proteção de enlaces.
user@host> show route detail 299840 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Router, Next hop index: 578 Address: 0x9340d20 Next-hop reference count: 2 Next hop: 11.0.0.6 via ge-0/0/1.0, selected Label operation: Swap 299824 Session Id: 0x1 State: <Active Int> Age: 5:38 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I Prefixes bound to route: 192.168.0.4/32 299856 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Flood Address: 0x9340e04 Next-hop reference count: 3 Next hop type: Router, Next hop index: 579 Address: 0x93407c8 Next-hop reference count: 2 Next hop: 11.0.0.6 via ge-0/0/1.0 Label operation: Swap 299888 State: <Active Int AckRequest> Age: 5:38 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I FECs bound to route: P2MP root-addr 192.168.0.5, lsp-id 99
Caso B: LFA e RSVP dinâmico LSP
Nesse modo de operação, se houver um vizinho LFA viável, o comportamento de operação do rótulo é semelhante ao do modo caso A, único LFA. No entanto, se não houver um vizinho LFA viável, um túnel de desvio RSVP é criado automaticamente.
Se a métrica no link R2-R1 estiver definida para 1000 em vez de 1, o Roteador R2 não será um LFA para roteador R0. Ao saber que não há caminhos LFA para proteger a falha do enlace R0-R1, um túnel de desvio RSVP é criado automaticamente com o Roteador R1 como nó de saída e segue um caminho que evita o link R0-R1 (por exemplo, R0-R2-R1).
Se o link R0-R1 falhar, o tráfego de LDP e LDP multicast unicast é tunelado pelo túnel de desvio RSVP. O túnel de desvio RSVP não é usado para encaminhamento normal e é usado apenas para fornecer proteção de enlaces ao tráfego LDP no caso de falha no enlace R0-R1.
Usando o show route detail
comando, o tráfego LDP unicast e multicast pode ser derivado.
user@host> show route detail 299840 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Router Address: 0x940c3dc Next-hop reference count: 1 Next hop: 11.0.0.6 via ge-0/0/1.0 weight 0x1, selected Label operation: Swap 299824 Session Id: 0x1 Next hop: 11.0.0.10 via ge-0/0/2.0 weight 0x8001 Label-switched-path ge-0/0/1.0:BypassLSP->192.168.0.1 Label operation: Swap 299824, Push 299872(top) Label TTL action: prop-ttl, prop-ttl(top) Session Id: 0x3 State: <Active Int NhAckRequest> Age: 19 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I Prefixes bound to route: 192.168.0.4/32 299856 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Flood Address: 0x9340e04 Next-hop reference count: 3 Next hop type: Router, Next hop index: 262143 Address: 0x940c154 Next-hop reference count: 2 Next hop: 11.0.0.6 via ge-0/0/1.0 weight 0x1 Label operation: Swap 299888 Next hop: 11.0.0.10 via ge-0/0/2.0 weight 0x8001 Label-switched-path ge-0/0/1.0:BypassLSP->192.168.0.1 Label operation: Swap 299888, Push 299872(top) Label TTL action: prop-ttl, prop-ttl(top) State: < Active Int AckRequest> Age: 20 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I FECs bound to route: P2MP root-addr 192.168.0.5, lsp-id 99
O caminho principal para LSP LDP unicast e multicast é através da interface ge-0/0/1 (o link para o Roteador R1), e o caminho LFA é por meio da interface ge-0/0/2 (o link para o Roteador R2). O caminho LFA não é usado a menos que a interface ge-0/0/1 seja diminuída.
O rótulo 299840 é o tráfego que chega ao Roteador R0 que corresponde ao tráfego LDP unicast ao Roteador R4. O 299856 de rótulos é o tráfego que chega ao Roteador 0 que corresponde ao tráfego LDP multicast desde o nó raiz R5 até os nós de saída leaf, R3 e R4.
Como visto na show route detail
saída de comando, as operações de rótulo para o caminho de proteção são as mesmas para tráfego LDP unicast e multicast LDP. O rótulo LDP de entrada no Roteador R0 é trocado para o rótulo LDP anunciado pelo Roteador R1 para o Roteador R0. O rótulo RSVP 299872 para o túnel de desvio é então empurrado para o pacote. O penúltimo salto é usado no túnel de desvio, fazendo com que o Roteador R2 coloque esse rótulo. Assim, o pacote chega ao Roteador R1 com o rótulo LDP que havia anunciado originalmente para o Roteador R0.
Figura 10 ilustra a operação de rótulos para tráfego LDP unicast e LDP multicast protegido pelo túnel de desvio RSVP. As caixas cinza e azul representam valores de rótulo usados em condições normais para tráfego LDP unicast e multicast, respectivamente. As caixas pontilhadas representam valores de rótulo usados quando o link R0-R1 falha.
Caso C: Apenas RSVP LSP dinâmico
Nesse modo de operação, o LFA não é usado de forma alguma. Um LSP de bypass RSVP dinâmico é criado automaticamente para fornecer proteção de link. A saída do show route detail
comando e das operações de rótulo são semelhantes ao caso B, LFA e modo RSVP LSP dinâmico.
Configuração de proteção de enlace de LDP multicast
Para permitir a proteção de enlaces LDP multicast, a seguinte configuração é necessária no Roteador R0:
Nesta amostra, a proteção de enlace de LDP multicast é habilitada na interface ge-1/0/0 do Roteador R0 que se conecta ao Roteador R1, embora normalmente todas as interfaces precisem ser configuradas para a proteção do link.
Roteador R0
protocols { rsvp { interface all; interface ge-0/0/0.0 { disable; } } mpls { interface all; interface ge-0/0/0.0 { disable; } } ospf { traffic-engineering; area 0.0.0.0 { interface lo0.0; interface ge-0/0/1.0 { link-protection; } interface ge-0/0/2.0; interface ge-0/0/3.0; } } ldp { make-before-break { timeout seconds; switchover-delay seconds; } interface ge-1/1/0.0 { link-protection { disable; dynamic-rsvp-lsp; } } } }
As seguintes declarações de configuração aplicam-se aos diferentes modos de proteção LDP multicast da seguinte forma:
link-protection
declaração em[edit protocols ospf interface ge-0/0/1.0]
Essa configuração é aplicada apenas para os modos Caso A (somente LFA) e Caso B (LFA e RSVP LSP dinâmico) de proteção de enlaces LDP multicast. A configuração da proteção de links sob um IGP não é necessária para o caso C (apenas RSVP LSP dinâmico).
link-protection
declaração em[edit protocols ldp interface ge-0/0/1.0]
Essa configuração é necessária para todos os modos de proteção LDP multicast. No entanto, se o único tráfego LDP presente for unicast, e os desvios dinâmicos de RSVP não forem necessários, essa configuração não será necessária, pois a
link-protection
declaração no[edit protocols ospf interface ge-0/0/1.0]
nível de hierarquia resulta em ação LFA para o tráfego unicast LDP.dynamic-rsvp-lsp
declaração em[edit protocols ldp interface ge-0/0/1.0 link-protection]
Essa configuração é aplicada apenas para os modos caso B (LFA e RSVP LSP dinâmico) e Caso C (apenas RSVP LSP dinâmico) de proteção de enlaces LDP. A configuração RSVP LSP dinâmica não se aplica apenas ao caso A (LFA).
Faça antes do intervalo
O recurso de make-before-break é habilitado por padrão no Junos OS e oferece alguns benefícios para LSPs ponto a multiponto.
Para um LSP ponto a multiponto, um roteador comutado por rótulos (LSR) seleciona o LSR que é seu próximo salto para a raiz do LSP como seu LSR upstream. Quando o melhor caminho para alcançar as mudanças raiz, o LSR escolhe um novo LSR upstream. Durante esse período, o LSP pode ser temporariamente quebrado, resultando em perda de pacotes até que o LSP se reconverge para um novo LSR upstream. O objetivo do make-before-break neste caso é minimizar a perda de pacotes. Nos casos em que o melhor caminho do LSR para a raiz muda, mas o LSP continua a encaminhar o tráfego para o próximo salto anterior para a raiz, um novo LSP deve ser estabelecido antes que o LSP antigo seja retirado para minimizar a duração da perda de pacotes.
Tomando por exemplo, após uma falha de link, um LSR downstream (por exemplo, LSR-D) ainda recebe e/ou encaminha pacotes para os outros LSRs downstream, pois continua a receber pacotes do RSVP LSP de um salto. Uma vez que o roteamento converge, o LSR-D seleciona um novo LSR upstream (LSR-U) para este FEC (FEC-A) de LSP de ponto a multiponto. O novo LSR já pode estar encaminhando pacotes para FEC-A para os LSRs downstream que não sejam LSR-D. Depois que o LSR-U recebe um rótulo de FEC-A da LSR-D, ele notifica o LSR-D quando soube que o LSP para FEC-A foi estabelecido da raiz para si mesmo. Quando o LSR-D recebe tal notificação, ele muda seu próximo salto para a raiz LSP para LSR-U. Esta é uma exclusão de rota e adicionar operação no LSR-D. Neste ponto, o LSR-D faz uma transição LSP, e o tráfego em tunelamento por RSVP LSP ou LFA é descartado, e o tráfego do LSR-U é aceito. A nova rota de trânsito para LSR-U é adicionada. A verificação de RPF é alterada para aceitar o tráfego do LSR-you e para soltar o tráfego do LSR upstream antigo, ou a rota antiga é excluída e a nova rota é adicionada.
A suposição é que o LSR-U recebeu uma notificação de make-before-break de seu roteador upstream para o LSP ponto a multiponto FEC-A e instalou um estado de encaminhamento para o LSP. Nesse ponto, ele deve sinalizar LSR-D por meio de uma notificação de make-before-break de que ela se tornou parte da árvore identificada pela FEC-A e que a LSR-D deve iniciar sua transferência para o LSP. Caso contrário, o LSR-U deve lembrar que precisa enviar notificação ao LSR-D quando receber uma notificação de make-before-break do LSR upstream para FEC-A e instalar um estado de encaminhamento para este LSP. O LSR-D continua a receber tráfego do próximo salto antigo para o nó raiz usando um caminho RSVP LSP ou LFA de salto até que ele mude para o novo LSP de ponto a multiponto para LSR-U.
A funcionalidade make-before-break com proteção de link LDP multicast inclui os seguintes recursos:
Recurso de make-before-break
Um LSR anuncia que é capaz de lidar com LSPs make-before-break usando o anúncio de recursos. Se o peer não for capaz de fazer antes da quebra, os parâmetros de make-before-break não serão enviados a esse peer. Se um LSR receber um parâmetro de make-before-break de um LSR downstream (LSR-D), mas o LSR upstream (LSR-U) não for capaz de fazer antes da quebra, o LSR envia imediatamente uma notificação de fazer antes do intervalo para LSR-D, e o LSP capaz de fazer antes do intervalo não está estabelecido. Em vez disso, o LSP normal está estabelecido.
Código de status de fazer antes de quebrar
O código de status de make-before-break inclui:
1 — solicitação de fazer antes do intervalo
2 — reconhecimento de make-before-break
Quando um LSR downstream envia uma mensagem de mapeamento de rótulos para LSP de ponto a multiponto, ele inclui o código de status make-before-break como 1 (solicitação). Quando o LSR upstream atualiza o estado de encaminhamento para o LSP de ponto a multiponto, ele informa o LSR downstream com uma mensagem de notificação contendo o código de status de fazer antes de quebrar como 2 (reconhecimento). Nesse ponto, o LSR downstream faz um switchover LSP.
Advertências e limitações
A implementação do Junos OS do recurso de proteção de enlaces LDP tem as seguintes advertências e limitações:
A make-before-break não é suportada para os seguintes LSPs de ponto a multiponto em um LSR de saída:
Rede virtual privada multicast (MVPN) de próxima geração com rótulo de roteamento e encaminhamento virtual (VRF)
LSP estático
Os recursos a seguir não são suportados:
Roteamento ativo sem interrupções para LSP de ponto a multiponto nos lançamentos Junos OS 12.3, 13.1 e 13.2
Reinicie graciosamente o switchover de ponto para multiponto LSP
Proteção de enlaces para instância de roteamento
Exemplo: Configuração da proteção de enlaces LDP
Este exemplo mostra como configurar a proteção de link do Protocolo de distribuição de rótulos (LDP) para caminhos comuados por rótulos (LSPs) unicast e multicast LDP.
Requisitos
Este exemplo usa os seguintes componentes de hardware e software:
Seis roteadores que podem ser uma combinação de roteadores série M, Série MX ou Série T com um nó raiz e dois nós leaf executando um LSP LDP de ponto a multiponto.
Junos OS Release 12.3 ou posterior em todos os roteadores.
Antes de começar:
Configure as interfaces do dispositivo.
Configure os seguintes protocolos:
RSVP
MPLS
OSPF ou qualquer outro IGP
LDP
Visão geral
A proteção de enlaces LDP permite o redirecionamento rápido do tráfego transportado por LSPs LDP em caso de falha no enlace. Os LSPs de ponto a multiponto LDP podem ser usados para enviar tráfego de um único nó de raiz ou entrada para vários nós de leaf ou nós de saída que atravessam um ou mais nós de trânsito. Quando um dos links da árvore de ponto a multiponto falha, as sub-árvores podem se separar até que o IGP reconverge e o LDP multicast inicie o mapeamento de rótulos usando o melhor caminho do roteador downstream até o novo roteador upstream. Para proteger o tráfego em caso de falha no enlace, você pode configurar um túnel explícito para que o tráfego possa ser redirecionado usando o túnel. O Junos OS oferece suporte a recursos de make-before-break para garantir a perda mínima de pacotes ao tentar sinalizar um novo caminho LSP antes de romper o antigo caminho LSP. Esse recurso também adiciona suporte LDP direcionado para a proteção de enlaces LDP multicast.
Ao configurar a proteção de enlaces LDP, fique atento às seguintes considerações:
Configure a engenharia de tráfego sob IGP (se não for suportada por padrão), e inclua as interfaces configuradas para MPLS e RSVP para que o link baseado em restrições RSVP LSP dinâmico seja sinalizado pelo RSVP usando O caminho mais curto restrito primeiro (CSPF). Quando essa condição não estiver satisfeita, o RSVP LSP pode não aparecer e o LDP não pode usá-la como um próximo salto protegido.
Configure um caminho entre dois roteadores comuados por rótulos (LSRs) para fornecer conectividade IP entre os roteadores quando houver uma falha no link. Isso permite que o CSPF calcule um caminho alternativo para a proteção do link. Quando a conectividade entre os roteadores é perdida, a adjacência direcionada ao LDP não surge e o RSVP LSP dinâmico não pode ser sinalizado, resultando em nenhuma proteção para a classe de equivalência de encaminhamento de LDP (FEC) para a qual o peer é o LSR downstream.
Se a proteção de link estiver ativa apenas em um LSR, o outro LSR não deve ser configurado com a
strict-targeted-hellos
declaração. Isso permite que o LSR sem proteção de enlaces permita a descoberta assimétrica de vizinhos remotos e envie olás direcionados periódicos para o LSR que iniciou o vizinho remoto. Quando essa condição não está satisfeita, a adjacência direcionada ao LDP não é formada.O LDP deve ser habilitado na interface de loopback do LSR para criar vizinhos remotos com base em tunelamento LDP, serviço de LAN privada virtual (VPLS) baseado em LDP, circuitos de Camada 2 ou proteção de sessão LDP. Quando essa condição não está satisfeita, a adjacência direcionada ao LDP não é formada.
Para lSP LDP unicast, a alternativa sem loop (LFA) deve ser configurada no IGP.
A rota de entrada para o ponto de fusão deve ter pelo menos um salto seguinte evitando a ligação primária entre o ponto de fusão e o ponto de reparo local para LSP LDP unicast.
O ponto de reparo local deve ter um rótulo de LDP unicast para o próximo salto de backup para chegar ao ponto de fusão.
Topologia
Neste exemplo, o Roteador R5 é a raiz que se conecta a dois nós leaf, roteadores R3 e R4. O roteador R0 é o ponto de reparo local.
Configuração
Configuração rápida da CLI
Para configurar rapidamente este exemplo, copie os seguintes comandos, cole-os em um arquivo de texto, remova quaisquer quebras de linha, altere todos os detalhes necessários para combinar com a configuração da sua rede, copiar e colar os comandos na CLI no nível de [edit]
hierarquia e, em seguida, entrar no commit
modo de configuração.
R5
set interfaces ge-0/0/0 unit 0 family inet address 10.10.10.1/30 set interfaces ge-0/0/0 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.1.5/32 set routing-options router-id 10.255.1.5 set routing-options autonomous-system 100 set protocols rsvp interface all set protocols rsvp interface fxp0.0 disable set protocols mpls traffic-engineering set protocols mpls interface all set protocols mpls interface fxp0.0 disable set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all metric 1 set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface all link-protection dynamic-rsvp-lsp set protocols ldp interface fxp0.0 disable set protocols ldp p2mp
R0
set interfaces ge-0/0/0 unit 0 family inet address 10.10.10.2/30 set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 20.10.10.1/30 set interfaces ge-0/0/1 unit 0 family mpls set interfaces ge-0/0/2 unit 0 family inet address 30.10.10.1/30 set interfaces ge-0/0/2 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.1.0/32 set routing-options router-id 10.255.1.0 set routing-options autonomous-system 100 set protocols rsvp interface all set protocols rsvp interface fxp0.0 disable set protocols mpls traffic-engineering set protocols mpls interface all set protocols mpls interface fxp0.0 disable set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all metric 1 set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface all link-protection dynamic-rsvp-lsp set protocols ldp interface fxp0.0 disable set protocols ldp p2mp
R1
set interfaces ge-0/0/0 unit 0 family inet address 60.10.10.2/30 set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 40.10.10.1/30 set interfaces ge-0/0/1 unit 0 family mpls set interfaces ge-0/0/2 unit 0 family inet address 30.10.10.2/30 set interfaces ge-0/0/2 unit 0 family mpls set interfaces ge-0/0/3 unit 0 family inet address 50.10.10.1/30 set interfaces ge-0/0/3 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.1.1/32 set routing-options router-id 10.255.1.1 set routing-options autonomous-system 100 set protocols rsvp interface all set protocols rsvp interface fxp0.0 disable set protocols mpls traffic-engineering set protocols mpls interface all set protocols mpls interface fxp0.0 disable set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all metric 1 set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface all link-protection dynamic-rsvp-lsp set protocols ldp interface fxp0.0 disable set protocols ldp p2mp
R2
set interfaces ge-0/0/0 unit 0 family inet address 60.10.10.1/30 set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 20.10.10.2/30 set interfaces ge-0/0/1 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.1.2/32 set routing-options router-id 10.255.1.2 set routing-options autonomous-system 100 set protocols rsvp interface all set protocols rsvp interface fxp0.0 disable set protocols mpls traffic-engineering set protocols mpls interface all set protocols mpls interface fxp0.0 disable set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface all link-protection dynamic-rsvp-lsp set protocols ldp interface fxp0.0 disable set protocols ldp p2mp
R3
set interfaces ge-0/0/1 unit 0 family inet address 40.10.10.2/30 set interfaces ge-0/0/1 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.1.3/32 set routing-options router-id 10.255.1.3 set routing-options autonomous-system 100 set protocols rsvp interface all set protocols rsvp interface fxp0.0 disable set protocols mpls traffic-engineering set protocols mpls interface all set protocols mpls interface fxp0.0 disable set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all metric 1 set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface all link-protection dynamic-rsvp-lsp set protocols ldp interface fxp0.0 disable set protocols ldp p2mp root-address 10.255.1.5 lsp-id 1
R4
set interfaces ge-0/0/3 unit 0 family inet address 50.10.10.2/30 set interfaces ge-0/0/3 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.1.4/32 set protocols rsvp interface all set protocols rsvp interface fxp0.0 disable set protocols mpls traffic-engineering set protocols mpls interface all set protocols mpls interface fxp0.0 disable set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all metric 1 set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface all link-protection dynamic-rsvp-lsp set protocols ldp interface fxp0.0 disable set protocols ldp p2mp root-address 10.255.1.5 lsp-id 1
Procedimento
Procedimento passo a passo
O exemplo a seguir exige que você navegue por vários níveis na hierarquia de configuração. Para obter informações sobre como navegar na CLI, consulte Usando o Editor de CLI no modo de configuração.
Para configurar o Roteador R0:
Configure as interfaces R0 do roteador.
[edit interfaces]
user@R0# set ge-0/0/0 unit 0 family inet address 10.10.10.2/30 user@R0# set ge-0/0/0 unit 0 family mpls user@R0# set ge-0/0/1 unit 0 family inet address 20.10.10.1/30 user@R0# set ge-0/0/1 unit 0 family mpls user@R0# set ge-0/0/2 unit 0 family inet address 30.10.10.1/30 user@R0# set ge-0/0/2 unit 0 family mpls user@R0# set lo0 unit 0 family inet address 10.255.1.0/32Configure a ID do roteador e o sistema autônomo do Roteador R0.
[edit routing-options]
user@R0# set router-id 10.255.1.0 user@R0# set autonomous-system 100Habilite o RSVP em todas as interfaces do Roteador R0 (sem a interface de gerenciamento).
[edit protocols]
user@R0# set rsvp interface all user@R0# set rsvp interface fxp0.0 disableHabilite o MPLS em todas as interfaces do Roteador R0 (excluindo a interface de gerenciamento) juntamente com recursos de engenharia de tráfego.
[edit protocols]
user@R0# set mpls traffic-engineering user@R0# set mpls interface all user@R0# set mpls interface fxp0.0 disableHabilite o OSPF em todas as interfaces do Roteador R0 (excluindo a interface de gerenciamento), atribua métrica de custo igual para os links e habilite recursos de engenharia de tráfego.
[edit protocols]
user@R0# set ospf traffic-engineering user@R0# set ospf area 0.0.0.0 interface all metric 1 user@R0# set ospf area 0.0.0.0 interface fxp0.0 disableNota:Para a proteção de enlaces LDP multicast com uma alternativa sem loop (LFA), habilite a seguinte configuração sob o nível de
[edit protocols]
hierarquia:set ospf area 0 interface all link-protection
Habilite o LDP em todas as interfaces do Roteador R0 (excluindo a interface de gerenciamento) e configure a proteção de enlaces com o RSVP dinâmico de bypass LSP.
[edit protocols]
user@R0# set ldp interface all link-protection dynamic-rsvp-lsp user@R0# set ldp interface fxp0.0 disable user@R0# set ldp p2mp
Resultados
A partir do modo de configuração, confirme sua configuração entrando no show interfaces
, show routing-options
e show protocols
comandos. Se a saída não exibir a configuração pretendida, repita as instruções neste exemplo para corrigir a configuração.
user@R0# show interfaces ge-0/0/0 { unit 0 { family inet { address 10.10.10.2/30; } family mpls; } } ge-0/0/1 { unit 0 { family inet { address 20.10.10.1/30; } family mpls; } } ge-0/0/2 { unit 0 { family inet { address 30.10.10.1/30; } family mpls; } } lo0 { unit 0 { family inet { address 10.255.1.0/32; } } }
user@R0# show routing-options router-id 10.255.1.0; autonomous-system 100;
user@R0# show protocols rsvp { interface all; interface fxp0.0 { disable; } } mpls { traffic-engineering; interface all; interface fxp0.0 { disable; } } ospf { traffic-engineering; area 0.0.0.0 { interface all { metric 1; } interface fxp0.0 { disable; } } } ldp { interface all { link-protection { dynamic-rsvp-lsp; } } interface fxp0.0 { disable; } p2mp; }
Verificação
Verifique se a configuração está funcionando corretamente.
Verificando o caminho LSP do RSVP de bypass
Propósito
Verifique se o caminho LSP do RSVP de bypass foi criado no ponto de reparo local (PLR).
Ação
A partir do modo operacional, execute o show route tale mpls.0
comando.
user@R0> show route tale mpls.0 mpls.0: 17 destinations, 17 routes (17 active, 0 holddown, 0 hidden) + = Active Route, - = Last Active, * = Both 0 *[MPLS/0] 05:28:13, metric 1 Receive 1 *[MPLS/0] 05:28:13, metric 1 Receive 2 *[MPLS/0] 05:28:13, metric 1 Receive 13 *[MPLS/0] 05:28:13, metric 1 Receive 299792 *[LDP/9] 00:41:41, metric 1 > to 30.10.10.2 via ge-0/0/2.0, Pop 299792(S=0) *[LDP/9] 00:41:41, metric 1 > to 30.10.10.2 via ge-0/0/2.0, Pop 299808 *[LDP/9] 00:41:41, metric 1 > to 20.10.10.2 via ge-0/0/1.0, Pop 299808(S=0) *[LDP/9] 00:41:41, metric 1 > to 20.10.10.2 via ge-0/0/1.0, Pop 299920 *[RSVP/7/1] 01:51:43, metric 1 > to 30.10.10.2 via ge-0/0/2.0, label-switched-path ge-0/0/0.0:BypassLSP->10.255.1.1 299920(S=0) *[RSVP/7/1] 01:51:43, metric 1 > to 30.10.10.2 via ge-0/0/2.0, label-switched-path ge-0/0/0.0:BypassLSP->10.255.1.1 299936 *[RSVP/7/1] 01:51:25, metric 1 > to 20.10.10.2 via ge-0/0/1.0, label-switched-path ge-0/0/0.0:BypassLSP->10.255.1.2 299936(S=0) *[RSVP/7/1] 01:51:25, metric 1 > to 20.10.10.2 via ge-0/0/1.0, label-switched-path ge-0/0/0.0:BypassLSP->10.255.1.2 299952 *[LDP/9] 00:06:11, metric 1 > to 10.10.10.1 via ge-0/0/0.0, Pop 299952(S=0) *[LDP/9] 00:06:11, metric 1 > to 10.10.10.1 via ge-0/0/0.0, Pop 299968 *[LDP/9] 00:05:39, metric 1 > to 30.10.10.2 via ge-0/0/2.0, Swap 299984 299984 *[LDP/9] 00:05:38, metric 1 > to 30.10.10.2 via ge-0/0/2.0, Swap 300000 300000 *[LDP/9] 00:05:15, metric 1 > to 30.10.10.2 via ge-0/0/2.0, Swap 300016
Significado
Quando o link R0-R1 cai, o LSP de bypass RSVP é usado para rotear o tráfego.
Verificação da operação do rótulo
Propósito
Verifique a troca de rótulos no PLR.
Ação
A partir do modo operacional, execute o show route table mpls.0 label label extensive
comando.
user@R0> show route table mpls.0 label 300000 extensive mpls.0: 17 destinations, 17 routes (17 active, 0 holddown, 0 hidden) 300000 (1 entry, 1 announced) TSI: KRT in-kernel 300000 /52 -> {Swap 300016} *LDP Preference: 9 Next hop type: Router, Next hop index: 589 Address: 0x9981610 Next-hop reference count: 2 Next hop: 30.10.10.2 via ge-0/0/2.0, selected Label operation: Swap 300016 Load balance label: Label 300016: None; Session Id: 0x2 State: <Active Int> Local AS: 100 Age: 12:50 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 1-KRT AS path: I Prefixes bound to route: 10.255.1.4/32
Significado
O rótulo é obrigado a chegar ao Roteador R4, que é um nó leaf.
Entendendo o redirecionamento rápido somente multicast
O redirecionamento rápido (MoFRR) somente multicast minimiza a perda de pacotes para o tráfego em uma árvore de distribuição multicast quando ocorrem falhas no enlace, aprimorando protocolos de roteamento multicast como o Protocol Independent Multicast (PIM) e o Protocolo de Distribuição de Rótulos Multiponto (LDP multiponto) em dispositivos que oferecem suporte a esses recursos.
Nos switches, o MoFRR com caminhos comutados por rótulos MPLS e LDP multiponto não é suportado.
Para roteadores da Série MX, o MoFRR é suportado apenas em roteadores da Série MX com placas de linha MPC. Como pré-requisito, você deve configurar o roteador em network-services enhanced-ip
modo, e todas as placas de linha do roteador devem ser MPCs.
Com o MoFRR habilitado, os dispositivos enviam mensagens de junção em caminhos upstream primários e de backup em direção a uma fonte multicast. Os dispositivos recebem pacotes de dados tanto dos caminhos primários quanto dos backups, e descartam os pacotes redundantes com base na prioridade (pesos atribuídos aos caminhos primários e de backup). Quando um dispositivo detecta uma falha no caminho principal, ele começa imediatamente a aceitar pacotes da interface secundária (o caminho de backup). A mudança rápida melhora consideravelmente os tempos de convergência em caso de falhas de enlace de caminho primário.
Um aplicativo para MoFRR é o IPTV em streaming. Os fluxos IPTV são multicast como fluxos UDP, de modo que quaisquer pacotes perdidos não são retransmitidos, levando a uma experiência de usuário menos que satisfatória. O MoFRR pode melhorar a situação.
- Visão geral do MoFRR
- Funcionalidade do PIM
- Funcionalidade de LDP multiponto
- Encaminhamento de pacotes
- Limitações e advertências
Visão geral do MoFRR
Com um redirecionamento rápido em fluxos unicast, um dispositivo de roteamento upstream pré-estabelece caminhos comutados por rótulos MPLS (LSPs) ou pré-computa um caminho de backup alternativo sem loop IP (LFA) para lidar com a falha de um segmento no caminho downstream.
No roteamento multicast, o lado receptor geralmente origina os gráficos de distribuição de tráfego. Isso é diferente do roteamento unicast, que geralmente estabelece o caminho da fonte até o receptor. PIM (para IP), LDP multiponto (para MPLS) e RSVP-TE (para MPLS) são protocolos capazes de estabelecer gráficos de distribuição multicast. Desses, os receptores LDP de PIM e multiponto iniciam a configuração do gráfico de distribuição, para que o MoFRR possa trabalhar com esses dois protocolos multicast onde eles são suportados.
Em uma árvore multicast, se o dispositivo detectar uma falha no componente da rede, leva algum tempo para realizar um reparo reativo, levando a uma perda de tráfego significativa enquanto configura um caminho alternativo. O MoFRR reduz a perda de tráfego em uma árvore de distribuição multicast quando um componente de rede falha. Com o MoFRR, um dos dispositivos de roteamento downstream estabelece um caminho alternativo em direção à fonte para receber uma transmissão ao vivo de backup do mesmo tráfego multicast. Quando uma falha acontece ao longo do fluxo primário, o dispositivo de roteamento MoFRR pode mudar rapidamente para o fluxo de backup.
Com o MoFRR habilitado para cada entrada (S,G), o dispositivo usa duas das interfaces upstream disponíveis para enviar uma mensagem de junção e receber tráfego multicast. O protocolo tenta selecionar dois caminhos desarticulados se dois desses caminhos estiverem disponíveis. Se os caminhos desarticulados não estiverem disponíveis, o protocolo seleciona dois caminhos sem desarticulação. Se dois caminhos sem desarticulação não estiverem disponíveis, apenas um caminho primário será selecionado sem backup. O MoFRR prioriza o backup desarticulado em favor do balanceamento de carga dos caminhos disponíveis.
O MoFRR é compatível com as famílias de protocolo IPv4 e IPv6.
Figura 12 mostra dois caminhos desde o dispositivo de roteamento de receptor multicast (também chamado de dispositivo de borda de provedor de saída (PE) até o dispositivo de roteamento de fonte multicast (também chamado de dispositivo PE de entrada).
Com o MoFRR habilitado, o dispositivo de roteamento de saída (lado receptor) configura duas árvores multicast, um caminho primário e um caminho de backup, em direção à fonte multicast para cada (S,G). Em outras palavras, o dispositivo de roteamento de saída propaga o mesmo (S,G) juntar mensagens em direção a dois vizinhos upstream diferentes, criando assim duas árvores multicast.
Uma das árvores multicast passa pelo plano 1 e a outra pelo plano 2, como mostrado em Figura 12. Para cada (S,G), o dispositivo de roteamento de saída encaminha o tráfego recebido no caminho principal e derruba o tráfego recebido no caminho de backup.
O MoFRR é suportado tanto em caminhos multicaminho de custo igual (ECMP) quanto em caminhos que não são ECMP. O dispositivo precisa habilitar rotas alternativas sem loop unicast (LFA) para oferecer suporte ao MoFRR em caminhos que não são ECMP. Você habilita rotas LFA usando a link-protection
declaração na configuração do protocolo de gateway interior (IGP). Ao ativar a proteção de enlaces em uma interface OSPF ou IS-IS, o dispositivo cria um caminho LFA de backup para o próximo salto primário para todas as rotas de destino que atravessam a interface protegida.
O Junos OS implementa o MoFRR na rede IP para IP MoFRR e no dispositivo de roteamento de borda de rótulo (LER) MPLS para LDP MoFRR multiponto.
O Multipoint LDP MoFRR é usado no dispositivo de saída de uma rede MPLS, onde os pacotes são encaminhados para uma rede IP. Com o Multipoint LDP MoFRR, o dispositivo estabelece dois caminhos em direção ao dispositivo de roteamento DE PE upstream para receber dois fluxos de pacotes MPLS no LER. O dispositivo aceita um dos fluxos (o principal) e o outro (o backup) é descartado no LER. Se o caminho principal falhar, o dispositivo aceita o fluxo de backup. O suporte para sinalização de banda larga é um pré-requisito para o MoFRR com LDP multiponto (veja Entendendo a sinalização de banda de LDP multiponto para LSPs de ponto a multiponto).
Funcionalidade do PIM
O Junos OS oferece suporte ao MoFRR para a SPT (Shortest Path Tree, árvore de caminho mais curto) que se junta ao MULTICAST (SSM) de origem específica do PIM e multicast de qualquer fonte (ASM). O MoFRR é compatível com intervalos SSM e ASM. Para habilitar a participação do MoFRR para (*,G), inclua a mofrr-asm-starg
declaração de configuração na [edit routing-options multicast stream-protection]
hierarquia. Para cada grupo G, o MoFRR funcionará para (S,G) ou (*,G), mas não para ambos. (S,G) sempre prevalece (*,G).
Com o MoFRR habilitado, um dispositivo de roteamento PIM se propaga para juntar mensagens em duas interfaces upstream de encaminhamento de caminho reverso (RPF) para receber tráfego multicast em ambos os links para a mesma solicitação de junção. O MoFRR dá preferência a dois caminhos que não convergem para o mesmo dispositivo de roteamento upstream imediato. O PIM instala rotas multicast apropriadas com próximo salto RPF upstream com duas interfaces (para os caminhos primários e de backup).
Quando o caminho principal falha, o caminho de backup é atualizado para o status primário e o dispositivo encaminha o tráfego de acordo. Se houver caminhos alternativos disponíveis, o MoFRR calcula um novo caminho de backup e atualizações ou instala a rota multicast apropriada.
Você pode habilitar o MoFRR com o PIM para juntar balanceamento de carga (veja a join-load-balance automatic
declaração). No entanto, nesse caso, a distribuição de mensagens de junção entre os links pode não ser uniforme. Quando um novo link ECMP é adicionado, junte-se às mensagens no caminho principal e seja redistribuída e balanceada. As mensagens de junção no caminho de backup ainda podem seguir o mesmo caminho e podem não ser redistribuídas uniformemente.
Você habilita o MoFRR usando a stream-protection
declaração de configuração na [edit routing-options multicast]
hierarquia. O MoFRR é gerenciado por um conjunto de políticas de filtro.
Quando um dispositivo de roteamento PIM de saída recebe uma mensagem de entrada ou um relatório IGMP, ele verifica uma configuração do MoFRR e prossegue da seguinte forma:
Se a configuração do MoFRR não estiver presente, o PIM envia uma mensagem de junção upstream em direção a um vizinho upstream (por exemplo, plano 2 in Figura 12).
Se a configuração do MoFRR estiver presente, o dispositivo verifica se há uma configuração de política.
Se uma política não estiver presente, o dispositivo verifica caminhos primários e de backup (interfaces upstream) e prossegue da seguinte forma:
Se os caminhos primários e de backup não estiverem disponíveis — o PIM envia uma mensagem de junção upstream em direção a um vizinho upstream (por exemplo, plano 2 in Figura 12).
Se os caminhos primários e de backup estiverem disponíveis — o PIM envia a mensagem de junção upstream em direção a dois dos vizinhos upstream disponíveis. O Junos OS estabelece caminhos multicast primários e secundários para receber tráfego multicast (por exemplo, plano 1 in Figura 12).
Se uma política estiver presente, o dispositivo verifica se a política permite o MoFRR para isso (S,G) e prossegue da seguinte forma:
Se essa verificação de política falhar — o PIM envia uma mensagem de junção upstream em direção a um vizinho upstream (por exemplo, plano 2 in Figura 12).
Se essa verificação de política for aprovada — o dispositivo verifica caminhos primários e de backup (interfaces upstream).
Se os caminhos primários e de backup não estiverem disponíveis, o PIM envia uma mensagem de junção upstream em direção a um vizinho upstream (por exemplo, plano 2 in Figura 12).
Se os caminhos primários e de backup estiverem disponíveis, o PIM envia a mensagem de junção upstream em direção a dois dos vizinhos upstream disponíveis. O dispositivo configura caminhos multicast primários e secundários para receber tráfego multicast (por exemplo, plano 1 in Figura 12).
Funcionalidade de LDP multiponto
Para evitar a duplicação de tráfego MPLS, o LDP multiponto geralmente seleciona apenas um caminho upstream. (Veja seção 2.4.1.1. Determinando o "LSR upstream" em RFC 6388, extensões de protocolo de distribuição de rótulos para caminhos comutados de rótulos de ponto a multiponto e multiponto para multiponto.)
Para LDP multiponto com MoFRR, o dispositivo LDP multiponto seleciona dois pares upstream separados e envia dois rótulos separados, um para cada peer upstream. O dispositivo usa o mesmo algoritmo descrito no RFC 6388 para selecionar o caminho de upstream primário. O dispositivo usa o mesmo algoritmo para selecionar o caminho upstream de backup, mas exclui o LSR upstream primário como candidato. Os dois pares upstream diferentes enviam dois fluxos de tráfego MPLS para o dispositivo de roteamento de saída. O dispositivo seleciona apenas um dos caminhos vizinhos upstream como o caminho principal para aceitar o tráfego MPLS. O outro caminho se torna o caminho de backup, e o dispositivo derruba esse tráfego. Quando o caminho upstream primário falha, o dispositivo começa a aceitar o tráfego do caminho de backup. O dispositivo LDP multiponto seleciona os dois caminhos upstream com base no próximo salto do dispositivo raiz do protocolo de gateway interior (IGP).
Uma classe de equivalência de encaminhamento (FEC) é um grupo de pacotes IP que são encaminhados da mesma maneira, pelo mesmo caminho e com o mesmo tratamento de encaminhamento. Normalmente, o rótulo que é colocado em um determinado pacote representa a FEC à qual esse pacote é atribuído. No MoFRR, duas rotas são colocadas na tabela mpls.0 para cada FEC — uma rota para o rótulo primário e a outra rota para o rótulo de backup.
Se houver links paralelos em direção ao mesmo dispositivo upstream imediato, o dispositivo considera ambos os links paralelos como o principal. A qualquer momento, o dispositivo upstream envia tráfego em apenas um dos múltiplos links paralelos.
Um nó de bud é um LSR que é um LSR de saída, mas também tem um ou mais LSRs downstream conectados diretamente. Para um nó de bud, o tráfego do caminho upstream primário é encaminhado para um LSR downstream. Se o caminho de upstream primário falhar, o tráfego MPLS do caminho upstream de backup é encaminhado para o LSR downstream. Isso significa que o próximo salto LSR a jusante é adicionado a ambas as rotas MPLS, juntamente com a saída próximo salto.
Como acontece com o [edit routing-options multicast]
PIM, você habilita o MoFRR com LDP multiponto usando a stream-protection
declaração de configuração na hierarquia, e é gerenciado por um conjunto de políticas de filtro.
Se você tiver habilitado o FEC multiponto de LDP de ponto a multiponto para MoFRR, o dispositivo considera as seguintes considerações para a seleção do caminho upstream:
As sessões de LDP direcionadas são independidas se houver uma sessão de LDP não direcionada. Se houver uma única sessão de LDP direcionada, a sessão LDP direcionada será selecionada, mas o FEC ponto a multiponto correspondente perde o recurso MoFRR porque não há interface associada à sessão LDP direcionada.
Todas as interfaces que pertencem ao mesmo LSR upstream são consideradas o caminho principal.
Para quaisquer atualizações de rota de nó raiz, o caminho upstream é alterado com base nos próximos saltos mais recentes do IGP. Se um caminho melhor estiver disponível, o LDP multiponto tenta mudar para um caminho melhor.
Encaminhamento de pacotes
Para PIM ou LDP multiponto, o dispositivo realiza seleção de fluxo de origem multicast na interface de entrada. Isso preserva a largura de banda da malha e maximiza o desempenho do encaminhamento porque:
Evita enviar fluxos duplicados por toda a malha
Evita várias buscas de rota (que resultam em quedas de pacotes).
Para o PIM, cada fluxo IP multicast contém o mesmo endereço de destino. Independentemente da interface em que os pacotes chegam, os pacotes têm a mesma rota. O dispositivo verifica a interface sobre a qual cada pacote chega e encaminha apenas aqueles que são da interface principal. Se a interface corresponde a uma interface de fluxo de backup, o dispositivo derruba os pacotes. Se a interface não corresponder à interface principal ou de fluxo de backup, o dispositivo lida com os pacotes como exceções no plano de controle.
Figura 13 mostra esse processo com interfaces primárias de amostra e backup para roteadores com PIM. Figura 14 mostra isso de maneira semelhante para switches com PIM.
Para MoFRR com LDP multiponto em roteadores, o dispositivo usa várias etiquetas MPLS para controlar a seleção de fluxo MoFRR. Cada rótulo representa uma rota separada, mas cada uma faz referência à mesma verificação da lista de interface. O dispositivo só encaminha o rótulo principal e derruba todos os outros. Várias interfaces podem receber pacotes usando o mesmo rótulo.
Figura 15 mostra esse processo para roteadores com LDP multiponto.
Limitações e advertências
- Limitações e advertências do MoFRR em dispositivos de comutação e roteamento
- Limitações do MoFRR em dispositivos de comutação com PIM
- Limitações e advertências do MoFRR em dispositivos de roteamento com LDP multiponto
Limitações e advertências do MoFRR em dispositivos de comutação e roteamento
O MoFRR tem as seguintes limitações e advertências sobre dispositivos de roteamento e comutação:
A detecção de falha do MoFRR é suportada para a proteção imediata do enlace do dispositivo de roteamento no qual o MoFRR é habilitado e não em todos os links (de ponta a ponta) no caminho de tráfego multicast.
O MoFRR oferece suporte a um redirecionamento rápido em dois caminhos de desarticulação selecionados em direção à fonte. Dois dos vizinhos upstream selecionados não podem estar na mesma interface — ou seja, dois vizinhos upstream em um segmento de LAN. O mesmo acontece se a interface upstream for uma interface de túnel multicast.
A detecção dos caminhos upstream máximos desarticulados de ponta a ponta não é suportada. O dispositivo de roteamento lateral do receptor (saída) garante apenas que haja um dispositivo upstream desarticulado (o salto anterior imediato). O PIM e o LDP multiponto não suportam o equivalente a objetos de rota explícitos (EROs). Dessa forma, a detecção de caminhos upstream desarticuladas está limitada ao controle sobre o dispositivo de salto imediatamente anterior. Devido a essa limitação, o caminho para o dispositivo upstream do salto anterior selecionado como primário e backup pode ser compartilhado.
Você pode ver alguma perda de tráfego nos seguintes cenários:
Um melhor caminho upstream fica disponível em um dispositivo de saída.
O MoFRR está habilitado ou desativado no dispositivo de saída enquanto há um fluxo de tráfego ativo fluindo.
O PIM junta-se ao balanceamento de carga para juntar mensagens para caminhos de backup que não são suportados.
Para um grupo multicast G, o MoFRR não é permitido tanto para (S,G) quanto (*,G) juntar mensagens. (S,G) juntar mensagens tem precedência sobre (*,G).
O MoFRR não tem suporte para fluxos de tráfego multicast que usam dois grupos multicast diferentes. Cada combinação (S,G) é tratada como um fluxo de tráfego multicast único.
A faixa de PIM bidirecional não é suportada com MoFRR.
O modo denso PIM não é suportado pelo MoFRR.
As estatísticas multicast para o fluxo de tráfego de backup não são mantidas pelo PIM e, portanto, não estão disponíveis na saída operacional de
show
comandos.O monitoramento de taxa não é suportado.
Limitações do MoFRR em dispositivos de comutação com PIM
O MoFRR com PIM tem as seguintes limitações em dispositivos de comutação:
O MoFRR não é suportado quando a interface upstream é uma interface integrada de roteamento e ponte (IRB), que afeta outros recursos multicast, como o Protocolo de Gerenciamento de Grupos de Internet versão 3 (IGMPv3).
A replicação de pacotes e as pesquisas multicast enquanto encaminham o tráfego multicast podem fazer com que os pacotes recirculam por PFEs várias vezes. Como resultado, os valores exibidos para contagens de pacotes multicast do comando podem mostrar números maiores do que o
show pfe statistics traffic
esperado em campos de saída, comoInput packets
eOutput packets
. Você pode notar esse comportamento com mais frequência em cenários moFRR porque fluxos primários duplicados e de backup aumentam o fluxo de tráfego em geral.
Limitações e advertências do MoFRR em dispositivos de roteamento com LDP multiponto
O MoFRR tem as seguintes limitações e advertências sobre os roteadores quando usado com LDP multiponto:
O MoFRR não se aplica ao tráfego LDP multiponto recebido em um túnel RSVP porque o túnel RSVP não está associado a nenhuma interface.
O MoFRR misto de upstream não é suportado. Isso se refere à sinalização de banda LDP multiponto PIM, em que um caminho upstream é por meio de LDP multiponto e o segundo caminho upstream é através do PIM.
Rótulos de LDP multiponto, pois os rótulos internos não são suportados.
Se a fonte for acessível por vários dispositivos de roteamento de borda de provedor (PE) de entrada (lado fonte), o LDP MoFRR multiponto não será suportado.
As sessões upstream de LDP direcionadas não são selecionadas como o dispositivo upstream do MoFRR.
A proteção de enlace de LDP multiponto no caminho de backup não é suportada porque não há suporte para rótulos internos do MoFRR.
Configuração do redirecionamento rápido somente para multicast
Você pode configurar o redirecionamento rápido (MoFRR) somente multicast para minimizar a perda de pacotes em uma rede quando há uma falha no link.
Quando o redirecionamento rápido é aplicado a fluxos unicast, um roteador upstream pré-estabelece caminhos comutados por rótulos MPLS (LSPs) ou pré-computa um caminho de backup alternativo sem loop ip (LFA) para lidar com a falha de um segmento no caminho downstream.
No roteamento multicast, os gráficos de distribuição de tráfego geralmente são originados pelo receptor. Isso é diferente do roteamento unicast, que normalmente estabelece o caminho da fonte até o receptor. Os protocolos capazes de estabelecer gráficos de distribuição multicast são PIM (para IP), LDP multiponto (para MPLS) e RSVP-TE (para MPLS). Destes, os receptores LDP de PIM e multiponto iniciam a configuração do gráfico de distribuição e, portanto:
Na série QFX, o MoFRR é suportado em domínios PIM.
Na Série MX e série SRX, o MoFRR é suportado em domínios de LDP de PIM e multiponto.
As etapas de configuração são as mesmas para habilitar o MoFRR para PIM em todos os dispositivos que oferecem suporte a esse recurso, a menos que indicado de outra forma. Também são indicadas etapas de configuração que não são aplicáveis ao LDP MoFRR multiponto.
(Apenas para roteadores da Série MX) O MoFRR é compatível com roteadores da Série MX com placas de linha MPC. Como pré-requisito,todas as placas de linha do roteador devem ser MPCs.
Para configurar o MoFRR em roteadores ou switches:
Exemplo: Configuração do redirecionamento rápido somente multicast em um domínio de LDP multiponto
Este exemplo mostra como configurar o redirecionamento rápido (MoFRR) somente multicast para minimizar a perda de pacotes em uma rede quando há uma falha no link.
O Multipoint LDP MoFRR é usado no nó de saída de uma rede MPLS, onde os pacotes são encaminhados para uma rede IP. No caso do Multipoint LDP MoFRR, os dois caminhos em direção ao roteador de borda de provedor de upstream (PE) são estabelecidos para receber dois fluxos de pacotes MPLS no roteador de borda de rótulo (LER). Um dos fluxos (o principal) é aceito, e o outro (o backup) é deixado no LER. O fluxo de backup é aceito se o caminho principal falhar.
Requisitos
Nenhuma configuração especial além da inicialização do dispositivo é necessária antes de configurar este exemplo.
Em um domínio de LDP multiponto, para que o MoFRR funcione, apenas o roteador PE de saída precisa ter o MoFRR habilitado. Os outros roteadores não precisam oferecer suporte ao MoFRR.
O MoFRR é compatível em plataformas da Série MX com placas de linha MPC. Como pré-requisito, o roteador deve ser definido para network-services enhanced-ip
o modo, e todas as placas de linha da plataforma devem ser MPCs.
Este exemplo requer o Junos OS Release 14.1 ou posterior no roteador PE de saída.
Visão geral
Neste exemplo, o Dispositivo R3 é o roteador de borda de saída. O MoFRR é habilitado apenas neste dispositivo.
O OSPF é usado para conectividade, embora qualquer protocolo de gateway interior (IGP) ou rotas estáticas possam ser usados.
Para fins de teste, os roteadores são usados para simular a origem e o receptor. O Dispositivo R4 e o Dispositivo R8 estão configurados para juntar-se estaticamente ao grupo desejado usando o set protocols igmp interface interface-name static group group
comando. No caso de um host receptor multicast real não estiver disponível, como neste exemplo, essa configuração de IGMP estática é útil. Nos receptores, para fazê-los ouvir o endereço do grupo multicast, este exemplo usa set protocols sap listen group
.
A configuração do MoFRR inclui uma opção de política que não é mostrada neste exemplo, mas é explicada separadamente. A opção está configurada da seguinte forma:
stream-protection { policy policy-name; }
Topologia
Figura 16 mostra a rede de amostra.
Configuração rápida da CLI mostra a configuração de todos os dispositivos em Figura 16.
A seção Configuração descreve as etapas do dispositivo R3.
Configuração rápida da CLI
Configuração rápida da CLI
Para configurar este exemplo rapidamente, copie os seguintes comandos, cole-os em um arquivo de texto, remova qualquer quebra de linha, altere os detalhes necessários para combinar com a configuração da sua rede e, em seguida, copie e cole os comandos no CLI no nível de [edit]
hierarquia.
Src1 do dispositivo
set interfaces ge-1/2/10 unit 0 description src1-to-R1 set interfaces ge-1/2/10 unit 0 family inet address 10.5.0.1/30 set interfaces ge-1/2/11 unit 0 description src1-to-R1 set interfaces ge-1/2/11 unit 0 family inet address 192.168.219.11/24 set interfaces lo0 unit 0 family inet address 10.0.1.17/32 set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive
Src2 do dispositivo
set interfaces ge-1/2/24 unit 0 description src2-to-R5 set interfaces ge-1/2/24 unit 0 family inet address 10.5.0.2/30 set interfaces lo0 unit 0 family inet address 10.0.1.18/32 set protocols rsvp interface all set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive
Dispositivo R1
set interfaces ge-1/2/12 unit 0 description R1-to-R2 set interfaces ge-1/2/12 unit 0 family inet address 10.1.2.1/30 set interfaces ge-1/2/12 unit 0 family mpls set interfaces ge-1/2/13 unit 0 description R1-to-R6 set interfaces ge-1/2/13 unit 0 family inet address 10.1.6.1/30 set interfaces ge-1/2/13 unit 0 family mpls set interfaces ge-1/2/10 unit 0 description R1-to-src1 set interfaces ge-1/2/10 unit 0 family inet address 10.1.0.2/30 set interfaces ge-1/2/11 unit 0 description R1-to-src1 set interfaces ge-1/2/11 unit 0 family inet address 192.168.219.9/30 set interfaces lo0 unit 0 family inet address 10.1.1.1/32 set protocols rsvp interface all set protocols mpls interface all set protocols bgp group ibgp local-address 10.1.1.1 set protocols bgp group ibgp export static-route-tobgp set protocols bgp group ibgp peer-as 65010 set protocols bgp group ibgp neighbor 10.1.1.3 set protocols bgp group ibgp neighbor 10.1.1.7 set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ldp interface ge-1/2/12.0 set protocols ldp interface ge-1/2/13.0 set protocols ldp interface lo0.0 set protocols ldp p2mp set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim rp static address 10.1.1.5 set protocols pim interface lo0.0 set protocols pim interface ge-1/2/10.0 set protocols pim interface ge-1/2/11.0 set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set policy-options policy-statement mldppim-ex term A from source-address-filter 10.1.1.7/32 orlonger set policy-options policy-statement mldppim-ex term A from source-address-filter 10.1.0.0/30 orlonger set policy-options policy-statement mldppim-ex term A then accept set policy-options policy-statement static-route-tobgp term static from protocol static set policy-options policy-statement static-route-tobgp term static from protocol direct set policy-options policy-statement static-route-tobgp term static then accept set routing-options autonomous-system 65010
Dispositivo R2
set interfaces ge-1/2/12 unit 0 description R2-to-R1 set interfaces ge-1/2/12 unit 0 family inet address 10.1.2.2/30 set interfaces ge-1/2/12 unit 0 family mpls set interfaces ge-1/2/14 unit 0 description R2-to-R3 set interfaces ge-1/2/14 unit 0 family inet address 10.2.3.1/30 set interfaces ge-1/2/14 unit 0 family mpls set interfaces ge-1/2/16 unit 0 description R2-to-R5 set interfaces ge-1/2/16 unit 0 family inet address 10.2.5.1/30 set interfaces ge-1/2/16 unit 0 family mpls set interfaces ge-1/2/17 unit 0 description R2-to-R7 set interfaces ge-1/2/17 unit 0 family inet address 10.2.7.1/30 set interfaces ge-1/2/17 unit 0 family mpls set interfaces ge-1/2/15 unit 0 description R2-to-R3 set interfaces ge-1/2/15 unit 0 family inet address 10.2.94.1/30 set interfaces ge-1/2/15 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.2/32 set interfaces lo0 unit 0 family mpls set protocols rsvp interface all set protocols mpls interface all set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ldp interface all set protocols ldp p2mp set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set routing-options autonomous-system 65010
Dispositivo R3
set chassis network-services enhanced-ip set interfaces ge-1/2/14 unit 0 description R3-to-R2 set interfaces ge-1/2/14 unit 0 family inet address 10.2.3.2/30 set interfaces ge-1/2/14 unit 0 family mpls set interfaces ge-1/2/18 unit 0 description R3-to-R4 set interfaces ge-1/2/18 unit 0 family inet address 10.3.4.1/30 set interfaces ge-1/2/18 unit 0 family mpls set interfaces ge-1/2/19 unit 0 description R3-to-R6 set interfaces ge-1/2/19 unit 0 family inet address 10.3.6.2/30 set interfaces ge-1/2/19 unit 0 family mpls set interfaces ge-1/2/21 unit 0 description R3-to-R7 set interfaces ge-1/2/21 unit 0 family inet address 10.3.7.1/30 set interfaces ge-1/2/21 unit 0 family mpls set interfaces ge-1/2/22 unit 0 description R3-to-R8 set interfaces ge-1/2/22 unit 0 family inet address 10.3.8.1/30 set interfaces ge-1/2/22 unit 0 family mpls set interfaces ge-1/2/15 unit 0 description R3-to-R2 set interfaces ge-1/2/15 unit 0 family inet address 10.2.94.2/30 set interfaces ge-1/2/15 unit 0 family mpls set interfaces ge-1/2/20 unit 0 description R3-to-R6 set interfaces ge-1/2/20 unit 0 family inet address 10.2.96.2/30 set interfaces ge-1/2/20 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.3/32 primary set routing-options autonomous-system 65010 set routing-options multicast stream-protection set protocols rsvp interface all set protocols mpls interface all set protocols bgp group ibgp local-address 10.1.1.3 set protocols bgp group ibgp peer-as 10 set protocols bgp group ibgp neighbor 10.1.1.1 set protocols bgp group ibgp neighbor 10.1.1.5 set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ldp interface all set protocols ldp p2mp set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim interface lo0.0 set protocols pim interface ge-1/2/18.0 set protocols pim interface ge-1/2/22.0 set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then accept set policy-options policy-statement mldppim-ex term A from source-address-filter 10.1.0.1/30 orlonger set policy-options policy-statement mldppim-ex term A then accept set policy-options policy-statement static-route-tobgp term static from protocol static set policy-options policy-statement static-route-tobgp term static from protocol direct set policy-options policy-statement static-route-tobgp term static then accept
Dispositivo R4
set interfaces ge-1/2/18 unit 0 description R4-to-R3 set interfaces ge-1/2/18 unit 0 family inet address 10.3.4.2/30 set interfaces ge-1/2/18 unit 0 family mpls set interfaces ge-1/2/23 unit 0 description R4-to-R7 set interfaces ge-1/2/23 unit 0 family inet address 10.4.7.1/30 set interfaces lo0 unit 0 family inet address 10.1.1.4/32 set protocols igmp interface ge-1/2/18.0 version 3 set protocols igmp interface ge-1/2/18.0 static group 232.1.1.1 group-count 2 set protocols igmp interface ge-1/2/18.0 static group 232.1.1.1 source 192.168.219.11 set protocols igmp interface ge-1/2/18.0 static group 232.2.2.2 source 10.2.7.7 set protocols sap listen 232.1.1.1 set protocols sap listen 232.2.2.2 set protocols rsvp interface all set protocols mpls interface all set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim interface ge-1/2/23.0 set protocols pim interface ge-1/2/18.0 set protocols pim interface lo0.0 set policy-options policy-statement static-route-tobgp term static from protocol static set policy-options policy-statement static-route-tobgp term static from protocol direct set policy-options policy-statement static-route-tobgp term static then accept set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set routing-options autonomous-system 65010
Dispositivo R5
set interfaces ge-1/2/24 unit 0 description R5-to-src2 set interfaces ge-1/2/24 unit 0 family inet address 10.5.0.1/30 set interfaces ge-1/2/16 unit 0 description R5-to-R2 set interfaces ge-1/2/16 unit 0 family inet address 10.2.5.2/30 set interfaces ge-1/2/16 unit 0 family mpls set interfaces ge-1/2/25 unit 0 description R5-to-R6 set interfaces ge-1/2/25 unit 0 family inet address 10.5.6.1/30 set interfaces ge-1/2/25 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.5/32 set protocols rsvp interface all set protocols mpls interface all set protocols bgp group ibgp local-address 10.1.1.5 set protocols bgp group ibgp export static-route-tobgp set protocols bgp group ibgp peer-as 65010 set protocols bgp group ibgp neighbor 10.1.1.7 set protocols bgp group ibgp neighbor 10.1.1.3 set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ldp interface ge-1/2/16.0 set protocols ldp interface ge-1/2/25.0 set protocols ldp p2mp set protocols pim interface lo0.0 set protocols pim interface ge-1/2/24.0 set policy-options policy-statement static-route-tobgp term static from protocol static set policy-options policy-statement static-route-tobgp term static from protocol direct set policy-options policy-statement static-route-tobgp term static then accept set routing-options autonomous-system 65010
Dispositivo R6
set interfaces ge-1/2/13 unit 0 description R6-to-R1 set interfaces ge-1/2/13 unit 0 family inet address 10.1.6.2/30 set interfaces ge-1/2/13 unit 0 family mpls set interfaces ge-1/2/19 unit 0 description R6-to-R3 set interfaces ge-1/2/19 unit 0 family inet address 10.3.6.1/30 set interfaces ge-1/2/19 unit 0 family mpls set interfaces ge-1/2/25 unit 0 description R6-to-R5 set interfaces ge-1/2/25 unit 0 family inet address 10.5.6.2/30 set interfaces ge-1/2/25 unit 0 family mpls set interfaces ge-1/2/26 unit 0 description R6-to-R7 set interfaces ge-1/2/26 unit 0 family inet address 10.6.7.1/30 set interfaces ge-1/2/26 unit 0 family mpls set interfaces ge-1/2/20 unit 0 description R6-to-R3 set interfaces ge-1/2/20 unit 0 family inet address 10.2.96.1/30 set interfaces ge-1/2/20 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.6/30 set protocols rsvp interface all set protocols mpls interface all set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ldp interface all set protocols ldp p2mp
Dispositivo R7
set interfaces ge-1/2/17 unit 0 description R7-to-R2 set interfaces ge-1/2/17 unit 0 family inet address 10.2.7.2/30 set interfaces ge-1/2/17 unit 0 family mpls set interfaces ge-1/2/21 unit 0 description R7-to-R3 set interfaces ge-1/2/21 unit 0 family inet address 10.3.7.2/30 set interfaces ge-1/2/21 unit 0 family mpls set interfaces ge-1/2/23 unit 0 description R7-to-R4 set interfaces ge-1/2/23 unit 0 family inet address 10.4.7.2/30 set interfaces ge-1/2/23 unit 0 family mpls set interfaces ge-1/2/26 unit 0 description R7-to-R6 set interfaces ge-1/2/26 unit 0 family inet address 10.6.7.2/30 set interfaces ge-1/2/26 unit 0 family mpls set interfaces ge-1/2/27 unit 0 description R7-to-R8 set interfaces ge-1/2/27 unit 0 family inet address 10.7.8.1/30 set interfaces ge-1/2/27 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.7/32 set protocols rsvp interface all set protocols mpls interface all set protocols bgp group ibgp local-address 10.1.1.7 set protocols bgp group ibgp export static-route-tobgp set protocols bgp group ibgp peer-as 65010 set protocols bgp group ibgp neighbor 10.1.1.5 set protocols bgp group ibgp neighbor 10.1.1.1 set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ldp interface ge-1/2/17.0 set protocols ldp interface ge-1/2/21.0 set protocols ldp interface ge-1/2/26.0 set protocols ldp p2mp set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim interface lo0.0 set protocols pim interface ge-1/2/27.0 set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then accept set policy-options policy-statement mldppim-ex term A from source-address-filter 10.1.0.1/30 orlonger set policy-options policy-statement mldppim-ex term A then accept set policy-options policy-statement static-route-tobgp term static from protocol static set policy-options policy-statement static-route-tobgp term static from protocol direct set policy-options policy-statement static-route-tobgp term static then accept set routing-options autonomous-system 65010 set routing-options multicast stream-protection policy mldppim-ex
Dispositivo R8
set interfaces ge-1/2/22 unit 0 description R8-to-R3 set interfaces ge-1/2/22 unit 0 family inet address 10.3.8.2/30 set interfaces ge-1/2/22 unit 0 family mpls set interfaces ge-1/2/27 unit 0 description R8-to-R7 set interfaces ge-1/2/27 unit 0 family inet address 10.7.8.2/30 set interfaces ge-1/2/27 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.8/32 set protocols igmp interface ge-1/2/22.0 version 3 set protocols igmp interface ge-1/2/22.0 static group 232.1.1.1 group-count 2 set protocols igmp interface ge-1/2/22.0 static group 232.1.1.1 source 192.168.219.11 set protocols igmp interface ge-1/2/22.0 static group 232.2.2.2 source 10.2.7.7 set protocols sap listen 232.1.1.1 set protocols sap listen 232.2.2.2 set protocols rsvp interface all set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim interface ge-1/2/27.0 set protocols pim interface ge-1/2/22.0 set protocols pim interface lo0.0 set policy-options policy-statement static-route-tobgp term static from protocol static set policy-options policy-statement static-route-tobgp term static from protocol direct set policy-options policy-statement static-route-tobgp term static then accept set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set routing-options autonomous-system 65010
Configuração
Procedimento
Procedimento passo a passo
O exemplo a seguir exige que você navegue por vários níveis na hierarquia de configuração. Para obter informações sobre como navegar na CLI, consulte Usando o Editor de CLI no modo de configuração no Guia de usuário do Junos OS CLI.
Para configurar o dispositivo R3:
Habilite o modo IP aprimorado.
[edit chassis] user@R3# set network-services enhanced-ip
Configure as interfaces do dispositivo.
[edit interfaces] user@R3# set ge-1/2/14 unit 0 description R3-to-R2 user@R3# set ge-1/2/14 unit 0 family inet address 10.2.3.2/30 user@R3# set ge-1/2/14 unit 0 family mpls user@R3# set ge-1/2/18 unit 0 description R3-to-R4 user@R3# set ge-1/2/18 unit 0 family inet address 10.3.4.1/30 user@R3# set ge-1/2/18 unit 0 family mpls user@R3# set ge-1/2/19 unit 0 description R3-to-R6 user@R3# set ge-1/2/19 unit 0 family inet address 10.3.6.2/30 user@R3# set ge-1/2/19 unit 0 family mpls user@R3# set ge-1/2/21 unit 0 description R3-to-R7 user@R3# set ge-1/2/21 unit 0 family inet address 10.3.7.1/30 user@R3# set ge-1/2/21 unit 0 family mpls user@R3# set ge-1/2/22 unit 0 description R3-to-R8 user@R3# set ge-1/2/22 unit 0 family inet address 10.3.8.1/30 user@R3# set ge-1/2/22 unit 0 family mpls user@R3# set ge-1/2/15 unit 0 description R3-to-R2 user@R3# set ge-1/2/15 unit 0 family inet address 10.2.94.2/30 user@R3# set ge-1/2/15 unit 0 family mpls user@R3# set ge-1/2/20 unit 0 description R3-to-R6 user@R3# set ge-1/2/20 unit 0 family inet address 10.2.96.2/30 user@R3# set ge-1/2/20 unit 0 family mpls user@R3# set lo0 unit 0 family inet address 10.1.1.3/32 primary
Configure o número do sistema autônomo (AS).
user@R3# set routing-options autonomous-system 6510
Configure as políticas de roteamento.
[edit policy-options policy-statement mldppim-ex] user@R3# set term B from source-address-filter 192.168.0.0/24 orlonger user@R3# set term B from source-address-filter 192.168.219.11/32 orlonger user@R3# set term B then accept user@R3# set term A from source-address-filter 10.1.0.1/30 orlonger user@R3# set term A then accept [edit policy-options policy-statement static-route-tobgp] user@R3# set term static from protocol static user@R3# set term static from protocol direct user@R3# set term static then accept
Configure PIM.
[edit protocols pim] user@R3# set mldp-inband-signalling policy mldppim-ex user@R3# set interface lo0.0 user@R3# set interface ge-1/2/18.0 user@R3# set interface ge-1/2/22.0
Configure LDP.
[edit protocols ldp] user@R3# set interface all user@R3# set p2mp
Configure um IGP ou rotas estáticas.
[edit protocols ospf] user@R3# set traffic-engineering user@R3# set area 0.0.0.0 interface all user@R3# set area 0.0.0.0 interface fxp0.0 disable user@R3# set area 0.0.0.0 interface lo0.0 passive
Configure o BGP interno.
[edit protocols bgp group ibgp] user@R3# set local-address 10.1.1.3 user@R3# set peer-as 65010 user@R3# set neighbor 10.1.1.1 user@R3# set neighbor 10.1.1.5
Configure o MPLS e, opcionalmente, o RSVP.
[edit protocols mpls] user@R3# set interface all [edit protocols rsvp] user@R3# set interface all
Habilite o MoFRR.
[edit routing-options multicast] user@R3# set stream-protection
Resultados
A partir do modo de configuração, confirme sua configuração inserindo os show chassis
show policy-options
show interfaces
show protocols
comandos e show routing-options
os comandos. Se a saída não exibir a configuração pretendida, repita as instruções neste exemplo para corrigir a configuração.
user@R3# show chassis network-services enhanced-ip;
user@R3# show interfaces ge-1/2/14 { unit 0 { description R3-to-R2; family inet { address 10.2.3.2/30; } family mpls; } } ge-1/2/18 { unit 0 { description R3-to-R4; family inet { address 10.3.4.1/30; } family mpls; } } ge-1/2/19 { unit 0 { description R3-to-R6; family inet { address 10.3.6.2/30; } family mpls; } } ge-1/2/21 { unit 0 { description R3-to-R7; family inet { address 10.3.7.1/30; } family mpls; } } ge-1/2/22 { unit 0 { description R3-to-R8; family inet { address 10.3.8.1/30; } family mpls; } } ge-1/2/15 { unit 0 { description R3-to-R2; family inet { address 10.2.94.2/30; } family mpls; } } ge-1/2/20 { unit 0 { description R3-to-R6; family inet { address 10.2.96.2/30; } family mpls; } } lo0 { unit 0 { family inet { address 192.168.15.1/32; address 10.1.1.3/32 { primary; } } } }
user@R3# show protocols rsvp { interface all; } mpls { interface all; } bgp { group ibgp { local-address 10.1.1.3; peer-as 65010; neighbor 10.1.1.1; neighbor 10.1.1.5; } } ospf { traffic-engineering; area 0.0.0.0 { interface all; interface fxp0.0 { disable; } interface lo0.0 { passive; } } } ldp { interface all; p2mp; } pim { mldp-inband-signalling { policy mldppim-ex; } interface lo0.0; interface ge-1/2/18.0; interface ge-1/2/22.0; }
user@R3# show policy-options policy-statement mldppim-ex { term B { from { source-address-filter 192.168.0.0/24 orlonger; source-address-filter 192.168.219.11/32 orlonger; } then accept; } term A { from { source-address-filter 10.1.0.1/30 orlonger; } then accept; } } policy-statement static-route-tobgp { term static { from protocol [ static direct ]; then accept; } }
user@R3# show routing-options autonomous-system 65010; multicast { stream-protection; }
Se você terminar de configurar o dispositivo, entre no commit
modo de configuração.
Verificação
Confirme se a configuração está funcionando corretamente.
- Verificando as aulas de equivalência de encaminhamento de ponto a multiponto do LDP
- Examinando as informações do rótulo
- Verificando as rotas multicast
- Verificando as estatísticas de tráfego de ponto a multiponto do LDP
Verificando as aulas de equivalência de encaminhamento de ponto a multiponto do LDP
Propósito
Certifique-se de que o MoFRR está habilitado e determine quais rótulos estão sendo usados.
Ação
user@R3> show ldp p2mp fec LDP P2MP FECs: P2MP root-addr 10.1.1.1, grp: 232.1.1.1, src: 192.168.219.11 MoFRR enabled Fec type: Egress (Active) Label: 301568 P2MP root-addr 10.1.1.1, grp: 232.1.1.2, src: 192.168.219.11 MoFRR enabled Fec type: Egress (Active) Label: 301600
Significado
A saída mostra que o MoFRR está habilitado, e mostra que os rótulos 301568 e 301600 estão sendo usados para os dois LSPs de ponto a multiponto de LDP multiponto.
Examinando as informações do rótulo
Propósito
Certifique-se de que o dispositivo de saída tenha duas interfaces upstream para o grupo multicast participar.
Ação
user@R3> show route label 301568 detail mpls.0: 18 destinations, 18 routes (18 active, 0 holddown, 0 hidden) 301568 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Flood Address: 0x2735208 Next-hop reference count: 3 Next hop type: Router, Next hop index: 1397 Address: 0x2735d2c Next-hop reference count: 3 Next hop: 10.3.8.2 via ge-1/2/22.0 Label operation: Pop Load balance label: None; Next hop type: Router, Next hop index: 1395 Address: 0x2736290 Next-hop reference count: 3 Next hop: 10.3.4.2 via ge-1/2/18.0 Label operation: Pop Load balance label: None; State: <Active Int AckRequest MulticastRPF> Local AS: 65010 Age: 54:05 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I FECs bound to route: P2MP root-addr 10.1.1.1, grp: 232.1.1.1, src: 192.168.219.11 Primary Upstream : 10.1.1.3:0--10.1.1.2:0 RPF Nexthops : ge-1/2/15.0, 10.2.94.1, Label: 301568, weight: 0x1 ge-1/2/14.0, 10.2.3.1, Label: 301568, weight: 0x1 Backup Upstream : 10.1.1.3:0--10.1.1.6:0 RPF Nexthops : ge-1/2/20.0, 10.2.96.1, Label: 301584, weight: 0xfffe ge-1/2/19.0, 10.3.6.1, Label: 301584, weight: 0xfffe
user@R3> show route label 301600 detail mpls.0: 18 destinations, 18 routes (18 active, 0 holddown, 0 hidden) 301600 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Flood Address: 0x27356b4 Next-hop reference count: 3 Next hop type: Router, Next hop index: 1520 Address: 0x27350f4 Next-hop reference count: 3 Next hop: 10.3.8.2 via ge-1/2/22.0 Label operation: Pop Load balance label: None; Next hop type: Router, Next hop index: 1481 Address: 0x273645c Next-hop reference count: 3 Next hop: 10.3.4.2 via ge-1/2/18.0 Label operation: Pop Load balance label: None; State: <Active Int AckRequest MulticastRPF> Local AS: 65010 Age: 54:25 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I FECs bound to route: P2MP root-addr 10.1.1.1, grp: 232.1.1.2, src: 192.168.219.11 Primary Upstream : 10.1.1.3:0--10.1.1.6:0 RPF Nexthops : ge-1/2/20.0, 10.2.96.1, Label: 301600, weight: 0x1 ge-1/2/19.0, 10.3.6.1, Label: 301600, weight: 0x1 Backup Upstream : 10.1.1.3:0--1.1.1.2:0 RPF Nexthops : ge-1/2/15.0, 10.2.94.1, Label: 301616, weight: 0xfffe ge-1/2/14.0, 10.2.3.1, Label: 301616, weight: 0xfffe
Significado
A saída mostra os caminhos upstream primários e os caminhos upstream de backup. Ele também mostra o RPF próximo saltos.
Verificando as rotas multicast
Propósito
Examine a tabela de encaminhamento ip multicast para garantir que haja uma lista de interfaces RPF upstream, com uma interface primária e de backup.
Ação
user@R3> show ldp p2mp path P2MP path type: Transit/Egress Output Session (label): 10.1.1.2:0 (301568) (Primary) Egress Nexthops: Interface ge-1/2/18.0 Interface ge-1/2/22.0 RPF Nexthops: Interface ge-1/2/15.0, 10.2.94.1, 301568, 1 Interface ge-1/2/20.0, 10.2.96.1, 301584, 65534 Interface ge-1/2/14.0, 10.2.3.1, 301568, 1 Interface ge-1/2/19.0, 10.3.6.1, 301584, 65534 Attached FECs: P2MP root-addr 10.1.1.1, grp: 232.1.1.1, src: 192.168.219.11 (Active) P2MP path type: Transit/Egress Output Session (label): 10.1.1.6:0 (301584) (Backup) Egress Nexthops: Interface ge-1/2/18.0 Interface ge-1/2/22.0 RPF Nexthops: Interface ge-1/2/15.0, 10.2.94.1, 301568, 1 Interface ge-1/2/20.0, 10.2.96.1, 301584, 65534 Interface ge-1/2/14.0, 10.2.3.1, 301568, 1 Interface ge-1/2/19.0, 10.3.6.1, 301584, 65534 Attached FECs: P2MP root-addr 10.1.1.1, grp: 232.1.1.1, src: 192.168.219.11 (Active) P2MP path type: Transit/Egress Output Session (label): 10.1.1.6:0 (301600) (Primary) Egress Nexthops: Interface ge-1/2/18.0 Interface ge-1/2/22.0 RPF Nexthops: Interface ge-1/2/15.0, 10.2.94.1, 301616, 65534 Interface ge-1/2/20.0, 10.2.96.1, 301600, 1 Interface ge-1/2/14.0, 10.2.3.1, 301616, 65534 Interface ge-1/2/19.0, 10.3.6.1, 301600, 1 Attached FECs: P2MP root-addr 10.1.1.1, grp: 232.1.1.2, src: 192.168.219.11 (Active) P2MP path type: Transit/Egress Output Session (label): 10.1.1.2:0 (301616) (Backup) Egress Nexthops: Interface ge-1/2/18.0 Interface ge-1/2/22.0 RPF Nexthops: Interface ge-1/2/15.0, 10.2.94.1, 301616, 65534 Interface ge-1/2/20.0, 10.2.96.1, 301600, 1 Interface ge-1/2/14.0, 10.2.3.1, 301616, 65534 Interface ge-1/2/19.0, 10.3.6.1, 301600, 1 Attached FECs: P2MP root-addr 10.1.1.1, grp: 232.1.1.2, src: 192.168.219.11 (Active)
Significado
A saída mostra sessões primárias e de backup, e próximo saltos RPF.
Verificando as estatísticas de tráfego de ponto a multiponto do LDP
Propósito
Certifique-se de que as estatísticas primárias e de backup estejam listadas.
Ação
user@R3> show ldp traffic-statistics p2mp P2MP FEC Statistics: FEC(root_addr:lsp_id/grp,src) Nexthop Packets Bytes Shared 10.1.1.1:232.1.1.1,192.168.219.11, Label: 301568 10.3.8.2 0 0 No 10.3.4.2 0 0 No 10.1.1.1:232.1.1.1,192.168.219.11, Label: 301584, Backup route 10.3.4.2 0 0 No 10.3.8.2 0 0 No 10.1.1.1:232.1.1.2,192.168.219.11, Label: 301600 10.3.8.2 0 0 No 10.3.4.2 0 0 No 10.1.1.1:232.1.1.2,192.168.219.11, Label: 301616, Backup route 10.3.4.2 0 0 No 10.3.8.2 0 0 No
Significado
A saída mostra rotas primárias e de backup com as etiquetas.
Exemplo: Configuração do downstream do LDP sob demanda
Este exemplo mostra como configurar o downstream do LDP sob demanda. O LDP é comumente configurado usando o modo de anúncio não solicitado a downstream, o que significa que anúncios de rótulos para todas as rotas são recebidos de todos os pares LDP. À medida que os provedores de serviços integram as redes de acesso e agregação em um único domínio MPLS, o downstream de LDP sob demanda é necessário para distribuir as ligações entre as redes de acesso e agregação e reduzir os requisitos de processamento para o plano de controle.
Nós downstream poderiam potencialmente receber dezenas de milhares de vinculações de rótulos de nós de agregação upstream. Em vez de aprender e armazenar todas as vinculações de rótulos para todos os endereços de loopback possíveis em toda a rede MPLS, o nó de agregação downstream pode ser configurado usando downstream de LDP sob demanda para solicitar apenas as vinculações de rótulo para os FECs correspondentes aos endereços de loopback desses nós de saída nos quais ele tem serviços configurados.
Requisitos
Este exemplo usa os seguintes componentes de hardware e software:
-
Roteador série M
-
Junos OS 12.2
Visão geral
Você pode habilitar o anúncio do rótulo de downstream sob demanda do LDP para uma sessão de LDP, incluindo a declaração downstream sob demanda no nível de [edit protocols ldp session]
hierarquia. Se você tiver configurado o downstream sob demanda, o roteador da Juniper Networks anuncia a solicitação de downstream sob demanda para seus roteadores peer. Para que uma sessão downstream sob demanda seja estabelecida entre dois roteadores, ambos precisam anunciar o modo downstream sob demanda durante o estabelecimento de sessão LDP. Se um roteador anunciar o modo downstream não solicitado e o outro anunciar downstream sob demanda, o modo downstream não solicitado será usado.
Configuração
- Configuração do downstream do LDP sob demanda
- Distribuição de rotas de downstream de LDP sob demanda em BGP rotulado
Configuração do downstream do LDP sob demanda
Procedimento passo a passo
Para configurar uma política de downstream de LDP sob demanda e, em seguida, configurar essa política e habilitar o downstream LDP sob demanda na sessão LDP:
-
Configure a política de downstream sob demanda (DOD-Request-Loopbacks neste exemplo).
Essa política faz com que o roteador encaminhe mensagens de solicitação de rótulos apenas para os FECs compatíveis com a DOD-Request-Loopbacks política.
[edit policy-options] user@host# set prefix-list Request-Loopbacks 10.1.1.1/32 user@host# set prefix-list Request-Loopbacks 10.1.1.2/32 user@host# set prefix-list Request-Loopbacks 10.1.1.3/32 user@host# set prefix-list Request-Loopbacks 10.1.1.4/32 user@host# set policy-statement DOD-Request-Loopbacks term 1 from prefix-list Request-Loopbacks user@host# set policy-statement DOD-Request-Loopbacks term 1 then accept
-
Especifique a política do DOD-Request-Loopbacks usando a
dod-request-policy
declaração no nível de[edit protocols ldp]
hierarquia.A política especificada com a
dod-request-policy
declaração é usada para identificar os prefixos para enviar mensagens de solicitação de rótulos. Esta política é semelhante a uma política de saída ou uma política de importação. Ao processar rotas da tabela de roteamento inet.0, o software Junos OS verifica rotas que correspondam àDOD-Request-Loopbacks
política (neste exemplo). Se a rota corresponder à política e a sessão de LDP for negociada com o modo de anúncio do DOD, as mensagens de solicitação de rótulos serão enviadas para a sessão LDP downstream correspondente.[edit protocols ldp] user@host# set dod-request-policy DOD-Request-Loopbacks
-
Inclua a
downstream-on-demand
declaração na configuração para a sessão LDP para permitir o modo de distribuição sob demanda downstream.[edit protocols ldp] user@host# set session 172.16.1.1 downstream-on-demand
Distribuição de rotas de downstream de LDP sob demanda em BGP rotulado
Procedimento passo a passo
Para distribuir rotas de downstream de LDP sob demanda em BGP rotulado, use uma política de exportação BGP.
-
Configure a política de roteamento LDP (
redistribute_ldp
neste exemplo).[edit policy-options] user@host# set policy-statement redistribute_ldp term 1 from protocol ldp user@host# set policy-statement redistribute_ldp term 1 from tag 1000 user@host# set policy-statement redistribute_ldp term 1 then accept
-
Inclua a política
redistribute_ldp
de roteamento LDP na configuração BGP (como parte da configuraçãoebgp-to-abr
do grupo BGP neste exemplo).O BGP encaminha as rotas LDP com base na
redistribute_ldp
política para o roteador PE remoto[edit protocols bgp] user@host# set group ebgp-to-abr type external user@host# set group ebgp-to-abr local-address 192.168.0.1 user@host# set group ebgp-to-abr peer-as 65319 user@host# set group ebgp-to-abr local-as 65320 user@host# set group ebgp-to-abr neighbor 192.168.6.1 family inet unicast user@host# set group ebgp-to-abr neighbor 192.168.6.1 family inet labeled-unicast rib inet.3 user@host# set group ebgp-to-abr neighbor 192.168.6.1 export redistribute_ldp
Procedimento passo a passo
Para restringir a propagação de rótulos a outros roteadores configurados no modo downstream não solicitado (em vez de downstream sob demanda), configure as seguintes políticas:
-
Configure a
dod-routes
política para aceitar rotas do LDP.user@host# set policy-options policy-statement dod-routes term 1 from protocol ldp user@host# set policy-options policy-statement dod-routes term 1 from tag 1145307136 user@host# set policy-options policy-statement dod-routes term 1 then accept
-
Configure a
do-not-propagate-du-sessions
política para não encaminhar rotas aos vizinhos10.1.1.1
10.2.2.2
e10.3.3.3
.user@host# set policy-options policy-statement do-not-propagate-du-sessions term 1 to neighbor 10.1.1.1 user@host# set policy-options policy-statement do-not-propagate-du-sessions term 1 to neighbor 10.2.2.2 user@host# set policy-options policy-statement do-not-propagate-du-sessions term 1 to neighbor 10.3.3.3 user@host# set policy-options policy-statement do-not-propagate-du-sessions term 1 then reject
-
Configure a
filter-dod-on-du-sessions
política para evitar que as rotas analisadas peladod-routes
política sejam encaminhadas aos roteadores vizinhos definidos nado-not-propagate-du-sessions
política.user@host# set policy-options policy-statement filter-dod-routes-on-du-sessions term 1 from policy dod-routes user@host# set policy-options policy-statement filter-dod-routes-on-du-sessions term 1 to policy do-not-propagate-du-sessions
-
Especifique a
filter-dod-routes-on-du-sesssion
política como política de exportação para BGP gnosseebgp-to-abr
.[edit protocols bgp] user@host# set group ebgp-to-abr neighbor 192.168.6.2 export filter-dod-routes-on-du-sessions
Resultados
A partir do modo de configuração, confirme sua configuração inserindo os show policy-options
comandos e show protocols ldp
os comandos. Se a saída não exibir a configuração pretendida, repita as instruções neste exemplo para corrigir a configuração.
user@host# show policy-options prefix-list Request-Loopbacks { 10.1.1.1/32; 10.1.1.2/32; 10.1.1.3/32; 10.1.1.4/32; } policy-statement DOD-Request-Loopbacks { term 1 { from { prefix-list Request-Loopbacks; } then accept; } } policy-statement redistribute_ldp { term 1 { from { protocol ldp; tag 1000; } then accept; } }
user@host# show protocols ldp dod-request-policy DOD-Request-Loopbacks; session 172.16.1.1 { downstream-on-demand; }
user@host# show protocols bgp group ebgp-to-abr { type external; local-address 192.168.0.1; peer-as 65319; local-as 65320; neighbor 192.168.6.1 { family inet { unicast; labeled-unicast { rib { inet.3; } } } export redistribute_ldp; } }
Verificação
Verificação do modo de anúncio de rótulos
Propósito
Confirme se a configuração está funcionando corretamente.
Use o show ldp session
comando para verificar o status do modo de anúncio do rótulo para a sessão de LDP.
Ação
Emita os show ldp session
comandos e os comandos show ldp session detail
:
-
A saída de comando a seguir para o
show ldp session
comando indica que o (modo de anúncio deAdv. Mode
rótulo) éDOD
(o que significa que a sessão downstream de LDP sob demanda está operacional):user@host>
show ldp session
Address State Connection Hold time Adv. Mode 172.16.1.2 Operational Open 22 DOD -
A saída de comando a seguir para o
show ldp session detail
comando indica que oLocal Label Advertisement mode
éDownstream unsolicited
, o valor padrão (o que significa que o downstream sob demanda não está configurado na sessão local). Por outro lado, eRemote Label Advertisement mode
ambosNegotiated Label Advertisement mode
indicam queDownstream on demand
está configurado na sessão remotauser@host>
show ldp session detail
Address: 172.16.1.2, State: Operational, Connection: Open, Hold time: 24 Session ID: 10.1.1.1:0--10.1.1.2:0 Next keepalive in 4 seconds Passive, Maximum PDU: 4096, Hold time: 30, Neighbor count: 1 Neighbor types: configured-tunneled Keepalive interval: 10, Connect retry interval: 1 Local address: 10.1.1.1, Remote address: 10.1.1.2 Up for 17:54:52 Capabilities advertised: none Capabilities received: none Protection: disabled Local - Restart: disabled, Helper mode: enabled, Remote - Restart: disabled, Helper mode: enabled Local maximum neighbor reconnect time: 120000 msec Local maximum neighbor recovery time: 240000 msec Local Label Advertisement mode: Downstream unsolicited Remote Label Advertisement mode: Downstream on demand Negotiated Label Advertisement mode: Downstream on demand Nonstop routing state: Not in sync Next-hop addresses received: 10.1.1.2
Configuração do suporte IPv6 nativo de LDP
O LDP é suportado em uma rede exclusiva para IPv6 e em uma rede dual stack IPv6 ou IPv4, conforme descrito no RFC 7552. Configure a família de endereços quanto inet
ao IPv4 ou inet6
ao IPv6 ou ambos, e a preferência de transporte seja IPv4
ou IPv6
. A dual-transport
declaração permite que o Junos OS LDP estabeleça a conexão TCP sobre o IPv4 com vizinhos IPv4 e sobre o IPv6 com vizinhos IPv6 como um LSR single-stack. Os inet-lsr-id
IDs e inet6-lsr-id
os IDs são os dois IDs LSR que precisam ser configurados para estabelecer uma sessão de LDP sobre o transporte de IPv4 e IPv6 TCP. Esses dois IDs devem não ser zero e devem ser configurados com valores diferentes.
Antes de configurar o IPv6 como dual-stack, certifique-se de configurar os protocolos de roteamento e sinalização.
Para configurar o suporte IPv6 nativo de LDP, você deve fazer o seguinte:
Exemplo: Configuração do suporte IPv6 nativo de LDP
Este exemplo mostra como permitir que o Junos OS Label Distribution Protocol (LDP) estabeleça a conexão TCP sobre IPv4 com vizinhos IPv4 e sobre o IPv6 com vizinhos IPv6 como um LSR de pilha única. Isso ajuda a evitar o tunelamento do IPv6 sobre o núcleo MPLS IPv4 com caminhos comutados por rótulos MPLS (LSPs) sinalizados por IPv4.
Requisitos
Este exemplo usa os seguintes componentes de hardware e software:
-
Dois roteadores da Série MX
-
Junos OS Release 16.1 ou posterior em todos os dispositivos
Antes de configurar o IPv6 como dual-stack, certifique-se de configurar os protocolos de roteamento e sinalização.
Visão geral
O LDP é suportado apenas em uma rede IPv6 e em uma rede dual stack IPv6 ou IPv4, conforme descrito no RFC 7552. Configure a família de endereços quanto inet
ao IPv4 ou inet6
ao IPv6. Por padrão, o IPv6 é usado como transporte de TCP para a sessão de LDP com seus pares quando ambos iPv4 e IPv6 estão habilitados. A declaração de transporte duplo permite que o Junos LDP estabeleça a conexão TCP sobre o IPv4 com vizinhos IPv4 e sobre o IPv6 com vizinhos IPv6 como um LSR single-stack. Esses inet-lsr-id
são inet6-lsr-id
os dois IDs LSR que precisam ser configurados para estabelecer uma sessão de LDP sobre o transporte IPv4 e IPv6 TCP. Esses dois IDs devem não ser zero e devem ser configurados com valores diferentes.
Topologia
Figura 17 mostra o LDP IPv6 configurado como dual-stack no dispositivo R1 e dispositivo R2.
Configuração
- Configuração rápida da CLI
- Configuração do R1
- Configure a preferência de transporte para selecionar o transporte preferido
- Configure o transporte duplo para estabelecer sessões separadas para IPv4 com um vizinho IPv4 e IPv6 com um vizinho IPv6
Configuração rápida da CLI
Para configurar rapidamente este exemplo, copie os seguintes comandos, cole-os em um arquivo de texto, remova quaisquer quebras de linha, altere todos os detalhes necessários para combinar com a configuração da sua rede, copiar e colar os comandos na CLI no nível de [edit] hierarquia e, em seguida, entrar no commit
modo de configuração.
R1
set interfaces ge-1/0/0 unit 0 family inet address 192.168.12.1/24 set interfaces ge-1/0/0 unit 0 family iso set interfaces ge-1/0/0 unit 0 family inet6 address 2001:db8:0:12::/64 eui-64 set interfaces ge-1/0/0 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.0.1/32 set interfaces lo0 unit 0 family iso address 49.0001.1720.1600.1010.00 set interfaces lo0 unit 0 family inet6 address 2001:db8::1/128 set protocols isis interface ge-1/0/0.0 set protocols isis interface lo0.0 set protocols mpls interface ge-1/0/0.0 set protocols ldp deaggregate set protocols ldp interface ge-1/0/0.0 set protocols ldp interface lo0.0 set protocols ldp family inet6 set protocols ldp family inet
R2
set interfaces ge-1/0/1 unit 0 family inet address 192.168.12.2/24 set interfaces ge-1/0/1 unit 0 family iso set interfaces ge-1/0/1 unit 0 family inet6 address 2001:db8:0:12::/64 eui-64 set interfaces ge-1/0/1 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.0.2/32 set interfaces lo0 unit 0 family iso address 49.0001.1720.1600.2020.00 set interfaces lo0 unit 0 family inet6 address 2001:db8::2/128 set protocols isis interface ge-1/0/1.0 set protocols isis interface lo0.0 set protocols mpls interface ge-1/0/1.0 set protocols ldp deaggregate set protocols ldp interface ge-1/0/1.0 set protocols ldp interface lo0.0 set protocols ldp family inet6 set protocols ldp family inet
Configuração do R1
Procedimento passo a passo
O exemplo a seguir exige que você navegue por vários níveis na hierarquia de configuração. Para obter informações sobre como navegar na CLI, consulte " Using the CLI Editor in Configuration Mode " no Guia de usuário do Junos OS CLI.
Para configurar o dispositivo R1:
-
Configure as interfaces.
[edit interfaces] set ge-1/0/0 unit 0 family inet address 192.168.12.1/24 set ge-1/0/0 unit 0 family iso set ge-1/0/0 unit 0 family inet6 address 2001:db8:0:12::/64 eui-64 set ge-1/0/0 unit 0 family mpls
-
Atribua um endereço de loopback ao dispositivo.
[edit interfaces lo0 unit 0] set family inet address 10.255.0.1/32 set family iso address 49.0001.1720.1600.1010.00 set family inet6 address 2001:db8::1/128
-
Configure as interfaces IS-IS.
[edit protocols isis] set interface ge-1/0/0.0 set interface lo0.0
-
Configure o MPLS para usar interfaces LDP no dispositivo.
[edit protocols mpls] set protocols mpls interface ge-1/0/0.0 set interface ge-1/0/0.0 set interface lo0.0
-
Habilite a desagregação da classe de equivalência de equivalência (FEC) para usar rótulos diferentes para diferentes famílias de endereços.
[edit protocols ldp] set deaggregate
-
Configure as famílias de endereços LDP.
[edit protocols ldp] set family inet6 set family inet
Resultados
A partir do modo de configuração, confirme sua configuração inserindo os show interfaces comandos e show protocols os comandos. Se a saída não exibir a configuração pretendida, repita as instruções neste exemplo para corrigir a configuração.
user@R1# show interfaces ge-1/0/0 { unit 0 { family inet { address 192.168.12.1/24; } family iso; family inet6 { address 2001:db8:0:12::/64 { eui-64; } } family mpls; } } lo0 { unit 0 { family inet { address 10.255.0.1/32; } family iso { address 49.0001.1720.1600.1010.00 } family inet6 { address 2001:db8::1/128; } } }
user@R1# show protocols mpls { interface ge-1/0/0.0; } isis { interface ge-1/0/0.0; interface lo0.0; } ldp { deaggregate; interface ge-1/0/0.0; interface lo0.0; family { inet6; inet; } }
Configure a preferência de transporte para selecionar o transporte preferido
Configuração rápida da CLI
Procedimento passo a passo
Você pode configurar a transport-preference
declaração para selecionar o transporte preferido para uma conexão TCP quando o IPv4 e o IPv6 estiverem habilitados. Por padrão, o IPv6 é usado como transporte de TCP para estabelecer uma conexão LDP.
-
(Opcional) Configure a preferência de transporte por uma conexão LDP.
[edit protocols ldp] set transport-preference ipv4
Procedimento passo a passo
Resultados
A partir do modo de configuração, confirme sua configuração entrando no show protocols comando. Se a saída não exibir a configuração pretendida, repita as instruções neste exemplo para corrigir a configuração.
user@R1# show protocols mpls { interface ge-1/0/0.0; } isis { interface ge-1/0/0.0; interface lo0.0; } ldp { deaggregate; interface ge-1/0/0.0; interface lo0.0; family { inet6; inet; } transport-preference ipv4; }
Configure o transporte duplo para estabelecer sessões separadas para IPv4 com um vizinho IPv4 e IPv6 com um vizinho IPv6
Procedimento passo a passo
Você pode configurar a declaração para permitir que o dual-transport
LDP estabeleça uma sessão IPv4 separada com um vizinho IPv4 e uma sessão IPv6 com um vizinho IPv6. Isso requer a configuração de inet-lsr-id
ID LSR para IPv4 e inet6-lsr-id
como ID LSR para IPv6.
-
(Opcional) Configure o transporte duplo para permitir que o LDP estabeleça a conexão TCP sobre o IPv4 com vizinhos IPv4 e sobre o IPv6 com vizinhos IPv6 como um LSR de pilha única.
[edit protocols ldp dual-transport] set inet-lsr-id 10.255.0.1 set inet6-lsr-id 10.1.1.1
Resultados
A partir do modo de configuração, confirme sua configuração entrando no show protocols comando. Se a saída não exibir a configuração pretendida, repita as instruções neste exemplo para corrigir a configuração.
user@R1# show protocols mpls { interface ge-1/0/0.0; } isis { interface ge-1/0/0.0; interface lo0.0; } ldp { deaggregate; interface ge-1/0/0.0; interface lo0.0; family { inet6; inet; } dual-transport { inet-lsr-id 10.255.0.1; inet6-lsr-id 10.1.1.1; } }
Verificação
Confirme se a configuração está funcionando corretamente.
- Verificando as entradas de rota na tabela mpls.0
- Verificando as entradas de rota na tabela inet.3
- Verificando as entradas de rota na tabela inet6.3
- Verificando o banco de dados do LDP
- Verificando as informações do vizinho LDP
- Verificando as informações da sessão do LDP
Verificando as entradas de rota na tabela mpls.0
Propósito
Exibir informações da tabela de rotas mpls.0.
Ação
No dispositivo R1, a partir do modo operacional, execute o show route table mpls.0
comando para exibir informações da tabela de roteamento mpls.0.
user@R1> show route table mpls.0
mpls.0: 8 destinations, 8 routes (8 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
0 *[MPLS/0] 05:19:58, metric 1
Receive
1 *[MPLS/0] 05:19:58, metric 1
Receive
2 *[MPLS/0] 05:19:58, metric 1
Receive
13 *[MPLS/0] 05:19:58, metric 1
Receive
299824 *[LDP/9] 04:28:45, metric 1
> to fe80::21f:1200:cb6:4c8d via ge-1/0/0.0, Pop
299824(S=0) *[LDP/9] 04:28:45, metric 1
> to fe80::21f:1200:cb6:4c8d via ge-1/0/0.0, Pop
299888 *[LDP/9] 00:56:12, metric 1
> to 192.168.12.2 via ge-1/0/0.0, Pop
299888(S=0) *[LDP/9] 00:56:12, metric 1
> to 192.168.12.2 via ge-1/0/0.0, Pop
Significado
A saída mostra as informações da tabela de rotas mpls.0.
Verificando as entradas de rota na tabela inet.3
Propósito
Informações da tabela de roteamento inet.3.
Ação
No dispositivo R1, a partir do modo operacional, execute o show route table inet.3
comando para exibir informações da tabela de roteamento inet.3.
user@R1> show route table inet.3
inet.3: 1 destinations, 1 routes (1 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
10.255.0.2/32 *[LDP/9] 00:58:38, metric 1
> to 192.168.12.2 via ge-1/0/0.0
Significado
A saída mostra as informações da tabela de rotas inet.3.
Verificando as entradas de rota na tabela inet6.3
Propósito
Informações da tabela de roteamento inet6.3.
Ação
No dispositivo R1, a partir do modo operacional, execute o show route table inet6.3
comando para exibir informações da tabela de roteamento inet6.3.
user@R1> show route table inet6.3
inet6.3: 1 destinations, 1 routes (1 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
2001:db8::2/128 *[LDP/9] 04:31:17, metric 1
> to fe80::21f:1200:cb6:4c8d via ge-1/0/0.0
Significado
A saída mostra as informações da tabela de roteamento inet6.3.
Verificando o banco de dados do LDP
Propósito
Exibir as informações do banco de dados do LDP.
Ação
No dispositivo R1, a partir do modo operacional, execute o show ldp database
comando para exibir informações de banco de dados LDP.
user@R1> show ldp database
Input label database, 10.255.0.1:0--10.255.0.2:0
Labels received: 3
Label Prefix
299840 10.255.0.1/32
3 10.255.0.2/32
299808 2001:db8::1/128
3 2001:db8::2/128
Output label database, 10.255.0.1:0--10.255.0.2:0
Labels advertised: 3
Label Prefix
3 10.255.0.1/32
299888 10.255.0.2/32
3 2001:db8::1/128
299824 2001:db8::2/128
Significado
A saída mostra as entradas no banco de dados do LDP.
Verificando as informações do vizinho LDP
Propósito
Exibir as informações do vizinho LDP.
Ação
No dispositivo R1, a partir do modo operacional, execute o show ldp neighbor
e show ldp neighbor extensive
comanda para exibir informações de vizinhos LDP.
user@R1>show ldp neighbor
Address Interface Label space ID Hold time fe80::21f:1200:cb6:4c8d ge-1/0/0.0 10.255.0.2:0 12 192.168.12.2 ge-1/0/0.0 10.255.0.2:0 11 user@R1>show ldp neighbor extensive
Address Interface Label space ID Hold time 192.168.12.2 ge-1/0/0.0 10.255.0.2:0 11 Transport address: 10.255.0.2, Transport preference: IPv6, Configuration sequence: 10 Up for 00:04:35 Reference count: 1 Hold time: 15, Proposed local/peer: 15/15 Hello flags: none Neighbor types: discovered Address Interface Label space ID Hold time fe80::21f:1200:cb6:4c8d ge-1/0/0.0 10.255.0.2:0 14 Transport address: 2001:db8::2, Transport preference: IPv6, Configuration sequence: 10 Up for 00:04:35 Reference count: 1 Hold time: 15, Proposed local/peer: 15/15 Hello flags: none Neighbor types: discovered
Significado
A saída mostra informações de vizinhos LDP de endereços IPv4 e IPv6.
Verificando as informações da sessão do LDP
Propósito
Exibir as informações da sessão de LDP.
Ação
No dispositivo R1, a partir do modo operacional, execute e show ldp session
show ldp session extensive
comanda para exibir informações de sessão LDP.
user@R1>show ldp session
session Address State Connection Hold time Adv. Mode 2001:db8::2 Operational Open 20 DU user@R1>show ldp session extensive
Address: 2001:db8::2, State: Operational, Connection: Open, Hold time: 29 Session ID: 10.255.0.1:0--10.255.0.2:0 Next keepalive in 9 seconds Passive, Maximum PDU: 4096, Hold time: 30, Neighbor count: 1 Neighbor types: discovered Keepalive interval: 10, Connect retry interval: 1 Local address: 2001:db8::1, Remote address: 2001:db8::2 Up for 00:05:31 Capabilities advertised: none Capabilities received: none Protection: disabled Session flags: none Local - Restart: disabled, Helper mode: enabled Remote - Restart: disabled, Helper mode: enabled Local maximum neighbor reconnect time: 120000 msec Local maximum neighbor recovery time: 240000 msec Local Label Advertisement mode: Downstream unsolicited Remote Label Advertisement mode: Downstream unsolicited Negotiated Label Advertisement mode: Downstream unsolicited MTU discovery: disabled Nonstop routing state: Not in sync Next-hop addresses received: 10.255.0.2 192.168.12.2 2001:db8::2 fe80::21f:1200:cb6:4c8d Queue depth: 0 Message type Total Last 5 seconds Sent Received Sent Received Initialization 1 1 0 0 Keepalive 34 34 0 0 Notification 0 0 0 0 Address 1 1 0 0 Address withdraw 0 0 0 0 Label mapping 3 3 0 0 Label request 0 0 0 0 Label withdraw 0 0 0 0 Label release 0 0 0 0 Label abort 0 0 0 0
Significado
A saída exibe informações para a sessão de LDP usando o IPv6 como transporte de TCP.
Verificação
Confirme se a configuração está funcionando corretamente.
Verificando as informações do vizinho LDP
Propósito
Exibir as informações do vizinho LDP.
Ação
No dispositivo R1, a partir do modo operacional, execute o show ldp neighbor extensive
comando para exibir informações de vizinhos LDP.
user@R1> show ldp neighbor extensive
Address Interface Label space ID Hold time
192.168.12.2 ge-1/0/0.0 10.255.0.2:0 14
Transport address: 10.255.0.2, Transport preference: IPv4, Configuration sequence: 9
Up for 00:00:14
Reference count: 1
Hold time: 15, Proposed local/peer: 15/15
Hello flags: none
Neighbor types: discovered
Address Interface Label space ID Hold time
fe80::21f:1200:cb6:4c8d ge-1/0/0.0 10.255.0.2:0 14
Transport address: 2001:db8::2, Transport preference: IPv4, Configuration sequence: 9
Up for 00:00:14
Reference count: 1
Hold time: 15, Proposed local/peer: 15/15
Hello flags: none
Neighbor types: discovered
Significado
A saída mostra informações do vizinho LDP para os endereços IPv4 e IPv6.
Verificando as informações da sessão do LDP
Propósito
Exibir as informações da sessão de LDP.
Ação
No dispositivo R1, a partir do modo operacional, execute o show ldp session extensive
comando para exibir informações de sessão de LDP.
user@R1> show ldp session extensive
Address: 10.255.0.2, State: Operational, Connection: Open, Hold time: 24
Session ID: 10.255.0.1:0--10.255.0.2:0
Next keepalive in 4 seconds
Passive, Maximum PDU: 4096, Hold time: 30, Neighbor count: 2
Neighbor types: discovered
Keepalive interval: 10, Connect retry interval: 1
Local address: 10.255.0.1, Remote address: 10.255.0.2
Up for 00:05:26
Capabilities advertised: none
Capabilities received: none
Protection: disabled
Session flags: none
Local - Restart: disabled, Helper mode: enabled
Remote - Restart: disabled, Helper mode: enabled
Local maximum neighbor reconnect time: 120000 msec
Local maximum neighbor recovery time: 240000 msec
Local Label Advertisement mode: Downstream unsolicited
Remote Label Advertisement mode: Downstream unsolicited
Negotiated Label Advertisement mode: Downstream unsolicited
MTU discovery: disabled
Nonstop routing state: Not in sync
Next-hop addresses received:
10.255.0.2
192.168.12.2
2001:db8::2
fe80::21f:1200:cb6:4c8d
Queue depth: 0
Message type Total Last 5 seconds
Sent Received Sent Received
Initialization 1 1 0 0
Keepalive 33 33 1 1
Notification 0 0 0 0
Address 2 2 0 0
Address withdraw 0 0 0 0
Label mapping 6 6 0 0
Label request 0 0 0 0
Label withdraw 0 0 0 0
Label release 0 0 0 0
Label abort 0 0 0 0
Significado
A saída exibe informações para a sessão de LDP usando o IPv6 como transporte de TCP.
Verificação
Confirme se a configuração está funcionando corretamente.
Verificando as informações do vizinho LDP
Propósito
Exibir as informações do vizinho LDP.
Ação
No dispositivo R1, a partir do modo operacional, execute o show ldp neighbor extensive
comando para exibir informações de vizinhos LDP.
user@R1> show ldp neighbor extensive
Address Interface Label space ID Hold time
192.168.12.2 ge-1/0/0.0 10.255.0.2:0 11
Transport address: 10.255.0.2, Configuration sequence: 10
Up for 00:04:35
Reference count: 1
Hold time: 15, Proposed local/peer: 15/15
Hello flags: none
Neighbor types: discovered
Address Interface Label space ID Hold time
fe80::21f:1200:cb6:4c8d ge-1/0/0.0 10.255.0.2:0 14
Transport address: 2001:db8::2, Configuration sequence: 10
Up for 00:04:35
Reference count: 1
Hold time: 15, Proposed local/peer: 15/15
Hello flags: none
Neighbor types: discovered
Significado
A saída mostra informações do vizinho LDP para os endereços IPv4 e IPv6.
Verificando as informações da sessão do LDP
Propósito
Exibir as informações da sessão de LDP.
Ação
No dispositivo R1, a partir do modo operacional, execute o show ldp session extensive
comando para exibir informações de vizinhos LDP.
user@R1> show ldp session extensive
Address: 2001:db8::2, State: Operational, Connection: Open, Hold time: 29
Session ID: 10.1.1.1:0--10.255.0.2:0
Next keepalive in 9 seconds
Passive, Maximum PDU: 4096, Hold time: 30, Neighbor count: 1
Neighbor types: discovered
Keepalive interval: 10, Connect retry interval: 1
Local address: 2001:db8::1, Remote address: 2001:db8::2
Up for 00:05:31
Capabilities advertised: none
Capabilities received: none
Protection: disabled
Session flags: none
Local - Restart: disabled, Helper mode: enabled
Remote - Restart: disabled, Helper mode: enabled
Local maximum neighbor reconnect time: 120000 msec
Local maximum neighbor recovery time: 240000 msec
Local Label Advertisement mode: Downstream unsolicited
Remote Label Advertisement mode: Downstream unsolicited
Negotiated Label Advertisement mode: Downstream unsolicited
MTU discovery: disabled
Nonstop routing state: Not in sync
Next-hop addresses received:
2001:db8::2
fe80::21f:1200:cb6:4c8d
Queue depth: 0
Message type Total Last 5 seconds
Sent Received Sent Received
Initialization 1 1 0 0
Keepalive 34 34 0 0
Notification 0 0 0 0
Address 1 1 0 0
Address withdraw 0 0 0 0
Label mapping 3 3 0 0
Label request 0 0 0 0
Label withdraw 0 0 0 0
Label release 0 0 0 0
Label abort 0 0 0 0
Address: 10.255.0.2, State: Operational, Connection: Open, Hold time: 29
Session ID: 10.255.0.1:0--10.255.0.2:0
Next keepalive in 9 seconds
Passive, Maximum PDU: 4096, Hold time: 30, Neighbor count: 1
Neighbor types: discovered
Keepalive interval: 10, Connect retry interval: 1
Local address: 10.255.0.1, Remote address: 10.255.0.2
Up for 00:05:31
Capabilities advertised: none
Capabilities received: none
Protection: disabled
Session flags: none
Local - Restart: disabled, Helper mode: enabled
Remote - Restart: disabled, Helper mode: enabled
Local maximum neighbor reconnect time: 120000 msec
Local maximum neighbor recovery time: 240000 msec
Local Label Advertisement mode: Downstream unsolicited
Remote Label Advertisement mode: Downstream unsolicited
Negotiated Label Advertisement mode: Downstream unsolicited
MTU discovery: disabled
Nonstop routing state: Not in sync
Next-hop addresses received:
10.255.0.2
192.168.12.2
Queue depth: 0
Message type Total Last 5 seconds
Sent Received Sent Received
Initialization 1 1 0 0
Keepalive 34 34 0 0
Notification 0 0 0 0
Address 1 1 0 0
Address withdraw 0 0 0 0
Label mapping 3 3 0 0
Label request 0 0 0 0
Label withdraw 0 0 0 0
Label release 0 0 0 0
Label abort 0 0 0 0
Exemplo: Configuração da sinalização de LDP em banda multiponto para LSPs de ponto a multiponto
- Entendendo a sinalização de banda de LDP multiponto para LSPs de ponto a multiponto
- Exemplo: Configuração da sinalização de LDP em banda multiponto para LSPs de ponto a multiponto
Entendendo a sinalização de banda de LDP multiponto para LSPs de ponto a multiponto
O Protocolo de distribuição de rótulos multipontos (M-LDP) para caminhos comutados por rótulos de ponto a multiponto (LSPs) com sinalização em banda é útil em uma implantação com um backbone IP/MPLS existente, no qual você precisa transportar tráfego multicast, para IPTV, por exemplo.
Durante anos, a solução mais usada para o transporte de tráfego multicast tem sido usar o IP multicast nativo no núcleo do provedor de serviços com tunelamento IP multiponto para isolar o tráfego dos clientes. Um protocolo de roteamento multicast, geralmente Protocol Independent Multicast (PIM), é implantado para configurar os caminhos de encaminhamento. O roteamento IP multicast é usado para encaminhamento, usando sinalização PIM no núcleo. Para que esse modelo funcione, a rede principal precisa ser habilitada para multicast. Isso permite implantações eficazes e estáveis mesmo em cenários de sistema inter-autônomo (AS).
No entanto, em uma rede IP/MPLS existente, a implantação do PIM pode não ser a primeira escolha. Alguns provedores de serviços estão interessados em substituir o tunelamento IP pelo encapsulamento de rótulos MPLS. As motivações para a mudança para a comutação de rótulos MPLS é aproveitar os recursos de engenharia e proteção de tráfego MPLS e reduzir a quantidade de sobrecarga de tráfego de controle no núcleo do provedor.
Para isso, os provedores de serviços estão interessados em aproveitar a extensão das implantações existentes para permitir a passagem de tráfego multicast. As extensões multicast existentes para IP/MPLS são extensões de ponto a multiponto para RSVP-TE e extensões de ponto a multiponto e multiponto para multiponto para LDP. Esses cenários de implantação são discutidos em caminhos de comutação de rótulos rfc 6826, multiponto LDP in-band para caminhos de comutação de rótulos de ponto a multiponto e multiponto. Essa visão geral do recurso é limitada a extensões de ponto a multiponto para LDP.
- Como funciona o M-LDP
- Terminologia
- Entrada junte-se ao tratamento de tradução e pseudo interface
- Splicing de entrada
- Encaminhamento reverso do caminho
- Detecção de raiz de LSP
- Saída junte-se ao manuseio de tradução e pseudo interface
- Splicing de saída
- Funcionalidade com suporte
- Funcionalidade sem suporte
- Funcionalidade de LDP
- Funcionalidade ler de saída
- Funcionalidade LSR de trânsito
- Funcionalidade ler de entrada
Como funciona o M-LDP
- Vinculações de rótulos na sinalização M-LDP
- M-LDP no núcleo MPLS sem PIM
- M-LDP no núcleo MPLS habilitado para PIM
Vinculações de rótulos na sinalização M-LDP
A extensão multiponto para LDP usa elementos de classe de encaminhamento de ponto a multiponto e multiponto para multiponto (FEC) (definidos em RFC 5036, Especificação LDP) juntamente com anúncios de recursos, mapeamento de rótulos e procedimentos de sinalização. Os elementos FEC incluem a ideia da raiz LSP, que é um endereço IP, e um valor "opaco", que é um seletor que agrupa os nós leaf compartilhando o mesmo valor opaco. O valor opaco é transparente para os nós intermediários, mas tem significado para a raiz LSP. Cada nó LDP anuncia sua vinculação local de rótulo de entrada ao nó LDP upstream no caminho mais curto até o endereço IP raiz encontrado no FEC. O nó upstream que recebe as ligações do rótulo cria seu próprio rótulo local e interfaces de saída. Esse processo de alocação de rótulos pode resultar na replicação de pacotes, se houver várias filiais de saída. Como mostrado, Figura 18um nó LDP mescla as ligações do rótulo para o mesmo valor opaco se encontrar nós downstream compartilhando o mesmo nó upstream. Isso permite a construção eficaz de LSPs ponto a multiponto e conservação de rótulos.
M-LDP no núcleo MPLS sem PIM
Figura 19 mostra um cenário de implantação escalonado. Dois domínios PIM separados são interconectados por um site de núcleo sem PIM. Os roteadores de borda neste site de núcleo oferecem suporte ao PIM nas interfaces de borda. Além disso, esses roteadores de fronteira coletam e distribuem as informações de roteamento dos locais adjacentes à rede central. Os roteadores de borda do Site C executam BGP para a descoberta de nós raiz. As rotas de protocolo de gateway interior (IGP) não podem ser usadas para a descoberta de entrada porque, na maioria dos casos, o próximo salto de encaminhamento fornecido pelo IGP não forneceria informações sobre o dispositivo de entrada em direção à fonte. A sinalização de banda de M-LDP tem um mapeamento de um para um entre o LSP de ponto a multiponto e o fluxo (S,G). Com a sinalização em banda, as mensagens PIM são traduzidas diretamente em vinculações M-LDP FEC. Em contraste, a sinalização fora de banda é baseada na configuração manual. Um aplicativo para sinalização de banda de M-LDP é transportar tráfego IPTV multicast em um backbone MPLS.
Configuração
A declaração de configuração mldp-inband-signalling
no roteador de borda de rótulo (LER) permite que o PIM use sinalização M-LDP em banda para os vizinhos upstream quando o LER não detecta um vizinho upstream PIM. A configuração estática da raiz LSP MPLS está incluída na configuração do PIM, usando a política. Isso é necessário quando o IBGP não está disponível no site central ou para substituir a detecção de raiz LSP baseada em IBGP.
Por exemplo:
protocols { pim { mldp-inband-signalling { policy lsp-mapping-policy-example; } } }
policy-options { policy-statement lsp-mapping-policy-example { term channel1 { from { source-address-filter ip-prefix</prefix-length>; #policy filter for channel1 } then { p2mp-lsp-root { # Statically configured ingress address of edge # used by channel1 address ip-address; } accept; } } } }
M-LDP no núcleo MPLS habilitado para PIM
A partir do Junos OS Release 14.1, para migrar os serviços IPTV existentes do multicast IP nativo para o MPLS multicast, você precisa fazer uma transição suave do PIM para os LSPs ponto a multiponto M-LDP com interrupções mínimas. Figura 20 mostra uma topologia M-LDP semelhante, Figura 19mas com um cenário diferente. O núcleo é habilitado com PIM, com uma fonte transmitindo todos os canais IPTV. Os canais de TV são enviados como fluxos ASM com cada canal identificado pelo endereço do grupo. Anteriormente, esses canais eram transmitidos no núcleo como fluxos IP e sinalizados usando PIM.
Ao configurar o cenário, a mldp-inband-signaling
sinalização M-LDP é iniciada apenas quando não há um vizinho PIM em relação à fonte. No entanto, como há sempre um vizinho PIM em relação à fonte, a menos que o PIM seja desativado nas interfaces upstream da saída PE, o PIM prevalece sobre o M-LDP e o M-LDP não entra em vigor.
Configuração
Para migrar progressivamente canal por canal para núcleo MPLS M-LDP com poucos fluxos usando upstream M-LDP e outros fluxos usando upstream PIM existente, inclua a selected-mldp-egress
declaração de configuração junto com filtros baseados em grupo no filtro de política para sinalização de banda de M-LDP.
O filtro de política de sinalização de banda de banda M-LDP pode incluir a source-address-filter
declaração ou a route-filter
declaração, ou uma combinação de ambos.
Por exemplo:
protocols { pim { mldp-inband-signalling { policy lsp-mapping-policy-example; } } }
policy-options { policy-statement lsp-mapping-policy-example { term channel1 { from { source-address-filter ip-prefix</prefix-length>; #policy filter for channel1 } then { selected-mldp-egress; accept; } } term channel2 { from { source-address-filter ip-prefix</prefix-length>; #policy filter for channel2 route-filter ip-prefix</prefix-length>; #policy filter on multicast group address } then { selected-mldp-egress; p2mp-lsp-root { # Statically configured ingress address of edge # used by channel2 address ip-address; } accept; } } term channel3 { from { route-filter ip-prefix</prefix-length>; #policy filter on multicast group address } then { selected-mldp-egress; accept; } } } }
Algumas das limitações da configuração acima são as seguintes:
A
selected-mldp-egress
declaração deve ser configurada apenas no LER. Configurar aselected-mldp-egress
declaração em roteadores PIM sem saída pode causar falhas na configuração do caminho.Quando mudanças de políticas são feitas para mudar o tráfego do upstream do PIM para o upstream M-LDP e vice-versa, a perda de pacotes pode ser esperada à medida que o mecanismo de quebra e fabricação é executado no plano de controle.
Terminologia
Os termos a seguir são importantes para uma compreensão da sinalização em banda M-LDP para tráfego multicast.
Point-to-point LSP | Um LSP que tem um roteador comutada por rótulo (LSR) de entrada e um LSR de saída. |
Multipoint LSP | Seja um ponto a multiponto ou um LSP multiponto para multiponto. |
Point-to-multipoint LSP | Um LSP que tenha um LSR de entrada e um ou mais LSRs de saída. |
Multipoint-to-point LSP | Um LSP que tenha um ou mais LSRs de entrada e um LSR de saída exclusivo. |
Multipoint-to-multipoint LSP | Um LSP que conecta um conjunto de nós, de forma que o tráfego enviado por qualquer nó no LSP seja entregue a todos os outros. |
Ingress LSR | Um LSR de entrada para um LSP específico é um LSR que pode enviar um pacote de dados ao longo do LSP. Os LSPs multiponto para multiponto podem ter LSRs de várias entradas. Os LSPs de ponto a multiponto têm apenas um, e esse nó é frequentemente referido como o nó raiz. |
Egress LSR | Um LSR de saída para um LSP específico é um LSR que pode remover um pacote de dados desse LSP para processamento adicional. Os LSPs de ponto a ponto e multiponto a ponto têm apenas um único nó de saída. Os LSPs de ponto a multiponto e multiponto para multiponto podem ter vários nós de saída. |
Transit LSR | Um LSR que tem acessibilidade à raiz do LSP multiponto por meio de um LSR upstream conectado diretamente e um ou mais LSRs downstream conectados diretamente. |
Bud LSR | Um LSR que é uma saída, mas também tem um ou mais LSRs downstream conectados diretamente. |
Leaf node | Ou uma saída ou bud LSR no contexto de um LSP ponto a multiponto. No contexto de um LSP multiponto para multiponto, um LSR é de entrada e saída para o mesmo LSP multiponto para multiponto e também pode ser um LSR bud. |
Entrada junte-se ao tratamento de tradução e pseudo interface
Na entrada LER, o LDP notifica o PIM sobre as (S,G) mensagens que são recebidas por meio da sinalização na banda. O PIM associa cada mensagem (S,G) com uma interface pseudo. Posteriormente, uma mensagem de junção de árvore de caminho mais curto (SPT) é iniciada em direção à fonte. O PIM trata isso como um novo tipo de receptor local. Quando o LSP é demolido, o PIM remove este receptor local com base na notificação do LDP.
Splicing de entrada
O LDP fornece PIM com um próximo salto a ser associado a cada entrada (S,G). O PIM instala uma rota multicast PIM (S,G) com o próximo salto LDP e outros receptores PIM. O próximo salto é um próximo salto composto de receptores locais + a lista de vizinhos downstream PIM + um salto abaixo do nível para o túnel LDP.
Encaminhamento reverso do caminho
O cálculo de encaminhamento de caminho reverso (RPF) do PIM é realizado no nó de saída.
O PIM executa a sinalização em banda M-LDP quando todas as seguintes condições são verdadeiras:
Não há vizinhos pim em direção à fonte.
A declaração de sinalização em banda M-LDP está configurada.
O próximo salto é aprendido através do BGP, ou está presente no mapeamento estático (especificado em uma política de sinalização em banda M-LDP).
Caso contrário, se a detecção de raiz de LSP falhar, o PIM retém a entrada (S,G) com um estado de RPF não resolvido.
O PIM RPF registra esse endereço fonte cada vez que as informações de roteamento unicast mudam. Portanto, se a rota em direção à fonte mudar, o recalculação de RPF se repetirá. Os próximos saltos do protocolo BGP em direção à fonte também são monitorados para alterações na raiz do LSP. Essas mudanças podem causar interrupções no tráfego por curtas durações.
Detecção de raiz de LSP
Se a operação RPF detectar a necessidade de upstream de sinalização em banda M-LDP, a raiz LSP (entrada) será detectada. Essa raiz é um parâmetro para a sinalização LSP LDP.
O nó raiz é detectado da seguinte forma:
Se a configuração estática existente especificar o endereço de origem, a raiz será tomada conforme dado na configuração.
Uma busca é realizada na tabela de roteamento unicast. Se o endereço de origem for encontrado, o próximo salto de protocolo em direção à fonte será usado como a raiz do LSP.
Antes do Junos OS Release 16.1, O LSP ponto-a-multiponto M-LDP é sinalizado de saída a entrada usando o endereço raiz do LSR de entrada. Esse endereço raiz pode ser alcançado apenas por meio de IGP, limitando o LSP ponto a multiponto M-LDP a um único sistema autônomo. Se o endereço raiz não for acessível através de um IGP, mas acessável através do BGP, e se essa rota BGP for recursivamente resolvida em um MPLS LSP, então o LSP de ponto a multiponto não será sinalizado mais longe desse ponto em direção ao endereço raiz LSR de entrada.
Existe a necessidade de que esses LSPs de ponto a multiponto não segmentados sejam sinalizados em vários sistemas autônomos, que podem ser usados para os seguintes aplicativos:
INTER-AS MVPN com LSPs de ponto a multiponto não segmentados.
Sinalização de banda inter-AS M-LDP entre redes de clientes conectadas por uma rede núcleo MPLS.
Sinalização de banda de MVPN ou M-LDP entre áreas com LSPs de ponto a multiponto não segmentados (multicast MPLS contínuo).
A partir do Junos OS Release 16.1, o M-LDP pode sinalizar LSPs de ponto a multiponto no ASBR ou trânsito ou saída quando o endereço raiz é uma rota BGP que é resolvida de forma mais recursiva em um LSP MPLS.
Saída junte-se ao manuseio de tradução e pseudo interface
Na saída LER, o PIM notifica o LDP da (S,G) mensagem a ser sinalizada junto com a raiz LSP. O PIM cria uma interface pseudo como a interface upstream para esta (S,G) mensagem. Quando uma (S,G) mensagem de podada é recebida, essa associação é removida.
Splicing de saída
No nó de saída da rede central, onde a (S,G) junta mensagem do site downstream é recebida, esta mensagem de junção é traduzida para parâmetros de sinalização em banda M-LDP e LDP é notificado. Além disso, o rompimento do LSP ocorre quando a entrada (S,G) é perdida, quando a raiz do LSP muda ou quando a entrada (S,G) é acessível em um vizinho PIM.
Funcionalidade com suporte
Para sinalização em banda M-LDP, o Junos OS oferece suporte às seguintes funcionalidades:
Espaçamento de saída do próximo salto de PIM com a rota LDP
Junção de entrada da rota PIM com o próximo salto LDP
Tradução do PIM junte mensagens aos parâmetros de configuração de LSP de ponto a multiponto LDP
Tradução dos parâmetros de LSP M-LDP na banda para configurar o PIM junte mensagens
Configurado estaticamente e protocolo BGP próxima detecção de raiz LSP baseada em hop
O PIM (S,G) afirma nos intervalos de multicast (SSM) e multicsast de qualquer fonte (ASM)
Declarações de configuração sobre LERs de entrada e saída para permitir que eles atuem como roteadores de borda
IGMP junte mensagens nos LERs
Transportando endereço de origem e grupo IPv6 como informações opacas em direção a um nó raiz IPv4
Configuração estática para mapear um IPv6 (S,G) para um endereço raiz IPv4
Funcionalidade sem suporte
Para a sinalização em banda M-LDP, o Junos OS não oferece suporte às seguintes funcionalidades:
Suporte completo para ASM do PIM
O
mpls lsp point-to-multipoint ping
comando com uma opção (S,G)Roteamento ativo sem parar (NSR)
Make-before-break (MBB) para PIM
Endereços raiz IPv6 LSP (LDP não oferece suporte a LSPs IPv6.)
Relação de vizinhos entre palestrantes de PIM que não estão diretamente conectados
Reinicialização graciosa
Modo denso de PIM
Modo bidirecional do PIM
Funcionalidade de LDP
As informações de PIM (S,G) são realizadas como codificações M-LDP opacos de valor de comprimento de tipo (TLV). O elemento FEC de ponto a multiponto consiste no endereço de nó raiz. No caso das VPNs multicast (NGEN MVPNs) de próxima geração, o LSP de ponto a multiponto é identificado pelo endereço do nó raiz e pelo ID LSP.
Funcionalidade ler de saída
No LER de saída, o PIM aciona o LDP com as seguintes informações para criar um LSP ponto a multiponto:
Nó raiz
(S,G)
Próximo salto
O PIM encontra o nó raiz baseado na fonte da árvore multicast. Se o endereço raiz estiver configurado para essa entrada (S,G), o endereço configurado será usado como a raiz LSP de ponto a multiponto. Caso contrário, a tabela de roteamento é usada para procurar a rota até a fonte. Se a rota até a origem da árvore multicast for uma rota aprendida por BGP, o PIM recupera o endereço bgp próximo hop e o usa como nó raiz para o LSP de ponto a multiponto.
O LDP encontra o nó upstream baseado no nó raiz, aloca um rótulo e envia o mapeamento do rótulo para o nó upstream. O LDP não usa o penúltimo salto (PHP) para sinalização M-LDP na banda.
Se o endereço raiz for a fonte da árvore multicast mudar, o PIM elimina o LSP de ponto a multiponto e aciona o LDP para criar um novo LSP de ponto a multiponto. Quando isso acontece, a lista de interfaces de saída se torna NULL, o PIM aciona o LDP para excluir o LSP de ponto a multiponto e o LDP envia uma mensagem de retirada de rótulo para o nó upstream.
Funcionalidade LSR de trânsito
O LSR de trânsito anuncia um rótulo para o LSR upstream em direção à fonte do FEC ponto a multiponto e instala o estado de encaminhamento necessário para encaminhar os pacotes. O LSR de trânsito pode ser qualquer roteador capaz de M-LDP.
Funcionalidade ler de entrada
Na entrada LER, o LDP fornece as seguintes informações ao PIM após receber o mapeamento do rótulo:
(S,G)
Inundação próximo salto
Em seguida, o PIM instala o estado de encaminhamento. Se as novas filiais forem adicionadas ou excluídas, o próximo salto de inundação será atualizado em conformidade. Se todas as filiais forem excluídas devido à retirada de um rótulo, o LDP envia informações atualizadas ao PIM. Se houver várias ligações entre os vizinhos upstream e downstream, o LSP ponto a multiponto não será equilibrado.
Consulte também
Exemplo: Configuração da sinalização de LDP em banda multiponto para LSPs de ponto a multiponto
Este exemplo mostra como configurar a sinalização em banda de LDP (M-LDP) multiponto para tráfego multicast, como uma extensão ao protocolo Protocol Independent Multicast (PIM) ou como substituto do PIM.
Requisitos
Este exemplo pode ser configurado usando os seguintes componentes de hardware e software:
Versão do Junos OS 13.2 ou posterior
Plataformas de roteamento universal 5G da Série MX ou roteadores de borda multisserviços da Série M para roteadores de borda de provedor (PE)
Roteadores de transporte de pacotes da Série PTX atuando como roteadores comutados por rótulos de trânsito
Roteadores de núcleo da Série T para roteadores de núcleo
Os roteadores PE também podem ser roteadores de núcleo da Série T, mas isso não é típico. Dependendo dos seus requisitos de escala, os roteadores de núcleo também podem ser plataformas de roteamento universal 5G da Série MX ou roteadores de borda multisserviços da Série M. Os dispositivos Customer Edge (CE) podem ser outros roteadores ou switches da Juniper Networks ou de outro fornecedor.
Nenhuma configuração especial além da inicialização do dispositivo é necessária antes de configurar este exemplo.
Visão geral
Configuração rápida da CLI mostra a configuração de todos os dispositivos em Figura 21. A seção #d358e63__d358e831 descreve as etapas do Dispositivo EgressPE.
Configuração
Procedimento
Configuração rápida da CLI
Para configurar este exemplo rapidamente, copie os seguintes comandos, cole-os em um arquivo de texto, remova qualquer quebra de linha, altere os detalhes necessários para combinar com a configuração da sua rede e, em seguida, copie e cole os comandos no CLI no nível de [edit]
hierarquia.
Src1 do dispositivo
set logical-systems src1 interfaces fe-1/2/0 unit 0 family inet address 10.2.7.7/24 set logical-systems src1 interfaces lo0 unit 0 family inet address 10.1.1.7/32 set logical-systems src1 protocols ospf area 0.0.0.0 interface all
IngressPE do dispositivo
set interfaces so-0/1/2 unit 0 family inet address 192.168.93.9/28 set interfaces fe-1/2/0 unit 0 family inet address 10.2.3.2/24 set interfaces fe-1/2/0 unit 0 family mpls set interfaces fe-1/2/1 unit 0 family inet address 10.2.5.2/24 set interfaces fe-1/2/2 unit 0 family inet address 10.2.6.2/24 set interfaces fe-1/2/2 unit 0 family mpls set interfaces fe-1/2/3 unit 0 family inet address 10.2.7.2/24 set interfaces fe-1/3/1 unit 0 family inet address 192.168.219.9/28 set interfaces lo0 unit 0 family inet address 10.1.1.2/32 set protocols igmp interface fe-1/2/1.0 version 3 set protocols igmp interface fe-1/2/1.0 static group 232.1.1.1 source 192.168.219.11 set protocols bgp group ibgp type internal set protocols bgp group ibgp local-address 10.1.1.2 set protocols bgp group ibgp family inet any set protocols bgp group ibgp family inet-vpn any set protocols bgp group ibgp neighbor 10.1.1.3 set protocols bgp group ibgp neighbor 10.1.1.4 set protocols bgp group ibgp neighbor 10.1.1.1 set protocols ospf area 0.0.0.0 interface all set protocols ldp interface fe-1/2/0.0 set protocols ldp interface fe-1/2/2.0 set protocols ldp interface lo0.0 set protocols ldp p2mp set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim rp static address 10.1.1.5 set protocols pim interface fe-1/3/1.0 set protocols pim interface lo0.0 set protocols pim interface fe-1/2/0.21 set protocols pim interface fe-1/2/3.0 set protocols pim interface fe-1/2/1.0 set protocols pim interface so-0/1/2.0 set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then accept set policy-options policy-statement mldppim-ex term A from source-address-filter 10.1.1.7/32 orlonger set policy-options policy-statement mldppim-ex term A from source-address-filter 10.2.7.0/24 orlonger set policy-options policy-statement mldppim-ex term A then accept set routing-options autonomous-system 64510
EgressPE do dispositivo
set interfaces so-0/1/3 unit 0 point-to-point set interfaces so-0/1/3 unit 0 family inet address 192.168.92.9/28 set interfaces fe-1/2/0 unit 0 family inet address 10.1.3.1/24 set interfaces fe-1/2/0 unit 0 family mpls set interfaces fe-1/2/1 unit 0 family inet address 10.1.4.1/24 set interfaces fe-1/2/2 unit 0 family inet address 10.1.6.1/24 set interfaces fe-1/2/2 unit 0 family mpls set interfaces fe-1/3/0 unit 0 family inet address 192.168.209.9/28 set interfaces lo0 unit 0 family inet address 10.1.1.1/32 set routing-options autonomous-system 64510 set protocols igmp interface fe-1/3/0.0 version 3 set protocols igmp interface fe-1/3/0.0 static group 232.1.1.1 group-count 3 set protocols igmp interface fe-1/3/0.0 static group 232.1.1.1 source 192.168.219.11 set protocols igmp interface fe-1/3/0.0 static group 227.1.1.1 set protocols igmp interface so-0/1/3.0 version 3 set protocols igmp interface so-0/1/3.0 static group 232.1.1.1 group-count 2 set protocols igmp interface so-0/1/3.0 static group 232.1.1.1 source 192.168.219.11 set protocols igmp interface so-0/1/3.0 static group 232.2.2.2 source 10.2.7.7 set protocols mpls interface fe-1/2/0.0 set protocols mpls interface fe-1/2/2.0 set protocols bgp group ibgp type internal set protocols bgp group ibgp local-address 10.1.1.1 set protocols bgp group ibgp family inet any set protocols bgp group ibgp neighbor 10.1.1.2 set protocols msdp local-address 10.1.1.1 set protocols msdp peer 10.1.1.5 set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface fe-1/2/0.0 set protocols ldp interface fe-1/2/2.0 set protocols ldp interface lo0.0 set protocols ldp p2mp set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim rp local address 10.1.1.1 set protocols pim rp local group-ranges 227.0.0.0/8 set protocols pim rp static address 10.1.1.4 set protocols pim rp static address 10.2.7.7 group-ranges 226.0.0.0/8 set protocols pim interface lo0.0 set protocols pim interface fe-1/3/0.0 set protocols pim interface fe-1/2/0.0 set protocols pim interface fe-1/2/1.0 set protocols pim interface so-0/1/3.0 set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set policy-options policy-statement mldppim-ex term A from source-address-filter 10.2.7.0/24 orlonger set policy-options policy-statement mldppim-ex term A then accept
Dispositivo p6
set interfaces fe-1/2/0 unit 0 family inet address 10.1.6.6/24 set interfaces fe-1/2/0 unit 0 family mpls set interfaces fe-1/2/1 unit 0 family inet address 10.2.6.6/24 set interfaces fe-1/2/1 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.6/32 set interfaces lo0 unit 0 family mpls set protocols ospf area 0.0.0.0 interface all set protocols ldp interface fe-1/2/0.0 set protocols ldp interface fe-1/2/1.0 set protocols ldp interface lo0.0 set protocols ldp p2mp
Pr3 do dispositivo
set interfaces ge-0/3/1 unit 0 family inet address 192.168.215.9/28 set interfaces fe-1/2/0 unit 0 family inet address 10.1.3.3/24 set interfaces fe-1/2/0 unit 0 family mpls set interfaces fe-1/2/1 unit 0 family inet address 10.2.3.3/24 set interfaces fe-1/2/1 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.3/32 set protocols igmp interface ge-0/3/1.0 version 3 set protocols igmp interface ge-0/3/1.0 static group 232.1.1.2 source 192.168.219.11 set protocols igmp interface ge-0/3/1.0 static group 232.2.2.2 source 10.2.7.7 set protocols bgp group ibgp local-address 10.1.1.3 set protocols bgp group ibgp type internal set protocols bgp group ibgp neighbor 10.1.1.2 set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface fe-1/2/1.0 metric 2 set protocols ldp interface fe-1/2/0.0 set protocols ldp interface fe-1/2/1.0 set protocols ldp interface lo0.0 set protocols ldp p2mp set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim interface fe-0/3/1.0 set protocols pim interface lo0.0 set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 10.2.7.7/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set routing-options autonomous-system 64510
Pr4 do dispositivo
set interfaces ge-0/3/0 unit 0 family inet address 192.168.207.9/28 set interfaces fe-1/2/0 unit 0 family inet address 10.1.4.4/24 set interfaces fe-1/2/0 unit 0 family iso set interfaces lo0 unit 0 family inet address 10.1.1.4/32 set protocols igmp interface ge-0/3/0.0 version 3 set protocols igmp interface ge-0/3/0.0 static group 232.1.1.2 source 192.168.219.11 set protocols igmp interface ge-0/3/0.0 static group 225.1.1.1 set protocols bgp group ibgp local-address 10.1.1.4 set protocols bgp group ibgp type internal set protocols bgp group ibgp neighbor 10.1.1.2 set protocols msdp local-address 10.1.1.4 set protocols msdp peer 10.1.1.5 set protocols ospf area 0.0.0.0 interface all set protocols pim rp local address 10.1.1.4 set protocols pim interface ge-0/3/0.0 set protocols pim interface lo0.0 set protocols pim interface fe-1/2/0.0 set routing-options autonomous-system 64510
Pr5 do dispositivo
set interfaces fe-1/2/0 unit 0 family inet address 10.2.5.5/24 set interfaces lo0 unit 0 family inet address 10.1.1.5/24 set protocols igmp interface lo0.0 version 3 set protocols igmp interface lo0.0 static group 232.1.1.1 source 192.168.219.11 set protocols msdp local-address 10.1.1.5 set protocols msdp peer 10.1.1.4 set protocols msdp peer 10.1.1.1 set protocols ospf area 0.0.0.0 interface all set protocols pim rp local address 10.1.1.5 set protocols pim interface all
Procedimento passo a passo
O exemplo a seguir exige que você navegue por vários níveis na hierarquia de configuração. Para obter informações sobre como navegar na CLI, consulte Usando o Editor de CLI no modo de configuração no Guia do usuário da CLI.
Para configurar o EgressPE do dispositivo:
Configure as interfaces.
Habilite o MPLS nas interfaces voltadas para o núcleo. No próximo salto de saída, você não precisa habilitar o MPLS.
[edit interfaces] user@EgressPE# set fe-1/2/0 unit 0 family inet address 10.1.3.1/24 user@EgressPE# set fe-1/2/0 unit 0 family mpls user@EgressPE# set fe-1/2/2 unit 0 family inet address 10.1.6.1/24 user@EgressPE# set fe-1/2/2 unit 0 family mpls user@EgressPE# set so-0/1/3 unit 0 point-to-point user@EgressPE# set so-0/1/3 unit 0 family inet address 192.168.92.9/28 user@EgressPE# set fe-1/2/1 unit 0 family inet address 10.1.4.1/24 user@EgressPE# set fe-1/3/0 unit 0 family inet address 192.168.209.9/28 user@EgressPE# set lo0 unit 0 family inet address 10.1.1.1/32
Configure o IGMP nas interfaces de saída.
Para fins de teste, este exemplo inclui endereços estáticos de grupo e de origem.
[edit protocols igmp] user@EgressPE# set interface fe-1/3/0.0 version 3 user@EgressPE# set interface fe-1/3/0.0 static group 232.1.1.1 group-count 3 user@EgressPE# set interface fe-1/3/0.0 static group 232.1.1.1 source 192.168.219.11 user@EgressPE# set interface fe-1/3/0.0 static group 227.1.1.1 user@EgressPE# set interface so-0/1/3.0 version 3 user@EgressPE# set interface so-0/1/3.0 static group 232.1.1.1 group-count 2 user@EgressPE# set interface so-0/1/3.0 static group 232.1.1.1 source 192.168.219.11 user@EgressPE# set interface so-0/1/3.0 static group 232.2.2.2 source 10.2.7.7
Configure o MPLS nas interfaces voltadas para o núcleo.
[edit protocols mpls] user@EgressPE# set interface fe-1/2/0.0 user@EgressPE# set interface fe-1/2/2.0
Configure BGP.
O BGP é um protocolo orientado por políticas, por isso também configure e aplique todas as políticas de roteamento necessárias.
Por exemplo, você pode querer exportar rotas estáticas para o BGP.
[edit protocols bgp group ibgp] user@EgressPE# set type internal user@EgressPE# set local-address 10.1.1.1 user@EgressPE# set family inet any user@EgressPE# set neighbor 10.1.1.2
(Opcional) Configure uma conexão de peer MSDP com o dispositivo pr5, a fim de interconectar os domínios PIM diferentes, permitindo assim RPs redundantes.
[edit protocols msdp] user@EgressPE# set local-address 10.1.1.1 user@EgressPE# set peer 10.1.1.5
Configure OSPF.
[edit protocols ospf area 0.0.0.0] user@EgressPE# set interface all user@EgressPE# set interface fxp0.0 disable
Configure o LDP nas interfaces voltadas para o núcleo e na interface de loopback.
[edit protocols ldp] user@EgressPE# set interface fe-1/2/0.0 user@EgressPE# set interface fe-1/2/2.0 user@EgressPE# set interface lo0.0
Habilite os LSPs MPLS de ponto a multiponto.
[edit protocols ldp] user@EgressPE# set p2mp
Configure o PIM nas interfaces downstream.
[edit protocols pim] user@EgressPE# set interface lo0.0 user@EgressPE# set interface fe-1/3/0.0 user@EgressPE# set interface fe-1/2/1.0 user@EgressPE# set interface so-0/1/3.0
Configure as configurações de RP porque este dispositivo serve como ponto de encontro PIM (RP).
[edit protocols pim] user@EgressPE# set rp local address 10.1.1.1 user@EgressPE# set rp local group-ranges 227.0.0.0/8 user@EgressPE# set rp static address 10.1.1.4 user@EgressPE# set rp static address 10.2.7.7 group-ranges 226.0.0.0/8
Habilite a sinalização em banda M-LDP e defina a política associada.
[edit protocols pim] user@EgressPE# set mldp-inband-signalling policy mldppim-ex
Configure a política de roteamento que especifica o endereço raiz para o LSP de ponto a multiponto e os endereços de origem associados.
[edit policy-options policy-statement mldppim-ex] user@EgressPE# set term B from source-address-filter 192.168.0.0/24 orlonger user@EgressPE# set term B from source-address-filter 192.168.219.11/32 orlonger user@EgressPE# set term B then p2mp-lsp-root address 10.1.1.2 user@EgressPE# set term B then accept user@EgressPE# set term A from source-address-filter 10.2.7.0/24 orlonger user@EgressPE# set term A then accept
Configure a ID do sistema autônomo (AS).
[edit routing-options] user@EgressPE# set autonomous-system 64510
Resultados
A partir do modo de configuração, confirme sua configuração entrando noshow interfaces
, show protocols
show policy-options
e show routing-options
comandos. Se a saída não exibir a configuração pretendida, repita as instruções neste exemplo para corrigir a configuração.
EgressPE do dispositivo
user@EgressPE# show interfaces
so-0/1/3 {
unit 0 {
point-to-point;
family inet {
address 192.168.92.9/28;
}
}
}
fe-1/2/0 {
unit 0 {
family inet {
address 10.1.3.1/24;
}
family mpls;
}
}
fe-1/2/1 {
unit 0 {
family inet {
address 10.1.4.1/24;
}
}
}
fe-1/2/2 {
unit 0 {
family inet {
address 10.1.6.1/24;
}
family mpls;
}
}
fe-1/3/0 {
unit 0 {
family inet {
address 192.168.209.9/28;
}
}
}
lo0 {
unit 0 {
family inet {
address 10.1.1.1/32;
}
}
}
user@EgressPE# show protocols
igmp {
interface fe-1/3/0.0 {
version 3;
static {
group 232.1.1.1 {
group-count 3;
source 192.168.219.11;
}
group 227.1.1.1;
}
}
interface so-0/1/3.0 {
version 3;
static {
group 232.1.1.1 {
group-count 2;
source 192.168.219.11;
}
group 232.2.2.2 {
source 10.2.7.7;
}
}
}
}
mpls {
interface fe-1/2/0.0;
interface fe-1/2/2.0;
}
bgp {
group ibgp {
type internal;
local-address 10.1.1.1;
family inet {
any;
}
neighbor 10.1.1.2;
}
}
msdp {
local-address 10.1.1.1;
peer 10.1.1.5;
}
ospf {
area 0.0.0.0 {
interface all;
interface fxp0.0 {
disable;
}
}
}
ldp {
interface fe-1/2/0.0;
interface fe-1/2/2.0;
interface lo0.0;
p2mp;
}
pim {
mldp-inband-signalling {
policy mldppim-ex;
}
rp {
local {
address 10.1.1.1;
group-ranges {
227.0.0.0/8;
}
}
static {
address 10.1.1.4;
address 10.2.7.7 {
group-ranges {
226.0.0.0/8;
}
}
}
}
interface lo0.0;
interface fe-1/3/0.0;
interface fe-1/2/0.0;
interface fe-1/2/1.0;
interface so-0/1/3.0;
}
user@EgressPE# show policy-options
policy-statement mldppim-ex {
term B {
from {
source-address-filter 192.168.0.0/24 orlonger;
source-address-filter 192.168.219.11/32 orlonger;
}
then {
p2mp-lsp-root {
address 10.1.1.2;
}
accept;
}
}
term A {
from {
source-address-filter 10.2.7.0/24 orlonger;
}
then accept;
}
}
user@EgressPE# show routing-options
autonomous-system 64510;
Da mesma forma, configure os outros dispositivos de saída.
Se você terminar de configurar os dispositivos, entre no commit
modo de configuração.
Verificação
Confirme se a configuração está funcionando corretamente.
- Verificando os estados de adesão do PIM
- Verificando as fontes do PIM
- Verificando o banco de dados do LDP
- Olhando as informações de rota para o rótulo MPLS
- Verificando as estatísticas de tráfego do LDP
Verificando os estados de adesão do PIM
Propósito
Exibir informações sobre o PIM junta-se aos estados para verificar os detalhes de upstream e downstream do M-LDP na banda. No dispositivo de entrada, o show pim join extensive
comando é exibido Pseudo-MLDP
para a interface downstream. Na saída, o show pim join extensive
comando é exibido Pseudo-MLDP
para a interface upstream.
Ação
A partir do modo operacional, entre no show pim join extensive
comando.
user@IngressPE> show pim join extensive Instance: PIM.master Family: INET R = Rendezvous Point Tree, S = Sparse, W = Wildcard Group: 232.1.1.1 Source: 192.168.219.11 Flags: sparse,spt Upstream interface: fe-1/3/1.0 Upstream neighbor: Direct Upstream state: Local Source Keepalive timeout: Uptime: 1d 23:00:12 Downstream neighbors: Interface: Pseudo-MLDP Interface: fe-1/2/1.0 10.2.5.2 State: Join Flags: S Timeout: Infinity Uptime: 1d 23:00:12 Time since last Join: 1d 23:00:12 Group: 232.1.1.2 Source: 192.168.219.11 Flags: sparse,spt Upstream interface: fe-1/3/1.0 Upstream neighbor: Direct Upstream state: Local Source Keepalive timeout: Uptime: 1d 22:59:59 Downstream neighbors: Interface: Pseudo-MLDP Group: 232.1.1.3 Source: 192.168.219.11 Flags: sparse,spt Upstream interface: fe-1/3/1.0 Upstream neighbor: Direct Upstream state: Local Source Keepalive timeout: Uptime: 1d 22:07:31 Downstream neighbors: Interface: Pseudo-MLDP Group: 232.2.2.2 Source: 10.2.7.7 Flags: sparse,spt Upstream interface: fe-1/2/3.0 Upstream neighbor: Direct Upstream state: Local Source Keepalive timeout: Uptime: 1d 22:59:59 Downstream neighbors: Interface: Pseudo-MLDP user@EgressPE> show pim join extensive Instance: PIM.master Family: INET R = Rendezvous Point Tree, S = Sparse, W = Wildcard Group: 227.1.1.1 Source: * RP: 10.1.1.1 Flags: sparse,rptree,wildcard Upstream interface: Local Upstream neighbor: Local Upstream state: Local RP Uptime: 1d 23:14:21 Downstream neighbors: Interface: fe-1/3/0.0 192.168.209.9 State: Join Flags: SRW Timeout: Infinity Uptime: 1d 23:14:21 Time since last Join: 1d 20:12:35 Group: 232.1.1.1 Source: 192.168.219.11 Flags: sparse,spt Upstream protocol: MLDP Upstream interface: Pseudo MLDP Upstream neighbor: MLDP LSP root <10.1.1.2> Upstream state: Join to Source Keepalive timeout: Uptime: 1d 23:14:22 Downstream neighbors: Interface: so-0/1/3.0 192.168.92.9 State: Join Flags: S Timeout: Infinity Uptime: 1d 20:12:35 Time since last Join: 1d 20:12:35 Downstream neighbors: Interface: fe-1/3/0.0 192.168.209.9 State: Join Flags: S Timeout: Infinity Uptime: 1d 20:12:35 Time since last Join: 1d 20:12:35 Group: 232.1.1.2 Source: 192.168.219.11 Flags: sparse,spt Upstream protocol: MLDP Upstream interface: Pseudo MLDP Upstream neighbor: MLDP LSP root <10.1.1.2> Upstream state: Join to Source Keepalive timeout: Uptime: 1d 23:14:22 Downstream neighbors: Interface: so-0/1/3.0 192.168.92.9 State: Join Flags: S Timeout: Infinity Uptime: 1d 20:12:35 Time since last Join: 1d 20:12:35 Downstream neighbors: Interface: fe-1/2/1.0 10.1.4.4 State: Join Flags: S Timeout: 198 Uptime: 1d 22:59:59 Time since last Join: 00:00:12 Downstream neighbors: Interface: fe-1/3/0.0 192.168.209.9 State: Join Flags: S Timeout: Infinity Uptime: 1d 20:12:35 Time since last Join: 1d 20:12:35 Group: 232.1.1.3 Source: 192.168.219.11 Flags: sparse,spt Upstream protocol: MLDP Upstream interface: Pseudo MLDP Upstream neighbor: MLDP LSP root <10.1.1.2> Upstream state: Join to Source Keepalive timeout: Uptime: 1d 20:12:35 Downstream neighbors: Interface: fe-1/3/0.0 192.168.209.9 State: Join Flags: S Timeout: Infinity Uptime: 1d 20:12:35 Time since last Join: 1d 20:12:35 Group: 232.2.2.2 Source: 10.2.7.7 Flags: sparse,spt Upstream protocol: MLDP Upstream interface: Pseudo MLDP Upstream neighbor: MLDP LSP root <10.1.1.2> Upstream state: Join to Source Keepalive timeout: Uptime: 1d 20:12:35 Downstream neighbors: Interface: so-0/1/3.0 192.168.92.9 State: Join Flags: S Timeout: Infinity Uptime: 1d 20:12:35 Time since last Join: 1d 20:12:35 user@pr3> show pim join extensive Instance: PIM.master Family: INET R = Rendezvous Point Tree, S = Sparse, W = Wildcard Group: 232.1.1.2 Source: 192.168.219.11 Flags: sparse,spt Upstream protocol: MLDP Upstream interface: Pseudo MLDP Upstream neighbor: MLDP LSP root <10.1.1.2> Upstream state: Join to Source Keepalive timeout: Uptime: 1d 20:14:40 Downstream neighbors: Interface: Pseudo-GMP ge-0/3/1.0 Group: 232.2.2.2 Source: 10.2.7.7 Flags: sparse,spt Upstream protocol: MLDP Upstream interface: Pseudo MLDP Upstream neighbor: MLDP LSP root <10.1.1.2> Upstream state: Join to Source Keepalive timeout: Uptime: 1d 20:14:40 Downstream neighbors: Interface: Pseudo-GMP ge-0/3/1.0 user@pr4> show pim join extensive Instance: PIM.master Family: INET R = Rendezvous Point Tree, S = Sparse, W = Wildcard Group: 225.1.1.1 Source: * RP: 10.1.1.4 Flags: sparse,rptree,wildcard Upstream interface: Local Upstream neighbor: Local Upstream state: Local RP Uptime: 1d 23:13:43 Downstream neighbors: Interface: ge-0/3/0.0 192.168.207.9 State: Join Flags: SRW Timeout: Infinity Uptime: 1d 23:13:43 Time since last Join: 1d 23:13:43 Group: 232.1.1.2 Source: 192.168.219.11 Flags: sparse,spt Upstream interface: fe-1/2/0.0 Upstream neighbor: 10.1.4.1 Upstream state: Local RP, Join to Source Keepalive timeout: 0 Uptime: 1d 23:13:43 Downstream neighbors: Interface: ge-0/3/0.0 192.168.207.9 State: Join Flags: S Timeout: Infinity Uptime: 1d 23:13:43 Time since last Join: 1d 23:13:43 user@pr5> show pim join extensive ge-0/3/1.0 Instance: PIM.master Family: INET R = Rendezvous Point Tree, S = Sparse, W = Wildcard Instance: PIM.master Family: INET6 R = Rendezvous Point Tree, S = Sparse, W = Wildcard
Verificando as fontes do PIM
Propósito
Verifique se as fontes de PIM têm os esperados detalhes de upstream e downstream M-LDP na banda.
Ação
A partir do modo operacional, entre no show pim source
comando.
user@IngressPE> show pim source Instance: PIM.master Family: INET Source 10.1.1.1 Prefix 10.1.1.1/32 Upstream interface Local Upstream neighbor Local Source 10.2.7.7 Prefix 10.2.7.0/24 Upstream protocol MLDP Upstream interface Pseudo MLDP Upstream neighbor MLDP LSP root <10.1.1.2> Source 192.168.219.11 Prefix 192.168.219.0/28 Upstream protocol MLDP Upstream interface Pseudo MLDP Upstream neighbor MLDP LSP root <10.1.1.2>
user@EgressPE> show pim source Instance: PIM.master Family: INET Source 10.2.7.7 Prefix 1.2.7.0/24 Upstream interface fe-1/2/3.0 Upstream neighbor 10.2.7.2 Source 10.2.7.7 Prefix 10.2.7.0/24 Upstream interface fe-1/2/3.0 Upstream neighbor Direct Source 192.168.219.11 Prefix 192.168.219.0/28 Upstream interface fe-1/3/1.0 Upstream neighbor 192.168.219.9 Source 192.168.219.11 Prefix 192.168.219.0/28 Upstream interface fe-1/3/1.0 Upstream neighbor Direct
user@pr3> show pim source Instance: PIM.master Family: INET Source 10.2.7.7 Prefix 1.2.7.0/24 Upstream protocol MLDP Upstream interface Pseudo MLDP Upstream neighbor MLDP LSP root <10.1.1.2> Source 192.168.219.11 Prefix 192.168.219.0/28 Upstream protocol MLDP Upstream interface Pseudo MLDP Upstream neighbor MLDP LSP root <10.1.1.2>
user@pr4> show pim source Instance: PIM.master Family: INET Source 10.1.1.4 Prefix 10.1.1.4/32 Upstream interface Local Upstream neighbor Local Source 192.168.219.11 Prefix 192.168.219.0/28 Upstream interface fe-1/2/0.0 Upstream neighbor 10.1.4.1
Verificando o banco de dados do LDP
Propósito
Certifique-se de que o show ldp database
comando exibe as ligações de raiz para(S,G) esperadas.
Ação
user@IngressPE> show ldp database Input label database, 10.255.2.227:0--10.1.1.3:0 Label Prefix 300096 10.1.1.2/32 3 10.1.1.3/32 299856 10.1.1.6/32 299776 10.255.2.227/32 Output label database, 10.255.2.227:0--10.1.1.3:0 Label Prefix 300144 10.1.1.2/32 299776 10.1.1.3/32 299856 10.1.1.6/32 3 10.255.2.227/32 Input label database, 10.255.2.227:0--10.1.1.6:0 Label Prefix 299936 10.1.1.2/32 299792 10.1.1.3/32 3 10.1.1.6/32 299776 10.255.2.227/32 Output label database, 10.255.2.227:0--10.1.1.6:0 Label Prefix 300144 10.1.1.2/32 299776 10.1.1.3/32 299856 10.1.1.6/32 3 10.255.2.227/32 300432 P2MP root-addr 10.1.1.2, grp: 232.2.2.2, src: 10.2.7.7 300288 P2MP root-addr 10.1.1.2, grp: 232.1.1.1, src: 192.168.219.11 300160 P2MP root-addr 10.1.1.2, grp: 232.1.1.2, src: 192.168.219.11 300480 P2MP root-addr 10.1.1.2, grp: 232.1.1.3, src: 192.168.219.11
user@EgressPE> show ldp database Input label database, 10.1.1.2:0--10.1.1.3:0 Label Prefix 300096 10.1.1.2/32 3 10.1.1.3/32 299856 10.1.1.6/32 299776 10.255.2.227/32 300144 P2MP root-addr 10.1.1.2, grp: 232.2.2.2, src: 10.2.7.7 300128 P2MP root-addr 10.1.1.2, grp: 232.1.1.2, src: 192.168.219.11 Output label database, 10.1.1.2:0--10.1.1.3:0 Label Prefix 3 10.1.1.2/32 299776 10.1.1.3/32 299808 10.1.1.6/32 299792 10.255.2.227/32 Input label database, 10.1.1.2:0--10.1.1.6:0 Label Prefix 299936 10.1.1.2/32 299792 10.1.1.3/32 3 10.1.1.6/32 299776 10.255.2.227/32 300128 P2MP root-addr 10.1.1.2, grp: 232.2.2.2, src: 10.2.7.7 299984 P2MP root-addr 10.1.1.2, grp: 232.1.1.1, src: 192.168.219.11 299952 P2MP root-addr 10.1.1.2, grp: 232.1.1.2, src: 192.168.219.11 300176 P2MP root-addr 10.1.1.2, grp: 232.1.1.3, src: 192.168.219.11 300192 P2MP root-addr 10.1.1.2, grp: ff3e::1:2, src: 2001:db8:abcd::10:2:7:7 Output label database, 10.1.1.2:0--10.1.1.6:0 Label Prefix 3 10.1.1.2/32 299776 10.1.1.3/32 299808 10.1.1.6/32 299792 10.255.2.227/32 ----- logical-system: default Input label database, 10.255.2.227:0--10.1.1.3:0 Label Prefix 300096 10.1.1.2/32 3 10.1.1.3/32 299856 10.1.1.6/32 299776 10.255.2.227/32 Output label database, 10.255.2.227:0--10.1.1.3:0 Label Prefix 300144 10.1.1.2/32 299776 10.1.1.3/32 299856 10.1.1.6/32 3 10.255.2.227/32 Input label database, 10.255.2.227:0--10.1.1.6:0 Label Prefix 299936 10.1.1.2/32 299792 10.1.1.3/32 3 10.1.1.6/32 299776 10.255.2.227/32 Output label database, 10.255.2.227:0--10.1.1.6:0 Label Prefix 300144 10.1.1.2/32 299776 10.1.1.3/32 299856 10.1.1.6/32 3 10.255.2.227/32 300432 P2MP root-addr 10.1.1.2, grp: 232.2.2.2, src: 10.2.7.7 300288 P2MP root-addr 10.1.1.2, grp: 232.1.1.1, src: 192.168.219.11 300160 P2MP root-addr 10.1.1.2, grp: 232.1.1.2, src: 192.168.219.11 300480 P2MP root-addr 10.1.1.2, grp: 232.1.1.3, src: 192.168.219.11 300496 P2MP root-addr 10.1.1.2, grp: ff3e::1:2, src: 2001:db8:abcd::10:2:7:7
user@p6> show ldp database Input label database, 10.1.1.6:0--10.1.1.2:0 Label Prefix 3 10.1.1.2/32 299776 10.1.1.3/32 299808 10.1.1.6/32 Output label database, 10.1.1.6:0--10.1.1.2:0 Label Prefix 299776 10.1.1.2/32 299792 10.1.1.3/32 3 10.1.1.6/32
user@pr3> show ldp database Input label database, 10.1.1.3:0--10.1.1.2:0 Label Prefix 3 10.1.1.2/32 299776 10.1.1.3/32 299808 10.1.1.6/32 299792 10.255.2.227/32 Output label database, 10.1.1.3:0--10.1.1.2:0 Label Prefix 300096 10.1.1.2/32 3 10.1.1.3/32 299856 10.1.1.6/32 299776 10.255.2.227/32 300144 P2MP root-addr 10.1.1.2, grp: 232.2.2.2, src: 10.2.7.7 300128 P2MP root-addr 10.1.1.2, grp: 232.1.1.2, src: 192.168.219.11 Input label database, 10.1.1.3:0--10.255.2.227:0 Label Prefix 300144 10.1.1.2/32 299776 10.1.1.3/32 299856 10.1.1.6/32 3 10.255.2.227/32 Output label database, 10.1.1.3:0--10.255.2.227:0 Label Prefix 300096 10.1.1.2/32 3 10.1.1.3/32 299856 10.1.1.6/32 299776 10.255.2.227/32
Olhando as informações de rota para o rótulo MPLS
Propósito
Exibir as informações fec de ponto a multiponto.
Ação
user@EgressPE> show route label 299808 detail mpls.0: 14 destinations, 14 routes (14 active, 0 holddown, 0 hidden) 299808 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Flood Address: 0x931922c Next-hop reference count: 3 Next hop type: Router, Next hop index: 1109 Address: 0x9318b0c Next-hop reference count: 2 Next hop: via so-0/1/3.0 Label operation: Pop Next hop type: Router, Next hop index: 1110 Address: 0x93191e0 Next-hop reference count: 2 Next hop: 192.168.209.11 via fe-1/3/0.0 Label operation: Pop State: **Active Int AckRequest> Local AS: 10 Age: 13:08:15 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I FECs bound to route: P2MP root-addr 10.1.1.2, grp: 232.1.1.1, src: 192.168.219.11
Verificando as estatísticas de tráfego do LDP
Propósito
Monitore as estatísticas de tráfego de dados para o LSP ponto a multiponto.
Ação
user@EgressPE> show ldp traffic-statistics p2mp P2MP FEC Statistics: FEC(root_addr:lsp_id/grp,src) Nexthop Packets Bytes Shared 10.1.1.2:232.2.2.2,10.2.7.7 so-0/1/3.0 0 0 No 10.1.1.2:232.1.1.1,192.168.219.11 so-0/1/3.0 0 0 No fe-1/3/0.0 0 0 No 10.1.1.2:232.1.1.2,192.168.219.11 so-0/1/3.0 0 0 No fe-1/3/0.0 0 0 No lt-1/2/0.14 0 0 No 10.1.1.2:232.1.1.3,192.168.219.11 fe-1/3/0.0 0 0 No 10.1.1.2:ff3e::1:2,2001:db8:abcd::1:2:7:7 fe-1/3/0.0 0 0 No
Mapeamento de clientes e servidores para o roteamento por segmentos para a interoperabilidade do LDP
O servidor de mapeamento de roteamento por segmentos e o suporte ao cliente permitem a interoperabilidade entre ilhas de rede que executam LDP e roteamento por segmentos (SR ou SPRING). Essa interoperabilidade é útil durante uma migração do LDP para o SR. Durante a transição , pode haver ilhas (ou domínios) com dispositivos que oferecem suporte apenas ao LDP ou apenas ao roteamento por segmentos. Para que esses dispositivos intertrabalhem a funcionalidade de servidor de mapeamento de roteamento por segmentos (SRMS) LDP e o cliente de mapeamento de roteamento por segmentos (SRMC). Você habilita essas funções de servidor e cliente em um dispositivo na rede de roteamento por segmentos.
O servidor de mapeamento SR e a funcionalidade do cliente são suportados com OSPF ou ISIS.
- Visão geral do roteamento por segmentos para a interoperabilidade do LDP
- Roteamento por segmentos para interoperabilidade de LDP usando OSPF
- Interoperabilidade do roteamento por segmentos com LDP usando ISIS
Visão geral do roteamento por segmentos para a interoperabilidade do LDP
Figura 22 mostra uma topologia de rede LDP simples para ilustrar como funciona a interoperabilidade de dispositivos de roteamento por segmentos com dispositivos LDP. Tenha em mente que tanto o OSPF quanto o ISIS são apoiados, por isso, por enquanto, manteremos as coisas agnósticas em relação ao IGP. A topologia da amostra tem seis dispositivos, R1 a R6, em uma rede que está passando por uma migração do LDP para o roteamento por segmentos.
Na topologia, os dispositivos R1, R2 e R3 estão configurados apenas para roteamento por segmentos. Os dispositivos R5 e R6 fazem parte de um domínio LDP legado e atualmente não oferecem suporte ao SR. O dispositivo R4 oferece suporte ao LDP e ao roteamento por segmentos. Os endereços de loopback de todos os dispositivos são mostrados. Esses loopbacks são anunciados como FECs de saída no domínio LDP e como IDs de nós SR no domínio SR. A interoperabilidade é baseada no mapeamento de um LDP FEC em um ID de nós SR, e vice-versa.
Para que o R1 intertrabalhe com o R6, é necessário tanto um servidor de mapeamento de roteamento por segmentos (SRMS) quanto um cliente de mapeamento de roteamento por segmentos (SRMC). É mais fácil entender o papel do SRMS e SRMC analisando o fluxo de tráfego de maneira unidirecional. Com base nisso Figura 22, diremos que o tráfego que flui da esquerda para a direita se origina no domínio SR e termina no domínio LDP. De forma semelhante, o tráfego que flui da direita para a esquerda se origina no domínio LDP e termina no domínio SR.
O SRMS fornece as informações necessárias para costurar o tráfego na direção esquerda para a direita. O SRMC fornece mapeamento para tráfego que flui da direita para a esquerda.
- Fluxo de tráfego da esquerda para a direita: O servidor de mapeamento de roteamento por segmentos
O SRMS facilita a costura de LSP entre os domínios SR e LDP. O servidor mapeia OS FECs LDP em IDs de nós SR. Você configura os FECs LDP a serem mapeados sob o nível de
[edit routing-options source-packet-routing]
hierarquia. Normalmente, você precisa mapear todos os endereços de loopback de nós LDP para obter conectividade completa. Como mostrado abaixo, você pode mapear prefixos contíguos em uma declaração de faixa única. Se os loopbacks de nó LDP não forem contíguos, você precisa definir várias declarações de mapeamento.Você aplica a configuração de mapeamento SRMS sob o
[edit protocols ospf]
nível de hierarquia.[edit protocols isis]
Essa escolha depende de qual IGP está sendo usado. Observe que ambos os nós SR e LDP compartilham um domínio de roteamento de IGP comum, de área/nível único.O SRMS gera uma lista de prefixo estendida LSA (ou LSP no caso do ISIS). As informações nesta LSA permitem que os nós SR mapeiem prefixos de LDP (FECs) para IDs de nós SR. As rotas mapeadas para os prefixos LDP estão instaladas nas
inet.3
tabelas de roteamento dosmpls.0
nós SR para facilitar a entrada e as operações de costura de LSP para o tráfego na direção esquerda para a direita.O LSA estendido (ou LSP) é inundado por toda a (única) área de IGP. Isso significa que você está livre para colocar a configuração SRMS em qualquer roteador no domínio SR. O nó SRMS não precisa executar LDP.
- Fluxo de tráfego da direita para a esquerda: O cliente de mapeamento de roteamento por segmentos
Para interoperar na direção da direita para a esquerda, ou seja, da ilha LDP até a ilha SR, você simplesmente permite o mapeamento de roteamento por segmentos da funcionalidade do cliente em um nó que fala TANTO SR quanto LDP. Em nosso exemplo, esse é o R4. Você ativa a funcionalidade SRMC com a
mapping-client
declaração na[edit protocols ldp]
hierarquia.A configuração SRMC ativa automaticamente uma política de saída de LDP para anunciar os SIDs de nó e prefixo do domínio SR como FECs de saída LDP. Isso oferece aos nós de LDP a acessibilidade de LSP para os nós no domínio SR.
- A função SRMC deve ser configurada em um roteador que é anexado aos domínios SR e LSP. Se desejado, o mesmo nó também pode funcionar como o SRMS.
Roteamento por segmentos para interoperabilidade de LDP usando OSPF
Figura 22Consulte, suponha que device R2 (na rede de roteamento por segmentos) seja o SRMS.
-
Definir a função SRMS:
[edit routing-options source-packet-routing ] user@R2# set mapping-server-entry ospf-mapping-server prefix-segment-range ldp-lo0s start-prefix 192.168.0.5 user@R2# set mapping-server-entry ospf-mapping-server prefix-segment-range ldp-lo0s start-index 1000 user@R2# set mapping-server-entry ospf-mapping-server prefix-segment-range ldp-lo0s size 2
Essa configuração cria um bloco de mapeamento para ambos os endereços de loopback do dispositivo LDP na topologia de amostra. O índice inicial de ID do segmento (SID) mapeado para o loopback do R5 é
1000
. Especificar o tamanho2
resulta em um índice SID 10001 sendo mapeado para o endereço loopback do R6.Nota:O endereço IP usado como
start-prefix
endereço de loopback de um dispositivo na rede LDP (R5, neste exemplo). Para ter uma conectividade completa, você deve mapear todos os endereços de loopback dos roteadores LDP para o domínio SR. Se os endereços de loopback forem contíguos, você pode fazer isso com uma únicaprefix-segment-range
declaração. Loopbacks não contíguos exigem a definição de várias declarações de mapeamento de prefixo.Nosso exemplo usa loopbacks contíguos para que um único
prefix-segment-range
seja mostrado acima. Apresentamos aqui um exemplo de vários mapeamentos para dar suporte ao caso de dois nós LDP com endereçamento de loopback não contíguo:[edit routing-options source-packet-routing] show mapping-server-entry map-server-name { prefix-segment-range lo1 { start-prefix 192.168.0.5/32; start-index 1000; size 1; } prefix-segment-range lo2 { start-prefix 192.168.0.10/32; start-index 2000; size 1; } } }
-
Em seguida, configure o suporte OSPF para o LSA estendido usado para inundar os prefixos mapeados.
[edit protocols] user@R2# set ospf source-packet-routing mapping-server ospf-mapping-server
Uma vez que a configuração do servidor de mapeamento é comprometida no dispositivo R2, a faixa de prefixo estendida TLV é inundada em toda a área de OSPF. Os dispositivos capazes de roteamento por segmentos (R1, R2 e R3) instalam rotas de roteamento por segmentos OSPF para o endereço loopback especificado (R5 e R6 neste exemplo), com um índice de ID (SID) de segmentos. O índice SID também é atualizado na
mpls.0
tabela de roteamento pelos dispositivos de roteamento por segmentos. -
Habilite a funcionalidade SRMC. Para nossa topologia de amostra, você deve habilitar a funcionalidade SRMC no R4.
[edit protocols] user@R4# set ldp sr-mapping-client
Uma vez que a configuração do cliente de mapeamento é comprometida no dispositivo R4, os IDs de nós SR e blocos de rótulos são anunciados como FECs de saída para o roteador R5, que depois os anuncia novamente para R6.
O suporte para costurar o roteamento por segmentos e o next-hop de LDP com OSPF começou no Junos OS 19.1R1.
Unsupported Features and Functionality for Segment Routing interoperability with LDP using OSPF
-
Os conflitosde prefixo só são detectados no SRMS. Quando há um conflito de faixa de prefixo, prevalece o SID prefixo do ID do roteador inferior. Nesses casos, é gerada uma mensagem
RPD_OSPF_PFX_SID_RANGE_CONFLICT
de erro de log do sistema. -
Os prefixos IPv6 não são suportados.
-
A inundação do LSA opaco de prefixo estendido do OSPF em fronteiras AS (inter-AS) não é suportada.
-
A funcionalidade de servidor de mapeamento de LDP entre áreas não é suportada.
-
A funcionalidade ABR do LSA opaco de prefixo estendido não é suportada.
-
A funcionalidade ASBR do LSA opaco de prefixo estendido não é suportada.
-
O mapeamento deroteamento por egment do servidor Preference TLV não é suportado.
Interoperabilidade do roteamento por segmentos com LDP usando ISIS
Figura 22Consulte, assuma que o dispositivo R2 (na rede de roteamento por segmentos) é o SRMS. A configuração a seguir é adicionada para a função de mapeamento:
-
Definir a função SRMS:
[edit routing-options source-packet-routing ] user@R2# set mapping-server-entry isis-mapping-server prefix-segment-range ldp-lo0s start-prefix 192.168.0.5 user@R2# set mapping-server-entry isis-mapping-server prefix-segment-range ldp-lo0s start-index 1000 user@R2# set mapping-server-entry isis-mapping-server prefix-segment-range ldp-lo0s size 2
Essa configuração cria um bloco de mapeamento para ambos os endereços de loopback do dispositivo LDP na topologia de amostra. O índice inicial de ID do segmento (SID) mapeado para o loopback do R5 é
1000
. Especificar o tamanho2
resulta em um índice SID 10001 sendo mapeado para o endereço loopback do R6.Nota:O endereço IP usado como
start-prefix
endereço de loopback de um dispositivo na rede LDP (R5, neste exemplo). Para ter conectividade completa, você deve mapear todos os endereços de loopback dos roteadores LDP no domínio SR. Se os endereços de loopback forem contíguos, você pode fazer isso com umaprefix-segment-range
declaração. Loopbacks não contíguos exigem a definição de várias declarações de mapeamento.Nosso exemplo usa loopbacks contíguos para que um único
prefix-segment-range
seja mostrado acima. Aqui está um exemplo de mapeamentos de prefixo para lidar com o caso de dois roteadores LDP com endereçamento de loopback não contíguo:[edit routing-options source-packet-routing] show mapping-server-entry map-server-name { prefix-segment-range lo1 { start-prefix 192.168.0.5/32; start-index 1000; size 1; } prefix-segment-range lo2 { start-prefix 192.168.0.10/32; start-index 2000; size 1; } } }
-
Em seguida, configure o suporte do ISIS para o LSP estendido usado para inundar os prefixos mapeados.
[edit protocols] user@R2# set isis source-packet-routing mapping-server isis-mapping-server
Uma vez que a configuração do servidor de mapeamento é comprometida no dispositivo R2, a faixa de prefixo estendida TLV é inundada em toda a área de OSPF. Os dispositivos capazes de roteamento por segmentos (R1, R2 e R3) instalam rotas de roteamento por segmentos ISIS para o endereço de loopback especificado (R5 e R6 neste exemplo), com um índice de ID (SID) do segmento. O índice SID também é atualizado na
mpls.0
tabela de roteamento pelos dispositivos de roteamento por segmentos. -
Habilite a funcionalidade SRMC. Para nossa topologia de amostra, você deve habilitar a funcionalidade SRMC no R4.
[edit protocols] user@R4# set ldp sr-mapping-client
Uma vez que a configuração do cliente de mapeamento é comprometida no dispositivo R4, os IDs de nós SR e blocos de rótulos são anunciados como FECs de saída para o roteador R5, e de lá para R6.
O suporte para costurar o roteamento por segmentos e o próximo salto do LDP com o ISIS começou no Junos OS 17.4R1.
Unsupported Features and Functionality for Interoperability of Segment Routing with LDP using ISIS
-
O comportamento de estouro do penúltimo salto para TLV de ligação de rótulos não é suportado.
-
A publicidade da gama de prefixos no TLV vinculante de rótulos não é suportada.
-
A resolução de conflitos de roteamento por segmentos não é suportada.
-
As estatísticas de tráfego de LDP não funcionam.
-
O roteamento ativo sem parar (NSR) e o gracioso switchover do mecanismo de roteamento (GRES) não são suportados.
-
O nível internível do ISIS não é suportado.
-
RFC 7794, atributos de prefixo IS-IS para IPv4 estendido não são suportados.
-
A redistribuição da rota LDP como um tapume de prefixo no nó de costura não é suportada.
Propriedades LDP diversas
As seções a seguir descrevem como configurar várias propriedades LDP diversas.
- Configure o LDP para usar a métrica de rota IGP
- Evite a inclusão de rotas de entrada na tabela de roteamento inet.0
- LDP de várias instâncias e VPNs de operadoras de operadoras
- Configure MPLS e LDP para colocar o rótulo no roteador de salto final
- Habilite o LDP sobre LSPs estabelecidos por RSVP
- Habilite o LDP sobre LSPs estabelecidos por RSVP em redes heterogêneas
- Configure a assinatura TCP MD5 para sessões de LDP
- Configuração da proteção de sessão LDP
- Desativação de armadilhas SNMP para LDP
- Configuração da sincronização de LDP com o IGP em links LDP
- Configuração da sincronização de LDP com o IGP no roteador
- Configurando o timer de retirada de rótulos
- Ignorando a verificação da sub-rede LDP
Configure o LDP para usar a métrica de rota IGP
Use a track-igp-metric
declaração se quiser que a métrica de rota do protocolo de gateway interior (IGP) seja usada para as rotas LDP em vez da métrica padrão de rota LDP (a métrica padrão de rota LDP é 1).
Para usar a métrica de rota IGP, inclua a track-igp-metric
declaração:
track-igp-metric;
Para obter uma lista de níveis de hierarquia em que você possa incluir esta declaração, veja a seção de resumo da declaração para esta declaração.
Evite a inclusão de rotas de entrada na tabela de roteamento inet.0
Ao configurar a no-forwarding
declaração, você pode impedir que rotas de entrada sejam adicionadas à tabela de roteamento inet.0 em vez da tabela de roteamento inet.3, mesmo se você habilitar a traffic-engineering bgp-igp
declaração no nível de hierarquia ou [edit logical-systems logical-system-name protocols mpls]
no [edit protocols mpls]
nível de hierarquia. Por padrão, a no-forwarding
declaração é desabilitada.
Os roteadores da Série ACX não suportamedit logical-systems
o [] nível de hierarquia.
Para omitir rotas de entrada da tabela de roteamento inet.0, inclua a no-forwarding
declaração:
no-forwarding;
Para obter uma lista de níveis de hierarquia em que você possa incluir esta declaração, veja a seção de resumo da declaração para esta declaração.
LDP de várias instâncias e VPNs de operadoras de operadoras
Ao configurar várias instâncias de roteamento LDP, você pode usar o LDP para anunciar rótulos em uma VPN de operadora de operadoras de um roteador de borda de provedor de serviços (PE) para um roteador de borda de cliente de operadora (CE). Isso é especialmente útil quando o cliente da operadora é um provedor de serviços básicos de Internet (ISP) e quer restringir rotas completas de Internet aos seus roteadores PE. Ao usar o LDP em vez de BGP, o cliente da operadora protege seus outros roteadores internos da Internet. O LDP de várias instâncias também é útil quando um cliente de operadora deseja fornecer serviços VPN de Camada 2 ou Camada 3 aos seus clientes.
Para um exemplo de como configurar várias instâncias de roteamento LDP para VPNs de operadoras de operadoras, consulte o Guia do usuário de múltiplas instâncias para protocolo de distribuição de rótulos.
Configure MPLS e LDP para colocar o rótulo no roteador de salto final
O rótulo anunciado padrão é o rótulo 3 (rótulo Implicit Null). Se o rótulo 3 for anunciado, o penúltimo roteador de salto remove o rótulo e envia o pacote para o roteador de saída. Se o estouro de salto final for habilitado, o rótulo 0 (rótulo IPv4 Explicit Null) é anunciado. O salto final garante que todos os pacotes que atravessam uma rede MPLS incluam um rótulo.
Para configurar o salto final, inclua a explicit-null
declaração:
explicit-null;
Para obter uma lista de níveis de hierarquia em que você possa incluir esta declaração, veja a seção de resumo da declaração para esta declaração.
Os roteadores da Juniper Networks fazem fila de pacotes com base no rótulo de entrada. Roteadores de outros fornecedores podem fazer filas de pacotes de maneira diferente. Tenha isso em mente ao trabalhar com redes que contêm roteadores de vários fornecedores.
Para obter mais informações sobre rótulos, consulte a visão geral do rótulo MPLS e a alocação de rótulos MPLS.
Habilite o LDP sobre LSPs estabelecidos por RSVP
Você pode executar LDP sobre LSPs estabelecidos pelo RSVP, tunelando efetivamente o LSP estabelecido por LDP através do estabelecido pelo RSVP. Para isso, habilite o LDP na interface lo0.0 (ver Ativação e desativação do LDP). Você também deve configurar os LSPs sobre os quais deseja que o LDP opere, incluindo a ldp-tunneling
declaração no nível de [edit protocols mpls label-switched-path lsp-name]
hierarquia:
[edit] protocols { mpls { label-switched-path lsp-name { from source; to destination; ldp-tunneling; } } }
Para obter uma lista de níveis de hierarquia em que você possa incluir esta declaração, veja a seção de resumo da declaração para esta declaração.
O LDP pode ser tunelado em uma sessão de RSVP que tem a proteção de link habilitada. Começando pelo Junos OS Release 21.1R1, exibindo detalhes sobre a rota tunelada LDP exibe os próximos saltos LSP primários e de desvio. Nos lançamentos anteriores do Junos OS, o bypass LSP next hop mostrou o próximo salto para o LSP primário.
Habilite o LDP sobre LSPs estabelecidos por RSVP em redes heterogêneas
Alguns outros fornecedores usam uma métrica OSPF de 1 para o endereço de loopback. Os roteadores da Juniper Networks usam uma métrica OSPF de 0 para o endereço de loopback. Isso pode exigir que você configure manualmente a métrica RSVP ao implantar tunelamento de LDP em LSPs RSVP em redes heterogêneas.
Quando um roteador da Juniper Networks é vinculado ao roteador de outro fornecedor por um túnel RSVP, e o tunelamento LDP também é habilitado, por padrão o roteador Juniper Networks pode não usar o túnel RSVP para rotear o tráfego para os destinos LDP downstream do roteador de saída de outro fornecedor se o caminho RSVP tiver uma métrica de 1 maior do que o caminho OSPF físico.
Para garantir que o tunelamento LDP funcione corretamente em redes heterogêneas, você pode configurar o OSPF para ignorar a métrica RSVP LSP, incluindo a ignore-lsp-metrics
declaração:
ignore-lsp-metrics;
Você pode configurar esta declaração nos seguintes níveis de hierarquia:
-
[edit protocols ospf traffic-engineering shortcuts]
-
[edit logical-systems logical-system-name protocols ospf traffic-engineering shortcuts]
Os roteadores da Série ACX não suportamedit logical-systems
o [] nível de hierarquia.
Para habilitar o LDP sobre LSPs RSVP, você também ainda precisa concluir o procedimento na Seção Habilite o LDP sobre LSPs estabelecidos por RSVP.
Configure a assinatura TCP MD5 para sessões de LDP
Você pode configurar uma assinatura MD5 para uma conexão TCP LDP para proteger contra a introdução de segmentos TCP falsificados em fluxos de conexão de sessão LDP. Para obter mais informações sobre a autenticação do TCP, consulte TCP. Para saber como usar a opção de autenticação de TCP (TCP-AO) em vez de TCP MD5, veja No link title.
Um roteador que usa a opção de assinatura MD5 está configurado com uma senha para cada peer para o qual a autenticação é necessária. A senha é armazenada criptografada.
As adjacências do LDP hello ainda podem ser criadas mesmo quando as interfaces de peering são configuradas com diferentes assinaturas de segurança. No entanto, a sessão de TCP não pode ser autenticada e nunca está estabelecida.
Você pode configurar o Hashed Message Authentication Code (HMAC) e a autenticação MD5 para sessões de LDP como uma configuração por sessão ou uma configuração de correspondência de sub-rede (ou seja, a configuração de prefixo mais longa). O suporte para autenticação de correspondência de sub-rede oferece flexibilidade na configuração da autenticação para sessões de LDP (TLDP) direcionadas automaticamente. Isso facilita a implantação de pseudowires alternativos sem loop remoto (LFA) e FEC 129.
Para configurar uma assinatura MD5 para uma conexão TCP LDP, inclua a authentication-key
declaração como parte do grupo de sessão:
[edit protocols ldp] session-group prefix-length { authentication-key md5-authentication-key; }
Use a session-group
declaração para configurar o endereço para a extremidade remota da sessão de LDP.
A md5-authentication-key
, ou senha, na configuração pode ter até 69 caracteres de comprimento. Os caracteres podem incluir quaisquer strings ASCII. Se você incluir espaços, inclua todos os caracteres entre aspas.
Você também pode configurar um mecanismo de atualização de chave de autenticação para o protocolo de roteamento LDP. Esse mecanismo permite que você atualize as chaves de autenticação sem interromper protocolos de roteamento e sinalização associados, como Open Shortest Path First (OSPF) e Resource Reservation Setup Protocol (RSVP).
Para configurar o mecanismo de atualização da chave de autenticação, inclua a key-chain
declaração no nível da [edit security authentication-key-chains]
hierarquia e especifique a opção key
de criar um chaveiro que consiste em várias chaves de autenticação.
[edit security authentication-key-chains] key-chain key-chain-name { key key { secret secret-data; start-time yyyy-mm-dd.hh:mm:ss; } }
Para configurar o mecanismo de atualização chave de autenticação para o protocolo de roteamento LDP, inclua a authentication-key-chain
declaração no nível de [edit protocols ldp]
hierarquia para associar o protocolo com as chaves de [edit security suthentication-key-chains]
autenticação. Você também deve configurar o algoritmo de autenticação, incluindo a declaração do authentication-algorithm algorithm
nível de [edit protocols ldp]
hierarquia.
[edit protocols ldp] group group-name { neighbor address { authentication-algorithm algorithm; authentication-key-chain key-chain-name; } }
Para obter mais informações sobre o recurso de atualização da chave de autenticação, consulte Configurando o mecanismo de atualização da chave de autenticação para protocolos de roteamento BGP e LDP.
Configuração da proteção de sessão LDP
Uma sessão de LDP é normalmente criada entre um par de roteadores conectados por um ou mais links. Os roteadores formam um olá adjacência para cada link que os conecta e associam todas as adjacências com a sessão LDP correspondente. Quando a última adjacência de olá para uma sessão de LDP desaparece, a sessão de LDP é terminada. Você pode querer modificar esse comportamento para evitar que uma sessão de LDP seja desnecessariamente terminada e restabelecida.
Você pode configurar o Junos OS para deixar a sessão de LDP entre dois roteadores, mesmo que não haja adjacências de olá nos links que conectam os dois roteadores configurando a session-protection
declaração. Você pode especificar opcionalmente um tempo em segundos usando a opção timeout
. A sessão permanece ativa pela duração especificada enquanto os roteadores mantiverem a conectividade da rede IP.
session-protection { timeout seconds; }
Para obter uma lista de níveis de hierarquia nos quais você pode incluir esta declaração, veja a seção de resumo da declaração.
Desativação de armadilhas SNMP para LDP
Sempre que um LSP LDP faz uma transição de cima para baixo, ou para baixo para cima, o roteador envia uma armadilha SNMP. No entanto, é possível desativar as armadilhas LDP SNMP em uma instância de roteador, sistema lógico ou roteamento.
Para obter informações sobre as armadilhas LDP SNMP e o LDP MIB proprietário, consulte o SNMP MIB Explorer..
Para desativar armadilhas SNMP para LDP, especifique a opção trap disable
para a log-updown
declaração:
log-updown { trap disable; }
Para obter uma lista de níveis de hierarquia em que você possa incluir esta declaração, veja a seção de resumo da declaração para esta declaração.
Configuração da sincronização de LDP com o IGP em links LDP
LDP é um protocolo para distribuir rótulos em aplicativos não projetados para tráfego. Os rótulos são distribuídos ao longo do melhor caminho determinado pelo IGP. Se a sincronização entre LDP e IGP não for mantida, o LSP cairá. Quando o LDP não está totalmente operacional em um determinado link (uma sessão não está estabelecida e os rótulos não são trocados), o IGP anuncia o link com a métrica de custo máximo. O link não é preferido, mas permanece na topologia da rede.
A sincronização de LDP é suportada apenas em interfaces ativas de ponto a ponto e interfaces LAN configuradas como ponto a ponto sob o IGP. A sincronização do LDP não é suportada durante a reinicialização graciosa.
Para anunciar a métrica de custo máximo até que o LDP esteja operacional para sincronização, inclua a ldp-synchronization
declaração:
ldp-synchronization { disable; hold-time seconds; }
Para desabilitar a sincronização, inclua a disable
declaração. Para configurar o período de tempo para anunciar a métrica de custo máximo para um link que não esteja totalmente operacional, inclua a hold-time
declaração.
Para obter uma lista de níveis de hierarquia em que você pode configurar esta declaração, veja a seção de resumo da declaração para esta declaração.
Configuração da sincronização de LDP com o IGP no roteador
Você pode configurar o tempo que o LDP aguarda antes de informar ao IGP que o vizinho LDP e a sessão para uma interface estão operacionais. Para redes de grande porte com vários FECs, você pode precisar configurar um valor mais longo para permitir a troca de bancos de dados de rótulos LDP o suficiente.
Para configurar o tempo que o LDP espera antes de informar o IGP de que o vizinho LDP e a sessão estão operacionais, inclua a igp-synchronization
declaração e especifique um tempo em segundos para a opção holddown-interval
:
igp-synchronization holddown-interval seconds;
Para obter uma lista de níveis de hierarquia em que você pode configurar esta declaração, veja a seção de resumo da declaração para esta declaração.
Configurando o timer de retirada de rótulos
O timer de retirada de rótulos atrasa o envio de uma mensagem de retirada de rótulo para um FEC para um vizinho. Quando um link de IGP a um vizinho falha, o rótulo associado à FEC precisa ser retirado de todos os roteadores upstream se o vizinho for o próximo salto para o FEC. Depois que o IGP converge e um rótulo é recebido de um novo salto seguinte, o rótulo é readvertido para todos os roteadores upstream. Esse é o comportamento típico da rede. Ao atrasar a retirada do rótulo em um pequeno período de tempo (por exemplo, até que o IGP converga e o roteador receba um novo rótulo para o FEC a partir do próximo salto downstream), a retirada do rótulo e o envio de um mapeamento de rótulos em breve poderiam ser evitados. A label-withdrawal-delay
declaração permite que você configure esse tempo de atraso. Por padrão, o atraso é de 60 segundos.
Se o roteador receber o novo rótulo antes que o temporizador se esgote, o temporizador de retirada de rótulos será cancelado. No entanto, se o temporizante acabar, o rótulo para o FEC será retirado de todos os roteadores upstream.
Por padrão, o LDP espera por 60 segundos antes de retirar rótulos para evitar a renúncia de LSPs várias vezes enquanto o IGP está se reconvergindo. Para configurar o tempo de atraso da retirada do rótulo em segundos, inclua a label-withdrawal-delay
declaração:
label-withdrawal-delay seconds;
Para obter uma lista de níveis de hierarquia em que você pode configurar esta declaração, veja a seção de resumo da declaração para esta declaração.
Ignorando a verificação da sub-rede LDP
No Junos OS Release 8.4 e versões posteriores, uma verificação de sub-rede de endereço fonte LDP é realizada durante o procedimento de estabelecimento vizinho. O endereço de origem no pacote olá do link LDP é combinado com o endereço da interface. Isso causa um problema de interoperabilidade com alguns equipamentos de outros fornecedores.
Para desativar a verificação da sub-rede, inclua a allow-subnet-mismatch
declaração:
allow-subnet-mismatch;
Essa declaração pode ser incluída nos seguintes níveis de hierarquia:
-
[edit protocols ldp interface interface-name]
-
[edit logical-systems logical-system-name protocols ldp interface interface-name]
Os roteadores da Série ACX não suportam [edit logical-systems
] nível de hierarquia.
Consulte também
Configuração do traceroute LSP de LDP
Você pode rastrear a rota seguida por um LSP sinalizado por LDP. O traceroute LSP de LDP é baseado no RFC 4379, detectando falhas no plano de dados comutada por rótulos multi protocolo (MPLS). Esse recurso permite rastrear periodicamente todos os caminhos em uma FEC. As informações de topologia fec são armazenadas em um banco de dados acessível a partir da CLI.
Uma mudança de topologia não aciona automaticamente um vestígio de um LSP LDP. No entanto, você pode iniciar manualmente um traceroute. Se a solicitação de traceroute for para um FEC que esteja atualmente no banco de dados, o conteúdo do banco de dados será atualizado com os resultados.
O recurso de traceroute periódico se aplica a todos os FECs especificados pela oam
declaração configurada no nível de [edit protocols ldp]
hierarquia. Para configurar o traceroute LDP LSP periódico, inclua a periodic-traceroute
declaração:
periodic-traceroute { disable; exp exp-value; fanout fanout-value; frequency minutes; paths number-of-paths; retries retry-attempts; source address; ttl ttl-value; wait seconds; }
Você pode configurar esta declaração nos seguintes níveis de hierarquia:
Você pode configurar a periodic-traceroute
declaração por si só ou com qualquer uma das seguintes opções:
exp
— Especifique a classe de serviço a ser usada ao enviar sondagens.fanout
— Especifique o número máximo de próximos saltos para pesquisar por nó.frequency
— Especifique o intervalo entre as tentativas de traceroute.paths
— Especifique o número máximo de caminhos para pesquisar.retries
— Especifique o número de tentativas de enviar uma sonda a um nó específico antes de desistir.source
— Especifique o endereço fonte IPv4 para usar ao enviar sondagens.ttl
— Especifique o valor máximo de tempo até a vida. Nós que estão além desse valor não são rastreados.wait
— Especifique o intervalo de espera antes de reencetar um pacote de sondagem.
Coletando estatísticas do LDP
As estatísticas de tráfego de LDP mostram o volume de tráfego que passou por uma FEC específica em um roteador.
Quando você configura a traffic-statistics
declaração no nível de [edit protocols ldp]
hierarquia, as estatísticas de tráfego LDP são coletadas periodicamente e escritas em um arquivo. Você pode configurar a frequência com que as estatísticas são coletadas (em segundos) usando a opção interval
. O intervalo de coleta padrão é de 5 minutos. Você deve configurar um arquivo de estatísticas de LDP; caso contrário, as estatísticas de tráfego de LDP não estão reunidas. Se o LSP cair, as estatísticas do LDP serão redefinidas.
Para coletar estatísticas de tráfego de LDP, inclua a traffic-statistics
declaração:
traffic-statistics { file filename <files number> <size size> <world-readable | no-world-readable>; interval interval; no-penultimate-hop; }
Para obter uma lista de níveis de hierarquia em que você possa incluir esta declaração, veja a seção de resumo da declaração para esta declaração.
Esta seção inclui os seguintes tópicos:
- Saída de estatísticas do LDP
- Desativação das estatísticas de LDP no penúltimo roteador de salto
- Limitações das estatísticas do LDP
Saída de estatísticas do LDP
A saída de amostra a seguir é de um arquivo de estatísticas de LDP:
FEC Type Packets Bytes Shared 10.255.350.448/32 Transit 0 0 No Ingress 0 0 No 10.255.350.450/32 Transit 0 0 Yes Ingress 0 0 No 10.255.350.451/32 Transit 0 0 No Ingress 0 0 No 220.220.220.1/32 Transit 0 0 Yes Ingress 0 0 No 220.220.220.2/32 Transit 0 0 Yes Ingress 0 0 No 220.220.220.3/32 Transit 0 0 Yes Ingress 0 0 No May 28 15:02:05, read 12 statistics in 00:00:00 seconds
O arquivo de estatísticas do LDP inclui as seguintes colunas de dados:
FEC
— FEC para a qual as estatísticas de tráfego LDP são coletadas.Type
— Tipo de tráfego originário de um roteador, sejaIngress
(originário deste roteador) ouTransit
(encaminhado por este roteador).Packets
— Número de pacotes passados pela FEC desde que seu LSP surgiu.Bytes
— Número de bytes de dados passados pela FEC desde que seu LSP surgiu.Shared
— UmYes
valor indica que vários prefixos estão vinculados ao mesmo rótulo (por exemplo, quando vários prefixos são anunciados com uma política de saída). As estatísticas de tráfego de LDP para este caso se aplicam a todos os prefixos e devem ser tratadas como tal.read
— Esse número (que aparece ao lado da data e hora) pode ser diferente do número real das estatísticas exibidas. Algumas das estatísticas são resumidas antes de serem exibidas.
Desativação das estatísticas de LDP no penúltimo roteador de salto
Reunir estatísticas de tráfego de LDP no penúltimo roteador de salto pode consumir recursos excessivos do sistema, em especial em rotas de próximo salto. Esse problema é agravado se você tiver configurado a deaggregate
declaração, além da traffic-statistics
declaração. Para os roteadores que atingirem o limite de uso de rotas de próximo salto, recomendamos configurar a opção no-penultimate-hop
para a traffic-statistics
declaração:
traffic-statistics { no-penultimate-hop; }
Para obter uma lista de níveis de hierarquia em que você pode configurar a traffic-statistics
declaração, consulte a seção de resumo da declaração para esta declaração.
Quando você configura a opção no-penultimate-hop
, não há estatísticas disponíveis para os FECs que são o penúltimo salto para este roteador.
Sempre que você incluir ou remover essa opção da configuração, as sessões de LDP são retiradas e depois reiniciadas.
A saída de amostra a seguir é de um arquivo de estatísticas de LDP que mostra roteadores nos quais a opção no-penultimate-hop
está configurada:
FEC Type Packets Bytes Shared 10.255.245.218/32 Transit 0 0 No Ingress 4 246 No 10.255.245.221/32 Transit statistics disabled Ingress statistics disabled 13.1.1.0/24 Transit statistics disabled Ingress statistics disabled 13.1.3.0/24 Transit statistics disabled Ingress statistics disabled
Limitações das estatísticas do LDP
Os seguintes são problemas relacionados à coleta de estatísticas de LDP configurando a traffic-statistics
declaração:
Você não pode limpar as estatísticas do LDP.
Se você reduzir o intervalo especificado, uma nova solicitação de estatísticas de LDP só será emitida se o temporizador de estatística expirar mais tarde do que o novo intervalo.
Uma nova operação de coleta de estatísticas de LDP não pode começar até que a anterior tenha terminado. Se o intervalo for curto ou se o número de estatísticas de LDP for grande, a diferença de tempo entre as duas coletas de estatísticas pode ser maior do que o intervalo.
Quando um LSP cai, as estatísticas do LDP são redefinidas.
Rastreamento do tráfego de protocolo LDP
As seções a seguir descrevem como configurar as opções de rastreamento para examinar o tráfego de protocolo LDP:
- Rastreamento do tráfego de protocolo LDP nos níveis de instância de protocolo e roteamento
- Rastreamento do tráfego de protocolo LDP dentro dos FECs
- Exemplos: Rastreamento do tráfego de protocolo LDP
Rastreamento do tráfego de protocolo LDP nos níveis de instância de protocolo e roteamento
Para rastrear o tráfego de protocolo LDP, você pode especificar opções na declaração global traceoptions
no nível de [edit routing-options]
hierarquia e especificar opções específicas de LDP, incluindo a traceoptions
declaração:
traceoptions { file filename <files number> <size size> <world-readable | no-world-readable>; flag flag <flag-modifier> <disable>; }
Para obter uma lista de níveis de hierarquia em que você possa incluir esta declaração, veja a seção de resumo da declaração para esta declaração.
Use a file
declaração para especificar o nome do arquivo que recebe a saída da operação de rastreamento. Todos os arquivos são colocados no diretório/var/log. Recomendamos que você coloque a saída de rastreamento de LDP no arquivo ldp-log.
As bandeiras de rastreamento a seguir exibem as operações associadas ao envio e recebimento de várias mensagens LDP. Cada um pode transportar um ou mais dos seguintes modificadores:
address
— Trace a operação de mensagens de retirada de endereços e endereços.binding
— Trace as operações de vinculação de rótulos.error
— Rastrear condições de erro.event
— Trace eventos de protocolo.initialization
— Trace a operação das mensagens de inicialização.label
— Trace a operação de solicitação de rótulos, mapa de rótulos, retirada de rótulos e mensagens de versão de rótulos.notification
— Trace a operação de mensagens de notificação.packets
— Trace a operação de endereço, retirada de endereços, inicialização, solicitação de rótulos, mapa de rótulos, retirada de rótulos, liberação de rótulos, notificação e mensagens periódicas. Este modificador equivale à configuração deaddress
, ,initialization
,label
enotification
periodic
modificadores.Você também pode configurar o modificador de
filter
bandeira com amatch-on address
subopção para apackets
bandeira. Isso permite rastrear com base nos endereços de origem e destino dos pacotes.path
— Trace as operações de caminho comutada por rótulos.path
— Trace as operações de caminho comutada por rótulos.periodic
— Trace a operação de mensagens de olá e keepalive.route
— Trace a operação de mensagens de rota.state
— Trace as transições de estado do protocolo.
Rastreamento do tráfego de protocolo LDP dentro dos FECs
O LDP associa uma classe de equivalência de encaminhamento (FEC) a cada LSP que cria. O FEC associado a um LSP especifica quais pacotes são mapeados para esse LSP. Os LSPs são estendidos por uma rede, pois cada roteador escolhe o rótulo anunciado pelo próximo salto para a FEC e o junta ao rótulo que anuncia a todos os outros roteadores.
Você pode rastrear o tráfego de protocolo LDP em uma FEC específica e filtrar declarações de rastreamento de LDP com base em uma FEC. Isso é útil quando você deseja rastrear ou solucionar problemas de tráfego de protocolo LDP associado a uma FEC. As seguintes bandeiras de rastreamento estão disponíveis para esta finalidade: route
epath
binding
...
O exemplo a seguir ilustra como você pode configurar a declaração de LDP traceoptions
para filtrar declarações de rastreamento de LDP com base em uma FEC:
[edit protocols ldp traceoptions] set flag route filter match-on fec policy "filter-policy-for-ldp-fec";
Esse recurso tem as seguintes limitações:
O recurso de filtragem só está disponível para FECs compostos por prefixos IP versão 4 (IPv4).
OS FECs de circuito de camada 2 não podem ser filtrados.
Quando você configura tanto o rastreamento de rota quanto a filtragem, as rotas MPLS não são exibidas (elas são bloqueadas pelo filtro).
A filtragem é determinada pela política e pelo valor configurado para a opção
match-on
. Ao configurar a política, certifique-se de que o comportamento padrão é semprereject
.A única
match-on
opção éfec
. Consequentemente, o único tipo de política que você deve incluir é uma política de filtro de rota.
Exemplos: Rastreamento do tráfego de protocolo LDP
Trace as mensagens de caminho do LDP em detalhes:
[edit] protocols { ldp { traceoptions { file ldp size 10m files 5; flag path; } } }
Trace todas as mensagens de saída de LDP:
[edit] protocols { ldp { traceoptions { file ldp size 10m files 5; flag packets; } } }
Trace todas as condições de erro do LDP:
[edit] protocols { ldp { traceoptions { file ldp size 10m files 5; flag error; } } }
Rastreie todas as mensagens de entrada de LDP e todas as operações de vinculação de rótulos:
[edit] protocols { ldp { traceoptions { file ldp size 10m files 5 world-readable; flag packets receive; flag binding; } interface all { } } }
Trace o tráfego de protocolo LDP para uma FEC associada ao LSP:
[edit] protocols { ldp { traceoptions { flag route filter match-on fec policy filter-policy-for-ldp-fec; } } }
Tabela de histórico de alterações
A compatibillidadde com o recurso dependerá da platadorma e versão utilizada. Use o Feature Explorer para saber se o recurso é compatível com sua plataforma.