このページで
LDP の設定
最小 LDP 設定
最小設定でLDPを有効にするには。
ファミリー MPLS で関連するすべてのインターフェースを有効にします。ディレクテッドLDPの事例では、ループバック インターフェースをファミリー MPLS で有効にする必要があります。
(オプション)
[edit protocol mpls]
階層レベル下に関連するインターフェースを設定します。単一のインターフェイスで LDP を有効にするには
ldp
ステートメントを使用し、interface
ステートメントを使用してインターフェイスを指定します。
これが、最小 LDP 設定です。他のすべての LDP 設定ステートメントはオプションです。
ldp { interface interface-name; }
すべてのインターフェイスで LDP を有効にするには、interface-name
にall
を指定します。
これらのステートメントを含めることができる階層レベルの一覧は、ステートメント概要セクションを参照してください。
LDPの有効化および無効化
LDPはルーティングインスタンスを意識しています。特定のインターフェイスでLDPを有効にするには、以下のステートメントを使用します。
ldp { interface interface-name; }
これらのステートメントを含めることができる階層レベルの一覧は、ステートメント概要セクションを参照してください。
すべてのインターフェイスで LDP を有効にするには、interface-name
にall
を指定します。
インターフェイスのグループでインターフェイスのプロパティを設定し、そのうちの1つのインターフェイスでLDPを無効にする場合は、disable
オプションにinterface
ステートメントを使用します。
interface interface-name { disable; }
このステートメントを含めることができる階層レベルの一覧は、ステートメント概要セクションを参照してください。
Hello メッセージ用の LDP タイマーの設定
LDP Hello メッセージは、LDP ノードがお互いを発見し、ネイバーの障害やネイバーへのリンクを検出するためのものです。Hello メッセージは、LDP が有効になっているすべてのインターフェイスで定期的に送信されます。
LDP Hello メッセージには 2 種類あります。
リンク Hello メッセージ - LDP インターフェィスを介して、LDP ディスカバリー ポートに宛てた UDP パケットとして送信される。インターフェイスでLDPリンクhelloメッセージを受信すると、LDPピアルーターとの隣接関係が識別されます。
ターゲット Hello メッセージ - 特定のアドレスの LDP ディスカバリー ポートに宛てた UDP パケットとして送信されます。ターゲット Hello メッセージは、直接接続されていないルーター間の LDP セッションをサポートするために使用されます。ターゲット ルーターは、ターゲット Hello メッセージに応答するか無視するかを決定します。応答を選択したターゲット ルーターは、ターゲット Hello メッセージを定期的に送信することにより応答します。
デフォルトでは、LDP は、リンク Hello メッセージは 5 秒ごとに、ターゲット Hello メッセージは 15 秒ごとに送信します。LDP タイマーを設定することで、両方のタイプの Hello メッセージを送信する頻度を変更することができます。ただし、LDP 保留時間よりも長く LDP タイマーの設定はできません。詳細については、『Configuring the Delay Before LDP Neighbors Are Considered Down』を参照してください。
リンク Hello メッセージ用の LDP タイマーの設定
LDP がリンク Hello メッセージを送信する頻度を変更するには、hello-interval
ステートメントを使用して、LDP タイマー に新しいリンク Hello メッセージの間隔を指定します。
hello-interval seconds;
このステートメントを含めることができる階層レベルの一覧は、このステートメントのステートメント概要のセクションを参照してください。
ターゲット Hello メッセージ向け LDP タイマーの設定
LDP がターゲット Hello メッセージを送信する頻度を変更するには、targeted-hello
ステートメントのオプションとして、hello-interval
ステートメントを設定し、LDP のタイマーに新しいターゲット Hello メッセージの間隔を指定します。
targeted-hello { hello-interval seconds; }
これらのステートメントを含めることができる階層レベルの一覧は、これらのステートメントのステートメント概要セクションを参照してください。
LDP ネイバーがダウンしたと判断される前に遅延を設定する
保留時間は、ネイバーがダウンしたと示すまで、LDP ノードが Hello メッセージを待つ時間を割り出します。この値は、各 LDP ノードがネイバーに待ち時間を伝えるために、Hello メッセージの一部として送信されます。各ネイバーから送信される値は一致しなくても構いません。
保留時間は、通常、Hello 間隔の少なくとも 3 倍にする必要があります。デフォルトでは、リンク Hello メッセージは 15 秒、ターゲット Hello メッセージは 45 秒です。ただし、Hello 間隔の値に近い LDP 保留時間を設定することは可能です。
LDP の保留時間を Hello 間隔に近い値(Hello 間隔の 3 倍以下)に設定することで、LDP ネイバーの障害をより早く検知できる可能性があります。しかし、この方法では、まだ正常に機能している LDP ネイバーを、ルーターがダウンと宣言してしまう可能性も高くなります。詳細については、Hello メッセージ用の LDP タイマーの設定を参照してください。
また、LDP の保留時間は、LDP ピア間で自動的にネゴシエートされます。2 つの LDP ピアが互いに異なる LDP 保留時間をアドバタイズする場合は、小さい方の値を使用します。LDP のピアルーターが、設定した値よりも短い保留時間をアドバタイズした場合、ピア ルーターのアドバタイズされた保留時間をが使用されます。このネゴシエーションは、LDP のキープアライブ間隔にも影響します。
LDP ピアネゴシエーション中に、ローカル LDP の保留時間が短縮されない場合、ユーザーが設定したキープアライブ間隔は変更されません。しかし、ピアネゴシエーション中に、ローカル保留時間が短縮されると、キープアライブ間隔が再計算されます。ピアネゴシエーション中に、LDP の保留時間が短縮された場合、キープアライブ間隔は新しい保留時間の値の 3 分の 1 に短縮されます。例えば、新しい保留時間の値が 45 秒の場合、キープアライブ間隔は 15 秒に設定されます。
このキープアライブ間隔の自動計算により、各ピアルーターで、異なるキープアライブ間隔を設定できます。これは、LDP ピアネゴシエーションにより、LDP の保留時間よりも頻繁に、キープアライブメッセージが送信されることが保証されるためで、ルーターはキープアライブメッセージの送信頻度を柔軟に変更することができます。
ホールドタイムの間隔を再設定しても、セッションがリセットされるまで、変更は反映されません。保留時間は、LDP ピアリングセッションの開始時にネゴシエートされ、セッションが稼働している間は再ネゴシエートできません(RFC 5036、LDP仕様で要求されています)。LDP セッションを手動で強制的にリセットするには、このclear ldp session
コマンドを発行します。
リンク Hello メッセージ用の LDP 保留時間を設定する
ネイバーダウンを宣言する前に、LDP ノードがリンク Hello メッセージを待つ時間を変更するには、このhold-time
ステートメントを使用して、新しい時間を秒単位で指定します。
hold-time seconds;
このステートメントを含めることができる階層レベルの一覧は、このステートメントのステートメント概要のセクションを参照してください。
ターゲット Hello メッセージ用の LDP 保留時間を設定する
ネイバーダウンを宣言する前に、LDP ノードがターゲット Hello メッセージを待つ時間を変更するには、このhold-time
ステートメントをこのtargeted-hello
のステートメントのオプションとして使用して、新しい時間を秒単位で指定します。
targeted-hello { hold-time seconds; }
これらのステートメントを含めることができる階層レベルの一覧は、これらのステートメントのステートメント概要セクションを参照してください。
LDP の Strict Targeted Hello メッセージの有効化
厳密にターゲットされたHelloメッセージを使用して、特に設定されていないリモートネイバーとLDPセッションが確立されないようにします。strict-targeted-hellos
このステートメントを設定すると、LDPピアが、設定されたリモートネイバーではないソースから来るターゲットHelloメッセージに応答しなくなります。設定されたリモートネイバーは、以下を含むことができます。
LDPトンネリングが設定されているRSVPトンネルの終点
レイヤー2回線ネイバー
error
未構成のネイバーが Hello メッセージを送信した場合、 LDP ピアはそのメッセージを無視し、送信元を示すエラー (trace フラグ付き) を記録します。たとえば、LDP ピアでインターネット アドレス 10.0.0.1 からターゲット ハローを受信し、このアドレスを持つネイバーが特に設定されていない場合、 LDP ログ ファイルに次のようなメッセージが出力されます。
LDP: Ignoring targeted hello from 10.0.0.1
strict-targeted-hellos
厳密にターゲットを絞ったHelloメッセージを有効にするには、このステートメントを含めます。
strict-targeted-hellos;
このステートメントを含めることができる階層レベルの一覧は、このステートメントのステートメント概要のセクションを参照してください。
LDP キープアライブ メッセージの間隔を設定
キープアライブ間隔は、キープアライブのタイムアウトを超えないように、セッション上でメッセージを送信する頻度を決定します。この時間内に他の LDP トラフィックがセッションを介して送信されない場合、キープアライブ メッセージが送信されます。デフォルトは 10 秒です。最小値は 1 秒です。
ピア ルーターの LDP ホールドタイムに設定された値がローカルに設定された値よりも低い場合、LDP セッションのネゴシエーション時にキープアライブ間隔に設定された値を変更することができます。詳細については、『Configuring the Delay Before LDP Neighbors Are Considered Down』を参照してください。
キープアライブ間隔を変更するには、keepalive-interval
ステートメントを使用します。
keepalive-interval seconds;
このステートメントを含めることができる階層レベルの一覧は、このステートメントのステートメント概要のセクションを参照してください。
LDPキープアライブタイムアウトの設定
LDP セッションの確立後は、セッションが正常に動作していることを確認するために、定期的にメッセージ交換を行う必要があります。キープアライブタイムアウトは、ネイバーLDPノードがセッションの失敗を判断するまでに待機する時間を定義します。この値は通常、キープアライブ間隔の少なくとも3倍に設定されます。デフォルトは30秒です。
キープアライブ間隔を変更するには、keepalive-timeout
ステートメントを使用します。
keepalive-timeout seconds;
このステートメントを含めることができる階層レベルの一覧は、このステートメントのステートメント概要のセクションを参照してください。
keepalive-timeout
ステートメントで設定した値は、show ldp session detail
コマンドを発行したときの保留時間として表示されます。
LDPのロンゲストマッチ設定
LDPがOSPFエリア全体またはドメイン間のISISレベルで集約または要約されたルートを学習できるようにするため、Junos OSでは、RFC5283に基づいてLDPのロンゲストマッチを設定できます。
LDPのロンゲストマッチを設定する前に、以下のことをしてください。
デバイスインターフェイスを設定します。
MPLSプロトコルを設定します。
OSPFプロトコルを設定します。
LDPのロンゲストマッチの設定は、以下のとおりです。
例:LDPのロンゲストマッチ設定
この例では、RFC5283に基づくLDPロンゲストマッチの設定方法を説明します。これにより、LDPが、OSPFエリア全体で集約されたルート、またはドメイン間のISISレベルを学習できます。ロンゲストマッチのポリシーは、プレフィックス単位の詳細を提供します。
要件
この例では、以下のハードウェアとソフトウェアのコンポーネントを使用しています。
OSPFプロトコルを備えたMXシリーズルーター6台と、接続されたインターフェイスで有効にされたLDP。
すべてのデバイスで稼働するJunos OSリリース16.1以降。
開始する前に、以下を実行します。
デバイスインターフェイスを設定します。
OSPFを設定します。
概要
LDP は、OSPF もしくは IS-IS などの IGP を利用して、完全なネットワークの全体で MPLS LSP (ラベルスイッチ パス)を確立するために頻繁に使用されます。そのようなネットワークにおいて、ドメインのすべてのリンクには、IGPの隣接関係、また LDP の隣接関係があります。LDPは、IP転送によって決定され、宛先までの最短パスでLSPを確立しますJunos OSにおいて、LDPの実装は、ラベルマッピングの目的で、RIBもしくはIGPルートのFECのIPアドレス上で完全一致検索を行います。この正確なマッピングには、すべてのLERで、MPLSエンドツーエンドのLDPエンドポイントIPアドレスの設定が必要となります。これにより、IP 階層設計や、アクセスデバイスのデフォルト ルーティングの目的が果たせなくなります。longest-match
の設定は、完全一致の動作や、プレフィックス単位でのロンゲストマッチルートに基づくLSP設定を抑制することによって、これを解決に導きます。
設定
CLIクイック構成
この例を迅速に設定するには、以下のコマンドをコピーして、テキストファイルに貼り付け、改行を削除し、ネットワーク設定に一致させる必要がある詳細情報を変更し、コマンドを [edit] 階層レベルでCLIにコピーアンドペーストして、設定モードから commit
を入力します。
R0
set interfaces ge-0/0/0 unit 0 family inet address 22.22.22.1/24 set interfaces ge-0/0/1 unit 0 family inet address 15.15.15.1/24 set interfaces ge-0/0/2 unit 0 family inet address 11.11.11.1/24 set interfaces ge-0/0/2 unit 0 family iso set interfaces ge-0/0/2 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.112.1/32 primary set interfaces lo0 unit 0 family inet address 10.255.112.1/32 preferred set interfaces lo0 unit 0 family iso address 49.0002.0192.0168.0001.00 set routing-options router-id 10.255.112.1 set protocols mpls interface ge-0/0/2.0 set protocols ospf area 0.0.0.1 interface ge-0/0/2.0 set protocols ospf area 0.0.0.1 interface lo0.0 passive set protocols ldp longest-match set protocols ldp interface ge-0/0/2.0 set protocols ldp interface lo0.0
R1
set interfaces ge-0/0/0 unit 0 family inet address 11.11.11.2/24 set interfaces ge-0/0/0 unit 0 family iso set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 12.12.12.1/24 set interfaces ge-0/0/1 unit 0 family iso set interfaces ge-0/0/1 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.112.2/32 primary set interfaces lo0 unit 0 family inet address 10.255.112.2/32 preferred set interfaces lo0 unit 0 family iso address 49.0002.0192.0168.0002.00 set routing-options router-id 10.255.112.2 set protocols mpls interface ge-0/0/0.0 set protocols mpls interface ge-0/0/1.0 set protocols ospf area 0.0.0.0 interface ge-0/0/1.0 set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ospf area 0.0.0.1 interface ge-0/0/0.0 set protocols ldp longest-match set protocols ldp interface ge-0/0/0.0 set protocols ldp interface ge-0/0/1.0 set protocols ldp interface lo0.0
R2
set interfaces ge-0/0/0 unit 0 family inet address 24.24.24.1/24 set interfaces ge-0/0/0 unit 0 family iso set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 12.12.12.2/24 set interfaces ge-0/0/1 unit 0 family iso set interfaces ge-0/0/1 unit 0 family mpls set interfaces ge-0/0/2 unit 0 family inet address 23.23.23.1/24 set interfaces ge-0/0/2 unit 0 family iso set interfaces ge-0/0/2 unit 0 family mpls set interfaces ge-0/0/3 unit 0 family inet address 22.22.22.2/24 set interfaces ge-0/0/4 unit 0 family inet address 25.25.25.1/24 set interfaces ge-0/0/4 unit 0 family iso set interfaces ge-0/0/4 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.111.4/32 primary set interfaces lo0 unit 0 family inet address 10.255.111.4/32 preferred set interfaces lo0 unit 0 family iso address 49.0003.0192.0168.0003.00 set routing-options router-id 10.255.111.4 set protocols mpls interface ge-0/0/1.0 set protocols mpls interface ge-0/0/2.0 set protocols mpls interface ge-0/0/0.0 set protocols mpls interface ge-0/0/4.0 set protocols ospf area 0.0.0.0 interface ge-0/0/1.0 set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ospf area 0.0.0.2 area-range 10.255.111.0/24 set protocols ospf area 0.0.0.2 interface ge-0/0/2.0 set protocols ospf area 0.0.0.2 interface ge-0/0/0.0 set protocols ospf area 0.0.0.2 interface ge-0/0/4.0 set protocols ldp interface ge-0/0/0.0 set protocols ldp interface ge-0/0/1.0 set protocols ldp interface ge-0/0/2.0 set protocols ldp interface ge-0/0/4.0 set protocols ldp interface lo0.0
R3
set interfaces ge-0/0/0 unit 0 family inet address 35.35.35.1/24 set interfaces ge-0/0/0 unit 0 family iso set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 23.23.23.2/24 set interfaces ge-0/0/1 unit 0 family iso set interfaces ge-0/0/1 unit 0 family mpls set interfaces ge-0/0/2 unit 0 family inet address 34.34.34.1/24 set interfaces ge-0/0/2 unit 0 family iso set interfaces ge-0/0/2 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.111.1/32 primary set interfaces lo0 unit 0 family inet address 10.255.111.1/32 preferred set interfaces lo0 unit 0 family iso address 49.0003.0192.0168.0004.00 set routing-options router-id 10.255.111.1 set protocols mpls interface ge-0/0/1.0 set protocols ospf area 0.0.0.2 interface ge-0/0/1.0 set protocols ospf area 0.0.0.2 interface fxp0.0 disable set protocols ospf area 0.0.0.2 interface lo0.0 passive set protocols ldp interface ge-0/0/1.0 set protocols ldp interface lo0.0
R4
set interfaces ge-0/0/0 unit 0 family inet address 45.45.45.1/24 set interfaces ge-0/0/0 unit 0 family iso set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 24.24.24.2/24 set interfaces ge-0/0/1 unit 0 family iso set interfaces ge-0/0/1 unit 0 family mpls set interfaces ge-0/0/2 unit 0 family inet address 34.34.34.2/24 set interfaces ge-0/0/2 unit 0 family iso set interfaces ge-0/0/2 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.111.2/32 primary set interfaces lo0 unit 0 family inet address 10.255.111.2/32 preferred set interfaces lo0 unit 0 family iso address 49.0003.0192.0168.0005.00 set routing-options router-id 10.255.111.2 set protocols mpls interface ge-0/0/1.0 set protocols ospf area 0.0.0.2 interface ge-0/0/1.0 set protocols ospf area 0.0.0.2 interface fxp0.0 disable set protocols ospf area 0.0.0.2 interface lo0.0 passive set protocols ldp interface ge-0/0/1.0 set protocols ldp interface lo0.0
R5
set interfaces ge-0/0/0 unit 0 family inet address 25.25.25.2/24 set interfaces ge-0/0/0 unit 0 family iso set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 15.15.15.2/24 set interfaces ge-0/0/2 unit 0 family inet address 35.35.35.2/24 set interfaces ge-0/0/3 unit 0 family inet address 45.45.45.2/24 set interfaces ge-0/0/3 unit 0 family iso set interfaces ge-0/0/3 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.111.3/32 primary set interfaces lo0 unit 0 family inet address 10.255.111.3/32 preferred set interfaces lo0 unit 0 family iso address 49.0003.0192.0168.0006.00 set routing-options router-id 10.255.111.3 set protocols mpls interface ge-0/0/0.0 set protocols ospf area 0.0.0.2 interface ge-0/0/0.0 set protocols ospf area 0.0.0.2 interface fxp0.0 disable set protocols ospf area 0.0.0.2 interface lo0.0 passive set protocols ldp interface ge-0/0/0.0 set protocols ldp interface lo0.0
デバイス R0 の設定
ステップバイステップでの手順
次の例では、設定階層内のさまざまなレベルに移動する必要があります。CLI のナビゲーションについては、CLIユーザー・ガイド の コンフィギュレーション・モードでのCLIエディタの使用を参照してください。
Device R0を設定するには:
インターフェイスを設定します。
[edit interfaces] set ge-0/0/0 unit 0 family inet address 22.22.22.1/24 set ge-0/0/1 unit 0 family inet address 15.15.15.1/24 set ge-0/0/2 unit 0 family inet address 11.11.11.1/24 set ge-0/0/2 unit 0 family iso set ge-0/0/2 unit 0 family mpls
デバイスにループバックアドレスを割り当てます。
[edit interfaces lo0 unit 0 family] set inet address 10.255.112.1/32 primary set inet address 10.255.112.1/32 preferred set iso address 49.0002.0192.0168.0001.00
ルーターIDを設定します。
[edit routing-options] set router-id 10.255.112.1
インターフェイスにMPLSプロトコルを設定します。
[edit protocols mpls] set interface ge-0/0/2.0
インターフェイスにOSPFプロトコルを設定します。
[edit protocols ospf] set area 0.0.0.1 interface ge-0/0/2.0 set area 0.0.0.1 interface lo0.0 passive
LDPプロトコルに対してロンゲストマッチを設定します。
[edit protocols ldp] set longest-match
インターフェイスにLDPプロトコルを設定します。
[edit protocols ldp] set interface ge-0/0/2.0 set interface lo0.0
結果
コンフィギュレーションモードから、show interfacesshow protocols、、およびの各コマshow routing-optionsンドを入力し、コンフィギュレーションを確認します。出力結果に意図した設定内容が表示されない場合は、この例の手順を繰り返して設定を修正します。
user@R0# show interfaces ge-0/0/0 { unit 0 { family inet { address 22.22.22.1/24; } } } ge-0/0/1 { unit 0 { family inet { address 15.15.15.1/24; } } } ge-0/0/2 { unit 0 { family inet { address 11.11.11.1/24; } family iso; family mpls; } } lo0 { unit 0 { family inet { address 10.255.112.1/32 { primary; preferred; } } family iso { address 49.0002.0192.0168.0001.00; } } }
user@R0# show protocols mpls { interface ge-0/0/2.0; } ospf { area 0.0.0.1 { interface ge-0/0/2.0; interface lo0.0 { passive; } } } ldp { longest-match; interface ge-0/0/2.0; interface lo0.0; }
user@R0# show routing-options router-id 10.255.112.1;
デバイスの設定が完了したら、設定モードからcommit
を入力します。
検証
設定が正常に機能していることを確認します。
ルートの検証
目的
期待ルートが学習されていることを確認します。
アクション
デバイスR0では、運用モードからshow route
コマンドを実行し、ルーティングテーブル内のルートを表示します。
user@R0> show route
inet.0: 62 destinations, 62 routes (62 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
10.4.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.5.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.6.128.0/17 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.9.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.10.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.13.4.0/23 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.13.10.0/23 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.82.0.0/15 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.84.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.85.12.0/22 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.92.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.92.16.0/20 *[Direct/0] 10:08:01
> via fxp0.0
10.92.20.175/32 *[Local/0] 10:08:01
Local via fxp0.0
10.94.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.99.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.102.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.150.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.155.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.157.64.0/19 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.160.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.204.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.205.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.206.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.207.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.209.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.212.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.213.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.214.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.215.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.216.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.218.13.0/24 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.218.14.0/24 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.218.16.0/20 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.218.32.0/20 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.227.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.255.111.0/24 *[OSPF/10] 09:52:14, metric 3
> to 11.11.11.2 via ge-0/0/2.0
10.255.111.4/32 *[OSPF/10] 09:54:10, metric 2
> to 11.11.11.2 via ge-0/0/2.0
10.255.112.1/32 *[Direct/0] 09:55:05
> via lo0.0
10.255.112.2/32 *[OSPF/10] 09:54:18, metric 1
> to 11.11.11.2 via ge-0/0/2.0
11.11.11.0/24 *[Direct/0] 09:55:05
> via ge-0/0/2.0
11.11.11.1/32 *[Local/0] 09:55:05
Local via ge-0/0/2.0
12.12.12.0/24 *[OSPF/10] 09:54:18, metric 2
> to 11.11.11.2 via ge-0/0/2.0
15.15.15.0/24 *[Direct/0] 09:55:05
> via ge-0/0/1.0
15.15.15.1/32 *[Local/0] 09:55:05
Local via ge-0/0/1.0
22.22.22.0/24 *[Direct/0] 09:55:05
> via ge-0/0/0.0
22.22.22.1/32 *[Local/0] 09:55:05
Local via ge-0/0/0.0
23.23.23.0/24 *[OSPF/10] 09:54:10, metric 3
> to 11.11.11.2 via ge-0/0/2.0
24.24.24.0/24 *[OSPF/10] 09:54:10, metric 3
> to 11.11.11.2 via ge-0/0/2.0
25.25.25.0/24 *[OSPF/10] 09:54:10, metric 3
> to 11.11.11.2 via ge-0/0/2.0
128.92.17.45/32 *[OSPF/10] 09:54:05, metric 3
> to 11.11.11.2 via ge-0/0/2.0
128.92.20.175/32 *[Direct/0] 10:08:01
> via lo0.0
128.92.21.186/32 *[OSPF/10] 09:54:10, metric 3
> to 11.11.11.2 via ge-0/0/2.0
128.92.25.135/32 *[OSPF/10] 09:54:10, metric 3
> to 11.11.11.2 via ge-0/0/2.0
128.92.27.91/32 *[OSPF/10] 09:54:18, metric 1
> to 11.11.11.2 via ge-0/0/2.0
128.92.28.70/32 *[OSPF/10] 09:54:10, metric 2
> to 11.11.11.2 via ge-0/0/2.0
172.16.0.0/12 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
192.168.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
192.168.102.0/23 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
207.17.136.0/24 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
207.17.136.192/32 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
207.17.137.0/24 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
224.0.0.5/32 *[OSPF/10] 09:55:05, metric 1
MultiRecv
inet.3: 5 destinations, 5 routes (5 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
10.255.111.1/32 *[LDP/9] 09:41:03, metric 3
> to 11.11.11.2 via ge-0/0/2.0, Push 300128
10.255.111.2/32 *[LDP/9] 09:41:03, metric 3
> to 11.11.11.2 via ge-0/0/2.0, Push 300144
10.255.111.3/32 *[LDP/9] 09:41:03, metric 3
> to 11.11.11.2 via ge-0/0/2.0, Push 300160
10.255.111.4/32 *[LDP/9] 09:54:10, metric 2, tag 0
> to 11.11.11.2 via ge-0/0/2.0, Push 300000
10.255.112.2/32 *[LDP/9] 09:54:48, metric 1, tag 0
> to 11.11.11.2 via ge-0/0/2.0
iso.0: 2 destinations, 2 routes (2 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
47.0005.80ff.f800.0000.0108.0001.1280.9202.0175/152
*[Direct/0] 10:08:01
> via lo0.0
49.0002.0192.0168.0001/72
*[Direct/0] 09:55:05
> via lo0.0
mpls.0: 10 destinations, 10 routes (10 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
0 *[MPLS/0] 09:55:05, metric 1
Receive
1 *[MPLS/0] 09:55:05, metric 1
Receive
2 *[MPLS/0] 09:55:05, metric 1
Receive
13 *[MPLS/0] 09:55:05, metric 1
Receive
300064 *[LDP/9] 09:54:48, metric 1
> to 11.11.11.2 via ge-0/0/2.0, Pop
300064(S=0) *[LDP/9] 09:54:48, metric 1
> to 11.11.11.2 via ge-0/0/2.0, Pop
300112 *[LDP/9] 09:54:10, metric 2, tag 0
> to 11.11.11.2 via ge-0/0/2.0, Swap 300000
300192 *[LDP/9] 09:41:03, metric 3
> to 11.11.11.2 via ge-0/0/2.0, Swap 300128
300208 *[LDP/9] 09:41:03, metric 3
> to 11.11.11.2 via ge-0/0/2.0, Swap 300144
300224 *[LDP/9] 09:41:03, metric 3
> to 11.11.11.2 via ge-0/0/2.0, Swap 300160
inet6.0: 2 destinations, 2 routes (2 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
abcd::128:92:20:175/128
*[Direct/0] 10:08:01
> via lo0.0
fe80::5668:a50f:fcc1:1f9c/128
*[Direct/0] 10:08:01
> via lo0.0
意味
出力で、デバイスR0のルーティングテーブル内のすべてのルートが表示されます。
LDPの概要情報の検証
目的
LDPの概要情報を表示します。
アクション
デバイスR0では、運用モードから、show ldp overview
コマンドを実行し、LDPの概要を表示します。
user@R0> show ldp overview
Instance: master
Reference count: 2
Router ID: 10.255.112.1
Message id: 8
Configuration sequence: 6
Deaggregate: disabled
Explicit null: disabled
IPv6 tunneling: disabled
Strict targeted hellos: disabled
Loopback if added: yes
Route preference: 9
Unicast transit LSP chaining: disabled
P2MP transit LSP chaining: disabled
Transit LSP statistics based on route statistics: disabled
LDP route acknowledgement: enabled
LDP mtu discovery: disabled
Longest Match: enabled
Capabilities enabled: none
Egress FEC capabilities enabled: entropy-label-capability
Downstream unsolicited Sessions:
Operational: 1
Retention: liberal
Control: ordered
Auto targeted sessions:
Auto targeted: disabled
Timers:
Keepalive interval: 10, Keepalive timeout: 30
Link hello interval: 5, Link hello hold time: 15
Targeted hello interval: 15, Targeted hello hold time: 45
Label withdraw delay: 60, Make before break timeout: 30
Make before break switchover delay: 3
Link protection timeout: 120
Graceful restart:
Restart: disabled, Helper: enabled, Restart in process: false
Reconnect time: 60000, Max neighbor reconnect time: 120000
Recovery time: 160000, Max neighbor recovery time: 240000
Traffic Engineering:
Bgp igp: disabled
Both ribs: disabled
Mpls forwarding: disabled
IGP:
Tracking igp metric: disabled
Sync session up delay: 10
Session protection:
Session protection: disabled
Session protection timeout: 0
Interface addresses advertising:
11.11.11.1
10.255.112.1
128.92.20.175
Label allocation:
Current number of LDP labels allocated: 5
Total number of LDP labels allocated: 11
Total number of LDP labels freed: 6
Total number of LDP label allocation failure: 0
Current number of labels allocated by all protocols: 5
意味
出力で、デバイスR0のLDPの概要情報が表示されます。
内部トポロジーテーブル内でのLDPエントリーを検証
目的
ラベル配布プロトコル(LDP)内部トポロジーテーブル内のルートエントリーを表示します。
アクション
デバイスR0では、運用モードから、show ldp route
コマンドを実行してLDPの内部トポロジーテーブルを表示します。
user@R0> show ldp route
Destination Next-hop intf/lsp/table Next-hop address
10.4.0.0/16 fxp0.0 10.92.31.254
10.5.0.0/16 fxp0.0 10.92.31.254
10.6.128.0/17 fxp0.0 10.92.31.254
10.9.0.0/16 fxp0.0 10.92.31.254
10.10.0.0/16 fxp0.0 10.92.31.254
10.13.4.0/23 fxp0.0 10.92.31.254
10.13.10.0/23 fxp0.0 10.92.31.254
10.82.0.0/15 fxp0.0 10.92.31.254
10.84.0.0/16 fxp0.0 10.92.31.254
10.85.12.0/22 fxp0.0 10.92.31.254
10.92.0.0/16 fxp0.0 10.92.31.254
10.92.16.0/20 fxp0.0
10.92.20.175/32
10.94.0.0/16 fxp0.0 10.92.31.254
10.99.0.0/16 fxp0.0 10.92.31.254
10.102.0.0/16 fxp0.0 10.92.31.254
10.150.0.0/16 fxp0.0 10.92.31.254
10.155.0.0/16 fxp0.0 10.92.31.254
10.157.64.0/19 fxp0.0 10.92.31.254
10.160.0.0/16 fxp0.0 10.92.31.254
10.204.0.0/16 fxp0.0 10.92.31.254
10.205.0.0/16 fxp0.0 10.92.31.254
10.206.0.0/16 fxp0.0 10.92.31.254
10.207.0.0/16 fxp0.0 10.92.31.254
10.209.0.0/16 fxp0.0 10.92.31.254
10.212.0.0/16 fxp0.0 10.92.31.254
10.213.0.0/16 fxp0.0 10.92.31.254
10.214.0.0/16 fxp0.0 10.92.31.254
10.215.0.0/16 fxp0.0 10.92.31.254
10.216.0.0/16 fxp0.0 10.92.31.254
10.218.13.0/24 fxp0.0 10.92.31.254
10.218.14.0/24 fxp0.0 10.92.31.254
10.218.16.0/20 fxp0.0 10.92.31.254
10.218.32.0/20 fxp0.0 10.92.31.254
10.227.0.0/16 fxp0.0 10.92.31.254
10.255.111.0/24 ge-0/0/2.0 11.11.11.2
10.255.111.4/32 ge-0/0/2.0 11.11.11.2
10.255.112.1/32 lo0.0
10.255.112.2/32 ge-0/0/2.0 11.11.11.2
11.11.11.0/24 ge-0/0/2.0
11.11.11.1/32
12.12.12.0/24 ge-0/0/2.0 11.11.11.2
15.15.15.0/24 ge-0/0/1.0
15.15.15.1/32
22.22.22.0/24 ge-0/0/0.0
22.22.22.1/32
23.23.23.0/24 ge-0/0/2.0 11.11.11.2
24.24.24.0/24 ge-0/0/2.0 11.11.11.2
25.25.25.0/24 ge-0/0/2.0 11.11.11.2
128.92.17.45/32 ge-0/0/2.0 11.11.11.2
128.92.20.175/32 lo0.0
128.92.21.186/32 ge-0/0/2.0 11.11.11.2
128.92.25.135/32 ge-0/0/2.0 11.11.11.2
128.92.27.91/32 ge-0/0/2.0 11.11.11.2
128.92.28.70/32 ge-0/0/2.0 11.11.11.2
172.16.0.0/12 fxp0.0 10.92.31.254
192.168.0.0/16 fxp0.0 10.92.31.254
192.168.102.0/23 fxp0.0 10.92.31.254
207.17.136.0/24 fxp0.0 10.92.31.254
207.17.136.192/32 fxp0.0 10.92.31.254
207.17.137.0/24 fxp0.0 10.92.31.254
224.0.0.5/32
意味
出力で、デバイスR0のラベル配布プロトコル(LDP)内部トポロジーテーブル内のルートエントリーが表示されます。
LDPルートのFEC情報のみの検証
目的
LDPルートのFEC情報のみを表示します。
アクション
デバイスR0では、運用モードからshow ldp route fec-only
コマンドを実行し、ルーティングテーブル内のルートを表示します。
user@R0> show ldp route fec-only
Destination Next-hop intf/lsp/table Next-hop address
10.255.111.1/32 ge-0/0/2.0 11.11.11.2
10.255.111.2/32 ge-0/0/2.0 11.11.11.2
10.255.111.3/32 ge-0/0/2.0 11.11.11.2
10.255.111.4/32 ge-0/0/2.0 11.11.11.2
10.255.112.1/32 lo0.0
10.255.112.2/32 ge-0/0/2.0 11.11.11.2
意味
出力で、デバイスR0に使用できるLDPプロトコルのFECルートのみが表示されます。
LDPのFECおよびシャドウルートの検証
目的
ルーティングテーブル内のFECおよびシャドウルートを表示します。
アクション
デバイスR0では、運用モードから、show ldp route fec-and-route
コマンドを実行し、ルーティングテーブル内のFECとシャドウルートを表示します。
user@R0> show ldp route fec-and-route
Destination Next-hop intf/lsp/table Next-hop address
10.4.0.0/16 fxp0.0 10.92.31.254
10.5.0.0/16 fxp0.0 10.92.31.254
10.6.128.0/17 fxp0.0 10.92.31.254
10.9.0.0/16 fxp0.0 10.92.31.254
10.10.0.0/16 fxp0.0 10.92.31.254
10.13.4.0/23 fxp0.0 10.92.31.254
10.13.10.0/23 fxp0.0 10.92.31.254
10.82.0.0/15 fxp0.0 10.92.31.254
10.84.0.0/16 fxp0.0 10.92.31.254
10.85.12.0/22 fxp0.0 10.92.31.254
10.92.0.0/16 fxp0.0 10.92.31.254
10.92.16.0/20 fxp0.0
10.92.20.175/32
10.94.0.0/16 fxp0.0 10.92.31.254
10.99.0.0/16 fxp0.0 10.92.31.254
10.102.0.0/16 fxp0.0 10.92.31.254
10.150.0.0/16 fxp0.0 10.92.31.254
10.155.0.0/16 fxp0.0 10.92.31.254
10.157.64.0/19 fxp0.0 10.92.31.254
10.160.0.0/16 fxp0.0 10.92.31.254
10.204.0.0/16 fxp0.0 10.92.31.254
10.205.0.0/16 fxp0.0 10.92.31.254
10.206.0.0/16 fxp0.0 10.92.31.254
10.207.0.0/16 fxp0.0 10.92.31.254
10.209.0.0/16 fxp0.0 10.92.31.254
10.212.0.0/16 fxp0.0 10.92.31.254
10.213.0.0/16 fxp0.0 10.92.31.254
10.214.0.0/16 fxp0.0 10.92.31.254
10.215.0.0/16 fxp0.0 10.92.31.254
10.216.0.0/16 fxp0.0 10.92.31.254
10.218.13.0/24 fxp0.0 10.92.31.254
10.218.14.0/24 fxp0.0 10.92.31.254
10.218.16.0/20 fxp0.0 10.92.31.254
10.218.32.0/20 fxp0.0 10.92.31.254
10.227.0.0/16 fxp0.0 10.92.31.254
10.255.111.0/24 ge-0/0/2.0 11.11.11.2
10.255.111.1/32 ge-0/0/2.0 11.11.11.2
10.255.111.2/32 ge-0/0/2.0 11.11.11.2
10.255.111.3/32 ge-0/0/2.0 11.11.11.2
10.255.111.4/32 ge-0/0/2.0 11.11.11.2
10.255.111.4/32 ge-0/0/2.0 11.11.11.2
10.255.112.1/32 lo0.0
10.255.112.1/32 lo0.0
10.255.112.2/32 ge-0/0/2.0 11.11.11.2
10.255.112.2/32 ge-0/0/2.0 11.11.11.2
11.11.11.0/24 ge-0/0/2.0
11.11.11.1/32
12.12.12.0/24 ge-0/0/2.0 11.11.11.2
15.15.15.0/24 ge-0/0/1.0
15.15.15.1/32
22.22.22.0/24 ge-0/0/0.0
22.22.22.1/32
23.23.23.0/24 ge-0/0/2.0 11.11.11.2
24.24.24.0/24 ge-0/0/2.0 11.11.11.2
25.25.25.0/24 ge-0/0/2.0 11.11.11.2
128.92.17.45/32 ge-0/0/2.0 11.11.11.2
128.92.20.175/32 lo0.0
128.92.21.186/32 ge-0/0/2.0 11.11.11.2
128.92.25.135/32 ge-0/0/2.0 11.11.11.2
128.92.27.91/32 ge-0/0/2.0 11.11.11.2
128.92.28.70/32 ge-0/0/2.0 11.11.11.2
172.16.0.0/12 fxp0.0 10.92.31.254
192.168.0.0/16 fxp0.0 10.92.31.254
192.168.102.0/23 fxp0.0 10.92.31.254
207.17.136.0/24 fxp0.0 10.92.31.254
207.17.136.192/32 fxp0.0 10.92.31.254
207.17.137.0/24 fxp0.0 10.92.31.254
224.0.0.5/32
意味
出力で、デバイスR0のFECとシャドウルートが表示されます。
LDPルート設定の構成
複数のプロトコルが同じ宛先へのルートを計算する場合、ルート設定を使用して、転送テーブルにインストールするルートを選択します。優先度の最も低いルートが選択されます。優先度は、0〜255の数値を指定することができます。デフォルトでは、LDPルートの優先度は9です。
ルート設定を変更するには、preference
ステートメントを使用します。
preference preference;
このステートメントを含めることができる階層レベルの一覧は、このステートメントのステートメント概要のセクションを参照してください。
LDPグレースフルリスタート
LDPグレースフルリスタートにより、隣接ルーターからその状態を復旧する間も、LDPコントロールプレーン再起動中のルーターが、トラフィックの転送を継続することを可能にします。また、ヘルパーモードが有効になっているルーターが、LDP再起動を試みている隣接ルーターを補助することを可能にします。
セッション初期中に、ルーターはその機能をアドバタイズして、LDPグレースフルリスタートを実行したり、グレースフルリスタートTLVを送信することによって、動作中のネイバーLDPグレースフルリスタートを利用することができます。このTLVには、LDPグレースフルリスタートに関連する2つのフィールドがあります。再接続時間と回復時間です。再接続および回復時間の値は、ルーターでサポートされているグレースフルリスタートの機能を表します。
ルーターが隣接ルーターの再起動を検知すると、接続を試みる前に、回復時間の終了まで待機します。回復時間は、ルーターがLDPが緩やかに再起動するための待機時間です。回復時間は、初期化メッセージが送信、または受信されると開始します。また、この時間帯は、通常、隣接ルーターがその再起動に関する情報を維持する時間で、これによりトラフィックの転送を継続させます。
LDPグレースフルリスタートは、LDPプロトコルに対するマスターインスタンスと、特定のルーティングスタンスの両方で設定できます。すべてのプロトコルのグローバルレベル、LDPのみのプロトコルレベル、特定のルーティングインスタンスで、グレースフルリスタートを無効にすることができます。グローバルレベルにおいて、グレースフルリスタートはデフォルトで無効になっているため、LDPグレースフルリスタートもデフォルトで無効になっています。ただし、ヘルパーモード(グレースフルリスタートを試みる隣接ルーターを補助する機能)はデフォルトで有効になっています。
以下は、LDPグレースフルリスタートに関連する動作の一部です。
送信ラベルは再起動時に維持されません。新しい送信ラベルが割り当てられます。
ルーターが再起動されると、再起動中のルーターが安定するまでグレースフルリスタートをサポートする隣接ルーターに、ラベルマップメッセージは送信されません(ラベルマップメッセージは、グレースフルリスタートをサポートしない隣接ルーターには直ちに送信されます)。ただし、その他のメッセージ(キープアライブ、アドレスメッセージ、通知、リリース)は通常通りに送信されます。このようなその他のメッセージを配信することで、ルーターの不完全な情報配信を防ぐことができます。
ヘルパーモードとグレースフルリスタートは独立したものです。グレースフルリスタートを設定で無効にしても、ルーターがグレーススタートを試みようとする隣接するものに協力することは可能です。
LDPグレースフルリスタートの設定
[edit routing-options graceful-restart]
または[edit protocols ldp graceful-restart]
階層レベルでグレースフルリスタート設定を変更すると、実行中のLDPセッションが自動的に再起動され、グレースフルリスタート設定が適用されます。この動作は、グレースフルリスタート設定を変更したときのBGPの動作を反映しています。
デフォルトでは、グレースフルリスタートヘルパーモードは有効ですが、グレースフルリスタートは無効です。したがって、ルーターのデフォルトの動作は、隣接ルーターがグレースフルリスタートを試行するのを支援することですが、グレースフルリスタート自体を試行することはありません。
LDPグレースフルリスタートを設定するには、次のセクションを参照してください。
グレースフルリスタートの有効化
LDPグレースフルリスタートを有効にするには、ルーターでもグレースフルリスタートを有効にする必要があります。グレースフルリスタートを有効にするには、graceful-restart
ステートメントを使用します。
graceful-restart;
以下の階層レベルでこのステートメントを使用することができます。
[edit routing-options]
[edit logical-systems logical-system-name routing-options]
ACX シリーズのルーターは、[edit logical-systems logical-system-name routing-options
]階層レベルをサポートしていません。
graceful-restart
ステートメントは、ルーターでこの機能をサポートするすべてのプロトコルのグレースフルリスタートを有効にします。グレースフルリスタートの詳細については、ルーティングデバイス用 Junos OS ルーティングプロトコルライブラリをご覧ください。
デフォルトでは、LDPプロトコルレベルとすべてのルーティングインスタンスの両方でグレースフルリスタートを有効にすると、LDPグレースフルリスタートが有効になります。ただし、LDPグレースフルリスタートとLDPグレースフルリスタートヘルパーモードの両方を無効にすることができます。
LDPグレースフルリスタートまたはヘルパーモードの無効化
LDPグレースフルリスタートと回復を無効にするには、disable
ステートメントを使用します。
ldp { graceful-restart { disable; } }
このステートメントを含めることができる階層レベルの一覧は、このステートメントのステートメント概要のセクションを参照してください。
LDPプロトコルレベルでのみヘルパーモードを無効にできます。特定のルーティングインスタンスではヘルパーモードを無効にすることはできません。LDPヘルパーモードを無効にするには、helper-disable
ステートメントを使用します。
ldp { graceful-restart { helper-disable; } }
このステートメントを含めることができる階層レベルの一覧は、このステートメントのステートメント概要のセクションを参照してください。
LDPグレースフルリスタートの設定は、次のものが可能です。
LDPグレースフルリスタートおよびヘルパーモード両方が有効。
LDPグレースフルリスタートは無効で、ヘルパーモードは有効。このように設定されたルーターは正常に再起動できませんが、ネイバーの再起動には役立ちます。
LDPグレースフルリスタートとヘルパーモードの両方を無効にする。ルーターは、LDPグレースフルリスタート、または初期化メッセージで送信されたグレースフルリスタートのタイプ、長さ、および値(TLV)を使用しません。ルーターは、LDPグレースフルリスタートをサポートできないルーターとして動作します。
グレースフルリスタートを有効にし、ヘルパーモードを無効にしようとすると、設定エラーが発行されます。
再接続時間の設定
ネイバー間のLDP接続に障害が発生した後、ネイバーは、正常に再起動しているルーターがLDPメッセージの送信を再開するまで一定時間待機します。待機時間が経過すると、LDPセッションを再確立できます。待機時間は秒単位で設定できます。この値は、LDPグレースフルリスタートが有効になっている場合にLDP初期化メッセージで送信される耐障害性セッションTLVに含まれます。
ルーターAとルーターBがLDPネイバーであると仮定します。ルーターAは、再起動ルーターです。再接続時間は、ルーターBがルーターAの再起動を検出した後、ルーターAがルーターBに待機するように指示する時間です。
再接続時間を設定するには、reconnect-time
ステートメントを使用します。
graceful-restart { reconnect-time seconds; }
再接続時間は30〜300秒の範囲で設定できます。デフォルトでは、60秒です。
これらのステートメントを設定できる階層レベルの一覧については、これらのステートメントの概要を参照してください。
回復時間と最大回復時間の設定
回復時間は、LDPが正常に再起動するためにルーターが待機する時間です。回復時間は、初期化メッセージが送信、または受信されると開始します。また、この期間は、通常、隣接ルーターがその再起動に関する情報を維持する時間で、これによりトラフィックの転送を継続させます。
再起動しているルーターから回復時間の誤った値を受け取った場合に隣接ルーターが悪影響を受けるのを防ぐために、隣接ルーターで最大回復時間を設定できます。隣接ルーターは、2つの時間のうち短い方の時間でその状態を維持します。たとえば、ルーターAはLDPグレースフルリスタートを実行しています。隣接するルーターBに900秒の回復時間を送信しました。ただし、ルーターBの最大回復時間は400秒に設定されています。ルーターBは、ルーターAからLDP情報を削除する前に400秒だけ待機します。
回復時間を設定するには、recovery-time
ステートメントとmaximum-neighbor-recovery-time
ステートメントを使用します。
graceful-restart { maximum-neighbor-recovery-time seconds; recovery-time seconds; }
これらのステートメントを設定できる階層レベルの一覧については、これらのステートメントの概要を参照してください。
インバウンドLDPラベルバインディングのフィルタリング
受信したLDPラベルバインディングをフィルタリングし、近隣のルーターからアドバタイズされたバインディングを受け入れるか拒否するかのポリシーを適用することが可能です。import
受信ラベルのフィルタリングを設定するには、このステートメントを含めます。
import [ policy-names ];
このステートメントを含めることができる階層レベルの一覧は、このステートメントのステートメント概要のセクションを参照してください。
[edit policy-options]
指定されたポリシー(階層レベルで設定)は、すべてのLDPネイバーから受信したすべてのラベルバインディングに適用されます。from
表 1from
LDP受信ラベルフィルタリングに適用される演算子のみを列挙します。
from オペレーター |
説明 |
---|---|
|
指定したインターフェースで隣接する隣人から受信したバインディングにマッチする |
|
指定されたLDPルーターIDから受信したバインディングにマッチする |
|
指定したインターフェースアドレスを広告している近隣から受信したバインディングにマッチする |
|
指定した接頭辞を持つバインディングにマッチします。 |
バインディングがフィルタリングされた場合、LDP データベースには表示されますが、ラベル スイッチド パス (LSP)の一部としてインストールされることは考慮されません。
一般に、LDP のポリシー適用は、LSP の確立を阻止するためにのみ使用でき、そのルーティングを制御するために使用できるわけではありません。これは、LSP がたどる経路は、LDP ではなくユニキャストルーティングで決定されるためです。しかし、異なるネイバーを経由したデスティネーションへのイコールコスト パスが複数存在する場合、LDP フィルタリングを使用して、可能性のあるネクスト ホップの一部を考慮から除外することができます。(そうでない場合は、LDPはネクストホップの候補の中からランダムに1つを選択します)。
LDPセッションは、インターフェイスやインターフェイスアドレスにバインドされません。LDP は、 ルータ単位 (インタフェース単位ではない) のラベルのみを広告するため、 2 つのルータ間に複数のパラレル リンクが存在する場合、 LDP セッションは 1 つしか確立されず、 また 1 つのインタフェースに拘束されません。ルーターが同じネイバーに複数の隣接関係を持つ場合、フィルターが期待通りの働きをするように注意してください。next-hop
interface
(一般的に、この場合andの使用は適切ではありません)。
ラベルがフィルタリングされた場合(ポリシーによって拒否され,LSPの構築に使用されないことを意味する),データベース内でフィルタリング済みとマークされる。
user@host> show ldp database Input label database, 10.10.255.1:0-10.10.255.6:0 Label Prefix 3 10.10.255.6/32 (Filtered) Output label database, 10.10.255.1:0-10.10.255.6:0 Label Prefix 3 10.10.255.1/32 (Filtered)
LDPのポリシーを設定する方法についての詳細は、ルーティングポリシー、ファイアウォールフィルター、トラフィックポリサーのユーザーガイドをご覧ください。
例:インバウンドLDPラベルバインディングのフィルタリング
すべてのネイバーから/32プレフィックスのみを受け入れる。
[edit] protocols { ldp { import only-32; ... } } policy-options { policy-statement only-32 { term first { from { route-filter 0.0.0.0/0 upto /31; } then reject; } then accept; } }
131.108/16
10.10.255.2
ルータ ID からは accept or longer、他のすべてのネイバーからは all prefix を accept します。
[edit] protocols { ldp { import nosy-neighbor; ... } } policy-options { policy-statement nosy-neighbor { term first { from { neighbor 10.10.255.2; route-filter 131.108.0.0/16 orlonger accept; route-filter 0.0.0.0/0 orlonger reject; } } then accept; } }
アウトバウンドLDPラベルバインディングのフィルタリング
エクスポートポリシーを設定することで、LDPアウトバウンドラベルのフィルター処理ができます。ルーティングポリシーを適用することで、アウトバウンドラベルバインディングをフィルター処理し、バインディングが隣接ルーターにアドバタイズされることを阻止できます。アウトバウンドラベルフィルタリングを設定するには、export
ステートメントを入れます。
export [policy-name];
このステートメントを含めることができる階層レベルの一覧は、このステートメントのステートメント概要のセクションを参照してください。
指名されたエクスポートポリシー([edit policy-options]
の階層レベルで設定)は、すべてのLDPネイバーに送信された全ラベルバインディングに適用されます。LDPアウトバウンドラベルフィルタリングに適用された唯一のfrom
演算子はroute-filter
で、特定のプレフィックスのバインディングに一致します。アウトバウンドラベルフィルタリングに適用された唯一のto
演算子は、表 2にある演算子です。
to演算子 |
説明 |
---|---|
|
指定されたインターフェイス上に隣接するネイバーに送信されたバインディングに一致 |
|
指定されたLDPルーターIDに送信されたバインディングに一致 |
|
指定されたインターフェイスアドレスをアドバタイズするネイバーに送信されたバインディングに一致 |
バインディングがフィルター処理されると、そのバインディングは隣接ルーターにはアドバタイズされませんが、ローカルルーターのLSPの一部としてインストールすることは可能です。LDPにポリシーを適用して、LSPの確立を止めることができますが、そのルーティングを操作することはできません。LSPがたどるパスは、LDPではなく、ユニキャストルーティングが決定します。
LDPセッションは、インターフェイスやインターフェイスアドレスにバインドされません。LDPは、ルーター単位(インターフェイス単位ではなく)のラベルのみをアドバタイズします。複数のパラレルリンクが2つのルーター間で存在する場合、1つのLDPセッションのみが確立され、単一のインターフェイスにはバインドされません。
ルーターが同じネイバーに複数の隣接関係がある場合、next-hop
やinterface
の演算子は使用しないでください。
フィルターされたラベルは、データベースで記録されています。
user@host> show ldp database Input label database, 10.10.255.1:0-10.10.255.3:0 Label Prefix 100007 10.10.255.2/32 3 10.10.255.3/32 Output label database, 10.10.255.1:0-10.10.255.3:0 Label Prefix 3 10.10.255.1/32 100001 10.10.255.6/32 (Filtered)
LDPのポリシーを設定する方法についての詳細は、ルーティングポリシー、ファイアウォールフィルター、トラフィックポリサーのユーザーガイドをご覧ください。
例:アウトバウンドLDPラベルバインディングのフィルタリング
すべてのネイバーへの10.10.255.6/32
に対するルートのトランスミッションを阻止します。
[edit protocols] ldp { export block-one; } policy-options { policy-statement block-one { term first { from { route-filter 10.10.255.6/32 exact; } then reject; } then accept; } }
131.108/16
もしくはそれより長いものだけをルーターID10.10.255.2
に送信し、他全てのルーターにすべてのプレフィックスを送信します。
[edit protocols] ldp { export limit-lsps; } policy-options { policy-statement limit-lsps { term allow-one { from { route-filter 131.108.0.0/16 orlonger; } to { neighbor 10.10.255.2; } then accept; } term block-the-rest { to { neighbor 10.10.255.2; } then reject; } then accept; } }
LDPで使用するトランスポートアドレスの指定
ルーターは、まずLDPセッションを確立する前に、互いにTCPセッションを確立する必要があります。TCPセッションでは、ルーターがLDPセッションに必要なラベルアドバタイズを交換できます。TCPセッションを確立するには、各ルーターがもう一方のルーターのトランスポートアドレスを学習する必要があります。トランスポートアドレスは、LDPセッションが実行するTCPセッションを特定するのに使用されるIPアドレスです。
LDPトランスポートアドレスを設定するには、transport-addressステートメントを含めます。
transport-address (router-id | interface);
このステートメントを含めることができる階層レベルの一覧は、このステートメントのステートメント概要のセクションを参照してください。
router-id
オプションを指定した場合、ルーター識別子のアドレスはトランスポートアドレスとして使用されます(特に設定されていない限り、ルーター識別子は通常ループバックアドレスと同じです)。interface
オプションを指定した場合、インターフェイスアドレスは、そのインターフェイス上で到達できるネイバーへのLDPセッションのトランスポートアドレスとして使用されます。ルーター識別子は、デフォルトでトランスポートアドレスとして使用されます。
正しく動作するためには、LDPトランスポートアドレスに到達できる必要があります。ルーターIDは識別子であり、ルーティング可能なIPアドレスではありません。このため、ループバックアドレスと一致するようにルーターIDを設定して、ループバックアドレスをIGPでアドバタイズすることを推奨します。
LDP仕様では、同じネイバーへのすべてのインターフェイスで同じトランスポートアドレスをアドバタイズする必要があるため、同じLDPネイバーに複数のパラレルリンクがある場合、interface
オプションを指定することができません。LDPが同じネイバーへの複数のパラレルリンクを検出した場合、インターフェイス上のネイバーを切断するか、 router-id
オプションを指定することにより条件がクリアされるまで、そのネイバーへのインターフェイスを1つずつ無効にします。
ターゲット LDP セッションに使用されるトランスポートアドレスを制御する
2 つのデバイス間に TCP セッションを確立するには、各デバイスがもう片方のデバイスのトランスポートアドレスを学習する必要があります。トランスポートアドレスは、LDP セッションが稼働する TCP セッションを特定するのに使用される IP アドレスです。これまでは、このトランスポートアドレスはルーター ID またはインターフェイスアドレスに限定されていました。LDP トランスポートアドレス機能を使うと、レイヤー 2 回線、MPLS、VPLS 隣接関係のターゲット LDP ネイバーのトランスポートアドレスとして IP アドレスを明示的に設定できます。これにより、トランスポートアドレス設定を使用してターゲット LDP セッションをコントロールできるようになります。
- ターゲット LDP セッションに使用されるトランスポートアドレスをコントロールすることの利点
- ターゲット LDP トランスポートアドレスの概要
- トランスポートアドレスの優先度
- トランスポートアドレス設定のトラブルシューティング
ターゲット LDP セッションに使用されるトランスポートアドレスをコントロールすることの利点
ターゲット LDP セッションを確立するためにトランスポートアドレスを設定することには、次のような利点があります。
Flexible interface configurationsターゲット LDP ネイバー間の LDP セッション作成を中断させることなく、1 つのループバックインターフェイスに複数の IP アドレスを設定する柔軟性を提供します。
Ease of operation— インターフェイスレベルで設定されているトランスポートアドレスでは、LDP 向けの IGP バックボーンで複数のプロトコルを使用できます。これにより、スムーズで簡単な操作が可能になります。
ターゲット LDP トランスポートアドレスの概要
Junos OS リリース 19.1R1 以前は、LDP はすべての LDP インターフェイスのトランスポートアドレスとしてのルーター ID またはインターフェイスアドレスへのみサポートを提供していました。そのインターフェイスで形成された隣接関係は、インターフェイスまたはルーター ID に割り当てられた IP アドレスの 1 つを使用しました。ターゲットの隣接関係がある場合、インターフェイスはループバックインターフェイスです。デバイスに複数のループバックアドレスが設定されていた場合、トランスポートアドレスはインターフェイスから派生できず、その結果 LDP セッションを確立できません。
Junos OS リリース 19.1R1 以降は、session
session-group
とinterface
設定ステートメントの下で、ターゲット LDP セッションのトランスポートアドレスに使用されるデフォルト IP アドレスに加えて、他の IP アドレスをトランスポートアドレスとして設定することができます。トランスポートアドレス設定は、レイヤー 2 回線、MPLS、VPLS 隣接関係を含む設定されたネイバーのみに適用されます。この設定は、検知された隣接関係(ターゲットかどうかは関係ない)には適用されません。
トランスポートアドレスの優先度
セッション、セッショングループ、およびインターフェイスレベルで、ターゲット LDP セッションのトランスポートアドレスを設定できます。
トランスポートアドレスが設定された後、LDP のトランスポートアドレス設定に基づいてターゲット LDP セッションが確立されます。
ターゲットネイバー(レイヤー 2 回線、MPLS、VPLS、LDP 設定で設定)のトランスポートアドレスの優先度は、次のような順で設定されています。
[edit protocols ldp session]
階層の下。[edit protocols ldp session-group]
階層の下。[edit protocols ldp interfcae lo0]
階層の下。[edit protocols ldp]
階層の下。デフォルトのアドレス。
検出されたネイバーのトランスポートアドレスの優先度は、次のような順序になっています。
[edit protocols ldp interfcae]
階層の下。[edit protocols ldp]
階層の下。デフォルトのアドレス。
自動ターゲットネイバーのトランスポートアドレスの優先順位(LDP が hello パケットを承認するよう設定されている)は次のとおりです:
[edit protocols ldp interfcae lo0]
階層の下。[edit protocols ldp]
階層の下。デフォルトのアドレス。
トランスポートアドレス設定のトラブルシューティング
次の表示コマンド出力を使用して、ターゲット LDP セッションのトラブルシューティングを行うことができます。
show ldp session
show ldp neighbor
コマ
show ldp neighbor
ンドの出力のdetail
レベルには、hello メッセージでターゲットネイバーに送信されたトランスポートアドレスが表示されます。このアドレスがネイバーから到達できない場合、LDP セッションは表示されません。show configuration protocols ldp
また、LDP 形跡オプションを有効にしてさらにトラブルシューティングを行うこともできます。
無効なトランスポートアドレス(到達不可能)の使用から、有効なトランスポートアドレス使用に設定が変更された場合、次の形跡が観察されます:
May 29 10:47:11.569722 Incoming connect from 10.55.1.4 May 29 10:47:11.570064 Connection 10.55.1.4 state Closed -> Open May 29 10:47:11.570727 Session 10.55.1.4 state Nonexistent -> Initialized May 29 10:47:11.570768 Session 10.55.1.4 state Initialized -> OpenRec May 29 10:47:11.570799 LDP: Session param Max PDU length 4096 from 10.55.1.4, negotiated 4096 May 29 10:47:11.570823 Session 10.55.1.4 GR state Nonexistent -> Operational May 29 10:47:11.669295 Session 10.55.1.4 state OpenRec -> Operational May 29 10:47:11.669387 RPD_LDP_SESSIONUP: LDP session 10.55.1.4 is up
有効なトランスポートアドレスの使用から、無効なトランスポートアドレス(到達不可能)使用に設定が変更された場合、次の形跡が観察されます:
May 29 10:42:36.317942 Session 10.55.1.4 GR state Operational -> Nonexistent May 29 10:42:36.318171 Session 10.55.1.4 state Operational -> Closing May 29 10:42:36.318208 LDP session 10.55.1.4 is down, reason: received notification from peer May 29 10:42:36.318236 RPD_LDP_SESSIONDOWN: LDP session 10.55.1.4 is down, reason: received notification from peer May 29 10:42:36.320081 Connection 10.55.1.4 state Open -> Closed May 29 10:42:36.322411 Session 10.55.1.4 state Closing -> Nonexistent
設定がうまくいかない場合は、次のトラブルシューティングタスクを実行してください。
をチェックします
address family
。session
ステートメントの下で設定されたトランスポートアドレスは、ネイバーまたはセッションとして同じアドレスファミリーに属している必要があります。neighbor
またはsession
ステートメントの下のトランスポートアドレスとして設定されたアドレスは、ターゲットの hello メッセージが起動するルーターに対してローカルなものである必要があります。アドレスが設定済みかどうかチェックできます。どのインターフェイスの下でもアドレスが設定されていない場合、設定は拒否されます。
ルーティングテーブルから LDP にアドバタイズするプレフィックスの設定
LDP にアドバタイズする一連のプレフィックスを制御し、ルーターをそれらのプレフィックスのエグレス ルーターとして、設定することができます。デフォルトでは、ループバックアドレスのみが LDP にアドバタイズされます。LDP にアドバタイズするルーティングテーブルのプレフィックスのセットを設定するには、 egress-policy
ステートメントを使用します。
egress-policy policy-name;
このステートメントを含めることができる階層レベルの一覧は、このステートメントのステートメント概要のセクションを参照してください。
ループバックアドレスを含まない LDP 用のエグレスポリシーを設定した場合、LDP でアドバタイズすることはありません。ループバックアドレスのアドバタイズを継続するには、LDP のエグレスポリシーの一部として明示的に設定する必要があります。
指定されたポリシー( [edit policy-options]
または [edit logical-systems logical-system-name policy-options]
階層レベルで設定)は、ルーティングテーブルのすべてのルートに適用されます。ポリシーに一致するルートは、LDP にアドバタイズされます。export
ステートメントを使用して、これらのプレフィックスがアドバタイズされるネイバーのセットを制御することができます。考慮されるのは from のオペレーターのみで、有効な from のオペレーターを使用することができます。詳細については、 ルーティングデバイス用 Junos OS ルーティングプロトコルライブラリをご覧ください。
ACX シリーズのルーターは、[edit logical-systems
]階層レベルをサポートしていません。
例:LDP にアドバタイズされるプレフィックスの設定
すべての接続されたルートを LDP にアドバタイズします。
[edit protocols] ldp { egress-policy connected-only; } policy-options { policy-statement connected-only { from { protocol direct; } then accept; } }
FEC Deaggregationの設定
LDP の出口ルータが複数のプレフィックスを広告する場合、 プレフィックスは 1 つのラベルに束ねられ、 1 つの FEC (forwarding equivalence class) に集約されます。デフォルトでは、 LDP はアドバタイズがネットワークを通過する際にこのアグレゲーショ ンを維持します。
通常、LSPは複数のネクストホップに分割されず、プレフィックスが単一のLSPに束ねられるため、等コストパス間の負荷分散は発生しない。ただし、ロードバランシングポリシーを設定し、FECを縮退させれば、等コストパス間でロードバランシングを行うことができます。
FEC を Deaggregate すると、各プレフィックスが別々のラベルにバインドされ、別々の LSP となります。
デアグリゲーション FECを設定するには、deaggregate
ステートメントを含めます。
deaggregate;
このステートメントを含めることができる階層レベルの一覧は、このステートメントのステートメント概要のセクションを参照してください。
すべての LDP セッションに対して、グローバルにのみデアグリゲーション FEC を設定できます。
FECを縮退することで、結果として複数のLSPを複数のイコールコストパスに分散させ、イグレスセグメント上の複数のネクストホップにLSPを分散させますが、LSPごとにネクストホップを1つだけ設置することができます。
no-deaggregate
FECを集計する場合は、その旨を記載する。
no-deaggregate;
このステートメントを含めることができる階層レベルの一覧は、このステートメントのステートメント概要のセクションを参照してください。
すべての LDP セッションについて、グローバルにのみ集約 FEC を設定できます。
LDP FEC のポリシーの設定
Junos OS を設定して LDP FEC のトラフィックを追跡して規制できます。LDP FEC ポリシーは、以下のいずれかの方法で実行することができます。
LDP FEC のイングレストラフィックを追跡または規制する。
LDP FEC のトランジットトラフィックを追跡または規制する。
特定の転送クラスから発信された LDP FEC のトラフィックを追跡または規制する。
特定の仮想ルーティングおよび転送(VRF)サイトから発信された LDP FECトラフィックを追跡または規制する。
特定の LDP FEC に対してバインドされた偽トラフィックを廃棄する。
LDP FEC のトラフィックを規制するには、まずフィルターを設定する必要があります。具体的には、 [edit firewall family protocol-family filter filter-name term term-name from]
階層レベルでinterface
ステートメントまたはinterface-set
ステートメントのいずれかを設定する必要があります。interface
ステートメントでは、フィルターを単一のインターフェイスに一致させることができます。interface-set
ステートメントでは、フィルターを複数のインターフェイスに一致させることができます。
LDP FEC のinterface
ステートメント、interface-set
ステートメント、ポリシーの設定方法については、ルーティング ポリシー、ファイアウォール フィルター、トラフィック ポリシーユーザー ガイドを参照してください。
フィルターを設定した後、LDP のpolicing
ステートメント設定に含める必要があります。LDP FEC のポリシーを設定するには、policing
ステートメントを含めます。
policing { fec fec-address { ingress-traffic filter-name; transit-traffic filter-name; } }
このステートメントを含めることができる階層レベルの一覧は、このステートメントのステートメント概要のセクションを参照してください。
policing
ステートメントには、以下のオプションが含まれます。
fec
—規制する LDP FEC の FEC アドレスを指定します。ingress-filter
—イングレストラフィックフィルターの名前を指定します。transit-traffic
—トランジットトラフィックフィルターの名前を指定します。
LDP IPv4 FECフィルターの設定
デフォルトでは、ターゲットLDPセッションが確立されると、Junos OSは常にIPv4転送等価クラス(FEC)とレイヤー2回線FECの両方をターゲットLDPセッション上で交換します。間接的に接続されたネイバーへのLDPセッションの場合、セッションがレイヤー2回線またはVPLSをサポートするように特別に設定されている場合にのみ、レイヤー2回線FECをネイバーにエクスポートすることができます。
すべての非BGPプレフィックスがLDPにアドバタイズされる混合ベンダーネットワークでは、LDPデータベースが大きくなる可能性があります。このタイプの環境では、レイヤー2回線またはLDP VPLS設定が原因で形成されたLDPセッションを介したIPv4 FECをアドバタイズしないようにすることが有効な場合があります。同様に、このような環境で受信したIPv4 FECをフィルタリングすることも有用です。
LDPセッションに関連するすべてのLDPネイバーがレイヤー2のみである場合、l2-smart-policy
ステートメントを設定することにより、レイヤー2回線FECのみをアドバタイズするようにJunos OSを設定できます。また、この機能は、このセッションで受信したIPv4 FECを自動的にフィルタリングします。l2-smart-policy
に対して有効化される明示的なエクスポートまたはインポートポリシーを設定すると、対応する方向でこの機能が無効になります。
検出された隣接関係が原因でLDPセッションのネイバーの1つが形成された場合、または1つ以上のRSVP LSPのLDPトンネリング設定が原因で隣接関係が形成された場合、IPv4 FECはデフォルトの動作を使用してアドバタイズおよび受信されます。
LDPがレイヤー2ネイバーとのLDPセッションでのみIPv4 FECをエクスポートしないようにし、そのようなセッションで受信したIPv4 FECを除外するには、l2-smart-policy
ステートメントを使用します。
l2-smart-policy;
このステートメントを設定できる階層レベルの一覧については、このステートメントの概要を参照してください。
LDP LSPに対してBFDを設定する
LDP LSPに対して、Bidirectional Forwarding Detection(BFD)を設定できます。BFDプロトコルは、ネットワーク内の障害を検出するための単純なhelloメカニズムです。Helloパケットは指定された、定期的な間隔で送信されます。ルーターが一定時間経過した後に応答を受信しなくなった場合に、ネイバーの障害が検出されます。BFDは、さまざまなネットワーク環境とトポロジーで動作します。BFDの障害検出タイマーでは、静的ルートの障害検出メカニズムよりも制限時間が短くなっており、より高速に検出できます。
パスのBFDセッションが失敗するたびにエラーがログに記録されます。以下は、LDP LSPに対するBFDのログメッセージの一例を示しています。
RPD_LDP_BFD_UP: LDP BFD session for FEC 10.255.16.14/32 is up RPD_LDP_BFD_DOWN: LDP BFD session for FEC 10.255.16.14/32 is down
また、RSVP信号付きLSPに対してBFDを設定するに記載されているように、RSVP LSPに対してBFDを設定することもできます。
BFDの障害検出タイマーは適応型であり、より厳格に、またはよりゆるめに調整することができます。例えば、隣接関係に障害が発生した場合にタイマーをより高い値に適応したり、ネイバーが設定されている値よりも高い値のタイマーをネゴシエートしたりすることができます。BFDセッションのフラップが15秒間に3回以上発生すると、タイマーはより高い値に適応します。バックオフアルゴリズムは、ローカルBFDインスタンスがセッションフラップの原因である場合に、受信(Rx)の間隔を2つ増加させます。リモートBFDインスタンスがセッションフラップの原因である場合は、送信(Tx)の間隔が2つ増加します。clear bfd adaptation
コマンドを使用すれば、BFD間隔タイマーを設定した値に戻すことができます。clear bfd adaptation
コマンドはヒットレスであり、コマンドがルーティングデバイスのトラフィックフローに影響を及ぼすことはありません。
LDP LSPに対してBFDを有効にするには、oam
およびbfd-liveness-detection
ステートメントを含めます。
oam { bfd-liveness-detection { detection-time threshold milliseconds; ecmp; failure-action { remove-nexthop; remove-route; } holddown-interval seconds; ingress-policy ingress-policy-name; minimum-interval milliseconds; minimum-receive-interval milliseconds; minimum-transmit-interval milliseconds; multiplier detection-time-multiplier; no-adaptation; transmit-interval { minimum-interval milliseconds; threshold milliseconds; } version (0 | 1 | automatic); } fec fec-address { bfd-liveness-detection { detection-time threshold milliseconds; ecmp; failure-action { remove-nexthop; remove-route; } holddown-interval milliseconds; ingress-policy ingress-policy-name; minimum-interval milliseconds; minimum-receive-interval milliseconds; minimum-transmit-interval milliseconds; multiplier detection-time-multiplier; no-adaptation; transmit-interval { minimum-interval milliseconds; threshold milliseconds; } version (0 | 1 | automatic); } no-bfd-liveness-detection; periodic-traceroute { disable; exp exp-value; fanout fanout-value; frequency minutes; paths number-of-paths; retries retry-attempts; source address; ttl ttl-value; wait seconds; } } lsp-ping-interval seconds; periodic-traceroute { disable; exp exp-value; fanout fanout-value; frequency minutes; paths number-of-paths; retries retry-attempts; source address; ttl ttl-value; wait seconds; } }
特定の転送等価クラス(FEC)に関連づけられたLDP LSPに対してBFDを有効にするには、[edit protocols ldp]
階層レベルでfec
オプションを使用してFECアドレスを設定します。または、Operation Administration and Management(OAM)イングレスポリシーを設定して、FECアドレスの範囲でBFDを有効にすることもできます。詳細については、LDPに対してOAMイングレスポリシーを設定するを参照してください。
BFD LDP LSPは、同等のFECアドレスが明示的に設定されているか、OAMイングレスポリシーを使用してFECでOAMが有効になっていなければ、有効にすることはできません。FECアドレスに対してBFDが有効になって場合、BFDセッションは立ち上がりません。
以下の階層レベルでoam
ステートメントを設定することができます。
[edit protocols ldp]
[edit logical-systems logical-system-name protocols ldp]
ACX シリーズのルーターは、[edit logical-systems
]階層レベルをサポートしていません。
oam
ステートメントには、以下のオプションが含まれます。
fec
—FECアドレスを指定します。BFDセッションを立ち上げるためには、FECアドレスを指定するかOAMイングレスポリシーを設定する必要があります。lsp-ping-interval
—LSPのping間隔を秒単位で指定します。LDPシグナル化されたLSPでpingを発行するには、ping mpls ldp
コマンドを使用します。詳細については、CLIエクスプローラーを参照してください。
bfd-liveness-detection
ステートメントには、以下のオプションが含まれます。
ecmp
—指定されたFECに対して設定されたすべてのECMPパスに対して、LDPがBFDセッションを確立するようにします。ecmp
オプションを設定する場合、指定したFECに対してもperiodic-traceroute
ステートメントを設定する必要があります。設定しなかった場合、Commitの動作が失敗します。periodic-traceroute
ステートメントをグローバル階層レベル([edit protocols ldp oam]
)で設定しながら、特定のFEC([edit protocols ldp oam fec address bfd-liveness-detection]
)に対してのみecmp
オプションを設定することができます。ホールドダウン間隔—ルートまたはネクストホップを追加する前に、BFDセッションの立ち上げた状態を維持しておく長さを指定します。0 秒を指定すると、BFD セッションが復旧するとすぐに、ルートやネクスト ホップが追加されます。
minimum-interval
—最小の受送信間隔を指定します。minimum-interval
オプションを設定する場合、minimum-receive-interval
オプションまたはminimum-transmit-interval
オプションを設定する必要はありません。minimum-receive-interval
—最小の受信間隔を指定します。1~255,000ミリ秒の範囲になります。minimum-transmit-interval
—最小の送信間隔を指定します。1~255,000ミリ秒の範囲になります。multiplier
—検出時間の倍率を指定します。1~255の範囲になります。バージョン—BFDバージョンを指定します。オプションは、BFDバージョン0またはBFDバージョン1となります。デフォルトでは、Junos OSソフトウェアが自動的にBFDバージョンを判断しようと試みます。
LDP LSP 向け ECMP-Aware BFD 設定
FEC に BFD を設定すると、ルーターのアクティブ ローカル ネクストホップ 1 つのみに対し、BFD セッションが確立されます。ただし、複数の BFD セッションを設定することができ、特定の ECMP(イコールコストマルチパス)パスに関連する FEC ごとに 1 つずつ設定することができます。これが正常に機能するために、 LDP LSP の定期的なトレースルートも設定する必要があります。(LDP LSP トレースルートの設定を参照してください)。LDP LSP トレースルートは、ECMP パスを発見するために使用されます検出された各 ECMP パスに BFD セッションが開始されます。ECMP パスの 1 つに対する BFD セッションが失敗するたびに、エラーが記録されます。
LDP LSP トレースルートを定期的に実行し、ECMP パスの整合性を確認します。問題が発見された場合、以下のようなことが発生する可能性があります。
ある FEC の最新の LDP LSP トレースルートが前回のトレースルートとは異なる場合、その FEC に関連する BFD セッション(前回の実行から変更されたアドレス範囲)の BFD セッションはダウンし、変更された宛先アドレスに対して新しい BFD セッションが開始されます。範囲。
LDP LSP トレースルートがエラー(例、タイムアウト)を返す場合、その FEC に関連するすべての BFD セッションは破棄されます。
指定された FEC に設定されたすべての ECMP パスに対して、BFD セッションを確立するよう LDP を設定するには、ecmp
ステートメントを含めます。
ecmp;
このステートメントを含めることができる階層レベルの一覧は、このステートメントのステートメント概要のセクションを参照してください。
ecmp
ステートメントとともに、periodic-traceroute
ステートメントもグローバル LDP OAM 設定([edit protocols ldp oam]
または[edit logical-systems logical-system-name protocols ldp oam]
階層レベル)または指定された FEC の設定([edit protocols ldp oam fec address]
または[edit logical-systems logical-system-name protocols ldp oam fec address]
階層レベル)に含める必要があります。それ以外の場合、コミット操作は失敗します。
ACX シリーズのルーターは、[edit logical-systems
]階層レベルをサポートしていません。
LDP LSP での BFD セッションの障害アクションの設定
LDP LSP で BFD セッション障害イベントが発生した場合、ルートおよびネクストホップ プロパティを設定できます。障害イベントは、ダウンした既存の BFD セッションまたは起動しない BFD セッションです。LDP は、関連する BFD セッションが復帰すると、ルートまたはネクスト ホップを追加します。
LDP LSP で BFD セッション障害が発生した場合の failure-action
ステートメントの障害アクション オプションの 1 つを設定できます。
remove-nexthop
—BFD セッション障害イベントが検出された場合、イングレス ノードの LSP ルートのネクスト ホップに対応するルートを削除します。remove-route
—BFD セッション障害イベントが検出された場合、適切なルーティング テーブルから LSP に対応するルールを削除します。LSP が ECMP で設定されており、いずれかのパスに対応する BFD セッションがダウンした場合、ルートが削除されます。
LDP LSP で BFD セッション障害が発生した場合の障害イベントを設定するには、remove-nexthop
ステートメントにオプションまたは failure-action
ステートメントに remove-route
オプションを含めます。
failure-action { remove-nexthop; remove-route; }
このステートメントを含めることができる階層レベルの一覧は、このステートメントのステートメント概要のセクションを参照してください。
BFD セッションのホールドダウン間隔を設定する
BFD セッションがルートやネクスト ホップを追加するまでの時間を指定するには、holddown-interval
ステートメントを [edit protocols ldp oam bfd-livenesss-detection]
階層レベルまたは [edit protocols ldp oam fec address bfd-livenesss-detection]
階層レベルのいずれかで設定する必要があります。0 秒を指定すると、BFD セッションが復旧するとすぐに、ルートやネクスト ホップが追加されます。
holddown-interval seconds;
このステートメントを含めることができる階層レベルの一覧は、このステートメントのステートメント概要のセクションを参照してください。
LDPリンク保護の設定
LDP(Label Distribution Protocol)リンクプロテクションは、ユニキャストおよびマルチキャストのLDPラベルスイッチパス(LSP)に対して設定し、リンクやノードの障害時に耐障害性を持たせることが可能です。
開始する前に、以下を実行します。
デバイスインターフェイスを設定します。
機器のルーター ID と自律システム番号を設定する。
以下のプロトコルを設定します。
RSVP
トラフィック制御機能を搭載したMPLS。
トラフィック制御機能を搭載したOSPF。
注:ループフリーオルタナティブ(LFA)を使用したマルチキャストLDPリンク保護の場合は、リンク保護を有効にします。
[edit protocols] user@R0# set ospf area 0 interface all link-protection
LDPリンク保護を設定する。
例:LDPリンク保護の設定
LDPリンク保護の概要
- 自民党入門
- Junos OS LDP プロトコル実装
- LDP のマルチポイント拡張について
- ターゲット LDP セッションでの LDP へのマルチポイント拡張の使用
- LDPリンク保護の現在の制限
- RSVP LSP をソリューションとして使用
- マルチキャストLDPリンク保護について
- LDPリンク保護を提供するためのさまざまなモード
- LDPリンク保護のためのラベル操作
- マルチキャストLDPリンク保護設定の例
- メイク・ビフォア・ブレーク
- 注意事項と制限事項
自民党入門
LDP(Label Distribution Protocol)は、トラフィックを発生させないアプリケーションでラベルを配布するためのプロトコルです。LDP は、ネットワーク層の経路情報をデータリンク LSP に直接マッピングすることで、ネットワークを介したラベルスイッチドパス(LSP)を確立することを可能にします。
これらのLSPは、直接接続された隣人(IPホップバイホップ転送に相当)を終点とする場合もあれば、ネットワークの出口ノードで、すべての中間ノードを介した切り替えを可能にする場合もあります。LDP で確立した LSP は、RSVP で作成したトラフィックエンジニアリング LSP も通過することができます。
LDP は、作成する各 LSP に FEC (Forwarding Equivalence Class) を関連付けます。LSP に関連する FEC は、どのパケットがその LSP にマッピングされるかを指定します。各ルーターは、ネクスト ホップが FEC 用にアドバタイズしたラベルを選択し、他のすべてのルーターにアドバタイズするラベルにスプライスすることで、LSP はネットワークを介して拡張されます。このプロセスは、出口ルータに収束するLSPのツリーを形成します。
Junos OS LDP プロトコル実装
Junos OS の LDP の実装は、LDP バージョン 1 をサポートしています。Junos OS は、IGP(内部ゲートウェイ プロトコル)のルーター間でのトンネリングのためのシンプルなメカニズムをサポートしており、コア内での外部ルートの必要な配信を除去しています。Junos OSでは、MPLS トンネルのネクスト ホップをネットワーク内のすべてのエグレス ルーターに許可し、コアで実行する IGP のみでエグレス ルーターにルートを分配します。エッジ ルーターは BGP を実行しますが、外部ルートをコアに配信しません。その代わり、エッジでの再帰的なルート検索では、エグレス ルーターに切り替えられた LSP に解決されます。トランジットの LDP ルーターには外部ルートは必要ありません。
LDP のマルチポイント拡張について
LDP は、ネットワークにポイントツーポイント、マルチポイントツーポイント、ポイントツーマルチポイント、およびマルチポイントツーマルチポイント LSP を設定するためのメカニズムを定義します。ポイントツーマルチポイントおよびマルチポイントツーマルチポイント LSP は、まとめてマルチポイント LSP と呼ばれ、トラフィックはそれぞれ単一の送信元から複数の宛先に、および複数の送信元から複数の宛先にトラフィックが流れます。宛先ルーターまたは出口ルーターはリーフ ノードと呼ばれ、送信元からのトラフィックはリーフ ノードに到達する前に 1 つ以上のトランジット ノードを通過します。
Junos OS では、マルチポイントツーマルチポイント LSP はサポートされません。
マルチポイント LSP は、ネットワークの MPLS パケット レプリケーション機能を活用することで、イングレス ルーターでの不要なパケット レプリケーションを回避します。パケット レプリケーションは、異なるネットワーク パスを必要とする 2 つ以上の異なる宛先にパケットが転送される場合にのみ実行されます。
ターゲット LDP セッションでの LDP へのマルチポイント拡張の使用
LDP へのマルチポイント拡張の仕様では、LDP セッションの 2 つのエンドポイントがレイヤー 2 メディアによって直接接続されているか、ネットワークの IGP によってネイバーと見なされる必要があります。これは LDP リンク セッションと呼ばれます。LDP セッションの 2 つのエンドポイントが直接接続されていない場合、そのセッションはターゲット LDP セッションと呼ばれます。
過去の Junos OS 実装では、リンク セッションでのみマルチキャスト LDP がサポートされていました。LDPリンク保護機能の導入により、マルチキャストLDP機能はターゲットLDPセッションに拡張されます。 図 2 に、トポロジーの例を示します。
ルーター R7 と R8 は、それぞれアップストリーム(LSR-U)とダウンストリーム(LSR-D)のラベルスイッチ ルーター(LSR)であり、マルチキャスト LDP を展開します。コアルーターであるルーターR5では、RSVP-TEが有効になっています。
LSR-D がルートおよび LSP ID 属性を使用してポイントツーマルチポイント LSP を設定する際、ルートへの最適パス上のネクストホップとしてアップストリーム LSR-U を決定します(現在、このネクストホップは IGP ネクストホップと想定されています)。
ターゲット LDP セッションでのマルチキャスト LDP サポートにより、LSR-D と LSR-U が直接接続されたネイバーではなく、ターゲット LDP ピアである LSR-D のルートへのパス上に LSR-U への LSP ネクストホップがあるかどうかを判断できます。LSR-D と LSR-U の間のターゲット LDP セッションでアドバタイズされるポイントツーマルチポイント ラベルは、LSR-D と LSR-U の間に LSP がない限り使用されません。そのため、LSR-UからLSR-Dとは逆方向の対応するLSPが必要となります。
データは、パケットのユニキャスト レプリケーションを使用してポイントツーマルチポイント LSP で送信されます。LSR-U は、ポイントツーマルチポイント LSP の各ダウンストリーム LSR に 1 つのコピーを送信します。
データ送信は、次のように実装されます。
ターゲット LDP セッションのポイントツーマルチポイント機能がネゴシエートされます。
アップストリーム LSR を選択するアルゴリズムが変更され、IGP ネクストホップが利用できない場合、つまり LSR-D と LSR-U の間に LDP リンク セッションがない場合、LSVP LSP がネクスト ホップとして使用され、LSR-U に到達します。
ターゲットのLDPセッションで受信した着信ラベルは、LDPラベルを内側ラベル、RSVPラベルを外側ラベルとする、このポイントツーマルチポイントFECルートのブランチネクストホップとしてインストールされます。
LDPリンク保護の現在の制限
LDPネットワーク展開でリンクまたはノードに障害が発生した場合、ミッションクリティカルなサービスのために影響を受けたトラフィックフローを回復するために、迅速なトラフィックリカバリを提供する必要があります。マルチポイント LSP の場合、ポイントツーマルチポイント ツリーのリンクの 1 つに障害が発生すると、IGP が再コンバージェンスし、ダウンストリーム ルーターから新しいアップストリーム ルーターへの最適なパスを使用してマルチポイント LSP が確立されるまで、サブツリーが切り離される可能性があります。
LDPトラフィックのローカル修復を使用した高速再ルートでは、バックアップパス(修復パス)がパケット転送エンジンに事前インストールされています。プライマリ パスに障害が発生すると、トラフィックはバックアップ パスに迅速に移動され、ルーティング プロトコルの収束を待つ必要はありません。ループフリー代替(LFA)は、コアネットワークおよびサービスプロバイダネットワークでIP高速再ルート機能を提供するために使用される方法の1つです。
LFAを使用しない場合、リンクやルーターに障害が発生したり、サービスが復旧したりすると、分散ルーティングアルゴリズムがネットワークの変更に基づいて新しいルートを計算します。新しいルートが計算される時間は、ルーティング遷移と呼ばれます。ルーティングの遷移が完了するまで、障害に隣接するルーターは、代替パスが識別されるまで、障害が発生したコンポーネントを介してデータパケットを転送し続けるため、ネットワーク接続は中断されます。
しかし、IGPメトリックにより、LFAはすべての導入ネットワークで完全に網羅できるわけではありません。結果として、これは現在の LDP リンク保護スキームに対する制限となります。
図 3 は、LFA カバレッジが不完全なサンプル ネットワークで、送信元ルーター(S)からルーター R1 を経由して宛先ルーター(D)にトラフィックが流れています。ネットワーク内の各リンクのメトリックが同じであると仮定した場合、ルーターSとルーターR1間のリンクに障害が発生した場合、ルーターR4はS-R1リンクを保護するLFAではないため、トラフィックの耐障害性が失われます。したがって、プレーンLFAを使用して完全なカバレッジを実現することはできません。典型的なネットワークでは、プレーンLFAとのLFAカバレッジギャップは常にある程度の割合存在します。
RSVP LSP をソリューションとして使用
LDP LSP を介して流れるトラフィックを保護する鍵は、リンクまたはノードに障害が発生した場合にトラフィックを再ルーティングするための明示的なトンネルを持つことです。明示的パスは次のダウンストリーム ルーターで終端する必要があり、RPF チェックに合格する明示的パスでトラフィックを受け入れる必要があります。
RSVP LSP は、以下の方法で LFA カバレッジを拡張することで、ポイントツーポイントおよびポイントツーマルチポイント LDP LSP の両方について、現在のループフリー代替(LFA)の制限を克服するのに役立ちます。
手動で設定されたRSVP LSP
図 3 の例を考えてみると、S-R1 リンクに障害が発生し、ルーター R4 がその特定のリンクの LFA ではない場合、手動で作成した RSVP LSP がパッチとして使用され、完全な LFA カバレッジが提供されます。RSVP LSPは、ルーターSのパケット転送エンジンに事前にシグナリングおよびインストールされているため、ルーターSがリンクの障害を検出するとすぐに使用できます。
この場合、 図 4に示すように、ルーターS、R4、およびR3間でRSVP LSPが作成されます。ルーターSとルーターR3の間でターゲットLDPセッションが作成され、その結果、S-R1リンクに障害が発生すると、トラフィックはルーターR3に到達します。ルーター R3 は、宛先であるルーター D に到達する最短パスであるルーター R2 にトラフィックを転送します。
動的に設定されたRSVP LSP
この方法では、RSVP LSPを自動で作成し、リンク障害時にすぐに使用できるように、システムにプリインストールされています。ここで、エグレスは保護されているリンクの反対側のノードであり、それによってLFAカバレッジが向上します。
Benefits of Enabling Dynamic RSVP LSPs
設定のしやすさ。
保護対象のリンクの遠端への代替パスが存在する限り、リンク障害に対して 100% のカバレッジ。
RSVP バイパス LSP の設定と破棄は自動的に行われます。
RSVP LSPはリンク保護にのみ使用され、保護されているリンクがアップしている間のトラフィック転送には使用されません。
システムで必要な RSVP LSP の総数を削減します。
図 3 で使用した例を考慮すると、S-R1 リンクの潜在的な障害からトラフィックを保護するために、ルーター R4 はその特定のリンクの LFA ではないため、図 5 に示すように、保護されたリンクの向こう側のノードであるルーター R1 に対して RSVP バイパス LSP が自動的に作成されます。ルーター R1 から、トラフィックは元の宛先であるルーター D に転送されます。
RSVP LSP は、ルーター S のパケット転送エンジンに事前にシグナリングおよびインストールされているため、ルーター S がリンクの障害を検出するとすぐに使用できます。
別の動作モードとして、LFA を一切使用せず、すべてのリンク障害をカバーする RSVP LSP を常に作成しておく方法があります。
動的 RSVP LSP を有効にするには、適切なインターフェイスで RSVP プロトコルを有効にすることに加えて、[edit protocols ldp interface interface-name link-protection]
階層レベルで dynamic-rsvp-lsp
ステートメントを含めます。
マルチキャストLDPリンク保護について
ポイントツーマルチポイントLDPラベルスイッチパス(LSP)は、ポイントツーマルチポイントのLDPシグナリングLSPであり、マルチキャストLDPと呼ばれます。
マルチキャスト LDP LSP は、単一のルート ノードまたはイングレス ノードから、1 つ以上のトランジット ノードを通過する多数のリーフ ノードまたはエグレス ノードにトラフィックを送信するために使用できます。マルチキャストLDPリンク保護は、リンク障害が発生した場合に、ポイントツーマルチポイントLDP LSPを介して伝送されるトラフィックの高速再ルートを可能にします。ポイントツーマルチポイント ツリーのリンクの 1 つに障害が発生した場合、IGP が再コンバージェンスし、ダウンストリーム ルーターから新しいアップストリーム ルーターへの最適なパスを使用してマルチポイント LSP が確立されるまで、サブツリーが切り離される可能性があります。
マルチキャスト LDP LSP を通過するトラフィックを保護するために、リンク障害が発生した場合にトラフィックを再ルーティングする明示的なトンネルを設定できます。明示的なパスは、次のダウンストリーム ルーターで終了する必要があります。トラフィックのリバースパス転送が成功するはずです。
マルチキャストLDPリンク保護では、次の機能が導入されています。
バイパストンネルとしての動的RSVP LSPの使用
RSVP LSP の明示的ルート オブジェクト(ERO)は、制約を回避すべきリンクとして、CSPF(制限付き最短パス ファースト)を使用して計算されます。リンク保護が必要なときはいつでも、LSPはシグナリングされ、動的に破棄されます。
事前対応
事前対応機能により、マルチキャスト LDP LSP の古い LSP パスを破棄する前に、新しい LSP パスをシグナリングしようとする際のパケット損失が最小限に抑えられます。
ターゲット LDP セッション
ダウンストリームのラベルスイッチングルーター(LSR)へのターゲット隣接関係は、次の2つの理由で作成されます。
リンク障害後もセッションの稼働を維持します。
セッションから受信したポイントツーマルチポイントラベルを使用して、RSVP LSPバイパストンネル上のダウンストリームLSRにトラフィックを送信するには、次の手順に従います。
ダウンストリーム LSR がルートノードと LSP ID を使用してマルチキャスト LDP LSP を設定する場合、ルートに向かう最適なパスにあるアップストリーム LSR を使用します。
ダウンストリーム LSR に複数のリンク隣接関係(パラレルリンク)がある場合、マルチキャスト LDP リンク保護は必要ありません。
LDPリンク保護を提供するためのさまざまなモード
以下は、ユニキャストおよびマルチキャストLDPリンク保護で使用できる3つの異なる動作モードです。
Case A: LFA only
この動作モードでは、既存の有効なループフリーの代替ルート(LFA)を使用して、マルチキャストLDPリンク保護が提供されます。有効な LFA がない場合、マルチキャスト LDP LSP にリンク保護は提供されません。
Case B: LFA and Dynamic RSVP LSP
この動作モードでは、既存の有効なLFAを使用してマルチキャストLDPリンク保護が提供されます。有効な LFA が存在しない場合、RSVP バイパス LSP が自動的に作成され、マルチキャスト LDP LSP にリンク保護を提供します。
Case C: Dynamic RSVP LSP only
この動作モードでは、LFA はリンク保護に使用されません。マルチキャストLDPリンク保護は、自動的に作成されたRSVPバイパスLSPを使用して提供されます。
図 6 は、マルチキャスト LDP リンク保護のさまざまな動作モードを示すサンプル トポロジーです。ルーター R5 は、2 つのリーフ ノード(ルーター R3 および R4)に接続するルートです。ルーター R0 およびルーター R1 は、それぞれアップストリームおよびダウンストリームのラベル交換ルーター(LSR)です。マルチキャストLDP LSPは、ルートノードとリーフノード間で実行されます。
R0-R1 リンクに障害が発生した場合に、ルーター R0 がマルチキャスト LDP LSP を保護する必要があることを考慮すると、リンク保護のさまざまなモードは次のように動作します。
Case A: LFA only
ルーターR0は、R0-R1リンクを回避してルーターR1に到達できる有効なLFAパスが存在するかどうかを確認します。メトリックに基づくと、ルーター R2 は R0-R1 リンクの有効な LFA パスであり、ユニキャスト LDP トラフィックの転送に使用されます。複数のマルチキャストLDP LSPがR0-R1リンクを使用する場合、同じLFA(ルーターR2)がマルチキャストLDPリンク保護に使用されます。
R0-R1 リンクに障害が発生すると、マルチキャスト LDP LSP トラフィックはルーター R0 によって LFA パスに移動され、ルーター R1(L100)に到達するユニキャスト LDP ラベルがマルチキャスト LDP ラベル(L21)の上にプッシュされます。
Case B: LFA and Dynamic RSVP LSP
ルーターR0は、R0-R1リンクを回避してルーターR1に到達できる有効なLFAパスが存在するかどうかを確認します。メトリックに基づくと、ルーター R2 は R0-R1 リンクの有効な LFA パスであり、ユニキャスト LDP トラフィックの転送に使用されます。複数のマルチキャストLDP LSPがR0-R1リンクを使用する場合、同じLFA(ルーターR2)がマルチキャストLDPリンク保護に使用されます。R0-R1 リンクに障害が発生すると、マルチキャスト LDP LSP トラフィックはルーター R0 によって LFA パスに移動されます。
ただし、R2-R1リンクのメトリックが10ではなく50の場合、ルーター2はR0-R1リンクの有効なLFAではありません。この場合、ルーター R0 と R1 の間を移動するマルチキャスト LDP トラフィックを保護するために、RSVP LSP が自動的に作成されます。
Case C: Dynamic RSVP LSP only
RSVP LSP は、インターフェイス ge-1/1/0 を回避して、ルーター R0 からルーター R2 を経由してルーター R1 へ自動的にシグナリングされます。複数のマルチキャストLDP LSPがR0-R1リンクを使用する場合、同じRSVP LSPがマルチキャストLDPリンク保護に使用されます。
R0-R1 リンクに障害が発生すると、マルチキャスト LDP LSP トラフィックはルーター R0 によって RSVP LSP に移動され、ルーター R1(L100)に到達する RSVP ラベルがマルチキャスト LDP ラベル(L21)の上にプッシュされます。
LDPリンク保護のためのラベル操作
図 5 と同じネットワーク トポロジーを使用して、 図 7 にユニキャストおよびマルチキャストの LDP リンク保護におけるラベル操作を示します。
ルーター R5 は、2 つのリーフ ノード(ルーター R3 および R4)に接続するルートです。ルーター R0 およびルーター R1 は、それぞれアップストリームおよびダウンストリームのラベル交換ルーター(LSR)です。マルチキャストLDP LSPは、ルートノードとリーフノード間で実行されます。ユニキャスト LDP パスは、ルーター R1 からルーター R5 に接続します。
ラベル操作は、LDPリンク保護の以下のモードでは異なる方法で実行されます。
ケースA: LFA のみ
ルーター R0 の show route detail
コマンド出力を使用して、ユニキャスト LDP トラフィックとマルチキャスト LDP トラフィックを導き出すことができます。
user@R0> show route detail 299840 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Router Address: 0x93bc22c Next-hop reference count: 1 Next hop: 11.0.0.6 via ge-0/0/1.0 weight 0x1, selected Label operation: Swap 299824 Session Id: 0x1 Next hop: 11.0.0.10 via ge-0/0/2.0 weight 0xf000 Label operation: Swap 299808 Session Id: 0x3 State: <Active Int> Age: 3:16 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I Prefixes bound to route: 192.168.0.4/32 299856 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Flood Address: 0x9340e04 Next-hop reference count: 3 Next hop type: Router, Next hop index: 262143 Address: 0x93bc3dc Next-hop reference count: 2 Next hop: 11.0.0.6 via ge-0/0/1.0 weight 0x1 Label operation: Swap 299888 Next hop: 11.0.0.10 via ge-0/0/2.0 weight 0xf000 Label operation: Swap 299888, Push 299776(top) Label TTL action: prop-ttl, prop-ttl(top) State: <Active Int AckRequest> Age: 3:16 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I FECs bound to route: P2MP root-addr 192.168.0.5, lsp-id 99
ラベル 299840 は、ルーター R1 へのユニキャスト LDP トラフィックに対応するルーター R0 に到着するトラフィックです。ラベル 299856 は、ルートノード R5 からリーフ エグレス ノード R3 および R4 へのマルチキャスト LDP トラフィックに対応するルーター 0 に到着するトラフィックです。
ユニキャストおよびマルチキャストLDP LSPのメインパスは、インターフェイス ge-0/0/1(ルーター R1 へのリンク)を経由し、LFA パスはインターフェイス ge-0/0/2(ルーター R2 へのリンク)を経由します。LFA パスは、ge-0/0/1 インターフェイスがダウンしない限り使用されません。
ケース A のラベル操作では、ユニキャストとマルチキャストの LDP トラフィックで LFA のみの動作モードが異なります。
ユニキャスト ラベルの操作
ユニキャストLDPトラフィックの場合、FECと関連ラベルは、LDPが有効になっているネットワーク内のすべてのリンクでアドバタイズされます。つまり、ルーター R4 へのユニキャスト LDP トラフィックに対する LFA アクションを提供するために、ルーター R1 が FEC R4 用にアドバタイズしたラベル 299824の受信ラベルを交換する代わりに、ルーター R0 は、ルーター R2 が FEC R4 用にアドバタイズしたラベル 299808の受信ラベルを交換するだけです。これは、ユニキャスト LDP トラフィックの標準的な Junos OS LFA 動作です。
図 8 は、R0-R1 リンクに障害が発生した場合のユニキャスト トラフィックのラベル操作を示しています。灰色のボックスは、通常の状態でのユニキャスト LDP トラフィックのラベル操作を示し、点線のボックスは、R0-R1 リンクに障害が発生した場合のユニキャスト LDP トラフィックのラベル操作を示します。
図 8: ユニキャストLDPラベル操作マルチキャストラベル操作
マルチキャストLDPトラフィックのラベル操作は、ユニキャストLDPラベル操作とは異なります。マルチポイントLSPラベルは、リーフノードからイングレスノードへの最適なパスに沿ってのみアドバタイズされるからです。その結果、ルーター R2 はマルチキャスト LDP を認識しません。これを克服するために、マルチキャスト LDP LSP トラフィックは、ルーター R1 で終端するルーター R2 を経由するユニキャスト LDP LSP パス内で単純にトンネリングされます。
これを実現するために、ルーターR0はまず、受信マルチキャストLDP LSPラベル299856を、ルーターR1がアドバタイズしたラベル299888に交換します。次に、ラベル 299776 が、ルーター R2 が FEC R1 に対してアドバタイズする LDP ラベルの一番上にプッシュされます。パケットがルーター R2 に到着すると、最後から 2 番目のホップ ポッピングによりトップ ラベルが飛び出します。これは、パケットが、ルーター R1 が最初にルーター R0 にアドバタイズしたマルチキャスト LDP ラベル299888とともに、ルーター R1 に到着することを意味します。
図 9 は、R0-R1リンクに障害が発生した場合の、マルチキャストLDPトラフィックのラベル操作を示しています。青いボックスは通常の状態におけるマルチキャストLDPトラフィックのラベル操作を示し、点線のボックスはR0-R1リンクに障害が発生した場合のマルチキャストLDPトラフィックのラベル操作を示しています。
図 9: マルチキャストLDPラベル操作
R2-R1リンクのメトリックが1ではなく1000に設定されている場合、ルーターR2はルーターR0の有効なLFAではありません。この場合、IGPが収束する前にルーターR2がルーターR1、R3、またはR4宛てのパケットを受信すると、パケットはルーターR0に送り返され、ループパケットが発生します。
ルーターR0には有効なLFAがないため、パケット転送エンジンにバックアップパスはインストールされません。R0-R1 リンクに障害が発生した場合、IGP と LDP が収束し、影響を受けるルーターに新しいエントリがインストールされるまで、トラフィック フローが中断されます。
show route detail
コマンドは、リンク保護に利用できる LFA がない場合の状態を表示します。
user@host> show route detail 299840 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Router, Next hop index: 578 Address: 0x9340d20 Next-hop reference count: 2 Next hop: 11.0.0.6 via ge-0/0/1.0, selected Label operation: Swap 299824 Session Id: 0x1 State: <Active Int> Age: 5:38 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I Prefixes bound to route: 192.168.0.4/32 299856 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Flood Address: 0x9340e04 Next-hop reference count: 3 Next hop type: Router, Next hop index: 579 Address: 0x93407c8 Next-hop reference count: 2 Next hop: 11.0.0.6 via ge-0/0/1.0 Label operation: Swap 299888 State: <Active Int AckRequest> Age: 5:38 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I FECs bound to route: P2MP root-addr 192.168.0.5, lsp-id 99
ケースB: LFA およびダイナミック RSVP LSP
この操作モードでは、有効な LFA ネイバーが存在する場合、ラベル操作の動作はケース A、LFA のみモードの場合と同様です。ただし、有効な LFA ネイバーが存在しない場合は、RSVP バイパス トンネルが自動的に作成されます。
リンク R2-R1 のメトリックが 1 ではなく 1000 に設定されている場合、ルーター R2 はルーター R0 の LFA ではありません。R0-R1リンク障害を保護するLFAパスがないことを学習すると、ルーターR1をエグレスノードとするRSVPバイパストンネルが自動的に作成され、R0-R1リンクを回避するパス(例:R0-R2-R1)に従います。
R0-R1 リンクに障害が発生した場合、ユニキャスト LDP とマルチキャスト LDP トラフィックは、RSVP バイパス トンネルを介してトンネリングされます。RSVPバイパストンネルは、通常の転送には使用されず、R0-R1リンク障害の場合にLDPトラフィックにリンク保護を提供するためにのみ使用されます。
show route detail
コマンドを使用すると、ユニキャストおよびマルチキャスト LDP トラフィックを導出できます。
user@host> show route detail 299840 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Router Address: 0x940c3dc Next-hop reference count: 1 Next hop: 11.0.0.6 via ge-0/0/1.0 weight 0x1, selected Label operation: Swap 299824 Session Id: 0x1 Next hop: 11.0.0.10 via ge-0/0/2.0 weight 0x8001 Label-switched-path ge-0/0/1.0:BypassLSP->192.168.0.1 Label operation: Swap 299824, Push 299872(top) Label TTL action: prop-ttl, prop-ttl(top) Session Id: 0x3 State: <Active Int NhAckRequest> Age: 19 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I Prefixes bound to route: 192.168.0.4/32 299856 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Flood Address: 0x9340e04 Next-hop reference count: 3 Next hop type: Router, Next hop index: 262143 Address: 0x940c154 Next-hop reference count: 2 Next hop: 11.0.0.6 via ge-0/0/1.0 weight 0x1 Label operation: Swap 299888 Next hop: 11.0.0.10 via ge-0/0/2.0 weight 0x8001 Label-switched-path ge-0/0/1.0:BypassLSP->192.168.0.1 Label operation: Swap 299888, Push 299872(top) Label TTL action: prop-ttl, prop-ttl(top) State: < Active Int AckRequest> Age: 20 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I FECs bound to route: P2MP root-addr 192.168.0.5, lsp-id 99
ユニキャストおよびマルチキャストLDP LSPのメインパスは、インターフェイス ge-0/0/1(ルーター R1 へのリンク)を経由し、LFA パスはインターフェイス ge-0/0/2(ルーター R2 へのリンク)を経由します。LFA パスは、ge-0/0/1 インターフェイスがダウンしない限り使用されません。
ラベル 299840 は、ルーター R0 に到着するトラフィックで、ルーター R4 へのユニキャスト LDP トラフィックに対応します。ラベル 299856 は、ルートノード R5 からリーフ エグレス ノード R3 および R4 へのマルチキャスト LDP トラフィックに対応するルーター 0 に到着するトラフィックです。
show route detail
コマンドの出力に見られるように、保護パスのラベル操作は、ユニキャスト LDP とマルチキャスト LDP トラフィックで同じです。ルーター R0 で受信した LDP ラベルは、ルーター R1 がルーター R0 にアドバタイズした LDP ラベルに交換されます。次に、バイパストンネルのRSVPラベル299872がパケットにプッシュされます。バイパストンネルで最後から2番目のホップポッピングが使用され、ルーターR2がそのラベルをポップします。したがって、パケットは、最初にルーターR0にアドバタイズされたLDPラベルとともにルーターR1に到着します。
図 10 は、RSVP バイパス トンネルで保護されたユニキャスト LDP およびマルチキャスト LDP トラフィックのラベル操作を示しています。灰色と青のボックスは、ユニキャストとマルチキャストの LDP トラフィックに通常条件で使用されるラベル値を表しています。点線のボックスは、R0-R1 リンクに障害が発生した場合に使用されるラベル値を表しています。
ケース C: ダイナミック RSVP LSP のみ
この操作モードでは、LFA はまったく使用されません。リンク保護を提供するために、動的 RSVP バイパス LSP が自動的に作成されます。show route detail
コマンドからの出力とラベル操作は、ケース B、LFA、動的 RSVP LSP モードに似ています。
マルチキャストLDPリンク保護設定の例
マルチキャスト LDP リンク保護を有効にするには、ルーター R0 で次の設定が必要です。
このサンプルでは、マルチキャスト LDP リンク保護は、ルーター R1 に接続するルーター R0 の ge-1/0/0 インターフェイスで有効になっていますが、通常はすべてのインターフェイスをリンク保護用に設定する必要があります。
ルーターR0
protocols { rsvp { interface all; interface ge-0/0/0.0 { disable; } } mpls { interface all; interface ge-0/0/0.0 { disable; } } ospf { traffic-engineering; area 0.0.0.0 { interface lo0.0; interface ge-0/0/1.0 { link-protection; } interface ge-0/0/2.0; interface ge-0/0/3.0; } } ldp { make-before-break { timeout seconds; switchover-delay seconds; } interface ge-1/1/0.0 { link-protection { disable; dynamic-rsvp-lsp; } } } }
次の設定ステートメントは、次のようにマルチキャスト LDP 保護のさまざまなモードに適用されます。
link-protection
ステートメント at[edit protocols ospf interface ge-0/0/1.0]
この設定は、マルチキャストLDPリンク保護のケースA(LFAのみ)およびケースB(LFAおよび動的RSVP LSP)モードにのみ適用されます。IGP の下でリンク保護の設定は、ケース C(動的 RSVP LSP のみ)では必要ありません。
link-protection
ステートメント at[edit protocols ldp interface ge-0/0/1.0]
この設定は、マルチキャスト LDP 保護のすべてのモードで必要です。ただし、存在する唯一の LDP トラフィックがユニキャストであり、動的 RSVP バイパスが必要ない場合は、
[edit protocols ospf interface ge-0/0/1.0]
階層レベルのlink-protection
ステートメントによって LDP ユニキャスト トラフィックに対して LFA アクションが発生するため、この設定は必要ありません。dynamic-rsvp-lsp
ステートメント at[edit protocols ldp interface ge-0/0/1.0 link-protection]
この設定は、LDPリンク保護のケースB(LFAおよび動的RSVP LSP)およびケースC(動的RSVP LSPのみ)モードにのみ適用されます。動的 RSVP LSP 設定は、ケース Aには適用されません(LFA のみ)。
メイク・ビフォア・ブレーク
Junos OS では、事前対応機能がデフォルトで有効になっており、ポイントツーマルチポイント LSP にいくつかのメリットを提供します。
ポイントツーマルチポイント LSP の場合、ラベルスイッチド ルーター(LSR)は、LSP のルートへのネクスト ホップである LSR をアップストリーム LSR として選択します。ルートに到達するための最適なパスが変更されると、LSR は新しいアップストリーム LSR を選択します。この期間中、LSP が一時的に切断され、LSP が新しいアップストリーム LSR に再コンバージェンスするまでパケット損失が発生する可能性があります。この場合の事前対応の目的は、パケットロスを最小限に抑えることです。LSR からルートへの最適なパスは変更されたが、LSP がルートへの前のネクストホップへのトラフィックを転送し続ける場合、パケット損失の期間を最小限に抑えるために、古い LSP を取り消す前に新しい LSP を確立する必要があります。
たとえば、リンク障害が発生した後も、ダウンストリーム LSR(LSR-D など)は、1 ホップの RSVP LSP からパケットを受信し続けるため、引き続きパケットを受信したり、他のダウンストリーム LSR にパケットを転送したりします。ルーティングが収束すると、LSR-D はこのポイントツーマルチポイント LSP の FEC(FEC-A)用に新しいアップストリーム LSR(LSR-U)を選択します。新しい LSR は、すでに FEC-A のパケットを LSR-D 以外のダウンストリーム LSR に転送している可能性があります。LSR-U は、LSR-D から FEC-A のラベルを受信した後、FEC-A の LSP がルートから自身に確立されたことを学習したときに LSR-D に通知します。LSR-D は、このような通知を受信すると、LSP ルートのネクストホップを LSR-U に変更します。これは、LSR-D に対するルートの削除および追加操作です。この時点で、LSR-D は LSP スイッチオーバーを行い、RSVP LSP または LFA を介してトンネリングされたトラフィックはドロップされ、LSR-U からのトラフィックが受け入れられます。LSR-U の新しいトランジット ルートが追加されます。RPF チェックが、LSR-U からのトラフィックを受け入れ、古いアップストリーム LSR からのトラフィックをドロップするように変更されるか、古いルートが削除されて新しいルートが追加されます。
LSR-UがFEC-AポイントツーマルチポイントLSPのアップストリームルーターから事前対応通知を受信し、LSPの転送状態をインストールしていることを前提としています。その時点で、システムは FEC-A によって識別されるツリーの一部となったこと、および LSR-D が LSP へのスイッチオーバーを開始することを事前対応通知によって LSR-D に通知します。それ以外の場合、LSR-U は、FEC-A のアップストリーム LSR から事前対応通知を受信し、この LSP の転送状態をインストールしたときに、LSR-D に通知を送信する必要があることを覚えておく必要があります。LSR-D は、新しいポイントツーマルチポイント LSP から LSR-U に切り替わるまで、1 ホップの RSVP LSP または LFA パスを使用して、古いネクストホップからルート ノードへのトラフィックを受信し続けます。
マルチキャスト LDP リンク保護による事前対応機能には、以下の機能があります。
事前対応機能
LSR は、機能アドバタイズメントを使用して、事前対応 LSP を処理できることをアドバタイズします。ピアに事前対応でない場合、事前対応パラメータはこのピアに送信されません。LSR がダウンストリーム LSR(LSR-D)から事前対応パラメータを受信しても、アップストリーム LSR(LSR-U)が事前対応でない場合、LSR は直ちに LSR-D に事前対応通知を送信し、事前対応 LSP は確立されません。代わりに、通常の LSP が確立されます。
事前対応ステータスコード
事前対応ステータスコードには、次のものが含まれます。
1 - 事前対応リクエスト
2 - 事前対応の確認応答
ダウンストリーム LSR がポイントツーマルチポイント LSP のラベルマッピングメッセージを送信すると、事前対応ステータスコードが 1(リクエスト)として含まれます。アップストリーム LSR がポイントツーマルチポイント LSP の転送状態を更新すると、事前対応ステータス コードを 2(確認応答)として含む通知メッセージでダウンストリーム LSR に通知します。その時点で、ダウンストリーム LSR は LSP スイッチオーバーを行います。
注意事項と制限事項
Junos OSにおけるLDPリンク保護機能の実装には、以下の注意点と制限があります。
エグレス LSR 上の以下のポイントツーマルチポイント LSP では、事前対応はサポートされていません。
仮想ルーティングおよび転送(VRF)ラベル付き次世代マルチキャスト仮想プライベートネットワーク(MVPN)
静的LSP
次の機能はサポートされていません。
Junos OSリリース12.3、13.1、および13.2のポイントツーマルチポイントLSPのノンストップアクティブルーティング
グレースフル リスタート スイッチオーバー ポイントツーマルチポイント LSP
ルーティングインスタンスのリンク保護
例:LDPリンク保護の設定
この例では、ユニキャストとマルチキャストの両方のLDPラベルスイッチパス(LSP)に対して、ラベル配布プロトコル(LDP)リンク保護を設定する方法を示します。
要件
この例では、以下のハードウェアとソフトウェアのコンポーネントを使用しています。
M シリーズ、MX シリーズ、または T シリーズ ルーターの組み合わせが可能な 6 台のルーターと、1 つのルート ノードおよび 2 つのリーフ ノードがポイントツーマルチポイント LDP LSP を実行する。
すべてのルーターで実行されている Junos OS リリース 12.3 以降。
開始する前に、以下を実行します。
デバイスインターフェイスを設定します。
以下のプロトコルを設定します。
RSVP
MPLS
OSPF またはその他の IGP
LDP
概要
LDPリンク保護は、リンク障害が発生した場合に、LDP LSPを介して伝送されるトラフィックの高速再ルートを可能にします。LDPポイントツーマルチポイントLSPを使用して、単一のルートノードまたはイングレスノードから、1つ以上のトランジットノードを通過する多数のリーフノードまたはエグレスノードにトラフィックを送信できます。ポイントツーマルチポイント ツリーのリンクの 1 つに障害が発生した場合、IGP が再コンバージェンスし、マルチキャスト LDP がダウンストリーム ルーターから新しいアップストリーム ルーターへの最適なパスを使用してラベル マッピングを開始するまで、サブツリーを切り離すことができます。リンク障害が発生した場合にトラフィックを保護するには、明示的なトンネルを設定し、トンネルを使用してトラフィックを再ルーティングできるようにします。Junos OSは事前対応機能をサポートしており、古いLSPパスを破棄する前に新しいLSPパスにシグナリングしようとする際のパケットロスを最小限に抑えます。この機能により、マルチキャスト LDP リンク保護のターゲット LDP サポートも追加されます。
LDPリンク保護を設定する場合、次の考慮事項に注意してください。
IGP でトラフィック制御を設定し(デフォルトでサポートされていない場合)、MPLS および RSVP に設定されたインターフェイスを含めて、制約ベースのリンクで保護された動的 RSVP LSP が CSPF(制限付き最短パス ファースト)を使用して RSVP によってシグナリングされるようにします。この条件が満たされない場合、RSVP LSP が起動しない可能性があり、LDP はこれを保護されたネクストホップとして使用できません。
リンク障害が発生した場合にルーター間のIP接続を提供するために、2つのラベルスイッチルーター(LSR)間のパスを設定します。これにより、CSPF はリンク保護の代替パスを計算できます。ルーター間の接続が失われると、LDP ターゲット隣接関係は起動せず、動的 RSVP LSP はシグナリングできないため、ピアがダウンストリーム LSR である LDP 転送等価クラス(FEC)は保護されません。
リンク保護が一方の LSR でのみアクティブになっている場合、もう一方の LSR は
strict-targeted-hellos
ステートメントで設定しないでください。これにより、リンク保護なしの LSR で非対称のリモート ネイバー探索が可能になり、リモート ネイバーを開始した LSR にターゲット hello を定期的に送信できます。この条件を満たさない場合、LDPターゲット隣接関係は形成されません。LDPトンネリング、LDPベースの仮想プライベートLANサービス(VPLS)、レイヤー2回線、またはLDPセッション保護に基づいてリモートネイバーを作成するには、LSRのループバックインターフェイスでLDPを有効にする必要があります。この条件を満たさない場合、LDPターゲット隣接関係は形成されません。
ユニキャスト LDP LSP の場合、IGP で LFA(ループフリーの代替)を設定する必要があります。
マージポイントへのイングレスルートには、マージポイントとユニキャストLDP LSPのローカルリペアポイント間のプライマリリンクを回避するネクストホップが少なくとも1つ必要です。
ローカル リペア ポイントには、バックアップ ネクスト ホップがマージ ポイントに到達するためのユニキャスト LDP ラベルが必要です。
トポロジー
この例では、ルーター R5 が 2 つのリーフ ノード(ルーター R3 および R4)に接続するルートです。ルーター R0 は、ローカル修復ポイントです。
設定
CLIクイック構成
この例を迅速に設定するには、以下のコマンドをコピーして、テキストファイルに貼り付け、改行を削除し、ネットワーク設定に一致させる必要がある詳細情報を変更し、コマンドを [edit]
階層レベルでCLIにコピーアンドペーストして、設定モードから commit
を入力します。
R5
set interfaces ge-0/0/0 unit 0 family inet address 10.10.10.1/30 set interfaces ge-0/0/0 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.1.5/32 set routing-options router-id 10.255.1.5 set routing-options autonomous-system 100 set protocols rsvp interface all set protocols rsvp interface fxp0.0 disable set protocols mpls traffic-engineering set protocols mpls interface all set protocols mpls interface fxp0.0 disable set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all metric 1 set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface all link-protection dynamic-rsvp-lsp set protocols ldp interface fxp0.0 disable set protocols ldp p2mp
R0
set interfaces ge-0/0/0 unit 0 family inet address 10.10.10.2/30 set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 20.10.10.1/30 set interfaces ge-0/0/1 unit 0 family mpls set interfaces ge-0/0/2 unit 0 family inet address 30.10.10.1/30 set interfaces ge-0/0/2 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.1.0/32 set routing-options router-id 10.255.1.0 set routing-options autonomous-system 100 set protocols rsvp interface all set protocols rsvp interface fxp0.0 disable set protocols mpls traffic-engineering set protocols mpls interface all set protocols mpls interface fxp0.0 disable set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all metric 1 set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface all link-protection dynamic-rsvp-lsp set protocols ldp interface fxp0.0 disable set protocols ldp p2mp
R1
set interfaces ge-0/0/0 unit 0 family inet address 60.10.10.2/30 set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 40.10.10.1/30 set interfaces ge-0/0/1 unit 0 family mpls set interfaces ge-0/0/2 unit 0 family inet address 30.10.10.2/30 set interfaces ge-0/0/2 unit 0 family mpls set interfaces ge-0/0/3 unit 0 family inet address 50.10.10.1/30 set interfaces ge-0/0/3 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.1.1/32 set routing-options router-id 10.255.1.1 set routing-options autonomous-system 100 set protocols rsvp interface all set protocols rsvp interface fxp0.0 disable set protocols mpls traffic-engineering set protocols mpls interface all set protocols mpls interface fxp0.0 disable set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all metric 1 set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface all link-protection dynamic-rsvp-lsp set protocols ldp interface fxp0.0 disable set protocols ldp p2mp
R2
set interfaces ge-0/0/0 unit 0 family inet address 60.10.10.1/30 set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 20.10.10.2/30 set interfaces ge-0/0/1 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.1.2/32 set routing-options router-id 10.255.1.2 set routing-options autonomous-system 100 set protocols rsvp interface all set protocols rsvp interface fxp0.0 disable set protocols mpls traffic-engineering set protocols mpls interface all set protocols mpls interface fxp0.0 disable set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface all link-protection dynamic-rsvp-lsp set protocols ldp interface fxp0.0 disable set protocols ldp p2mp
R3
set interfaces ge-0/0/1 unit 0 family inet address 40.10.10.2/30 set interfaces ge-0/0/1 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.1.3/32 set routing-options router-id 10.255.1.3 set routing-options autonomous-system 100 set protocols rsvp interface all set protocols rsvp interface fxp0.0 disable set protocols mpls traffic-engineering set protocols mpls interface all set protocols mpls interface fxp0.0 disable set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all metric 1 set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface all link-protection dynamic-rsvp-lsp set protocols ldp interface fxp0.0 disable set protocols ldp p2mp root-address 10.255.1.5 lsp-id 1
R4
set interfaces ge-0/0/3 unit 0 family inet address 50.10.10.2/30 set interfaces ge-0/0/3 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.1.4/32 set protocols rsvp interface all set protocols rsvp interface fxp0.0 disable set protocols mpls traffic-engineering set protocols mpls interface all set protocols mpls interface fxp0.0 disable set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all metric 1 set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface all link-protection dynamic-rsvp-lsp set protocols ldp interface fxp0.0 disable set protocols ldp p2mp root-address 10.255.1.5 lsp-id 1
手順
ステップバイステップでの手順
次の例では、設定階層のいくつかのレベルに移動する必要があります。設定モードでのCLIエディターの使用CLIのナビゲーションについては、「1 コンフィグレーション・モードでのCLIエディタの使用」1 を参照してください。
ルーターR0を設定する。
ルーター R0 インターフェイスを設定します。
[edit interfaces]
user@R0# set ge-0/0/0 unit 0 family inet address 10.10.10.2/30 user@R0# set ge-0/0/0 unit 0 family mpls user@R0# set ge-0/0/1 unit 0 family inet address 20.10.10.1/30 user@R0# set ge-0/0/1 unit 0 family mpls user@R0# set ge-0/0/2 unit 0 family inet address 30.10.10.1/30 user@R0# set ge-0/0/2 unit 0 family mpls user@R0# set lo0 unit 0 family inet address 10.255.1.0/32ルーター R0 のルーター ID および自律システムを設定します。
[edit routing-options]
user@R0# set router-id 10.255.1.0 user@R0# set autonomous-system 100(管理インターフェイスを除く)ルーター R0 のすべてのインターフェイスで RSVP を有効にします。
[edit protocols]
user@R0# set rsvp interface all user@R0# set rsvp interface fxp0.0 disableトラフィック制御機能とともに、ルーターR0のすべてのインターフェイス(管理インターフェイスを除く)でMPLSを有効にします。
[edit protocols]
user@R0# set mpls traffic-engineering user@R0# set mpls interface all user@R0# set mpls interface fxp0.0 disableルーターR0のすべてのインターフェイス(管理インターフェイスを除く)でOSPFを有効にし、リンクに等しいコストメトリックを割り当て、トラフィック制御機能を有効にします。
[edit protocols]
user@R0# set ospf traffic-engineering user@R0# set ospf area 0.0.0.0 interface all metric 1 user@R0# set ospf area 0.0.0.0 interface fxp0.0 disable注:ループフリーオルタナティブ(LFA)を使用したマルチキャストLDPリンク保護の場合、
[edit protocols]
階層レベルで次の設定を有効にします。set ospf area 0 interface all link-protection
ルーターR0のすべてのインタフェース(管理インタフェースを除く)でLDPを有効化し、動的RSVPバイパスLSPを使用してリンク保護を設定します。
[edit protocols]
user@R0# set ldp interface all link-protection dynamic-rsvp-lsp user@R0# set ldp interface fxp0.0 disable user@R0# set ldp p2mp
結果
コンフィギュレーションモードから、show interfaces
show routing-options
、、およびの各コマshow protocols
ンドを入力し、コンフィギュレーションを確認します。出力結果に意図した設定内容が表示されない場合は、この例の手順を繰り返して設定を修正します。
user@R0# show interfaces ge-0/0/0 { unit 0 { family inet { address 10.10.10.2/30; } family mpls; } } ge-0/0/1 { unit 0 { family inet { address 20.10.10.1/30; } family mpls; } } ge-0/0/2 { unit 0 { family inet { address 30.10.10.1/30; } family mpls; } } lo0 { unit 0 { family inet { address 10.255.1.0/32; } } }
user@R0# show routing-options router-id 10.255.1.0; autonomous-system 100;
user@R0# show protocols rsvp { interface all; interface fxp0.0 { disable; } } mpls { traffic-engineering; interface all; interface fxp0.0 { disable; } } ospf { traffic-engineering; area 0.0.0.0 { interface all { metric 1; } interface fxp0.0 { disable; } } } ldp { interface all { link-protection { dynamic-rsvp-lsp; } } interface fxp0.0 { disable; } p2mp; }
検証
設定が正常に機能していることを確認します。
バイパス RSVP LSP パスの検証
目的
バイパス RSVP LSP パスが PLR(Point of Local Repair)で作成されていることを確認します。
アクション
オペレーショナルモードから、show route tale mpls.0
コマンドを実行します。
user@R0> show route tale mpls.0 mpls.0: 17 destinations, 17 routes (17 active, 0 holddown, 0 hidden) + = Active Route, - = Last Active, * = Both 0 *[MPLS/0] 05:28:13, metric 1 Receive 1 *[MPLS/0] 05:28:13, metric 1 Receive 2 *[MPLS/0] 05:28:13, metric 1 Receive 13 *[MPLS/0] 05:28:13, metric 1 Receive 299792 *[LDP/9] 00:41:41, metric 1 > to 30.10.10.2 via ge-0/0/2.0, Pop 299792(S=0) *[LDP/9] 00:41:41, metric 1 > to 30.10.10.2 via ge-0/0/2.0, Pop 299808 *[LDP/9] 00:41:41, metric 1 > to 20.10.10.2 via ge-0/0/1.0, Pop 299808(S=0) *[LDP/9] 00:41:41, metric 1 > to 20.10.10.2 via ge-0/0/1.0, Pop 299920 *[RSVP/7/1] 01:51:43, metric 1 > to 30.10.10.2 via ge-0/0/2.0, label-switched-path ge-0/0/0.0:BypassLSP->10.255.1.1 299920(S=0) *[RSVP/7/1] 01:51:43, metric 1 > to 30.10.10.2 via ge-0/0/2.0, label-switched-path ge-0/0/0.0:BypassLSP->10.255.1.1 299936 *[RSVP/7/1] 01:51:25, metric 1 > to 20.10.10.2 via ge-0/0/1.0, label-switched-path ge-0/0/0.0:BypassLSP->10.255.1.2 299936(S=0) *[RSVP/7/1] 01:51:25, metric 1 > to 20.10.10.2 via ge-0/0/1.0, label-switched-path ge-0/0/0.0:BypassLSP->10.255.1.2 299952 *[LDP/9] 00:06:11, metric 1 > to 10.10.10.1 via ge-0/0/0.0, Pop 299952(S=0) *[LDP/9] 00:06:11, metric 1 > to 10.10.10.1 via ge-0/0/0.0, Pop 299968 *[LDP/9] 00:05:39, metric 1 > to 30.10.10.2 via ge-0/0/2.0, Swap 299984 299984 *[LDP/9] 00:05:38, metric 1 > to 30.10.10.2 via ge-0/0/2.0, Swap 300000 300000 *[LDP/9] 00:05:15, metric 1 > to 30.10.10.2 via ge-0/0/2.0, Swap 300016
意味
R0-R1 リンクがダウンすると、RSVP バイパス LSP がトラフィックのルーティングに使用されます。
ラベル動作の検証
目的
PLRでラベルのスワップを確認します。
アクション
オペレーショナルモードから、show route table mpls.0 label label extensive
コマンドを実行します。
user@R0> show route table mpls.0 label 300000 extensive mpls.0: 17 destinations, 17 routes (17 active, 0 holddown, 0 hidden) 300000 (1 entry, 1 announced) TSI: KRT in-kernel 300000 /52 -> {Swap 300016} *LDP Preference: 9 Next hop type: Router, Next hop index: 589 Address: 0x9981610 Next-hop reference count: 2 Next hop: 30.10.10.2 via ge-0/0/2.0, selected Label operation: Swap 300016 Load balance label: Label 300016: None; Session Id: 0x2 State: <Active Int> Local AS: 100 Age: 12:50 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 1-KRT AS path: I Prefixes bound to route: 10.255.1.4/32
意味
ラベルは、リーフ ノードであるルーター R4 に到達するようにバインドされます。
マルチキャストのみの高速再ルートの理解
MoFRR(マルチキャストのみの高速再ルート)は、リンク障害が発生した際に、マルチキャスト配信ツリー内のトラフィックのパケットロスを最小限に抑える機能で、PIM(プロトコル独立マルチキャスト)やLDP(マルチポイント ラベル配信プロトコル)などのマルチキャスト ルーティング プロトコルをサポートしています。
スイッチでは MPLS ラベルスイッチ パスとマルチポイント LDP がある MoFRR はサポートされていません。
MX シリーズ ルーター、MoFRR は、MPC ライン カードがある MX シリーズ ルーターでのみサポートされています。前提として、ルーターをnetwork-services enhanced-ip
モードに設定し、ルーターのすべてのラインカードが MPC である必要があります。
MoFRR を有効化すると、デバイスはマルチキャスト ソースに向けて、プライマリおよびバックアップのアップストリーム パスでジョイン メッセージを送信します。デバイスは、プライマリ パスとバックアップ パスの両方からデータ パケットを受信し、プライオリティ(プライマリ パスとバックアップ パスに割り当てられた重み)に基づいて冗長なパケットを廃棄します。プライマリ パスに障害が発生すると、デバイスは直ちにセカンダリ インターフェィス(バックアップ パス)からのパケットの受け入れを開始します。高速スイッチオーバーにより、プライマリ パスのリンク障害時のコンバージェンス時間が大幅に短縮されます。
MoFRR のアプリケーションの 1 つにIPTV のストリーミングがあります。IPTV のストリームは UDP ストリームとしてマルチキャストされているため、パケットが失われても再送されず、満足のいくユーザー エクスペリエンスが得られませんでした。MoFRR は、状況を改善できます。
MoFRR の概要
ユニキャスト ストリームの高速再ルートでは、アップストリームのルーティング デバイスが MPLS LSP(ラベルスイッチ パス)を事前に確立したり、LFA(IP ループフリーの代替ルート)の高速再ルートバックアップパスを事前に計算したりして、ダウンストリーム パスのセグメントの障害に対処します。
マルチキャスト ルーティングでは、通常、受信側がトラフィックの配信グラフを作成します。これは、一般的に、送信元から受信者へのパスを確立するユニキャスト ルーティングとは異なります。マルチキャストの配信グラフを構築できるプロトコルとして、PIM(IP用)、マルチポイント LDP(MPLS用)、RSVP-TE(MPLS用)があります。これらのうち、PIM とマルチポイント LDP の受信機がディストリビューション グラフの設定を開始するため、MoFRR はこれら 2 つのマルチキャスト プロトコルがサポートされている場所で動作します。
マルチキャストツリーでは、デバイスがネットワーク コンポーネントの障害を検出した場合、リアクティブ修復を実行するのに時間がかかり、代替パスを設定する間に大きなトラフィック ロスが発生します。MoFRR は、ネットワーク コンポーネントに障害が発生した場合に、マルチキャスト 配信 ツリーでのトラフィック ロスを低減します。MoFRR では、ダウンストリームのルーティング デバイスの 1 つが、同じマルチキャスト トラフィックのバックアップ ライブ ストリームを受信するために、ソースに向かう代替パスを設定します。プライマリ ストリームで障害が発生した場合、MoFRRルーティング デバイスはバックアップ ストリームに素早くスイッチすることができます。
MoFRR を有効にすると、各(S,G)エントリーに対して、デバイスは利用可能なアップストリーム インターフェィスのうち 2 つを使用して、ジョイン メッセージを送信し、マルチキャスト トラフィックを受信します。このプロトコルは、2 つのパスが利用可能な場合、2 つのディスジョイント パスを選択しようとします。ディスジョイント パスが利用できない場合、プロトコルは 2 つの非ディスジョイント パスを選択します。2 つの非ディスジョイント パスを利用できない場合、バックアップがないプライマリ パスのみが選択されます。MoFRR は、利用可能なパスのロード バランシングのために、不連続なバックアップを優先します。
MoFRR は、IPv4 および IPv6 両方のプロトコル ファミリーでサポートされています。
図 12は、マルチキャスト レシーバー ルーティング デバイス(エグレス PE(プロバイダ エッジ)デバイスとも呼ばれています)からマルチキャスト ソース ルーティング デバイス(イングレス PE デバイスとも呼ばれています)への 2 つのパスを示しています。
MoFRR が有効な場合、エグレス(レシーバー側)のルーティング デバイスは、各 (S,G) のマルチキャスト ソースに向けて、プライマリ パスとバックアップ パスの 2 つのマルチキャスト ツリーを設定します。つまり、エグレス ルーティング デバイスは、同じ(S,G)ジョイン メッセージを 2 つの異なるアップストリーム ネイバーに向けて伝搬することで、2 つのマルチキャスト ツリーを作成します。
図 12に示すように、マルチキャスト ツリーの一方はプレーン 1 を経由し、もう一方はプレーン 2 を経由します。各(S,G)において、エグレス ルーティング デバイスは、プライマリ パスで受信したトラフィックを転送し、バックアップ パスで受信したトラフィックをドロップします。
MoFRR は、ECMP(Equal Cost Multipath)パスと非ECMP パスの両方でサポートされます。非ECMP パスでの MoFRR をサポートするためには、デバイスはユニキャストの LFA(ループフリーの代替ルート)を有効化する必要があります。LFA ルートを有効にするには、IGP(Interior Gateway Protocol)設定のlink-protection
ステートメントを使用します。OSPF または IS-IS インターフェイスでリンク プロテクションを有効化すると、デバイスはプロテクションされたインターフェイスを通過するすべての宛先ルートのプライマリ ネクスト ホップへのバックアップ LFA パスを作成します。
Junos OSは、IP MoFRR の場合は IP ネットワークに、マルチポイント LDP MoFRR の場合は MPLS LER(ラベル エッジ ルーティング デバイス)にMoFRR を実装します。
マルチポイント LDP MoFRRは、パケットが IP ネットワークに転送される場である、MPLS ネットワークのエグレス デバイスで使用されます。マルチポイント LDP MoFRR では、デバイスは、LERで MPLS パケットの 2 つのストリームを受信するために、アップストリームの PEルーティングデバイスに向けて 2 つのパスを確立します。デバイスは一方のストリーム(プライマリ)を受け入れ、もう一方のストリーム(バックアップ)は LER でドロップされます。プライマリ パスが故障した場合、デバイスは代わりにバックアップ ストリームを受け入れます。インバンド シグナリング サポートは、マルチポイント LDP がある MoFRR の前提条件となります(『Understanding Multipoint LDP Inband Signaling for Point-to-Multipoint LSPs』を参照してください)。
PIM 機能
Junos OSは、PIM の SSM(ソース スペシフィック マルチキャスト)と ASM(エニー ソース マルチキャスト)の SPT(最短パス ツリー)の結合に MoFRR をサポートしています。MoFRRは、SSMとASMの両方の範囲でサポートされています。(*,G)ジョインに対して MoFRR を有効にするには、[edit routing-options multicast stream-protection]
階層に、mofrr-asm-starg
設定ステートメントを含めます。各グループ G について、MoFRR は (S,G) または (*,G) のいずれかで動作しますが、両方ではありません。(S,G) は常に (*,G) よりも優先されます。
MoFRR を有効にすると、PIM ルーティング デバイスは、2 つのアップストリームの RPF(リバースパスフォワーディング)インターフェィスにジョイン メッセージを伝搬し、同じジョイン リクエストに対するマルチキャスト トラフィックを両方のリンクで受信します。MoFRRは、同一のすぐにアップストリームのルーティング デバイスに収束しない 2 つのパスを優先します。PIMは、アップストリームの RPF ネクスト ホップを持つ適切なマルチキャスト ルートを 2 つのインターフェイス(プライマリ パスとバックアップ パス)にインストールします。
プライマリ パスに障害が発生すると、バックアップ パスがプライマリ ステータスにアップグレードされ、デバイスはそれに応じてトラフィックを転送します。利用可能な代替パスがある場合、MoFRR は新しいバックアップ パスを計算し、適切なマルチキャスト ルートを更新またはインストールします。
PIM のジョイン ロード バランシングで MoFRR を有効化することができます(join-load-balance automatic
のステートメントを参照してください)。しかし、その場合、リンク間のジョイン メッセージの配信が均等でない可能性があります。新しい ECMP リンクが追加されると、プライマリ パス上のジョイン メッセージが再配信され、ロード バランシングされます。バックアップ パス上のジョイン メッセージは、同じパスをたどる可能性があり、均等に再配配信されない可能性があります。
[edit routing-options multicast]
階層のstream-protection
設定ステートメントで MoFRR を有効化します。MoFRR は、一連のフィルター ポリシーによって管理されます。
エグレス PIM ルーティング デバイスは、ジョイン メッセージまたは IGMP レポートを受信すると、MoFRR 設定を確認し、以下のように処理を行います。
MoFRR の設定がない場合、PIM は 1 つのアップストリームのネイバー(例えば、図 12のプレーン 2)に向けてジョイン メッセージをアップストリームに送信します。
MoFRR の設定がある場合、デバイスはポリシーの設定を確認します。
ポリシーが存在しない場合、デバイスはプライマリ パスとバックアップ パス(アップストリームのインターフェイス)を確認し、以下のように処理を行います。
ポリシーが存在する場合、デバイスはポリシーがこの (S,G) に対して MoFRR を許可しているかどうかを確認し、以下のように処理を進めます。
このポリシーチェックが失敗した場合、PIM は 1 つのアップストリーム ネイバー(例えば、図 12のプレーン 2)に向けてジョイン メッセージをアップストリームで送信します。
このポリシーチェックが通過した場合-デバイスはプライマリ パスとバックアップ パス(アップストリームのインターフェイス)をチェックします。
マルチポイント LDP 機能
MPLS のトラフィックの重複を避けるため、マルチポイント LDP は通常、1 つのアップストリーム パスのみを選択します。(セクション 2.4.1.1を参照してください。RFC 6388における『アップストリームのLSR』の決定、『Label Distribution Protocol Extensions for Point-to-Multipoint and Multipoint-to-Multipoint Label Switched Paths』)。
MoFRR を使用したマルチポイント LDPでは、マルチポイント LDP デバイスが 2 つの別々のアップストリーム ピアを選択し、それぞれのアップストリーム ピアに 1 つずつ、2 つの別々のラベルを送信します。デバイスは、RFC 6388に記載されているのと同じアルゴリズムを使用して、プライマリ アップストリーム パスを選択します。デバイスは同じアルゴリズムを使用してバックアップ アップストリーム パスを選択しますが、プライマリ アップストリーム LSRは候補から除外されます。2 つの異なるアップストリーム ピアは、2 つの MPLS トラフィックのストリームをエグレス ルーティング デバイスに送信します。デバイスは、MPLS トラフィックを受け入れるプライマリ パスとして、アップストリーム側のネイバーパスのうち 1 つだけを選択します。もう一方のパスはバックアップ パスとなり、デバイスはそのトラフィックをドロップします。プライマリ アップストリーム パスに障害が発生すると、デバイスはバックアップ パスからのトラフィックの受け入れを開始します。マルチポイント LDP デバイスは、IGP(Interior Gateway Protocol)ルートデバイスのネクスト ホップに基づいて、2 つのアップストリーム パスを選択します。
FEC(Forwarding Equivalentency Class)とは、同じ方法、同じ経路、同じ転送処理で転送される IP パケットのグループのことです。通常、あるパケットに貼られるラベルは、そのパケットが割り当てられている FEC を表しています。MoFRR では、各 FEC の mpls.0 テーブルに、プライマリ ラベル用のルートとバックアップ ラベル用のルートの 2 つのルートが配置されます。
同じすぐアップストリームのデバイスに向かうパラレル リンクがある場合、デバイスは両方のパラレル リンクをプライマリとみなします。どの時点でも、アップストリームのデバイスは複数のパラレル リンクのうち 1 つだけにトラフィックを送ります。
bud nodeとは、エグレス LSR でありながら、1 つ以上の直接接続されたダウンストリーム LSR を持つ LSRのことです。バッド ノードの場合、プライマリ アップストリーム パスからのトラフィックは、ダウンストリーム LSR に転送されます。プライマリ アップストリーム パスが失敗した場合、バックアップ アップストリームパスからの MPLS トラフィックはダウンストリーム LSR に転送されます。これは、ダウンストリームの LSR のネクスト ホップが、両方の MPLS ルートに、エグレスのネクスト ホップとともに追加されることを意味します。
PIM と同様に、[edit routing-options multicast]
階層のstream-protection
設定ステートメントを使用して、マルチポイント LDP で MoFRR を有効にし、一連のフィルタ ポリシーで管理します。
MoFRR のマルチポイント LDP ポイントツーパルチポイント FEC を有効にしている場合、デバイスは以下の点を考慮してアップストリーム パスを選択します。
ターゲットとなる LDP セッションは、非ターゲットとなる LDP セッションがある場合はスキップされます。ターゲットとなる LDP セッションが 1 つの場合、ターゲットとなる LDP セッションが選択されますが、ターゲットとなる LDP セッションに関連するインターフェィスがないため、対応するポイントツーマルチポイント FEC はMoFRR 機能を失います。
同一のアップストリーム LSR に属するすべてのインターフェイスがプライマリ パスと見なされます。
ルートノードのルート更新では、IGP からの最新のネクスト ホップに基づいてアップストリーム パスが変更されます。より良いパスが利用可能な場合、マルチポイント LDP はより良いパスへの切り替えを試みます。
パケット転送
PIM またはマルチポイント LDP の場合、デバイスはマルチキャスト ソース ストリームの選択をイングレス インターフェィスで行います。これにより、ファブリック帯域幅を保持し、フォワーディングのパフォーマンスを最大化することができます。
ファブリック上での重複したストリームの送信を回避
マルチプル ルート ルック アップ(パケットロスの原因)を防ぎます。
PIM の場合、各 IP マルチキャスト ストリームには同じ宛先アドレスが含まれています。パケットがどのインターフェイスに到着しても、パケットは同じルートを通ることになります。デバイスは、各パケットが到着したインターフェイスを確認し、プライマリ・インターフェイスからのものだけを転送します。インターフェイスがバックアップ ストリームのインターフェイスと一致した場合、デバイスはそのパケットをドロップします。そのインターフェィスが、プライマリまたはバックアップのストリーム インターフェィスと一致しない場合、デバイスはそのパケットをコントロール プレーン内の例外として処理します。
図 13は、PIM を搭載したルーターのプライマリおよびバックアップ インターフェィスのサンプルを使って、このプロセスを示しています。 図 14では、PIM を搭載したスイッチでの同様の処理が示されています。
ルーター上のマルチポイント LDP を使用した MoFRR では、デバイスは複数の MPLS ラベルを使用して MoFRR のストリーム選択を制御します。各ラベルは別々のルートを表していますが、それぞれが同じインターフェィス リスト チェックを参照しています。デバイスは、プライマリ ラベルのみを転送し、その他のラベルはすべてドロップします。複数のインターフェィスが同じラベルを使ってパケットを受信できる。
図 15はマルチポイント LDP を搭載したルーターでのこのプロセスを示しています。
制限と注意事項
- スイッチングおよびルーティング デバイスに関する MoFRR の制限と注意事項
- MoFRR による PIM 付きスイッチング デバイスの制限
- マルチポイント LDP を搭載したルーティング デバイスでの MoFRR の制限と注意事項
スイッチングおよびルーティング デバイスに関する MoFRR の制限と注意事項
MoFRR では、ルーティング デバイスやスイッチング デバイスについて、以下のような制限および注意点があります。
MoFRR の障害検出は、MoFRR が有効になっているルーティングデバイスの即時リンク プロテクションに対応しており、マルチキャスト トラフィック パスのすべてのリンク (end-to-end) には対応していません。
MoFRRは、ソースに向かって選択された 2 つのディスジョイント パスの高速再ルートをサポートします。選択された 2 つのアップストリーム ネイバーを、同じインターフェイス上に配置することはできません(つまり、LANセグメント上の2つのアップストリーム ネイバー)。アップストリームのインターフェイスがたまたまマルチキャスト トンネルのインターフェイスだった場合も同様です。
最大エンド ツー エンドのディスジョイント アップストリーム パスの検出はサポートされていません。レシーバー(エグレス)のルーティング デバイスは、ディスジョイントのアップストリーム デバイス(直前のホップ)があるかどうかのみを確認します。PIM とマルチポイント LDP は、ERO(explicit route object)に相当するものをサポートしていません。そのため、ディスジョイント アップストリーム パスの検出は、直前のホップのデバイスに対する制御に限定されます。この制限のため、プライマリとバックアップに選択された前のホップのアップストリーム デバイスへのパスが共有される場合があります。
以下のシナリオでは、トラフィックの損失が発生する可能性があります。
エグレス デバイスでより良いアップストリーム パスが利用可能になります。
MoFRRは、アクティブなトラフィック ストリームの流れの間、エグレス デバイスで有効化または無効化になります。
バックアップ パスのジョイン メッセージに対する PIM ジョイン ロード バランシングはサポートされていません。
マルチキャストグループGでは、(S,G) と (*,G) の両方のジョイン メッセージに対して MoFRR は許可されません。(S,G) ジョイン メッセージは、(*,G) に優先します。
MoFRR は、2 つの異なるマルチキャスト グループを使用するマルチキャスト トラフィック ストリームには対応していません。各 (S,G) の組み合わせは、ユニークなマルチキャスト・トラフィック・ストリームとして扱われます。
MoFRRでは、双方向の PIM 範囲には対応していません。
MoFRR では PIM dense-modeはサポートされていません。
バックアップ トラフィック ストリームのマルチキャスト統計は PIM では維持されないため、
show
コマンドの運用出力では利用できません。レート監視はサポートされていません。
MoFRR による PIM 付きスイッチング デバイスの制限
PIMを用いた MoFRR では、スイッチング デバイスに以下のような制限があります。
アップストリームインターフェースがIRB(Integrated Routing and Bridging)インターフェィスの場合、MoFRRはサポートされません。この場合、IGMPv3(Internet Group Management Protocol version 3)スヌーピングなどの他のマルチキャスト機能に影響を与えます。
マルチキャスト トラフィックを転送する際のパケット レプリケーションやマルチキャストルックアップにより、パケットが PFE を何度も再循環することがあります。そのため、
show pfe statistics traffic
コマンドで表示されるマルチキャスト パケット数の値は、Input packets
やOutput packets
などの出力フィールドに予想以上の数値が表示される場合があります。MoFRR シナリオでは、プライマリとバックアップのストリームが重複すると、一般的にトラフィックフローが増加するため、このような動作が頻繁に発生することがあります。
マルチポイント LDP を搭載したルーティング デバイスでの MoFRR の制限と注意事項
MoFRRは、マルチポイント LDP と併用する場合、ルーターに以下のような制限や注意点があります。
RSVP トンネルはどのインターフェィスにも関連付けられていないため、RSVP トンネル上で受信したマルチポイント LDP トラフィックには MoFRR は適用されません。
Mixed upstream MoFRR はサポートされていません。これは PIM マルチポイント LDP の帯域内シグナリングのことで、アップストリーム側の 1 つ目のパスはマルチポイント LDP を経由し、2 つ目のアップストリーム側のパスは PIM を経由しています。
インナー ラベルとしてのマルチポイント LDP ラベルはサポートされていません。
ソースが複数のイングレス(ソース側)のPE(プロバイダ エッジ)ルーティング デバイスを介して到達可能な場合、マルチポイント LDP MoFRR はサポートされません。
ターゲットとなる LDP アップストリームセッションが、MoFRR のアップストリーム デバイスとして選択されません。
MoFRR インナー ラベルがサポートされていないため、バックアップ パスでのマルチポイント LDP リンク プロテクションはサポートされていません。
マルチキャストのみ高速再ルートの設定
マルチキャスト高速再ルート(MoFRR)を設定して、リンク障害が発生した場合のネットワークにおけるパケット ロスを最小限に抑えることができます。
ユニキャスト ストリームに高速再ルートを適用する場合、アップストリーム ルーターは、MPLS LSP(ラベル スイッチ パス)を事前に確立するか、LFA(IP ループフリーの代替ルート)の高速再ルート バックアップ パスを事前に計算し、ダウンストリーム パスのセグメントの障害に対処します。
マルチキャスト ルーティングでは、トラフィック分散グラフは通常、受信者によって発信されます。これは、通常、送信元から受信者へのパスを確立するユニキャスト ルーティングとは異なります。マルチキャスト配信グラフを確立できるプロトコルは、PIM(IP の場合)、マルチポイント LDP(MPLS の場合)、RSVP-TE(MPLS の場合)です。これらのうち、PIM とマルチポイント LDP 受信者が分散グラフ設定を開始するため、以下のようになります。
QFX シリーズでは、MoFRR が PIM ドメインでサポートされています。
MX シリーズおよび SRX シリーズでは、MoFRR が PIM およびマルチポイント LDP ドメインでサポートされています。
設定手順は、別途指示がない限り、この機能をサポートするすべてのデバイスで PIM の MoFRR を有効にする場合も同じです。マルチポイント LDP MoFRR に適用されていない設定手順も示しています。
(MX シリーズ ルーターのみ)MoFRR は、MPC ライン カードがある MX シリーズ ルーターでサポートされています。前提として、ルーター内のすべてのライン カードが MPC でなければなりません。
ルーターまたはスイッチで MoFRR を設定する方法:
例:マルチポイントLDPドメインにおけるマルチキャスト専用高速再ルートの設定
この例では、マルチキャスト専用高速再ルート(MoFRR)を設定し、リンク障害が発生した場合にネットワークのパケットロスを最小限に抑える方法を説明します。
マルチポイントLDP MoFRRは、パケットがIPネットワークに転送される場である、MPLSネットワークのエグレスノードで使用されます。マルチポイントLDP MoFRRの場合、アップストリームのPE(プロバイダエッジ)ルーターに向かう2つのパスが確立され、LER(ラベルエッジルーター)でMPLSパケットの2つのストリームを受信します。そのうちの1つのストリーム(プライマリ)が受け入れられ、もう1つ(バックアップ)はLERで破棄されます。プライマリパスに障害が生じた場合は、バックアップストリームが受け入れられます。
要件
この例を設定する前に、デバイス初期化以外の特別な設定を行う必要はありません。
マルチポイントLDPドメインで、MoFRRを機能させるには、MoFRRを有効にするエグレスPEルーターだけが必要です。他のルーターがMoFRRをサポートする必要はありません。
MoFRRは、MPCラインカードでMXシリーズプラットフォームでサポートされています。あらかじめ必要な条件として、ルーターはnetwork-services enhanced-ip
モードに設定され、プラットフォームのすべてのラインカードはMPCである必要があります。
この例では、エグレスPEルーターにはJunos OSリリース14.1以降が必要です。
概要
この例では、デバイスR3がエグレスエッジ ルーターとなっています。MoFRRは、このデバイスのみで有効になっています。
接続にはOSPFが使用されていますが、IGP(内部ゲートウェイプロトコル)もしくは静的ルートも使用できます
テスト用に、送信元と受信先をシュミレーションするためにルーターが使われています。デバイスR4とデバイスR8は、set protocols igmp interface interface-name static group group
コマンドを使用して、必要なグループに静的に合流するように設定されています。実際のマルチキャスト受信ホストが利用できない場合、この例のように、この静的IGMP設定が使えます。受信側において、マルチキャストグループアドレスを受信するために、この例ではset protocols sap listen group
を使用しています。
MoFRR設定には、この例には表示されていないポリシーオプションがありますが、これは別途説明されています。オプションは以下のように設定されています。
stream-protection { policy policy-name; }
CLIクイック構成
CLIクイック構成
この例をすばやく設定するには、次のコマンドをコピーしてテキストファイルに貼り付け、改行を削除して、ネットワーク構成に合わせて必要な詳細を変更し、[edit]
階層レベルのCLIにコマンドをコピー&ペーストしてください。
デバイスsrc1
set interfaces ge-1/2/10 unit 0 description src1-to-R1 set interfaces ge-1/2/10 unit 0 family inet address 10.5.0.1/30 set interfaces ge-1/2/11 unit 0 description src1-to-R1 set interfaces ge-1/2/11 unit 0 family inet address 192.168.219.11/24 set interfaces lo0 unit 0 family inet address 10.0.1.17/32 set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive
デバイスsrc2
set interfaces ge-1/2/24 unit 0 description src2-to-R5 set interfaces ge-1/2/24 unit 0 family inet address 10.5.0.2/30 set interfaces lo0 unit 0 family inet address 10.0.1.18/32 set protocols rsvp interface all set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive
デバイスR1
set interfaces ge-1/2/12 unit 0 description R1-to-R2 set interfaces ge-1/2/12 unit 0 family inet address 10.1.2.1/30 set interfaces ge-1/2/12 unit 0 family mpls set interfaces ge-1/2/13 unit 0 description R1-to-R6 set interfaces ge-1/2/13 unit 0 family inet address 10.1.6.1/30 set interfaces ge-1/2/13 unit 0 family mpls set interfaces ge-1/2/10 unit 0 description R1-to-src1 set interfaces ge-1/2/10 unit 0 family inet address 10.1.0.2/30 set interfaces ge-1/2/11 unit 0 description R1-to-src1 set interfaces ge-1/2/11 unit 0 family inet address 192.168.219.9/30 set interfaces lo0 unit 0 family inet address 10.1.1.1/32 set protocols rsvp interface all set protocols mpls interface all set protocols bgp group ibgp local-address 10.1.1.1 set protocols bgp group ibgp export static-route-tobgp set protocols bgp group ibgp peer-as 65010 set protocols bgp group ibgp neighbor 10.1.1.3 set protocols bgp group ibgp neighbor 10.1.1.7 set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ldp interface ge-1/2/12.0 set protocols ldp interface ge-1/2/13.0 set protocols ldp interface lo0.0 set protocols ldp p2mp set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim rp static address 10.1.1.5 set protocols pim interface lo0.0 set protocols pim interface ge-1/2/10.0 set protocols pim interface ge-1/2/11.0 set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set policy-options policy-statement mldppim-ex term A from source-address-filter 10.1.1.7/32 orlonger set policy-options policy-statement mldppim-ex term A from source-address-filter 10.1.0.0/30 orlonger set policy-options policy-statement mldppim-ex term A then accept set policy-options policy-statement static-route-tobgp term static from protocol static set policy-options policy-statement static-route-tobgp term static from protocol direct set policy-options policy-statement static-route-tobgp term static then accept set routing-options autonomous-system 65010
デバイスR2
set interfaces ge-1/2/12 unit 0 description R2-to-R1 set interfaces ge-1/2/12 unit 0 family inet address 10.1.2.2/30 set interfaces ge-1/2/12 unit 0 family mpls set interfaces ge-1/2/14 unit 0 description R2-to-R3 set interfaces ge-1/2/14 unit 0 family inet address 10.2.3.1/30 set interfaces ge-1/2/14 unit 0 family mpls set interfaces ge-1/2/16 unit 0 description R2-to-R5 set interfaces ge-1/2/16 unit 0 family inet address 10.2.5.1/30 set interfaces ge-1/2/16 unit 0 family mpls set interfaces ge-1/2/17 unit 0 description R2-to-R7 set interfaces ge-1/2/17 unit 0 family inet address 10.2.7.1/30 set interfaces ge-1/2/17 unit 0 family mpls set interfaces ge-1/2/15 unit 0 description R2-to-R3 set interfaces ge-1/2/15 unit 0 family inet address 10.2.94.1/30 set interfaces ge-1/2/15 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.2/32 set interfaces lo0 unit 0 family mpls set protocols rsvp interface all set protocols mpls interface all set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ldp interface all set protocols ldp p2mp set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set routing-options autonomous-system 65010
デバイスR3
set chassis network-services enhanced-ip set interfaces ge-1/2/14 unit 0 description R3-to-R2 set interfaces ge-1/2/14 unit 0 family inet address 10.2.3.2/30 set interfaces ge-1/2/14 unit 0 family mpls set interfaces ge-1/2/18 unit 0 description R3-to-R4 set interfaces ge-1/2/18 unit 0 family inet address 10.3.4.1/30 set interfaces ge-1/2/18 unit 0 family mpls set interfaces ge-1/2/19 unit 0 description R3-to-R6 set interfaces ge-1/2/19 unit 0 family inet address 10.3.6.2/30 set interfaces ge-1/2/19 unit 0 family mpls set interfaces ge-1/2/21 unit 0 description R3-to-R7 set interfaces ge-1/2/21 unit 0 family inet address 10.3.7.1/30 set interfaces ge-1/2/21 unit 0 family mpls set interfaces ge-1/2/22 unit 0 description R3-to-R8 set interfaces ge-1/2/22 unit 0 family inet address 10.3.8.1/30 set interfaces ge-1/2/22 unit 0 family mpls set interfaces ge-1/2/15 unit 0 description R3-to-R2 set interfaces ge-1/2/15 unit 0 family inet address 10.2.94.2/30 set interfaces ge-1/2/15 unit 0 family mpls set interfaces ge-1/2/20 unit 0 description R3-to-R6 set interfaces ge-1/2/20 unit 0 family inet address 10.2.96.2/30 set interfaces ge-1/2/20 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.3/32 primary set routing-options autonomous-system 65010 set routing-options multicast stream-protection set protocols rsvp interface all set protocols mpls interface all set protocols bgp group ibgp local-address 10.1.1.3 set protocols bgp group ibgp peer-as 10 set protocols bgp group ibgp neighbor 10.1.1.1 set protocols bgp group ibgp neighbor 10.1.1.5 set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ldp interface all set protocols ldp p2mp set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim interface lo0.0 set protocols pim interface ge-1/2/18.0 set protocols pim interface ge-1/2/22.0 set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then accept set policy-options policy-statement mldppim-ex term A from source-address-filter 10.1.0.1/30 orlonger set policy-options policy-statement mldppim-ex term A then accept set policy-options policy-statement static-route-tobgp term static from protocol static set policy-options policy-statement static-route-tobgp term static from protocol direct set policy-options policy-statement static-route-tobgp term static then accept
デバイス R4
set interfaces ge-1/2/18 unit 0 description R4-to-R3 set interfaces ge-1/2/18 unit 0 family inet address 10.3.4.2/30 set interfaces ge-1/2/18 unit 0 family mpls set interfaces ge-1/2/23 unit 0 description R4-to-R7 set interfaces ge-1/2/23 unit 0 family inet address 10.4.7.1/30 set interfaces lo0 unit 0 family inet address 10.1.1.4/32 set protocols igmp interface ge-1/2/18.0 version 3 set protocols igmp interface ge-1/2/18.0 static group 232.1.1.1 group-count 2 set protocols igmp interface ge-1/2/18.0 static group 232.1.1.1 source 192.168.219.11 set protocols igmp interface ge-1/2/18.0 static group 232.2.2.2 source 10.2.7.7 set protocols sap listen 232.1.1.1 set protocols sap listen 232.2.2.2 set protocols rsvp interface all set protocols mpls interface all set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim interface ge-1/2/23.0 set protocols pim interface ge-1/2/18.0 set protocols pim interface lo0.0 set policy-options policy-statement static-route-tobgp term static from protocol static set policy-options policy-statement static-route-tobgp term static from protocol direct set policy-options policy-statement static-route-tobgp term static then accept set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set routing-options autonomous-system 65010
デバイス R5
set interfaces ge-1/2/24 unit 0 description R5-to-src2 set interfaces ge-1/2/24 unit 0 family inet address 10.5.0.1/30 set interfaces ge-1/2/16 unit 0 description R5-to-R2 set interfaces ge-1/2/16 unit 0 family inet address 10.2.5.2/30 set interfaces ge-1/2/16 unit 0 family mpls set interfaces ge-1/2/25 unit 0 description R5-to-R6 set interfaces ge-1/2/25 unit 0 family inet address 10.5.6.1/30 set interfaces ge-1/2/25 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.5/32 set protocols rsvp interface all set protocols mpls interface all set protocols bgp group ibgp local-address 10.1.1.5 set protocols bgp group ibgp export static-route-tobgp set protocols bgp group ibgp peer-as 65010 set protocols bgp group ibgp neighbor 10.1.1.7 set protocols bgp group ibgp neighbor 10.1.1.3 set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ldp interface ge-1/2/16.0 set protocols ldp interface ge-1/2/25.0 set protocols ldp p2mp set protocols pim interface lo0.0 set protocols pim interface ge-1/2/24.0 set policy-options policy-statement static-route-tobgp term static from protocol static set policy-options policy-statement static-route-tobgp term static from protocol direct set policy-options policy-statement static-route-tobgp term static then accept set routing-options autonomous-system 65010
デバイス R6
set interfaces ge-1/2/13 unit 0 description R6-to-R1 set interfaces ge-1/2/13 unit 0 family inet address 10.1.6.2/30 set interfaces ge-1/2/13 unit 0 family mpls set interfaces ge-1/2/19 unit 0 description R6-to-R3 set interfaces ge-1/2/19 unit 0 family inet address 10.3.6.1/30 set interfaces ge-1/2/19 unit 0 family mpls set interfaces ge-1/2/25 unit 0 description R6-to-R5 set interfaces ge-1/2/25 unit 0 family inet address 10.5.6.2/30 set interfaces ge-1/2/25 unit 0 family mpls set interfaces ge-1/2/26 unit 0 description R6-to-R7 set interfaces ge-1/2/26 unit 0 family inet address 10.6.7.1/30 set interfaces ge-1/2/26 unit 0 family mpls set interfaces ge-1/2/20 unit 0 description R6-to-R3 set interfaces ge-1/2/20 unit 0 family inet address 10.2.96.1/30 set interfaces ge-1/2/20 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.6/30 set protocols rsvp interface all set protocols mpls interface all set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ldp interface all set protocols ldp p2mp
デバイス R7
set interfaces ge-1/2/17 unit 0 description R7-to-R2 set interfaces ge-1/2/17 unit 0 family inet address 10.2.7.2/30 set interfaces ge-1/2/17 unit 0 family mpls set interfaces ge-1/2/21 unit 0 description R7-to-R3 set interfaces ge-1/2/21 unit 0 family inet address 10.3.7.2/30 set interfaces ge-1/2/21 unit 0 family mpls set interfaces ge-1/2/23 unit 0 description R7-to-R4 set interfaces ge-1/2/23 unit 0 family inet address 10.4.7.2/30 set interfaces ge-1/2/23 unit 0 family mpls set interfaces ge-1/2/26 unit 0 description R7-to-R6 set interfaces ge-1/2/26 unit 0 family inet address 10.6.7.2/30 set interfaces ge-1/2/26 unit 0 family mpls set interfaces ge-1/2/27 unit 0 description R7-to-R8 set interfaces ge-1/2/27 unit 0 family inet address 10.7.8.1/30 set interfaces ge-1/2/27 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.7/32 set protocols rsvp interface all set protocols mpls interface all set protocols bgp group ibgp local-address 10.1.1.7 set protocols bgp group ibgp export static-route-tobgp set protocols bgp group ibgp peer-as 65010 set protocols bgp group ibgp neighbor 10.1.1.5 set protocols bgp group ibgp neighbor 10.1.1.1 set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ldp interface ge-1/2/17.0 set protocols ldp interface ge-1/2/21.0 set protocols ldp interface ge-1/2/26.0 set protocols ldp p2mp set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim interface lo0.0 set protocols pim interface ge-1/2/27.0 set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then accept set policy-options policy-statement mldppim-ex term A from source-address-filter 10.1.0.1/30 orlonger set policy-options policy-statement mldppim-ex term A then accept set policy-options policy-statement static-route-tobgp term static from protocol static set policy-options policy-statement static-route-tobgp term static from protocol direct set policy-options policy-statement static-route-tobgp term static then accept set routing-options autonomous-system 65010 set routing-options multicast stream-protection policy mldppim-ex
デバイス R8
set interfaces ge-1/2/22 unit 0 description R8-to-R3 set interfaces ge-1/2/22 unit 0 family inet address 10.3.8.2/30 set interfaces ge-1/2/22 unit 0 family mpls set interfaces ge-1/2/27 unit 0 description R8-to-R7 set interfaces ge-1/2/27 unit 0 family inet address 10.7.8.2/30 set interfaces ge-1/2/27 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.8/32 set protocols igmp interface ge-1/2/22.0 version 3 set protocols igmp interface ge-1/2/22.0 static group 232.1.1.1 group-count 2 set protocols igmp interface ge-1/2/22.0 static group 232.1.1.1 source 192.168.219.11 set protocols igmp interface ge-1/2/22.0 static group 232.2.2.2 source 10.2.7.7 set protocols sap listen 232.1.1.1 set protocols sap listen 232.2.2.2 set protocols rsvp interface all set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim interface ge-1/2/27.0 set protocols pim interface ge-1/2/22.0 set protocols pim interface lo0.0 set policy-options policy-statement static-route-tobgp term static from protocol static set policy-options policy-statement static-route-tobgp term static from protocol direct set policy-options policy-statement static-route-tobgp term static then accept set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set routing-options autonomous-system 65010
設定
手順
ステップバイステップでの手順
次の例では、設定階層内のさまざまなレベルに移動する必要があります。CLIのナビゲーションについては、Junos OS CLIユーザーガイドの 設定モードでCLIエディターを使用する を参照してください。
デバイス R3 を設定するには:
拡張IPモードを有効にします。
[edit chassis] user@R3# set network-services enhanced-ip
デバイスインターフェイスを設定します。
[edit interfaces] user@R3# set ge-1/2/14 unit 0 description R3-to-R2 user@R3# set ge-1/2/14 unit 0 family inet address 10.2.3.2/30 user@R3# set ge-1/2/14 unit 0 family mpls user@R3# set ge-1/2/18 unit 0 description R3-to-R4 user@R3# set ge-1/2/18 unit 0 family inet address 10.3.4.1/30 user@R3# set ge-1/2/18 unit 0 family mpls user@R3# set ge-1/2/19 unit 0 description R3-to-R6 user@R3# set ge-1/2/19 unit 0 family inet address 10.3.6.2/30 user@R3# set ge-1/2/19 unit 0 family mpls user@R3# set ge-1/2/21 unit 0 description R3-to-R7 user@R3# set ge-1/2/21 unit 0 family inet address 10.3.7.1/30 user@R3# set ge-1/2/21 unit 0 family mpls user@R3# set ge-1/2/22 unit 0 description R3-to-R8 user@R3# set ge-1/2/22 unit 0 family inet address 10.3.8.1/30 user@R3# set ge-1/2/22 unit 0 family mpls user@R3# set ge-1/2/15 unit 0 description R3-to-R2 user@R3# set ge-1/2/15 unit 0 family inet address 10.2.94.2/30 user@R3# set ge-1/2/15 unit 0 family mpls user@R3# set ge-1/2/20 unit 0 description R3-to-R6 user@R3# set ge-1/2/20 unit 0 family inet address 10.2.96.2/30 user@R3# set ge-1/2/20 unit 0 family mpls user@R3# set lo0 unit 0 family inet address 10.1.1.3/32 primary
自律システム(AS)番号を設定します。
user@R3# set routing-options autonomous-system 6510
ルーティングポリシーを設定します。
[edit policy-options policy-statement mldppim-ex] user@R3# set term B from source-address-filter 192.168.0.0/24 orlonger user@R3# set term B from source-address-filter 192.168.219.11/32 orlonger user@R3# set term B then accept user@R3# set term A from source-address-filter 10.1.0.1/30 orlonger user@R3# set term A then accept [edit policy-options policy-statement static-route-tobgp] user@R3# set term static from protocol static user@R3# set term static from protocol direct user@R3# set term static then accept
PIMを設定します。
[edit protocols pim] user@R3# set mldp-inband-signalling policy mldppim-ex user@R3# set interface lo0.0 user@R3# set interface ge-1/2/18.0 user@R3# set interface ge-1/2/22.0
LDP を設定します。
[edit protocols ldp] user@R3# set interface all user@R3# set p2mp
IGPまたは静的ルートを設定します。
[edit protocols ospf] user@R3# set traffic-engineering user@R3# set area 0.0.0.0 interface all user@R3# set area 0.0.0.0 interface fxp0.0 disable user@R3# set area 0.0.0.0 interface lo0.0 passive
内部BGPを設定します。
[edit protocols bgp group ibgp] user@R3# set local-address 10.1.1.3 user@R3# set peer-as 65010 user@R3# set neighbor 10.1.1.1 user@R3# set neighbor 10.1.1.5
MPLSと、オプションでRSVPを設定します。
[edit protocols mpls] user@R3# set interface all [edit protocols rsvp] user@R3# set interface all
MoFRRを有効にします。
[edit routing-options multicast] user@R3# set stream-protection
結果
コンフィギュレーションモードから、 show policy-options
、show chassis
、show interfaces
およびshow protocols
とshow routing-options
コマンドを入力して、コンフィギュレーションを確認します。出力結果に意図した設定内容が表示されない場合は、この例の手順を繰り返して設定を修正します。
user@R3# show chassis network-services enhanced-ip;
user@R3# show interfaces ge-1/2/14 { unit 0 { description R3-to-R2; family inet { address 10.2.3.2/30; } family mpls; } } ge-1/2/18 { unit 0 { description R3-to-R4; family inet { address 10.3.4.1/30; } family mpls; } } ge-1/2/19 { unit 0 { description R3-to-R6; family inet { address 10.3.6.2/30; } family mpls; } } ge-1/2/21 { unit 0 { description R3-to-R7; family inet { address 10.3.7.1/30; } family mpls; } } ge-1/2/22 { unit 0 { description R3-to-R8; family inet { address 10.3.8.1/30; } family mpls; } } ge-1/2/15 { unit 0 { description R3-to-R2; family inet { address 10.2.94.2/30; } family mpls; } } ge-1/2/20 { unit 0 { description R3-to-R6; family inet { address 10.2.96.2/30; } family mpls; } } lo0 { unit 0 { family inet { address 192.168.15.1/32; address 10.1.1.3/32 { primary; } } } }
user@R3# show protocols rsvp { interface all; } mpls { interface all; } bgp { group ibgp { local-address 10.1.1.3; peer-as 65010; neighbor 10.1.1.1; neighbor 10.1.1.5; } } ospf { traffic-engineering; area 0.0.0.0 { interface all; interface fxp0.0 { disable; } interface lo0.0 { passive; } } } ldp { interface all; p2mp; } pim { mldp-inband-signalling { policy mldppim-ex; } interface lo0.0; interface ge-1/2/18.0; interface ge-1/2/22.0; }
user@R3# show policy-options policy-statement mldppim-ex { term B { from { source-address-filter 192.168.0.0/24 orlonger; source-address-filter 192.168.219.11/32 orlonger; } then accept; } term A { from { source-address-filter 10.1.0.1/30 orlonger; } then accept; } } policy-statement static-route-tobgp { term static { from protocol [ static direct ]; then accept; } }
user@R3# show routing-options autonomous-system 65010; multicast { stream-protection; }
デバイスの設定が完了したら、設定モードから commit
を入力します。
検証
設定が正常に機能していることを確認します。
LDPポイントツーマルチポイント転送等価クラスの確認
目的
MoFRRが有効になっていることを確認し、どのラベルが使用されているかを判断します。
アクション
user@R3> show ldp p2mp fec LDP P2MP FECs: P2MP root-addr 10.1.1.1, grp: 232.1.1.1, src: 192.168.219.11 MoFRR enabled Fec type: Egress (Active) Label: 301568 P2MP root-addr 10.1.1.1, grp: 232.1.1.2, src: 192.168.219.11 MoFRR enabled Fec type: Egress (Active) Label: 301600
意味
出力では、MoFRRが有効なことを示し、ラベル301568と301600が2つのマルチポイントLDPに使用されていることを表示しています。
ラベル情報の検証
目的
エグレスデバイスに、マルチキャストグループが参加できる2つのアップストリームインターフェイスが存在していることを確認します。
アクション
user@R3> show route label 301568 detail mpls.0: 18 destinations, 18 routes (18 active, 0 holddown, 0 hidden) 301568 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Flood Address: 0x2735208 Next-hop reference count: 3 Next hop type: Router, Next hop index: 1397 Address: 0x2735d2c Next-hop reference count: 3 Next hop: 10.3.8.2 via ge-1/2/22.0 Label operation: Pop Load balance label: None; Next hop type: Router, Next hop index: 1395 Address: 0x2736290 Next-hop reference count: 3 Next hop: 10.3.4.2 via ge-1/2/18.0 Label operation: Pop Load balance label: None; State: <Active Int AckRequest MulticastRPF> Local AS: 65010 Age: 54:05 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I FECs bound to route: P2MP root-addr 10.1.1.1, grp: 232.1.1.1, src: 192.168.219.11 Primary Upstream : 10.1.1.3:0--10.1.1.2:0 RPF Nexthops : ge-1/2/15.0, 10.2.94.1, Label: 301568, weight: 0x1 ge-1/2/14.0, 10.2.3.1, Label: 301568, weight: 0x1 Backup Upstream : 10.1.1.3:0--10.1.1.6:0 RPF Nexthops : ge-1/2/20.0, 10.2.96.1, Label: 301584, weight: 0xfffe ge-1/2/19.0, 10.3.6.1, Label: 301584, weight: 0xfffe
user@R3> show route label 301600 detail mpls.0: 18 destinations, 18 routes (18 active, 0 holddown, 0 hidden) 301600 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Flood Address: 0x27356b4 Next-hop reference count: 3 Next hop type: Router, Next hop index: 1520 Address: 0x27350f4 Next-hop reference count: 3 Next hop: 10.3.8.2 via ge-1/2/22.0 Label operation: Pop Load balance label: None; Next hop type: Router, Next hop index: 1481 Address: 0x273645c Next-hop reference count: 3 Next hop: 10.3.4.2 via ge-1/2/18.0 Label operation: Pop Load balance label: None; State: <Active Int AckRequest MulticastRPF> Local AS: 65010 Age: 54:25 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I FECs bound to route: P2MP root-addr 10.1.1.1, grp: 232.1.1.2, src: 192.168.219.11 Primary Upstream : 10.1.1.3:0--10.1.1.6:0 RPF Nexthops : ge-1/2/20.0, 10.2.96.1, Label: 301600, weight: 0x1 ge-1/2/19.0, 10.3.6.1, Label: 301600, weight: 0x1 Backup Upstream : 10.1.1.3:0--1.1.1.2:0 RPF Nexthops : ge-1/2/15.0, 10.2.94.1, Label: 301616, weight: 0xfffe ge-1/2/14.0, 10.2.3.1, Label: 301616, weight: 0xfffe
意味
出力では、プライマリのアップストリームパスとバックアップのアップストリームパスを表示しています。また、RPFネクストホップも表示しています。
マルチキャストルートの確認
目的
IPマルチキャスト転送テーブルを検証し、プライマリおよびバックアップインターフェイスを含むアップストリームRPFインターフェイスリストが存在することを確認します。
アクション
user@R3> show ldp p2mp path P2MP path type: Transit/Egress Output Session (label): 10.1.1.2:0 (301568) (Primary) Egress Nexthops: Interface ge-1/2/18.0 Interface ge-1/2/22.0 RPF Nexthops: Interface ge-1/2/15.0, 10.2.94.1, 301568, 1 Interface ge-1/2/20.0, 10.2.96.1, 301584, 65534 Interface ge-1/2/14.0, 10.2.3.1, 301568, 1 Interface ge-1/2/19.0, 10.3.6.1, 301584, 65534 Attached FECs: P2MP root-addr 10.1.1.1, grp: 232.1.1.1, src: 192.168.219.11 (Active) P2MP path type: Transit/Egress Output Session (label): 10.1.1.6:0 (301584) (Backup) Egress Nexthops: Interface ge-1/2/18.0 Interface ge-1/2/22.0 RPF Nexthops: Interface ge-1/2/15.0, 10.2.94.1, 301568, 1 Interface ge-1/2/20.0, 10.2.96.1, 301584, 65534 Interface ge-1/2/14.0, 10.2.3.1, 301568, 1 Interface ge-1/2/19.0, 10.3.6.1, 301584, 65534 Attached FECs: P2MP root-addr 10.1.1.1, grp: 232.1.1.1, src: 192.168.219.11 (Active) P2MP path type: Transit/Egress Output Session (label): 10.1.1.6:0 (301600) (Primary) Egress Nexthops: Interface ge-1/2/18.0 Interface ge-1/2/22.0 RPF Nexthops: Interface ge-1/2/15.0, 10.2.94.1, 301616, 65534 Interface ge-1/2/20.0, 10.2.96.1, 301600, 1 Interface ge-1/2/14.0, 10.2.3.1, 301616, 65534 Interface ge-1/2/19.0, 10.3.6.1, 301600, 1 Attached FECs: P2MP root-addr 10.1.1.1, grp: 232.1.1.2, src: 192.168.219.11 (Active) P2MP path type: Transit/Egress Output Session (label): 10.1.1.2:0 (301616) (Backup) Egress Nexthops: Interface ge-1/2/18.0 Interface ge-1/2/22.0 RPF Nexthops: Interface ge-1/2/15.0, 10.2.94.1, 301616, 65534 Interface ge-1/2/20.0, 10.2.96.1, 301600, 1 Interface ge-1/2/14.0, 10.2.3.1, 301616, 65534 Interface ge-1/2/19.0, 10.3.6.1, 301600, 1 Attached FECs: P2MP root-addr 10.1.1.1, grp: 232.1.1.2, src: 192.168.219.11 (Active)
意味
出力では、プライマリおよびバックアップセッションとRPFネクストホップを表示しています。
LDPポイントツーマルチポイントのトラフィック統計の確認
目的
プライマリとバックアップ両方の統計が表示されていることを確認します。
アクション
user@R3> show ldp traffic-statistics p2mp P2MP FEC Statistics: FEC(root_addr:lsp_id/grp,src) Nexthop Packets Bytes Shared 10.1.1.1:232.1.1.1,192.168.219.11, Label: 301568 10.3.8.2 0 0 No 10.3.4.2 0 0 No 10.1.1.1:232.1.1.1,192.168.219.11, Label: 301584, Backup route 10.3.4.2 0 0 No 10.3.8.2 0 0 No 10.1.1.1:232.1.1.2,192.168.219.11, Label: 301600 10.3.8.2 0 0 No 10.3.4.2 0 0 No 10.1.1.1:232.1.1.2,192.168.219.11, Label: 301616, Backup route 10.3.4.2 0 0 No 10.3.8.2 0 0 No
意味
出力では、ラベル付きのプライマリおよびバックアップルートを表示しています。
例:LDP ダウンストリームのオンデマンドでの設定
この例では、LDP ダウンストリームをオンデマンドで設定する方法を示しています。LDP は、一般的にダウンストリームの未承諾アドバタイズモードで設定されています。これは、すべてのルートのラベルアドバタイズは、すべての LDP ピアから受信されることを意味します。サービスプロバイダが、アクセスネットワークとアグリゲーションネットワークを単一の MPLS ドメインに統合する際には、アクセスネットワークとアグリゲーションネットワーク間のバインディングを分散し、コントロールプレーンの処理要件を軽減するために、オンデマンドでの LDP ダウンストリームが必要となります。
ダウンストリームノードは、アップストリームのアグリゲーションノードから数万のラベルバインディングを受け取る可能性があります。ダウンストリームのアグリゲーションノードは、MPLS ネットワーク内のすべてのループバックアドレスに対するすべてのラベルバインディングを学習して保存する代わりに、オンデマンドでの LDP ダウンストリームを使用して、サービスが設定されているイグレスノードのループバックアドレスに対応する FEC のラベルバインディングのみを要求するように設定できます。
要件
この例では、以下のハードウェアとソフトウェアのコンポーネントを使用しています。
-
M シリーズルーター
-
Junos OS 12.2
概要
[edit protocols ldp session]
階層レベルで、 オンデマンドでのダウンストリーム のステートメントを含めることで、LDP セッションの、オンデマンドでの LDP ダウンストリームのラベルアドバタイズメントを有効にできます。オンデマンドでダウンストリームを設定した場合、ジュニパーネットワークスルーターは、オンデマンドでのダウンストリームリクエストをピアルーターにアドバタイズします。2 つのルーター間で、オンデマンドでのダウンストリームセッションを確立するには、LDP セッション確立中に、双方がオンデマンドモードでのダウンストリームをアドバタイズする必要があります。一方のルーターが、ダウンストリームの未承諾モードをアドバタイズし、他方のルーターが、オンデマンドでのダウンストリームをアドバタイズすると場合、ダウンストリームの未承諾モードが使用されます。
設定
LDP ダウンストリームのオンデマンドでの設定
ステップバイステップでの手順
オンデマンドでの LDP ダウンストリームのポリシーを設定し、そのポリシーを設定して LDP セッションでオンデマンドでの LDP ダウンストリームを有効にするには。
-
ダウンストリームオンデマンドポリシー(この例ではDOD-Request-Loopbacks)を設定します。
このポリシーでは、ルーターが、DOD-Request-Loopbacksポリシーに一致するFECにのみ、ラベルリクエストメッセージを転送します。
[edit policy-options] user@host# set prefix-list Request-Loopbacks 10.1.1.1/32 user@host# set prefix-list Request-Loopbacks 10.1.1.2/32 user@host# set prefix-list Request-Loopbacks 10.1.1.3/32 user@host# set prefix-list Request-Loopbacks 10.1.1.4/32 user@host# set policy-statement DOD-Request-Loopbacks term 1 from prefix-list Request-Loopbacks user@host# set policy-statement DOD-Request-Loopbacks term 1 then accept
-
[edit protocols ldp]
階層レベルのdod-request-policy
ステートメントを使用して DOD リクエストループバックのポリシーを指定します。dod-request-policy
ステーポリシーで指定されたポリシーは、ラベル リクエストメッセージを送信するプレフィックスを特定するために使用されます。このポリシーは、エグレスポリシーやインポートポリシーと類似しています。inet.0 ルーティングテーブルからルートを処理する場合、(この例では)Junos OS ソフトウェアは、DOD-Request-Loopbacks
ポリシーに一致するルートを確認します。ルートがポリシーに一致しており、LDP セッションが DOD アドバタイズモードでネゴシエートされた場合、ラベル リクエストメッセージは、対応するダウンストリームの LDP セッションに送信されます。[edit protocols ldp] user@host# set dod-request-policy DOD-Request-Loopbacks
-
オンデマンド配信モードのダウンストリームを有効にするために、LDP セッションの設定にステート
downstream-on-demand
メントを含めます。[edit protocols ldp] user@host# set session 172.16.1.1 downstream-on-demand
ラベル付き BGP へオンデマンドルートでの LDP ダウンストリートを配信
ステップバイステップでの手順
オンデマンドルートでの LDP ダウンストリームをラベル付き BGP に配信するには、BGP エクスポートポリシーを使用します。
-
(
redistribute_ldp
この例では)LDP ルートポリシーを設定します。[edit policy-options] user@host# set policy-statement redistribute_ldp term 1 from protocol ldp user@host# set policy-statement redistribute_ldp term 1 from tag 1000 user@host# set policy-statement redistribute_ldp term 1 then accept
-
(この例では BGP グループ設定
ebgp-to-abr
の一部として)LDP ルートポリシーredistribute_ldp
を BGP 設定に含めます。BGP は、
redistribute_ldp
のポリシーに基づく LDP ルートをリモート PE ルーターに転送します。[edit protocols bgp] user@host# set group ebgp-to-abr type external user@host# set group ebgp-to-abr local-address 192.168.0.1 user@host# set group ebgp-to-abr peer-as 65319 user@host# set group ebgp-to-abr local-as 65320 user@host# set group ebgp-to-abr neighbor 192.168.6.1 family inet unicast user@host# set group ebgp-to-abr neighbor 192.168.6.1 family inet labeled-unicast rib inet.3 user@host# set group ebgp-to-abr neighbor 192.168.6.1 export redistribute_ldp
ステップバイステップでの手順
(オンデマンドでのダウンストリームではなく) ダウンストリームの未承諾モードで設定された他のルーターへのラベル伝送を制限するには、以下のポリシーを設定します。
-
LDP からルートを受信するように
dod-routes
ポリシー を設定します。user@host# set policy-options policy-statement dod-routes term 1 from protocol ldp user@host# set policy-options policy-statement dod-routes term 1 from tag 1145307136 user@host# set policy-options policy-statement dod-routes term 1 then accept
-
ネイバー
10.1.1.1
、10.2.2.2
、 および10.3.3.3
にルートを転送しないように、do-not-propagate-du-sessions
ポリシーを設定します。user@host# set policy-options policy-statement do-not-propagate-du-sessions term 1 to neighbor 10.1.1.1 user@host# set policy-options policy-statement do-not-propagate-du-sessions term 1 to neighbor 10.2.2.2 user@host# set policy-options policy-statement do-not-propagate-du-sessions term 1 to neighbor 10.3.3.3 user@host# set policy-options policy-statement do-not-propagate-du-sessions term 1 then reject
-
filter-dod-on-du-sessions
ポリシーを設定し、dod-routes
ポリシーで検査されたルートがdo-not-propagate-du-sessions
ポリシーで定義された隣接ルーターに転送されないようにします。user@host# set policy-options policy-statement filter-dod-routes-on-du-sessions term 1 from policy dod-routes user@host# set policy-options policy-statement filter-dod-routes-on-du-sessions term 1 to policy do-not-propagate-du-sessions
-
BGPグループ
ebgp-to-abr
のエクスポートポリシーとしてfilter-dod-routes-on-du-sesssion
ポリシーを指定します。[edit protocols bgp] user@host# set group ebgp-to-abr neighbor 192.168.6.2 export filter-dod-routes-on-du-sessions
結果
設定モードから、show policy-options
および show protocols ldp
コマンドを入力して設定を確認します。出力結果に意図した設定内容が表示されない場合は、この例の手順を繰り返して設定を修正します。
user@host# show policy-options prefix-list Request-Loopbacks { 10.1.1.1/32; 10.1.1.2/32; 10.1.1.3/32; 10.1.1.4/32; } policy-statement DOD-Request-Loopbacks { term 1 { from { prefix-list Request-Loopbacks; } then accept; } } policy-statement redistribute_ldp { term 1 { from { protocol ldp; tag 1000; } then accept; } }
user@host# show protocols ldp dod-request-policy DOD-Request-Loopbacks; session 172.16.1.1 { downstream-on-demand; }
user@host# show protocols bgp group ebgp-to-abr { type external; local-address 192.168.0.1; peer-as 65319; local-as 65320; neighbor 192.168.6.1 { family inet { unicast; labeled-unicast { rib { inet.3; } } } export redistribute_ldp; } }
検証
ラベルアドバタイズモードの検証
目的
設定が正常に機能していることを確認します。
LDP セッションのラベルアドバタイズモードのステータスを検証するには、 show ldp session
コマンドを使用します。
アクション
show ldp session
と show ldp session detail
コマンドを発行します。
-
以下の
show ldp session
コマンドのコマンド出力は、Adv. Mode
(ラベルアドバタイズモード) がDOD
(オンデマンドセッションの LDP ダウンストリームが動作していることを意味する) であることを示しています。user@host>
show ldp session
Address State Connection Hold time Adv. Mode 172.16.1.2 Operational Open 22 DOD -
以下の
show ldp session detail
コマンドの出力では、Local Label Advertisement mode
がデフォルト値のDownstream unsolicited
になっています(ローカルセッションでオンデマンドのダウンストリームが設定されていないことを意味します)。逆に、Remote Label Advertisement mode
とNegotiated Label Advertisement mode
は両方とも、Downstream on demand
がリモートセッションで設定されていることを示しています。user@host>
show ldp session detail
Address: 172.16.1.2, State: Operational, Connection: Open, Hold time: 24 Session ID: 10.1.1.1:0--10.1.1.2:0 Next keepalive in 4 seconds Passive, Maximum PDU: 4096, Hold time: 30, Neighbor count: 1 Neighbor types: configured-tunneled Keepalive interval: 10, Connect retry interval: 1 Local address: 10.1.1.1, Remote address: 10.1.1.2 Up for 17:54:52 Capabilities advertised: none Capabilities received: none Protection: disabled Local - Restart: disabled, Helper mode: enabled, Remote - Restart: disabled, Helper mode: enabled Local maximum neighbor reconnect time: 120000 msec Local maximum neighbor recovery time: 240000 msec Local Label Advertisement mode: Downstream unsolicited Remote Label Advertisement mode: Downstream on demand Negotiated Label Advertisement mode: Downstream on demand Nonstop routing state: Not in sync Next-hop addresses received: 10.1.1.2
LDP ネイティブ IPv6 サポートの設定
LDP は、IPv6 のみのネットワーク、および RFC7552 で説明されている IPv6 または IPv4 デュアルスタックネットワークでサポートされます。アドレスファミリーを IPv4 の inet
、IPv6 の inet6
、またはその両方に設定し、トランスポートプリファレンスを IPv4
または IPv6
のいずれかに設定します。dual-transport
ステートメントにより、Junos OS LDPは、IPv4とIPv4ネイバー、およびIPv6とIPv6ネイバーを介してシングルスタックLSRとしてTCP接続を確立できます。inet-lsr-id
および inet6-lsr-id
ID とは、IPv4 および IPv6 TCP トランスポートで LDP セッションを確立するために設定する必要がある 2 つの LSR ID です。これらの 2 つの ID はゼロ以外である必要があり、異なる値で設定してください。
IPv6をデュアルスタックとして設定する前に、ルーティングプロトコルとシグナリングプロトコルを設定してください。
LDPネイティブIPv6サポートを設定するには、次の手順に従います。
例:LDP ネイティブ IPv6 サポートの設定
この例は、Junos OSラベル配布プロトコル(LDP)がIPv4とIPv4ネイバー、およびIPv6とIPv6ネイバーを介してシングルスタックLSRとしてTCP接続を確立できるようにする方法を示しています。これにより、IPv4信号化されたMPLSラベルスイッチパス(LSP)を使用してIPv4 MPLSコア上でIPv6のトンネリングを回避できます。
要件
この例では、以下のハードウェアとソフトウェアのコンポーネントを使用しています。
-
2つのMXシリーズルーター
-
すべてのデバイスでJunos OS Release 16.1以降が作動していること
IPv6をデュアルスタックとして設定する前に、ルーティングプロトコルとシグナリングプロトコルを設定してください。
概要
LDPは、IPv6のみのネットワーク、およびRFC 7552で説明されているIPv6またはIPv4デュアルスタックネットワークでサポートされます。IPv4の場合はinet
、IPv6の場合はinet6
とアドレスファミリーを設定します。デフォルトでは、IPv4とIPv6の両方が有効になっている場合、IPv6はピアとのLDPセッションのTCPトランスポートとして使用されます。デュアルトランスポートステートメントにより、Junos LDPは、IPv4とIPv4ネイバー、およびIPv6とIPv6ネイバーを介してシングルスタックLSRとしてTCP接続を確立できます。inet-lsr-id
とinet6-lsr-id
は、IPv4およびIPv6 TCPトランスポートでLDPセッションを確立するために設定する必要がある2つのLSR IDです。これらの 2 つの ID はゼロ以外である必要があり、異なる値で設定してください。
設定
- CLIクイック構成
- R1の設定
- transport-preferenceを設定して優先トランスポートを選択します。
- IPv4ネイバーとのIPv4およびIPv6ネイバーとのIPv6の個別のセッションを確立するようにデュアルトランスポートを設定します。
CLIクイック構成
この例を迅速に設定するには、以下のコマンドをコピーして、テキストファイルに貼り付け、改行を削除し、ネットワーク設定に一致させる必要がある詳細情報を変更し、コマンドを [edit] 階層レベルでCLIにコピーアンドペーストして、設定モードから commit
を入力します。
R1
set interfaces ge-1/0/0 unit 0 family inet address 192.168.12.1/24 set interfaces ge-1/0/0 unit 0 family iso set interfaces ge-1/0/0 unit 0 family inet6 address 2001:db8:0:12::/64 eui-64 set interfaces ge-1/0/0 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.0.1/32 set interfaces lo0 unit 0 family iso address 49.0001.1720.1600.1010.00 set interfaces lo0 unit 0 family inet6 address 2001:db8::1/128 set protocols isis interface ge-1/0/0.0 set protocols isis interface lo0.0 set protocols mpls interface ge-1/0/0.0 set protocols ldp deaggregate set protocols ldp interface ge-1/0/0.0 set protocols ldp interface lo0.0 set protocols ldp family inet6 set protocols ldp family inet
R2
set interfaces ge-1/0/1 unit 0 family inet address 192.168.12.2/24 set interfaces ge-1/0/1 unit 0 family iso set interfaces ge-1/0/1 unit 0 family inet6 address 2001:db8:0:12::/64 eui-64 set interfaces ge-1/0/1 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.0.2/32 set interfaces lo0 unit 0 family iso address 49.0001.1720.1600.2020.00 set interfaces lo0 unit 0 family inet6 address 2001:db8::2/128 set protocols isis interface ge-1/0/1.0 set protocols isis interface lo0.0 set protocols mpls interface ge-1/0/1.0 set protocols ldp deaggregate set protocols ldp interface ge-1/0/1.0 set protocols ldp interface lo0.0 set protocols ldp family inet6 set protocols ldp family inet
R1の設定
ステップバイステップでの手順
次の例では、設定階層内のさまざまなレベルに移動する必要があります。CLIのナビゲーションについては、Junos OS CLIユーザーガイドの「 Using the CLI Editor in Configuration Mode 」を参照してください。
Device R1を設定するには:
-
インターフェイスを設定します。
[edit interfaces] set ge-1/0/0 unit 0 family inet address 192.168.12.1/24 set ge-1/0/0 unit 0 family iso set ge-1/0/0 unit 0 family inet6 address 2001:db8:0:12::/64 eui-64 set ge-1/0/0 unit 0 family mpls
-
デバイスにループバックアドレスを割り当てます。
[edit interfaces lo0 unit 0] set family inet address 10.255.0.1/32 set family iso address 49.0001.1720.1600.1010.00 set family inet6 address 2001:db8::1/128
-
IS-IS インターフェイスを設定します。
[edit protocols isis] set interface ge-1/0/0.0 set interface lo0.0
-
デバイスでLDPインターフェイスを使用するようMPLSを設定します。
[edit protocols mpls] set protocols mpls interface ge-1/0/0.0 set interface ge-1/0/0.0 set interface lo0.0
-
異なるアドレスファミリーに異なるラベルを使用するために、転送等価クラス(FEC)のディスアグリゲーションを有効にします。
[edit protocols ldp] set deaggregate
-
LDP アドレスファミリーを設定します。
[edit protocols ldp] set family inet6 set family inet
結果
設定モードから、show interfaces および show protocols コマンドを入力して設定を確認します。出力結果に意図した設定内容が表示されない場合は、この例の手順を繰り返して設定を修正します。
user@R1# show interfaces ge-1/0/0 { unit 0 { family inet { address 192.168.12.1/24; } family iso; family inet6 { address 2001:db8:0:12::/64 { eui-64; } } family mpls; } } lo0 { unit 0 { family inet { address 10.255.0.1/32; } family iso { address 49.0001.1720.1600.1010.00 } family inet6 { address 2001:db8::1/128; } } }
user@R1# show protocols mpls { interface ge-1/0/0.0; } isis { interface ge-1/0/0.0; interface lo0.0; } ldp { deaggregate; interface ge-1/0/0.0; interface lo0.0; family { inet6; inet; } }
transport-preferenceを設定して優先トランスポートを選択します。
CLIクイック構成
ステップバイステップでの手順
IPv4とIPv6の両方が有効になっている場合に、transport-preference
ステートメントを設定してTCP接続の優先トランスポートを選択できます。デフォルトでは、IPv6はLDP接続を確立するためのTCPトランスポートとして使用されます。
-
(オプション)LDP接続のトランスポート優先度を設定します。
[edit protocols ldp] set transport-preference ipv4
ステップバイステップでの手順
結果
設定モードから、show protocolsコマンドを入力して設定を確認します。出力結果に意図した設定内容が表示されない場合は、この例の手順を繰り返して設定を修正します。
user@R1# show protocols mpls { interface ge-1/0/0.0; } isis { interface ge-1/0/0.0; interface lo0.0; } ldp { deaggregate; interface ge-1/0/0.0; interface lo0.0; family { inet6; inet; } transport-preference ipv4; }
IPv4ネイバーとのIPv4およびIPv6ネイバーとのIPv6の個別のセッションを確立するようにデュアルトランスポートを設定します。
ステップバイステップでの手順
dual-transport
ステートメントを設定して、LDPがIPv4ネイバーとの個別のIPv4セッション、およびIPv6ネイバーとのIPv6セッションを確立できるようにすることができます。これには、IPv4のLSR IDとしてinet-lsr-id
を設定し、IPv6のLSR IDとしてinet6-lsr-id
を設定する必要があります。
-
(オプション)デュアルトランスポートを設定して、LDPがIPv4とIPv4ネイバー、およびIPv6とIPv6ネイバーを介してシングルスタックLSRとしてTCP接続を確立できます。
[edit protocols ldp dual-transport] set inet-lsr-id 10.255.0.1 set inet6-lsr-id 10.1.1.1
結果
設定モードから、show protocolsコマンドを入力して設定を確認します。出力結果に意図した設定内容が表示されない場合は、この例の手順を繰り返して設定を修正します。
user@R1# show protocols mpls { interface ge-1/0/0.0; } isis { interface ge-1/0/0.0; interface lo0.0; } ldp { deaggregate; interface ge-1/0/0.0; interface lo0.0; family { inet6; inet; } dual-transport { inet-lsr-id 10.255.0.1; inet6-lsr-id 10.1.1.1; } }
検証
設定が正常に機能していることを確認します。
- mpls.0テーブル内のルートエントリーの検証
- inet.3テーブル内のルートエントリーの検証
- inet6.3テーブル内のルートエントリーの検証
- LDP データベースの検証
- LDP ネイバー情報の検証
- LDP セッション情報の検証
mpls.0テーブル内のルートエントリーの検証
目的
mpls.0 ルートテーブル情報を表示します。
アクション
デバイスR1で、運用モードからshow route table mpls.0
コマンドを実行して、mpls.0ルートテーブル情報を表示します。
user@R1> show route table mpls.0
mpls.0: 8 destinations, 8 routes (8 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
0 *[MPLS/0] 05:19:58, metric 1
Receive
1 *[MPLS/0] 05:19:58, metric 1
Receive
2 *[MPLS/0] 05:19:58, metric 1
Receive
13 *[MPLS/0] 05:19:58, metric 1
Receive
299824 *[LDP/9] 04:28:45, metric 1
> to fe80::21f:1200:cb6:4c8d via ge-1/0/0.0, Pop
299824(S=0) *[LDP/9] 04:28:45, metric 1
> to fe80::21f:1200:cb6:4c8d via ge-1/0/0.0, Pop
299888 *[LDP/9] 00:56:12, metric 1
> to 192.168.12.2 via ge-1/0/0.0, Pop
299888(S=0) *[LDP/9] 00:56:12, metric 1
> to 192.168.12.2 via ge-1/0/0.0, Pop
意味
出力は、mpls.0 ルートテーブル情報を示しています。
inet.3テーブル内のルートエントリーの検証
目的
inet.3 ルートテーブル情報を表示します。
アクション
デバイスR1で、運用モードからshow route table inet.3
コマンドを実行して、inet.3ルートテーブル情報を表示します。
user@R1> show route table inet.3
inet.3: 1 destinations, 1 routes (1 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
10.255.0.2/32 *[LDP/9] 00:58:38, metric 1
> to 192.168.12.2 via ge-1/0/0.0
意味
出力は、inet.3 ルートテーブル情報を示しています。
inet6.3テーブル内のルートエントリーの検証
目的
inet6.3 ルートテーブル情報を表示します。
アクション
デバイスR1で、運用モードからshow route table inet6.3
コマンドを実行して、inet6.3ルートテーブル情報を表示します。
user@R1> show route table inet6.3
inet6.3: 1 destinations, 1 routes (1 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
2001:db8::2/128 *[LDP/9] 04:31:17, metric 1
> to fe80::21f:1200:cb6:4c8d via ge-1/0/0.0
意味
出力は、inet6.3 ルートテーブル情報を示しています。
LDP データベースの検証
目的
LDP データベース情報を表示します。
アクション
デバイスR1で、運用モードからshow ldp database
コマンドを実行して、LDPデータベース情報を表示します。
user@R1> show ldp database
Input label database, 10.255.0.1:0--10.255.0.2:0
Labels received: 3
Label Prefix
299840 10.255.0.1/32
3 10.255.0.2/32
299808 2001:db8::1/128
3 2001:db8::2/128
Output label database, 10.255.0.1:0--10.255.0.2:0
Labels advertised: 3
Label Prefix
3 10.255.0.1/32
299888 10.255.0.2/32
3 2001:db8::1/128
299824 2001:db8::2/128
意味
出力は、LDP データベース内のエントリーを示しています。
LDP ネイバー情報の検証
目的
LDP ネイバー情報を表示します。
アクション
デバイスR1で、運用モードからshow ldp neighbor
とshow ldp neighbor extensive
コマンドを実行して、LDPネイバー情報を表示します。
user@R1>show ldp neighbor
Address Interface Label space ID Hold time fe80::21f:1200:cb6:4c8d ge-1/0/0.0 10.255.0.2:0 12 192.168.12.2 ge-1/0/0.0 10.255.0.2:0 11 user@R1>show ldp neighbor extensive
Address Interface Label space ID Hold time 192.168.12.2 ge-1/0/0.0 10.255.0.2:0 11 Transport address: 10.255.0.2, Transport preference: IPv6, Configuration sequence: 10 Up for 00:04:35 Reference count: 1 Hold time: 15, Proposed local/peer: 15/15 Hello flags: none Neighbor types: discovered Address Interface Label space ID Hold time fe80::21f:1200:cb6:4c8d ge-1/0/0.0 10.255.0.2:0 14 Transport address: 2001:db8::2, Transport preference: IPv6, Configuration sequence: 10 Up for 00:04:35 Reference count: 1 Hold time: 15, Proposed local/peer: 15/15 Hello flags: none Neighbor types: discovered
意味
出力は、IPv4 と IPv6 アドレスのLDPネイバー情報を示しています。
LDP セッション情報の検証
目的
LDP セッション情報を表示します。
アクション
デバイスR1で、運用モードからshow ldp session
とshow ldp session extensive
コマンドを実行して、LDPセッション情報を表示します。
user@R1>show ldp session
session Address State Connection Hold time Adv. Mode 2001:db8::2 Operational Open 20 DU user@R1>show ldp session extensive
Address: 2001:db8::2, State: Operational, Connection: Open, Hold time: 29 Session ID: 10.255.0.1:0--10.255.0.2:0 Next keepalive in 9 seconds Passive, Maximum PDU: 4096, Hold time: 30, Neighbor count: 1 Neighbor types: discovered Keepalive interval: 10, Connect retry interval: 1 Local address: 2001:db8::1, Remote address: 2001:db8::2 Up for 00:05:31 Capabilities advertised: none Capabilities received: none Protection: disabled Session flags: none Local - Restart: disabled, Helper mode: enabled Remote - Restart: disabled, Helper mode: enabled Local maximum neighbor reconnect time: 120000 msec Local maximum neighbor recovery time: 240000 msec Local Label Advertisement mode: Downstream unsolicited Remote Label Advertisement mode: Downstream unsolicited Negotiated Label Advertisement mode: Downstream unsolicited MTU discovery: disabled Nonstop routing state: Not in sync Next-hop addresses received: 10.255.0.2 192.168.12.2 2001:db8::2 fe80::21f:1200:cb6:4c8d Queue depth: 0 Message type Total Last 5 seconds Sent Received Sent Received Initialization 1 1 0 0 Keepalive 34 34 0 0 Notification 0 0 0 0 Address 1 1 0 0 Address withdraw 0 0 0 0 Label mapping 3 3 0 0 Label request 0 0 0 0 Label withdraw 0 0 0 0 Label release 0 0 0 0 Label abort 0 0 0 0
意味
出力には、TCPトランスポートとしてIPv6を使用するLDPセッションの情報が表示されます。
検証
設定が正常に機能していることを確認します。
LDP ネイバー情報の検証
目的
LDP ネイバー情報を表示します。
アクション
デバイスR1で、運用モードからshow ldp neighbor extensive
コマンドを実行して、LDPネイバー情報を表示します。
user@R1> show ldp neighbor extensive
Address Interface Label space ID Hold time
192.168.12.2 ge-1/0/0.0 10.255.0.2:0 14
Transport address: 10.255.0.2, Transport preference: IPv4, Configuration sequence: 9
Up for 00:00:14
Reference count: 1
Hold time: 15, Proposed local/peer: 15/15
Hello flags: none
Neighbor types: discovered
Address Interface Label space ID Hold time
fe80::21f:1200:cb6:4c8d ge-1/0/0.0 10.255.0.2:0 14
Transport address: 2001:db8::2, Transport preference: IPv4, Configuration sequence: 9
Up for 00:00:14
Reference count: 1
Hold time: 15, Proposed local/peer: 15/15
Hello flags: none
Neighbor types: discovered
意味
出力は、IPv4 と IPv6 アドレスのLDPネイバー情報を示しています。
LDP セッション情報の検証
目的
LDP セッション情報を表示します。
アクション
デバイスR1で、運用モードからshow ldp session extensive
コマンドを実行して、LDPセッション情報を表示します。
user@R1> show ldp session extensive
Address: 10.255.0.2, State: Operational, Connection: Open, Hold time: 24
Session ID: 10.255.0.1:0--10.255.0.2:0
Next keepalive in 4 seconds
Passive, Maximum PDU: 4096, Hold time: 30, Neighbor count: 2
Neighbor types: discovered
Keepalive interval: 10, Connect retry interval: 1
Local address: 10.255.0.1, Remote address: 10.255.0.2
Up for 00:05:26
Capabilities advertised: none
Capabilities received: none
Protection: disabled
Session flags: none
Local - Restart: disabled, Helper mode: enabled
Remote - Restart: disabled, Helper mode: enabled
Local maximum neighbor reconnect time: 120000 msec
Local maximum neighbor recovery time: 240000 msec
Local Label Advertisement mode: Downstream unsolicited
Remote Label Advertisement mode: Downstream unsolicited
Negotiated Label Advertisement mode: Downstream unsolicited
MTU discovery: disabled
Nonstop routing state: Not in sync
Next-hop addresses received:
10.255.0.2
192.168.12.2
2001:db8::2
fe80::21f:1200:cb6:4c8d
Queue depth: 0
Message type Total Last 5 seconds
Sent Received Sent Received
Initialization 1 1 0 0
Keepalive 33 33 1 1
Notification 0 0 0 0
Address 2 2 0 0
Address withdraw 0 0 0 0
Label mapping 6 6 0 0
Label request 0 0 0 0
Label withdraw 0 0 0 0
Label release 0 0 0 0
Label abort 0 0 0 0
意味
出力には、TCPトランスポートとしてIPv6を使用するLDPセッションの情報が表示されます。
検証
設定が正常に機能していることを確認します。
LDP ネイバー情報の検証
目的
LDP ネイバー情報を表示します。
アクション
デバイスR1で、運用モードからshow ldp neighbor extensive
コマンドを実行して、LDPネイバー情報を表示します。
user@R1> show ldp neighbor extensive
Address Interface Label space ID Hold time
192.168.12.2 ge-1/0/0.0 10.255.0.2:0 11
Transport address: 10.255.0.2, Configuration sequence: 10
Up for 00:04:35
Reference count: 1
Hold time: 15, Proposed local/peer: 15/15
Hello flags: none
Neighbor types: discovered
Address Interface Label space ID Hold time
fe80::21f:1200:cb6:4c8d ge-1/0/0.0 10.255.0.2:0 14
Transport address: 2001:db8::2, Configuration sequence: 10
Up for 00:04:35
Reference count: 1
Hold time: 15, Proposed local/peer: 15/15
Hello flags: none
Neighbor types: discovered
意味
出力は、IPv4 と IPv6 アドレスのLDPネイバー情報を示しています。
LDP セッション情報の検証
目的
LDP セッション情報を表示します。
アクション
デバイスR1で、運用モードからshow ldp session extensive
コマンドを実行して、LDPネイバー情報を表示します。
user@R1> show ldp session extensive
Address: 2001:db8::2, State: Operational, Connection: Open, Hold time: 29
Session ID: 10.1.1.1:0--10.255.0.2:0
Next keepalive in 9 seconds
Passive, Maximum PDU: 4096, Hold time: 30, Neighbor count: 1
Neighbor types: discovered
Keepalive interval: 10, Connect retry interval: 1
Local address: 2001:db8::1, Remote address: 2001:db8::2
Up for 00:05:31
Capabilities advertised: none
Capabilities received: none
Protection: disabled
Session flags: none
Local - Restart: disabled, Helper mode: enabled
Remote - Restart: disabled, Helper mode: enabled
Local maximum neighbor reconnect time: 120000 msec
Local maximum neighbor recovery time: 240000 msec
Local Label Advertisement mode: Downstream unsolicited
Remote Label Advertisement mode: Downstream unsolicited
Negotiated Label Advertisement mode: Downstream unsolicited
MTU discovery: disabled
Nonstop routing state: Not in sync
Next-hop addresses received:
2001:db8::2
fe80::21f:1200:cb6:4c8d
Queue depth: 0
Message type Total Last 5 seconds
Sent Received Sent Received
Initialization 1 1 0 0
Keepalive 34 34 0 0
Notification 0 0 0 0
Address 1 1 0 0
Address withdraw 0 0 0 0
Label mapping 3 3 0 0
Label request 0 0 0 0
Label withdraw 0 0 0 0
Label release 0 0 0 0
Label abort 0 0 0 0
Address: 10.255.0.2, State: Operational, Connection: Open, Hold time: 29
Session ID: 10.255.0.1:0--10.255.0.2:0
Next keepalive in 9 seconds
Passive, Maximum PDU: 4096, Hold time: 30, Neighbor count: 1
Neighbor types: discovered
Keepalive interval: 10, Connect retry interval: 1
Local address: 10.255.0.1, Remote address: 10.255.0.2
Up for 00:05:31
Capabilities advertised: none
Capabilities received: none
Protection: disabled
Session flags: none
Local - Restart: disabled, Helper mode: enabled
Remote - Restart: disabled, Helper mode: enabled
Local maximum neighbor reconnect time: 120000 msec
Local maximum neighbor recovery time: 240000 msec
Local Label Advertisement mode: Downstream unsolicited
Remote Label Advertisement mode: Downstream unsolicited
Negotiated Label Advertisement mode: Downstream unsolicited
MTU discovery: disabled
Nonstop routing state: Not in sync
Next-hop addresses received:
10.255.0.2
192.168.12.2
Queue depth: 0
Message type Total Last 5 seconds
Sent Received Sent Received
Initialization 1 1 0 0
Keepalive 34 34 0 0
Notification 0 0 0 0
Address 1 1 0 0
Address withdraw 0 0 0 0
Label mapping 3 3 0 0
Label request 0 0 0 0
Label withdraw 0 0 0 0
Label release 0 0 0 0
Label abort 0 0 0 0
例:ポイントツーマルチポイント LSP 向けのマルチポイント LDP インバンド シグナリングの設定
ポイントツーマルチポイント LSP のマルチポイント LDP インバンド シグナリングの理解
帯域内シグナリングを使用したポイントツーマルチポイントラベルスイッチパス(LSP)向けのM-LDP(Multipoint Label Distribution Protocol)は、IPTVなどでマルチキャストトラフィックを伝送する必要がある既存のIP/MPLSバックボーンを使用した導入で役立ちます。
長年にわたり、マルチキャストトラフィックの伝送に最も広く利用されてきたソリューションは、サービスプロバイダーのコアでネイティブIPマルチキャストを使用し、マルチポイントIPトンネリングを使用して顧客のトラフィックを分離することでした。マルチキャスト ルーティング プロトコル(通常は PIM(プロトコル非依存型マルチキャスト))が展開され、転送パスが設定されます。コアで PIM シグナリングを使用した転送には、IP マルチキャスト ルーティングを使用します。このモデルを機能させるには、コア ネットワークでマルチキャストが有効になっている必要があります。これにより、自律システム(AS)のシナリオでも、効果的で安定した導入が可能になります。
しかし、既存の IP/MPLS ネットワークでは、PIM の導入が第一の選択肢ではないかもしれません。一部のサービスプロバイダは、IPトンネリングをMPLSラベルカプセル化に置き換えることに関心を持っています。MPLSラベルスイッチに移行する動機は、MPLSトラフィックエンジニアリングと保護機能を活用し、プロバイダコアの制御トラフィックオーバーヘッドを削減することです。
そのために、サービス プロバイダは、既存の展開の拡張を活用して、マルチキャスト トラフィックを通過できるようにすることに関心を持っています。IP/MPLS の既存のマルチキャスト拡張は、RSVP-TE の場合はポイントツーマルチポイント拡張、LDP の場合はポイントツーマルチポイントおよびマルチポイントツーマルチポイント拡張です。これらの導入シナリオについては、RFC 6826の ポイントツーマルチポイントおよびマルチポイントツーマルチポイントのラベルスイッチパス用のマルチポイントLDPインバンドシグナリングで説明しています。この機能の概要は、LDP のポイントツーマルチポイント拡張に限定されています。
- M-LDPの仕組み
- 用語
- イングレス結合変換と擬似インターフェイス処理
- イングレス スプライシング
- リバース パス フォワーディング
- LSP ルート検出
- エグレス結合変換と擬似インターフェイス処理
- エグレススプライシング
- サポートされている機能
- サポートされていない機能
- LDP 機能
- エグレス LER 機能
- トランジットLSR機能
- イングレス LER 機能
M-LDPの仕組み
M-LDPシグナリングにおけるラベルバインディング
LDP へのマルチポイント拡張では、ポイントツーマルチポイントおよびマルチポイントツーマルチポイントの転送等価クラス(FEC)要素(RFC 5036、 LDP 仕様で定義)を、機能アドバタイズメント、ラベルマッピング、シグナリング手順とともに使用します。FEC 要素には、IP アドレスである LSP ルートと、同じ不透明な値を共有するリーフ ノードをグループ化するセレクターである「不透明」値の概念が含まれます。不透明な値は中間ノードに対しては透過的ですが、LSP ルートに対しては意味があります。すべてのLDPノードは、FECにあるルートIPアドレスへの最短パスで、アップストリームのLDPノードにローカル受信ラベルバインディングをアドバタイズします。ラベルバインディングを受信するアップストリームノードは、独自のローカルラベルと発信インターフェイスを作成します。複数の発信ブランチがある場合、このラベル割り当てプロセスによってパケット レプリケーションが発生する可能性があります。図 18に示すように、LDPノードは、同じアップストリームノードを共有するダウンストリームノードが見つかった場合、同じ不透明な値のラベルバインディングをマージします。これにより、ポイントツーマルチポイントLSPを効果的に構築し、ラベルを保存することができます。
PIMフリーMPLSコアのM-LDP
図 19 は、縮小された展開シナリオを示しています。2 つの独立した PIM ドメインは、PIM フリーのコア サイトによって相互接続されています。このコア サイトのボーダー ルーターは、ボーダー インターフェイスで PIM をサポートします。さらに、これらの境界ルーターは、ルーティング情報を収集し、隣接サイトからコア ネットワークに配信します。サイト C のエッジ ルーターは、ルート ノード検出のために BGP を実行します。内部ゲートウェイプロトコル(IGP)ルートは、ほとんどの場合、IGPが提供する転送ネクストホップが送信元へのイングレスデバイスに関する情報を提供しないため、イングレス検出には使用できません。M-LDP インバンド シグナリングは、ポイントツーマルチポイント LSP と(S,G)フローの間に 1 対 1 のマッピングがあります。インバンド シグナリングでは、PIM メッセージは M-LDP FEC バインディングに直接変換されます。一方、アウトオブバンド シグナリングは手動設定に基づいています。M-LDP インバンド シグナリングのアプリケーションの 1 つに、MPLS バックボーンで IPTV マルチキャスト トラフィックを伝送する方法があります。
設定
ラベル エッジ ルータ(LER) の設定ステートメント mldp-inband-signalling
により、LERがPIMアップストリーム ネイバーを検出しない場合に、PIMがアップストリーム ネイバーにM-LDPインバンド シグナリングを使用できるようになります。MPLS LSP ルートの静的設定は、ポリシーを使用して PIM 設定に含まれます。これは、コアサイトで IBGP が利用できない場合、または IBGP ベースの LSP ルート検出を上書きするために必要です。
たとえば、以下のように表示されます。
protocols { pim { mldp-inband-signalling { policy lsp-mapping-policy-example; } } }
policy-options { policy-statement lsp-mapping-policy-example { term channel1 { from { source-address-filter ip-prefix</prefix-length>; #policy filter for channel1 } then { p2mp-lsp-root { # Statically configured ingress address of edge # used by channel1 address ip-address; } accept; } } } }
PIM 対応 MPLS コアの M-LDP
Junos OS リリース 14.1 以降、既存の IPTV サービスをネイティブ IP マルチキャストから MPLS マルチキャストに移行するには、PIM から M-LDP ポイントツーマルチポイント LSP へ、最小限の停止でスムーズに移行する必要があります。 図 20 、 図 19と同様のM-LDPトポロジーを示していますが、シナリオが異なります。コアは PIM で有効になっており、1 つのソースがすべての IPTV チャネルをストリーミングします。TVチャンネルはASMストリームとして送信され、各チャンネルはグループアドレスで識別されます。以前は、これらのチャネルは IP ストリームとしてコアでストリーミングされ、PIM を使用してシグナリングされていました。
このシナリオで mldp-inband-signaling
を設定することにより、送信元に PIM ネイバーがない場合にのみ M-LDP シグナリングが開始されます。しかし、エグレス PE のアップストリーム インターフェイスで PIM が非アクティブ化されない限り、ソースに向かって常に PIM ネイバーが存在するため、PIM は M-LDP よりも優先され、M-LDP は有効になりません。
設定
チャネルごとに、M-LDP アップストリームを使用するストリームと既存の PIM アップストリームを使用する他のストリームを持つ M-LDP MPLS コアに段階的に移行するには、M-LDP インバンド シグナリングのポリシー フィルターに、グループ ベース フィルターとともに selected-mldp-egress
設定ステートメントを含めます。
M-LDPインバンドシグナリングポリシーフィルターには、 source-address-filter
ステートメントまたは route-filter
ステートメントのいずれか、あるいは両方の組み合わせを含めることができます。
たとえば、以下のように表示されます。
protocols { pim { mldp-inband-signalling { policy lsp-mapping-policy-example; } } }
policy-options { policy-statement lsp-mapping-policy-example { term channel1 { from { source-address-filter ip-prefix</prefix-length>; #policy filter for channel1 } then { selected-mldp-egress; accept; } } term channel2 { from { source-address-filter ip-prefix</prefix-length>; #policy filter for channel2 route-filter ip-prefix</prefix-length>; #policy filter on multicast group address } then { selected-mldp-egress; p2mp-lsp-root { # Statically configured ingress address of edge # used by channel2 address ip-address; } accept; } } term channel3 { from { route-filter ip-prefix</prefix-length>; #policy filter on multicast group address } then { selected-mldp-egress; accept; } } } }
上記の構成の制限には、次のようなものがあります。
selected-mldp-egress
ステートメントは、LERでのみ設定する必要があります。非エグレス PIM ルーターでselected-mldp-egress
ステートメントを設定すると、パス設定に失敗することがあります。PIM アップストリームから M-LDP アップストリームに、またはその逆にトラフィックを切り替えるポリシー変更が行われた場合、コントロール プレーンでブレーク アンド メイク メカニズムが実行されるため、パケット損失が予想されます。
用語
以下の用語は、マルチキャストトラフィックのM-LDPインバンドシグナリングを理解する上で重要です。
Point-to-point LSP | 1 つのイングレス ラベル交換ルータ(LSR)と 1 つのエグレス LSR を持つ LSP。 |
Multipoint LSP | ポイントツーマルチポイントまたはマルチポイントツーマルチポイント LSP。 |
Point-to-multipoint LSP | 1 つのイングレス LSR と 1 つ以上のエグレス LSR を持つ LSP。 |
Multipoint-to-point LSP | 1 つ以上のイングレス LSR と 1 つの一意のエグレス LSR を持つ LSP。 |
Multipoint-to-multipoint LSP | LSP 内のいずれかのノードから送信されたトラフィックが他のすべてのノードに配信されるように、一連のノードを接続する LSP 。 |
Ingress LSR | 特定の LSP のイングレス LSR は、その LSP に沿ってデータ パケットを送信できる LSR です。マルチポイントツーマルチポイント LSP は、複数のイングレス LSR を持つことができます。ポイントツーマルチポイント LSP は 1 つしか持たず、そのノードは多くの場合、ルート ノードと呼ばれます。 |
Egress LSR | 特定の LSP のエグレス LSR は、さらなる処理のためにその LSP からデータ パケットを削除できる LSR です。ポイントツーポイントおよびマルチポイントツーポイント LSP のエグレス ノードは 1 つだけです。ポイントツーマルチポイントおよびマルチポイントツーマルチポイント LSP は、複数のエグレス ノードを持つことができます。 |
Transit LSR | 直接接続されたアップストリーム LSR と 1 つ以上の直接接続されたダウンストリーム LSR を介してマルチポイント LSP のルートに到達可能な LSR。 |
Bud LSR | エグレスであるが、1つ以上の直接接続されたダウンストリームLSRを持つLSR。 |
Leaf node | ポイントツーマルチポイント LSP のコンテキストにおけるエグレスまたはバッド LSR。マルチポイントツーマルチポイント LSP のコンテキストでは、LSR は同じマルチポイントツーマルチポイント LSP のイングレスとエグレスの両方であり、バッド LSR になる場合もあります。 |
イングレス結合変換と擬似インターフェイス処理
イングレス LER で、LDP はインバンド シグナリングで受信した(S,G)メッセージについて PIM に通知します。PIM は、各(S,G)メッセージを擬似インターフェイスに関連付けます。続いて、送信元に向けて SPT(最短パス ツリー)ジョイン メッセージが開始されます。PIMはこれを新しいタイプのローカルレシーバーとして扱います。LSP が破棄されると、PIM は LDP からの通知に基づいてこのローカル レシーバーを削除します。
イングレス スプライシング
LDP は、各(S,G)エントリーに関連するネクスト ホップを PIM に提供します。PIM は、LDP ネクスト ホップおよび他の PIM レシーバーと共に PIM(S、G)マルチキャスト ルートをインストールします。ネクストホップは、ローカルレシーバーの複合ネクストホップ + PIM ダウンストリームネイバーのリスト + LDP トンネルのサブレベルネクストホップです。
リバース パス フォワーディング
PIM のリバース パス フォワーディング(RPF)計算は、エグレス ノードで実行されます。
PIM は、以下の条件がすべて当てはまる場合に M-LDP の帯域内シグナリングを実行します。
ソースに向かうPIMネイバーはありません。
M-LDPインバンドシグナリングステートメントが設定されています。
ネクストホップはBGPを介して学習されるか、スタティックマッピング(M-LDPの帯域内シグナリングポリシーで指定)に存在します。
それ以外の場合、LSP ルート検出に失敗した場合、PIM は RPF 状態が未解決の(S,G)エントリを保持します。
PIM RPF は、ユニキャスト ルーティング情報が変更されるたびに、この送信元アドレスを登録します。したがって、ソースに向かうルートが変更されると、RPF の再計算が繰り返されます。ソースに向かうBGPプロトコルのネクストホップも、LSPルートの変更について監視されます。このような変更により、短時間トラフィックが中断される可能性があります。
LSP ルート検出
RPF動作がアップストリームのM-LDPインバンドシグナリングの必要性を検出すると、LSPルート(イングレス)が検出されます。このルートは、LDP LSP シグナリングのパラメータです。
ルート ノードは次のように検出されます。
既存のスタティック設定で送信元アドレスが指定されている場合、ルートは設定で指定されたとおりに取得されます。
ユニキャスト ルーティング テーブルでルックアップが実行されます。送信元アドレスが見つかった場合、送信元に向かうプロトコル ネクスト ホップが LSP ルートとして使用されます。
Junos OS リリース 16.1 以前は、M-LDP ポイントツーマルチポイント LSP は、イングレス LSR のルート アドレスを使用して、エグレスからイングレスにシグナリングされます。このルートアドレスはIGPを介してのみ到達可能であるため、M-LDPポイントツーマルチポイントLSPは単一の自律システムに限定されます。ルート アドレスが IGP 経由では到達できないが、BGP 経由では到達可能であり、その BGP ルートが MPLS LSP 上で再帰的に解決される場合、ポイントツーマルチポイント LSP はそのポイントからイングレス LSR ルート アドレスに向かってそれ以上シグナリングされません。
このようなセグメント化されていないポイントツーマルチポイント LSP は、複数の自律システムにまたがってシグナリングする必要があり、これは以下の用途に使用できます。
セグメント化されていないポイントツーマルチポイントLSPを使用したAS間MVPN。
MPLSコアネットワークによって接続されたクライアントネットワーク間のAS間MLDPインバンドシグナリングです。
セグメント化されていないポイントツーマルチポイント LSP によるエリア間 MVPN または M-LDP インバンド シグナリング(シームレス MPLS マルチキャスト)。
Junos OSリリース16.1以降、M-LDPは、ルートアドレスがMPLS LSP上でさらに再帰的に解決されるBGPルートである場合、ASBRまたはトランジットまたはエグレスでポイントツーマルチポイントLSPをシグナリングできます。
エグレス結合変換と擬似インターフェイス処理
エグレス LER では、PIM は LSP ルートとともにシグナリングされる (S,G) メッセージを LDP に通知します。PIM は、この(S,G)メッセージのアップストリーム インターフェイスとして疑似インターフェイスを作成します。(S,G) プルーニング メッセージを受信すると、この関連付けは削除されます。
エグレススプライシング
ダウンストリーム サイトから (S,G) ジョイン メッセージを受信するコア ネットワークのエグレス ノードでは、このジョイン メッセージが M-LDP の帯域内シグナリング パラメータに変換され、LDP に通知されます。さらに、LSP 破棄は、(S,G) エントリが失われたとき、LSP ルートが変更されたとき、または (S,G) エントリが PIM ネイバー経由で到達可能になったときに発生します。
サポートされている機能
M-LDPインバンドシグナリングの場合、Junos OSは以下の機能をサポートします。
LDP ルートによる PIM ネクスト ホップのエグレス スプライシング
LDP ネクスト ホップとの PIM ルートのイングレス スプライシング
PIM ジョイン メッセージの LDP ポイントツーマルチポイント LSP 設定パラメータへの変換
PIM 参加メッセージを設定するための M-LDP インバンド LSP パラメータの変換
静的に設定されたBGPプロトコルネクストホップベースのLSPルート検出
PIMのソース固有マルチキャスト(SSM)およびすべてのソースマルチキャスト(ASM)の範囲に含まれるPIM(S、G)の状態
イングレス LER とエグレス LER を設定し、エッジ ルーターとして動作できるようにする
LER での IGMP 参加メッセージ
IPv6 の送信元とグループ アドレスを不透明な情報として IPv4 ルート ノードに伝達する
IPv6 (S,G) を IPv4 ルート アドレスにマッピングするための静的構成
サポートされていない機能
M-LDP インバンド シグナリングの場合、Junos OS は以下の機能をサポートし ていません 。
PIM ASMの完全サポート
(S,G)オプションを指定した
mpls lsp point-to-multipoint ping
コマンドノンストップ アクティブ ルーティング (NSR)
PIM の事前対応(MBB)
IPv6 LSPルートアドレス(LDPはIPv6 LSPをサポートしていません。
直接接続されていない PIM スピーカー間のネイバー関係
グレースフルリスタート
PIM デンス モード
PIM 双方向モード
LDP 機能
PIM(S、G)情報は、M-LDP不透明なTLV(type-length-value)エンコーディングとして伝送されます。ポイントツーマルチポイント FEC 要素は、ルートノード アドレスで構成されます。次世代マルチキャストVPN(NGEN MVPN)の場合、ポイントツーマルチポイント LSP はルートノードアドレスと LSP ID で識別されます。
エグレス LER 機能
エグレス LER では、PIM は次の情報を使って LDP をトリガーし、ポイントツーマルチポイント LSP を作成します。
ルート ノード
(S,G)
ネクスト ホップ
PIM は、マルチキャスト ツリーのソースに基づいてルート ノードを検索します。ルート アドレスがこの(S,G)エントリに設定されている場合、設定されたアドレスがポイントツーマルチポイント LSP ルートとして使用されます。それ以外の場合は、ルーティング テーブルを使用して送信元へのルートを検索します。マルチキャスト ツリーのソースへのルートが BGP で学習されたルートである場合、PIM は BGP ネクスト ホップ アドレスを取得し、それをポイントツーマルチポイント LSP のルート ノードとして使用します。
LDPは、ルートノードに基づいてアップストリームノードを見つけ、ラベルを割り当てて、ラベルマッピングをアップストリームノードに送信します。LDPは、インバンドM-LDPシグナリングに最後から2番目のホップポッピング(PHP)を使用しません。
マルチキャスト ツリーのソースのルート アドレスが変更された場合、PIM はポイントツーマルチポイント LSP を削除し、LDP が新しいポイントツーマルチポイント LSP を作成するようにトリガーします。この場合、発信インターフェイス リストは NULL になり、PIM は LDP がポイントツーマルチポイント LSP を削除するようにトリガーし、LDP はアップストリーム ノードにラベル撤回メッセージを送信します。
トランジットLSR機能
トランジット LSR は、ポイントツーマルチポイント FEC の送信元に向けてアップストリーム LSR にラベルをアドバタイズし、パケットの転送に必要な転送状態をインストールします。トランジット LSR は、任意の M-LDP 対応ルーターにすることができます。
イングレス LER 機能
イングレス LER では、LDP はラベル マッピングを受信すると、次の情報を PIM に提供します。
(S,G)
フラッディング ネクスト ホップ
その後、PIM は転送状態をインストールします。新しいブランチが追加または削除されると、それに応じてフラッディングネクストホップが更新されます。ラベルが取り消されたためにすべてのブランチが削除された場合、LDP は更新された情報を PIM に送信します。アップストリームとダウンストリームのネイバー間に複数のリンクがある場合、ポイントツーマルチポイント LSP は負荷分散されません。
関連項目
例:ポイントツーマルチポイント LSP 向けのマルチポイント LDP インバンド シグナリングの設定
この例では、PIM(プロトコル独立マルチキャスト)プロトコルの拡張として、または PIM の代替として、マルチキャスト トラフィックにマルチポイント LDP(M-LDP)インバンド シグナリングを設定する方法を示します。
要件
この例は、次のハードウェアおよびソフトウェア コンポーネントを使用して構成できます。
Junos OS リリース 13.2 以降
プロバイダーエッジ(PE)ルーター向けのMXシリーズ5GユニバーサルルーティングプラットフォームまたはMシリーズマルチサービスエッジルーター
トランジットラベルスイッチルーターとして機能するPTXシリーズパケットトランスポートルーター
コアルーター用Tシリーズコアルーター
PE ルーターは T シリーズ コア ルーター場合もありますが、これは一般的ではありません。コアルーターは、拡張要件に応じて、MXシリーズ5GユニバーサルルーティングプラットフォームまたはMシリーズマルチサービスエッジルーターにすることもできます。カスタマーエッジ(CE)デバイスは、ジュニパーネットワークスや他のベンダー製のルーターやスイッチである可能性があります。
この例を設定する前に、デバイス初期化以外の特別な設定を行う必要はありません。
概要
CLIクイック構成は、図 21でのすべてのデバイスの設定を示しています。セクション #d358e63__d358e831 では、デバイス EgressPE の手順について説明します。
設定
手順
CLIクイック構成
この例をすばやく設定するには、次のコマンドをコピーしてテキストファイルに貼り付け、改行を削除して、ネットワーク構成に合わせて必要な詳細を変更し、[edit]
階層レベルのCLIにコマンドをコピー&ペーストしてください。
デバイスsrc1
set logical-systems src1 interfaces fe-1/2/0 unit 0 family inet address 10.2.7.7/24 set logical-systems src1 interfaces lo0 unit 0 family inet address 10.1.1.7/32 set logical-systems src1 protocols ospf area 0.0.0.0 interface all
デバイスイングレスPE
set interfaces so-0/1/2 unit 0 family inet address 192.168.93.9/28 set interfaces fe-1/2/0 unit 0 family inet address 10.2.3.2/24 set interfaces fe-1/2/0 unit 0 family mpls set interfaces fe-1/2/1 unit 0 family inet address 10.2.5.2/24 set interfaces fe-1/2/2 unit 0 family inet address 10.2.6.2/24 set interfaces fe-1/2/2 unit 0 family mpls set interfaces fe-1/2/3 unit 0 family inet address 10.2.7.2/24 set interfaces fe-1/3/1 unit 0 family inet address 192.168.219.9/28 set interfaces lo0 unit 0 family inet address 10.1.1.2/32 set protocols igmp interface fe-1/2/1.0 version 3 set protocols igmp interface fe-1/2/1.0 static group 232.1.1.1 source 192.168.219.11 set protocols bgp group ibgp type internal set protocols bgp group ibgp local-address 10.1.1.2 set protocols bgp group ibgp family inet any set protocols bgp group ibgp family inet-vpn any set protocols bgp group ibgp neighbor 10.1.1.3 set protocols bgp group ibgp neighbor 10.1.1.4 set protocols bgp group ibgp neighbor 10.1.1.1 set protocols ospf area 0.0.0.0 interface all set protocols ldp interface fe-1/2/0.0 set protocols ldp interface fe-1/2/2.0 set protocols ldp interface lo0.0 set protocols ldp p2mp set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim rp static address 10.1.1.5 set protocols pim interface fe-1/3/1.0 set protocols pim interface lo0.0 set protocols pim interface fe-1/2/0.21 set protocols pim interface fe-1/2/3.0 set protocols pim interface fe-1/2/1.0 set protocols pim interface so-0/1/2.0 set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then accept set policy-options policy-statement mldppim-ex term A from source-address-filter 10.1.1.7/32 orlonger set policy-options policy-statement mldppim-ex term A from source-address-filter 10.2.7.0/24 orlonger set policy-options policy-statement mldppim-ex term A then accept set routing-options autonomous-system 64510
デバイスEgressPE
set interfaces so-0/1/3 unit 0 point-to-point set interfaces so-0/1/3 unit 0 family inet address 192.168.92.9/28 set interfaces fe-1/2/0 unit 0 family inet address 10.1.3.1/24 set interfaces fe-1/2/0 unit 0 family mpls set interfaces fe-1/2/1 unit 0 family inet address 10.1.4.1/24 set interfaces fe-1/2/2 unit 0 family inet address 10.1.6.1/24 set interfaces fe-1/2/2 unit 0 family mpls set interfaces fe-1/3/0 unit 0 family inet address 192.168.209.9/28 set interfaces lo0 unit 0 family inet address 10.1.1.1/32 set routing-options autonomous-system 64510 set protocols igmp interface fe-1/3/0.0 version 3 set protocols igmp interface fe-1/3/0.0 static group 232.1.1.1 group-count 3 set protocols igmp interface fe-1/3/0.0 static group 232.1.1.1 source 192.168.219.11 set protocols igmp interface fe-1/3/0.0 static group 227.1.1.1 set protocols igmp interface so-0/1/3.0 version 3 set protocols igmp interface so-0/1/3.0 static group 232.1.1.1 group-count 2 set protocols igmp interface so-0/1/3.0 static group 232.1.1.1 source 192.168.219.11 set protocols igmp interface so-0/1/3.0 static group 232.2.2.2 source 10.2.7.7 set protocols mpls interface fe-1/2/0.0 set protocols mpls interface fe-1/2/2.0 set protocols bgp group ibgp type internal set protocols bgp group ibgp local-address 10.1.1.1 set protocols bgp group ibgp family inet any set protocols bgp group ibgp neighbor 10.1.1.2 set protocols msdp local-address 10.1.1.1 set protocols msdp peer 10.1.1.5 set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface fe-1/2/0.0 set protocols ldp interface fe-1/2/2.0 set protocols ldp interface lo0.0 set protocols ldp p2mp set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim rp local address 10.1.1.1 set protocols pim rp local group-ranges 227.0.0.0/8 set protocols pim rp static address 10.1.1.4 set protocols pim rp static address 10.2.7.7 group-ranges 226.0.0.0/8 set protocols pim interface lo0.0 set protocols pim interface fe-1/3/0.0 set protocols pim interface fe-1/2/0.0 set protocols pim interface fe-1/2/1.0 set protocols pim interface so-0/1/3.0 set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set policy-options policy-statement mldppim-ex term A from source-address-filter 10.2.7.0/24 orlonger set policy-options policy-statement mldppim-ex term A then accept
デバイスp6
set interfaces fe-1/2/0 unit 0 family inet address 10.1.6.6/24 set interfaces fe-1/2/0 unit 0 family mpls set interfaces fe-1/2/1 unit 0 family inet address 10.2.6.6/24 set interfaces fe-1/2/1 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.6/32 set interfaces lo0 unit 0 family mpls set protocols ospf area 0.0.0.0 interface all set protocols ldp interface fe-1/2/0.0 set protocols ldp interface fe-1/2/1.0 set protocols ldp interface lo0.0 set protocols ldp p2mp
デバイスpr3
set interfaces ge-0/3/1 unit 0 family inet address 192.168.215.9/28 set interfaces fe-1/2/0 unit 0 family inet address 10.1.3.3/24 set interfaces fe-1/2/0 unit 0 family mpls set interfaces fe-1/2/1 unit 0 family inet address 10.2.3.3/24 set interfaces fe-1/2/1 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.3/32 set protocols igmp interface ge-0/3/1.0 version 3 set protocols igmp interface ge-0/3/1.0 static group 232.1.1.2 source 192.168.219.11 set protocols igmp interface ge-0/3/1.0 static group 232.2.2.2 source 10.2.7.7 set protocols bgp group ibgp local-address 10.1.1.3 set protocols bgp group ibgp type internal set protocols bgp group ibgp neighbor 10.1.1.2 set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface fe-1/2/1.0 metric 2 set protocols ldp interface fe-1/2/0.0 set protocols ldp interface fe-1/2/1.0 set protocols ldp interface lo0.0 set protocols ldp p2mp set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim interface fe-0/3/1.0 set protocols pim interface lo0.0 set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 10.2.7.7/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set routing-options autonomous-system 64510
デバイスpr4
set interfaces ge-0/3/0 unit 0 family inet address 192.168.207.9/28 set interfaces fe-1/2/0 unit 0 family inet address 10.1.4.4/24 set interfaces fe-1/2/0 unit 0 family iso set interfaces lo0 unit 0 family inet address 10.1.1.4/32 set protocols igmp interface ge-0/3/0.0 version 3 set protocols igmp interface ge-0/3/0.0 static group 232.1.1.2 source 192.168.219.11 set protocols igmp interface ge-0/3/0.0 static group 225.1.1.1 set protocols bgp group ibgp local-address 10.1.1.4 set protocols bgp group ibgp type internal set protocols bgp group ibgp neighbor 10.1.1.2 set protocols msdp local-address 10.1.1.4 set protocols msdp peer 10.1.1.5 set protocols ospf area 0.0.0.0 interface all set protocols pim rp local address 10.1.1.4 set protocols pim interface ge-0/3/0.0 set protocols pim interface lo0.0 set protocols pim interface fe-1/2/0.0 set routing-options autonomous-system 64510
デバイスpr5
set interfaces fe-1/2/0 unit 0 family inet address 10.2.5.5/24 set interfaces lo0 unit 0 family inet address 10.1.1.5/24 set protocols igmp interface lo0.0 version 3 set protocols igmp interface lo0.0 static group 232.1.1.1 source 192.168.219.11 set protocols msdp local-address 10.1.1.5 set protocols msdp peer 10.1.1.4 set protocols msdp peer 10.1.1.1 set protocols ospf area 0.0.0.0 interface all set protocols pim rp local address 10.1.1.5 set protocols pim interface all
ステップバイステップでの手順
次の例では、設定階層のいくつかのレベルに移動する必要があります。CLI のナビゲーションについては、CLIユーザー・ガイド の コンフィギュレーション・モードでのCLIエディタの使用を参照してください。
デバイスEgressPEを設定するには:
インターフェイスを設定します。
コアに面するインターフェイスで MPLS を有効にします。エグレスネクストホップでは、MPLSを有効にする必要はありません。
[edit interfaces] user@EgressPE# set fe-1/2/0 unit 0 family inet address 10.1.3.1/24 user@EgressPE# set fe-1/2/0 unit 0 family mpls user@EgressPE# set fe-1/2/2 unit 0 family inet address 10.1.6.1/24 user@EgressPE# set fe-1/2/2 unit 0 family mpls user@EgressPE# set so-0/1/3 unit 0 point-to-point user@EgressPE# set so-0/1/3 unit 0 family inet address 192.168.92.9/28 user@EgressPE# set fe-1/2/1 unit 0 family inet address 10.1.4.1/24 user@EgressPE# set fe-1/3/0 unit 0 family inet address 192.168.209.9/28 user@EgressPE# set lo0 unit 0 family inet address 10.1.1.1/32
エグレスインターフェイスにIGMPを設定します。
テスト用に、この例ではスタティック グループ アドレスと送信元アドレスを含めています。
[edit protocols igmp] user@EgressPE# set interface fe-1/3/0.0 version 3 user@EgressPE# set interface fe-1/3/0.0 static group 232.1.1.1 group-count 3 user@EgressPE# set interface fe-1/3/0.0 static group 232.1.1.1 source 192.168.219.11 user@EgressPE# set interface fe-1/3/0.0 static group 227.1.1.1 user@EgressPE# set interface so-0/1/3.0 version 3 user@EgressPE# set interface so-0/1/3.0 static group 232.1.1.1 group-count 2 user@EgressPE# set interface so-0/1/3.0 static group 232.1.1.1 source 192.168.219.11 user@EgressPE# set interface so-0/1/3.0 static group 232.2.2.2 source 10.2.7.7
コアに面するインターフェイスで MPLS を設定します。
[edit protocols mpls] user@EgressPE# set interface fe-1/2/0.0 user@EgressPE# set interface fe-1/2/2.0
BGP を設定します。
BGPはポリシー主導のプロトコルであるため、必要なルーティングポリシーの設定と適用も行います。
例えば、スタティックルートをBGPにエクスポートすることができます。
[edit protocols bgp group ibgp] user@EgressPE# set type internal user@EgressPE# set local-address 10.1.1.1 user@EgressPE# set family inet any user@EgressPE# set neighbor 10.1.1.2
(オプション)異なる PIM ドメインを相互接続するためにデバイス pr5 との MSDP ピア接続を設定し、冗長 RP を有効にします。
[edit protocols msdp] user@EgressPE# set local-address 10.1.1.1 user@EgressPE# set peer 10.1.1.5
OSPFを設定します。
[edit protocols ospf area 0.0.0.0] user@EgressPE# set interface all user@EgressPE# set interface fxp0.0 disable
コアに面するインターフェイスとループバック インターフェイスで LDP を設定します。
[edit protocols ldp] user@EgressPE# set interface fe-1/2/0.0 user@EgressPE# set interface fe-1/2/2.0 user@EgressPE# set interface lo0.0
ポイントツーマルチポイント MPLS LSP を有効にします。
[edit protocols ldp] user@EgressPE# set p2mp
ダウンストリーム インターフェイスで PIM を設定します。
[edit protocols pim] user@EgressPE# set interface lo0.0 user@EgressPE# set interface fe-1/3/0.0 user@EgressPE# set interface fe-1/2/1.0 user@EgressPE# set interface so-0/1/3.0
このデバイスは PIM ランデブー ポイント(RP)として機能するため、RP 設定を構成します。
[edit protocols pim] user@EgressPE# set rp local address 10.1.1.1 user@EgressPE# set rp local group-ranges 227.0.0.0/8 user@EgressPE# set rp static address 10.1.1.4 user@EgressPE# set rp static address 10.2.7.7 group-ranges 226.0.0.0/8
M-LDP インバンド シグナリングを有効にし、関連するポリシーを設定します。
[edit protocols pim] user@EgressPE# set mldp-inband-signalling policy mldppim-ex
ポイントツーマルチポイント LSP のルートアドレスおよび関連する送信元アドレスを指定するルーティングポリシーを設定します。
[edit policy-options policy-statement mldppim-ex] user@EgressPE# set term B from source-address-filter 192.168.0.0/24 orlonger user@EgressPE# set term B from source-address-filter 192.168.219.11/32 orlonger user@EgressPE# set term B then p2mp-lsp-root address 10.1.1.2 user@EgressPE# set term B then accept user@EgressPE# set term A from source-address-filter 10.2.7.0/24 orlonger user@EgressPE# set term A then accept
自律システム(AS)ID を設定します。
[edit routing-options] user@EgressPE# set autonomous-system 64510
結果
設定モードから、show interfaces
、show protocols
、show policy-options
、およびshow routing-options
のコマンドを入力して設定を確認します。出力結果に意図した設定内容が表示されない場合は、この例の手順を繰り返して設定を修正します。
デバイスEgressPE
user@EgressPE# show interfaces
so-0/1/3 {
unit 0 {
point-to-point;
family inet {
address 192.168.92.9/28;
}
}
}
fe-1/2/0 {
unit 0 {
family inet {
address 10.1.3.1/24;
}
family mpls;
}
}
fe-1/2/1 {
unit 0 {
family inet {
address 10.1.4.1/24;
}
}
}
fe-1/2/2 {
unit 0 {
family inet {
address 10.1.6.1/24;
}
family mpls;
}
}
fe-1/3/0 {
unit 0 {
family inet {
address 192.168.209.9/28;
}
}
}
lo0 {
unit 0 {
family inet {
address 10.1.1.1/32;
}
}
}
user@EgressPE# show protocols
igmp {
interface fe-1/3/0.0 {
version 3;
static {
group 232.1.1.1 {
group-count 3;
source 192.168.219.11;
}
group 227.1.1.1;
}
}
interface so-0/1/3.0 {
version 3;
static {
group 232.1.1.1 {
group-count 2;
source 192.168.219.11;
}
group 232.2.2.2 {
source 10.2.7.7;
}
}
}
}
mpls {
interface fe-1/2/0.0;
interface fe-1/2/2.0;
}
bgp {
group ibgp {
type internal;
local-address 10.1.1.1;
family inet {
any;
}
neighbor 10.1.1.2;
}
}
msdp {
local-address 10.1.1.1;
peer 10.1.1.5;
}
ospf {
area 0.0.0.0 {
interface all;
interface fxp0.0 {
disable;
}
}
}
ldp {
interface fe-1/2/0.0;
interface fe-1/2/2.0;
interface lo0.0;
p2mp;
}
pim {
mldp-inband-signalling {
policy mldppim-ex;
}
rp {
local {
address 10.1.1.1;
group-ranges {
227.0.0.0/8;
}
}
static {
address 10.1.1.4;
address 10.2.7.7 {
group-ranges {
226.0.0.0/8;
}
}
}
}
interface lo0.0;
interface fe-1/3/0.0;
interface fe-1/2/0.0;
interface fe-1/2/1.0;
interface so-0/1/3.0;
}
user@EgressPE# show policy-options
policy-statement mldppim-ex {
term B {
from {
source-address-filter 192.168.0.0/24 orlonger;
source-address-filter 192.168.219.11/32 orlonger;
}
then {
p2mp-lsp-root {
address 10.1.1.2;
}
accept;
}
}
term A {
from {
source-address-filter 10.2.7.0/24 orlonger;
}
then accept;
}
}
user@EgressPE# show routing-options
autonomous-system 64510;
同様に、他のエグレス デバイスも設定します。
デバイスの設定が完了したら、設定モードからcommit
を入力します。
検証
設定が正常に機能していることを確認します。
PIM の参加状態の確認
目的
PIM の参加状態に関する情報を表示して、M-LDP のインバンド アップストリームおよびダウンストリームの詳細を確認します。イングレス デバイスでは、 show pim join extensive
コマンドはダウンストリーム インターフェイスの Pseudo-MLDP
を表示します。エグレスでは、 show pim join extensive
コマンドはアップストリーム インターフェイスの Pseudo-MLDP
を表示します。
アクション
動作モードからshow pim join extensive
コマンドを入力します。
user@IngressPE> show pim join extensive Instance: PIM.master Family: INET R = Rendezvous Point Tree, S = Sparse, W = Wildcard Group: 232.1.1.1 Source: 192.168.219.11 Flags: sparse,spt Upstream interface: fe-1/3/1.0 Upstream neighbor: Direct Upstream state: Local Source Keepalive timeout: Uptime: 1d 23:00:12 Downstream neighbors: Interface: Pseudo-MLDP Interface: fe-1/2/1.0 10.2.5.2 State: Join Flags: S Timeout: Infinity Uptime: 1d 23:00:12 Time since last Join: 1d 23:00:12 Group: 232.1.1.2 Source: 192.168.219.11 Flags: sparse,spt Upstream interface: fe-1/3/1.0 Upstream neighbor: Direct Upstream state: Local Source Keepalive timeout: Uptime: 1d 22:59:59 Downstream neighbors: Interface: Pseudo-MLDP Group: 232.1.1.3 Source: 192.168.219.11 Flags: sparse,spt Upstream interface: fe-1/3/1.0 Upstream neighbor: Direct Upstream state: Local Source Keepalive timeout: Uptime: 1d 22:07:31 Downstream neighbors: Interface: Pseudo-MLDP Group: 232.2.2.2 Source: 10.2.7.7 Flags: sparse,spt Upstream interface: fe-1/2/3.0 Upstream neighbor: Direct Upstream state: Local Source Keepalive timeout: Uptime: 1d 22:59:59 Downstream neighbors: Interface: Pseudo-MLDP user@EgressPE> show pim join extensive Instance: PIM.master Family: INET R = Rendezvous Point Tree, S = Sparse, W = Wildcard Group: 227.1.1.1 Source: * RP: 10.1.1.1 Flags: sparse,rptree,wildcard Upstream interface: Local Upstream neighbor: Local Upstream state: Local RP Uptime: 1d 23:14:21 Downstream neighbors: Interface: fe-1/3/0.0 192.168.209.9 State: Join Flags: SRW Timeout: Infinity Uptime: 1d 23:14:21 Time since last Join: 1d 20:12:35 Group: 232.1.1.1 Source: 192.168.219.11 Flags: sparse,spt Upstream protocol: MLDP Upstream interface: Pseudo MLDP Upstream neighbor: MLDP LSP root <10.1.1.2> Upstream state: Join to Source Keepalive timeout: Uptime: 1d 23:14:22 Downstream neighbors: Interface: so-0/1/3.0 192.168.92.9 State: Join Flags: S Timeout: Infinity Uptime: 1d 20:12:35 Time since last Join: 1d 20:12:35 Downstream neighbors: Interface: fe-1/3/0.0 192.168.209.9 State: Join Flags: S Timeout: Infinity Uptime: 1d 20:12:35 Time since last Join: 1d 20:12:35 Group: 232.1.1.2 Source: 192.168.219.11 Flags: sparse,spt Upstream protocol: MLDP Upstream interface: Pseudo MLDP Upstream neighbor: MLDP LSP root <10.1.1.2> Upstream state: Join to Source Keepalive timeout: Uptime: 1d 23:14:22 Downstream neighbors: Interface: so-0/1/3.0 192.168.92.9 State: Join Flags: S Timeout: Infinity Uptime: 1d 20:12:35 Time since last Join: 1d 20:12:35 Downstream neighbors: Interface: fe-1/2/1.0 10.1.4.4 State: Join Flags: S Timeout: 198 Uptime: 1d 22:59:59 Time since last Join: 00:00:12 Downstream neighbors: Interface: fe-1/3/0.0 192.168.209.9 State: Join Flags: S Timeout: Infinity Uptime: 1d 20:12:35 Time since last Join: 1d 20:12:35 Group: 232.1.1.3 Source: 192.168.219.11 Flags: sparse,spt Upstream protocol: MLDP Upstream interface: Pseudo MLDP Upstream neighbor: MLDP LSP root <10.1.1.2> Upstream state: Join to Source Keepalive timeout: Uptime: 1d 20:12:35 Downstream neighbors: Interface: fe-1/3/0.0 192.168.209.9 State: Join Flags: S Timeout: Infinity Uptime: 1d 20:12:35 Time since last Join: 1d 20:12:35 Group: 232.2.2.2 Source: 10.2.7.7 Flags: sparse,spt Upstream protocol: MLDP Upstream interface: Pseudo MLDP Upstream neighbor: MLDP LSP root <10.1.1.2> Upstream state: Join to Source Keepalive timeout: Uptime: 1d 20:12:35 Downstream neighbors: Interface: so-0/1/3.0 192.168.92.9 State: Join Flags: S Timeout: Infinity Uptime: 1d 20:12:35 Time since last Join: 1d 20:12:35 user@pr3> show pim join extensive Instance: PIM.master Family: INET R = Rendezvous Point Tree, S = Sparse, W = Wildcard Group: 232.1.1.2 Source: 192.168.219.11 Flags: sparse,spt Upstream protocol: MLDP Upstream interface: Pseudo MLDP Upstream neighbor: MLDP LSP root <10.1.1.2> Upstream state: Join to Source Keepalive timeout: Uptime: 1d 20:14:40 Downstream neighbors: Interface: Pseudo-GMP ge-0/3/1.0 Group: 232.2.2.2 Source: 10.2.7.7 Flags: sparse,spt Upstream protocol: MLDP Upstream interface: Pseudo MLDP Upstream neighbor: MLDP LSP root <10.1.1.2> Upstream state: Join to Source Keepalive timeout: Uptime: 1d 20:14:40 Downstream neighbors: Interface: Pseudo-GMP ge-0/3/1.0 user@pr4> show pim join extensive Instance: PIM.master Family: INET R = Rendezvous Point Tree, S = Sparse, W = Wildcard Group: 225.1.1.1 Source: * RP: 10.1.1.4 Flags: sparse,rptree,wildcard Upstream interface: Local Upstream neighbor: Local Upstream state: Local RP Uptime: 1d 23:13:43 Downstream neighbors: Interface: ge-0/3/0.0 192.168.207.9 State: Join Flags: SRW Timeout: Infinity Uptime: 1d 23:13:43 Time since last Join: 1d 23:13:43 Group: 232.1.1.2 Source: 192.168.219.11 Flags: sparse,spt Upstream interface: fe-1/2/0.0 Upstream neighbor: 10.1.4.1 Upstream state: Local RP, Join to Source Keepalive timeout: 0 Uptime: 1d 23:13:43 Downstream neighbors: Interface: ge-0/3/0.0 192.168.207.9 State: Join Flags: S Timeout: Infinity Uptime: 1d 23:13:43 Time since last Join: 1d 23:13:43 user@pr5> show pim join extensive ge-0/3/1.0 Instance: PIM.master Family: INET R = Rendezvous Point Tree, S = Sparse, W = Wildcard Instance: PIM.master Family: INET6 R = Rendezvous Point Tree, S = Sparse, W = Wildcard
PIM ソースの確認
目的
PIM ソースに、予想される M-LDP インバンド アップストリームおよびダウンストリームの詳細が含まれていることを確認します。
アクション
動作モードからshow pim source
コマンドを入力します。
user@IngressPE> show pim source Instance: PIM.master Family: INET Source 10.1.1.1 Prefix 10.1.1.1/32 Upstream interface Local Upstream neighbor Local Source 10.2.7.7 Prefix 10.2.7.0/24 Upstream protocol MLDP Upstream interface Pseudo MLDP Upstream neighbor MLDP LSP root <10.1.1.2> Source 192.168.219.11 Prefix 192.168.219.0/28 Upstream protocol MLDP Upstream interface Pseudo MLDP Upstream neighbor MLDP LSP root <10.1.1.2>
user@EgressPE> show pim source Instance: PIM.master Family: INET Source 10.2.7.7 Prefix 1.2.7.0/24 Upstream interface fe-1/2/3.0 Upstream neighbor 10.2.7.2 Source 10.2.7.7 Prefix 10.2.7.0/24 Upstream interface fe-1/2/3.0 Upstream neighbor Direct Source 192.168.219.11 Prefix 192.168.219.0/28 Upstream interface fe-1/3/1.0 Upstream neighbor 192.168.219.9 Source 192.168.219.11 Prefix 192.168.219.0/28 Upstream interface fe-1/3/1.0 Upstream neighbor Direct
user@pr3> show pim source Instance: PIM.master Family: INET Source 10.2.7.7 Prefix 1.2.7.0/24 Upstream protocol MLDP Upstream interface Pseudo MLDP Upstream neighbor MLDP LSP root <10.1.1.2> Source 192.168.219.11 Prefix 192.168.219.0/28 Upstream protocol MLDP Upstream interface Pseudo MLDP Upstream neighbor MLDP LSP root <10.1.1.2>
user@pr4> show pim source Instance: PIM.master Family: INET Source 10.1.1.4 Prefix 10.1.1.4/32 Upstream interface Local Upstream neighbor Local Source 192.168.219.11 Prefix 192.168.219.0/28 Upstream interface fe-1/2/0.0 Upstream neighbor 10.1.4.1
LDP データベースの確認
目的
show ldp database
コマンドで、予期されるルートから (S,G) へのバインドが表示されていることを確認します。
アクション
user@IngressPE> show ldp database Input label database, 10.255.2.227:0--10.1.1.3:0 Label Prefix 300096 10.1.1.2/32 3 10.1.1.3/32 299856 10.1.1.6/32 299776 10.255.2.227/32 Output label database, 10.255.2.227:0--10.1.1.3:0 Label Prefix 300144 10.1.1.2/32 299776 10.1.1.3/32 299856 10.1.1.6/32 3 10.255.2.227/32 Input label database, 10.255.2.227:0--10.1.1.6:0 Label Prefix 299936 10.1.1.2/32 299792 10.1.1.3/32 3 10.1.1.6/32 299776 10.255.2.227/32 Output label database, 10.255.2.227:0--10.1.1.6:0 Label Prefix 300144 10.1.1.2/32 299776 10.1.1.3/32 299856 10.1.1.6/32 3 10.255.2.227/32 300432 P2MP root-addr 10.1.1.2, grp: 232.2.2.2, src: 10.2.7.7 300288 P2MP root-addr 10.1.1.2, grp: 232.1.1.1, src: 192.168.219.11 300160 P2MP root-addr 10.1.1.2, grp: 232.1.1.2, src: 192.168.219.11 300480 P2MP root-addr 10.1.1.2, grp: 232.1.1.3, src: 192.168.219.11
user@EgressPE> show ldp database Input label database, 10.1.1.2:0--10.1.1.3:0 Label Prefix 300096 10.1.1.2/32 3 10.1.1.3/32 299856 10.1.1.6/32 299776 10.255.2.227/32 300144 P2MP root-addr 10.1.1.2, grp: 232.2.2.2, src: 10.2.7.7 300128 P2MP root-addr 10.1.1.2, grp: 232.1.1.2, src: 192.168.219.11 Output label database, 10.1.1.2:0--10.1.1.3:0 Label Prefix 3 10.1.1.2/32 299776 10.1.1.3/32 299808 10.1.1.6/32 299792 10.255.2.227/32 Input label database, 10.1.1.2:0--10.1.1.6:0 Label Prefix 299936 10.1.1.2/32 299792 10.1.1.3/32 3 10.1.1.6/32 299776 10.255.2.227/32 300128 P2MP root-addr 10.1.1.2, grp: 232.2.2.2, src: 10.2.7.7 299984 P2MP root-addr 10.1.1.2, grp: 232.1.1.1, src: 192.168.219.11 299952 P2MP root-addr 10.1.1.2, grp: 232.1.1.2, src: 192.168.219.11 300176 P2MP root-addr 10.1.1.2, grp: 232.1.1.3, src: 192.168.219.11 300192 P2MP root-addr 10.1.1.2, grp: ff3e::1:2, src: 2001:db8:abcd::10:2:7:7 Output label database, 10.1.1.2:0--10.1.1.6:0 Label Prefix 3 10.1.1.2/32 299776 10.1.1.3/32 299808 10.1.1.6/32 299792 10.255.2.227/32 ----- logical-system: default Input label database, 10.255.2.227:0--10.1.1.3:0 Label Prefix 300096 10.1.1.2/32 3 10.1.1.3/32 299856 10.1.1.6/32 299776 10.255.2.227/32 Output label database, 10.255.2.227:0--10.1.1.3:0 Label Prefix 300144 10.1.1.2/32 299776 10.1.1.3/32 299856 10.1.1.6/32 3 10.255.2.227/32 Input label database, 10.255.2.227:0--10.1.1.6:0 Label Prefix 299936 10.1.1.2/32 299792 10.1.1.3/32 3 10.1.1.6/32 299776 10.255.2.227/32 Output label database, 10.255.2.227:0--10.1.1.6:0 Label Prefix 300144 10.1.1.2/32 299776 10.1.1.3/32 299856 10.1.1.6/32 3 10.255.2.227/32 300432 P2MP root-addr 10.1.1.2, grp: 232.2.2.2, src: 10.2.7.7 300288 P2MP root-addr 10.1.1.2, grp: 232.1.1.1, src: 192.168.219.11 300160 P2MP root-addr 10.1.1.2, grp: 232.1.1.2, src: 192.168.219.11 300480 P2MP root-addr 10.1.1.2, grp: 232.1.1.3, src: 192.168.219.11 300496 P2MP root-addr 10.1.1.2, grp: ff3e::1:2, src: 2001:db8:abcd::10:2:7:7
user@p6> show ldp database Input label database, 10.1.1.6:0--10.1.1.2:0 Label Prefix 3 10.1.1.2/32 299776 10.1.1.3/32 299808 10.1.1.6/32 Output label database, 10.1.1.6:0--10.1.1.2:0 Label Prefix 299776 10.1.1.2/32 299792 10.1.1.3/32 3 10.1.1.6/32
user@pr3> show ldp database Input label database, 10.1.1.3:0--10.1.1.2:0 Label Prefix 3 10.1.1.2/32 299776 10.1.1.3/32 299808 10.1.1.6/32 299792 10.255.2.227/32 Output label database, 10.1.1.3:0--10.1.1.2:0 Label Prefix 300096 10.1.1.2/32 3 10.1.1.3/32 299856 10.1.1.6/32 299776 10.255.2.227/32 300144 P2MP root-addr 10.1.1.2, grp: 232.2.2.2, src: 10.2.7.7 300128 P2MP root-addr 10.1.1.2, grp: 232.1.1.2, src: 192.168.219.11 Input label database, 10.1.1.3:0--10.255.2.227:0 Label Prefix 300144 10.1.1.2/32 299776 10.1.1.3/32 299856 10.1.1.6/32 3 10.255.2.227/32 Output label database, 10.1.1.3:0--10.255.2.227:0 Label Prefix 300096 10.1.1.2/32 3 10.1.1.3/32 299856 10.1.1.6/32 299776 10.255.2.227/32
MPLS ラベルのルート情報の検索
目的
ポイントツーマルチポイント FEC 情報を表示します。
アクション
user@EgressPE> show route label 299808 detail mpls.0: 14 destinations, 14 routes (14 active, 0 holddown, 0 hidden) 299808 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Flood Address: 0x931922c Next-hop reference count: 3 Next hop type: Router, Next hop index: 1109 Address: 0x9318b0c Next-hop reference count: 2 Next hop: via so-0/1/3.0 Label operation: Pop Next hop type: Router, Next hop index: 1110 Address: 0x93191e0 Next-hop reference count: 2 Next hop: 192.168.209.11 via fe-1/3/0.0 Label operation: Pop State: **Active Int AckRequest> Local AS: 10 Age: 13:08:15 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I FECs bound to route: P2MP root-addr 10.1.1.2, grp: 232.1.1.1, src: 192.168.219.11
LDP トラフィック統計の確認
目的
ポイントツーマルチポイント LSP のデータ トラフィック統計を監視します。
アクション
user@EgressPE> show ldp traffic-statistics p2mp P2MP FEC Statistics: FEC(root_addr:lsp_id/grp,src) Nexthop Packets Bytes Shared 10.1.1.2:232.2.2.2,10.2.7.7 so-0/1/3.0 0 0 No 10.1.1.2:232.1.1.1,192.168.219.11 so-0/1/3.0 0 0 No fe-1/3/0.0 0 0 No 10.1.1.2:232.1.1.2,192.168.219.11 so-0/1/3.0 0 0 No fe-1/3/0.0 0 0 No lt-1/2/0.14 0 0 No 10.1.1.2:232.1.1.3,192.168.219.11 fe-1/3/0.0 0 0 No 10.1.1.2:ff3e::1:2,2001:db8:abcd::1:2:7:7 fe-1/3/0.0 0 0 No
LDPへのセグメントルーティング相互運用性のためのクライアントとサーバーのマッピング
セグメントルーティングマッピングサーバーとクライアントのサポートにより、LDPおよびセグメントルーティング(SRまたはSPRING)を実行するネットワークアイランド間での相互運用性が可能になります。この相互運用性は、LDPからSRへの移行時に役立ちます。移行中に、LDPのみあるいはセグメントルーティングのみをサポートするデバイスのアイランド(あるいはドメイン)が存在する可能性があります。これらのデバイスが相互作用するためには、LDPセグメントルーティングマッピングサーバー(SRMS)とセグメントルーティングマッピングクライアント(SRMC)機能が必要です。これらのサーバーおよびクライアント機能をセグメントルーティングネットワーク上のデバイスで有効にします。
SRマッピングサーバーとクライアント機能はOSPFまたはISISでサポートされています。
LDPへのセグメントルーティング相互運用性の概要
図 22は、シンプルなLDPネットワークトポロジーを示しており、セグメントルーティングデバイスのLDPデバイスとの相互運用性がどのように行われるのかを説明しています。OSPFとISISの両方がサポートされているので、IGPに関しては依存関係がないことに留意してください。サンプルのトポロジーには、LDPからセグメントルーティングへの移行を行っているネットワークにR1からR6の6個のデバイスがあります。
このトポロジーではデバイスR1、R2、R3は、セグメントルーティング用にのみ設定されています。デバイスR5とR6はレガシーLDPドメインの一部であり、現在SRをサポートしていません。デバイスR4は、LDPとセグメントルーティングの両方をサポートしています。すべてのデバイスのループバックアドレスを表示しています。これらのループバックは、LDPドメインのegress FECと、SRドメインのSRノードIDとしてアドバタイズされます。相互運用性は、LDP FECをSRノードIDに、またSRノードIDにLDP FEDをマッピングすることに基づいています。
R1がR6と相互作用するために、LDPセグメントルーティングマッピングサセグメント(SRMS)とセグメントルーティングマッピングクライアント(SRMC)の両方が必要です。トラフィックの一方向のフローを見た方が、SRMSとSRMCの役割は理解しやすいでしょう。図 22に基づくと、SRドメインで左から右にトラフィックフローが発生し、LDPドメインで終了することになります。同様に、右から左へのトラフィックは、LDPドメインで発生し、SRドメインで終了します。
SRMSはトラフィックを左から右方向にステッチするのに必要な情報を提供します。SRMCは、右から左に流れるトラフィックのマッピングを提供します。
- 左から右へのトラフィックフロー:セグメントルーティングマッピングサーバー
SRMSは、SRドメインとLDPドメイン間のLSPステッチを容易にします。サーバーは、LDP FECをSRノードIDにマッピングします。LDP FECを
[edit routing-options source-packet-routing]
階層レベルでマッピングするように設定します。通常、完全接続するには、すべてのLDPループバックアドレスをマッピングする必要があります。下記にあるように、単一のレンジステートメントで連続プレフィクスをマッピングできます。LDPノードループバックが連続しない場合は、複数のマッピングステートメントを定義する必要があります。[edit protocols ospf]
あるいは[edit protocols isis]
階層レベルでSRMSマッピング設定を適用します。この選択は、どのIGPが使用されるかによって異なります。SRおよびLDPノードの両方が共通のシングルエリアおよびレベル、IGPルーティングドメインを共有することに注意してください。SRMSは、拡張プレフィックスリストLSA(あるいはISISのケースではLSP)を生成します。このLSAの情報により、SRノードがLDPプレフィックス(FEC)をSRノードIDにマッピングできます。LDPプレフィックス用のマッピングされたルートは、SRノードの
inet.3
とmpls.0
ルーティングテーブルにインストールされ、左から右方向のトラフィックのLSP ingressとステッチ操作を容易にします。拡張LSA(またはLSP)は、(シングル)IGPエリア全体にフラッドされます。つまり、SRドメインのどのルーターにでも自由にSRMS設定を配置することができるということです。SRMSノードは、LDPを実行する必要はありません。
- 右から左のトラフィックフロー:セグメントルーティングマッピングクライアント
右から左方向、つまり、LDPアイランドからSRアイランドへ相互運用するためには、SRとLDPの両方と対話するノード上のセグメントルーティングクライアント機能を有効にするだけです。私たちの例では、R4です。
[edit protocols ldp]
階層のmapping-client
ステートメントでSRMC機能を有効にします。SRMC設定は、自動的にLDP egressポリシーを有効にし、SRドメインのノードとプレフィックスSIDをLDP egress FECとしてアドバタイズします。これにより、LSP到達可能性のあるLDPノードがSRドメインのノードに提供されます。
- SRMC機能は、SRおよびLSPドメインの両方にアタッチされたルーターで設定する必要があります。必要に応じて、同じノードをSRMSとして機能させることもできます。
OSPFを使用したLDPへのセグメントルーティング相互運用性
図 22を参照してください。(セグメントルーティングネットワーク内の)デバイスR2がSRMSにあるとします。
-
SRMS機能を定義します。
[edit routing-options source-packet-routing ] user@R2# set mapping-server-entry ospf-mapping-server prefix-segment-range ldp-lo0s start-prefix 192.168.0.5 user@R2# set mapping-server-entry ospf-mapping-server prefix-segment-range ldp-lo0s start-index 1000 user@R2# set mapping-server-entry ospf-mapping-server prefix-segment-range ldp-lo0s size 2
この設定は、サンプルトポロジーでLDPデバイスループバックアドレスの両方のマッピングブロックを生成します。R5のループバックにマッピングされた最初のセグメントID(SID)インデックスは
1000
です。サイズ2
を指定すると、SIDインデックス10001がR6のループバックアドレスにマッピングされます。注:start-prefix
として使用されるIPアドレスは、LDPネットワーク内のデバイスのループバックアドレス(この例ではR5)です。完全接続するには、LDPルーターのすべてのループバックアドレスをSRドメインにマッピングする必要があります。ループバックアドレスが連続している場合、1つのprefix-segment-range
ステートメントでこれを行うことができます。連続していないループバックでは、複数のプレフィックスマッピングステートメントを定義する必要があります。私たちの例では連続したループバックを使用しているため、1つの
prefix-segment-range
が上記に示されています。ここでは、連続していないループバックアドレスを持つ2つのLDPノードのケースをサポートするための複数マッピングの例を示します。[edit routing-options source-packet-routing] show mapping-server-entry map-server-name { prefix-segment-range lo1 { start-prefix 192.168.0.5/32; start-index 1000; size 1; } prefix-segment-range lo2 { start-prefix 192.168.0.10/32; start-index 2000; size 1; } } }
-
次に、マッピングされたプレフィックスをフラッディングするのに使用される拡張LSA向けのOSPFサポートを設定します。
[edit protocols] user@R2# set ospf source-packet-routing mapping-server ospf-mapping-server
デバイスR2でマッピングサーバー設定がコミットされると、拡張プレフィックス範囲TLVがOSPFエリア全体にフラッディングされます。セグメントルーティングが可能なデバイス(R1、R2、R3)は、セグメントID(SID)インデックスで指定されたループバックアドレス(この例ではR5とR6)のOSPFセグメントルーティングルートをインストールします。SIDインデックスは、セグメントルーティングデバイスによって
mpls.0
ルーティングテーブルで更新されます。 -
SRMC機能を有効にします。サンプルトポロジー用に、R4でSRMC機能を有効にする必要があります。
[edit protocols] user@R4# set ldp sr-mapping-client
デバイスR4でクライアント設定マッピングがコミットされると、SRノードIDとラベルブロックはegress FECとしてルーターR5にアドバタイズされます。そして、それらはR6に再アドバタイズされます。
Junos OS 19.1R1では、OSPFでセグメントルーティングとLDPネクストホップのステッチのサポートが開始されました。
Unsupported Features and Functionality for Segment Routing interoperability with LDP using OSPF
-
プレフィックス競合はSRMSでのみ検出されます。プレフィックス範囲の競合がある場合、下位ルーターIDからのプレフィックスSIDが優先されます。この場合、システムログエラーメッセージ—
RPD_OSPF_PFX_SID_RANGE_CONFLICT
—が生成されます。 -
IPv6 プレフィックスはサポートされていません。
-
AS境界をまたぐ(inter-AS)OSPF拡張プレフィックス不透明LSAのフラッドはサポートされていません。
-
エリア間LDPマッピングサーバー機能はサポートされていません。
-
拡張プレフィックスOpaque LSAのABR機能はサポートされていません。
-
拡張プレフィックスOpaque LSAのASBR機能はサポートされていません。
-
セグメントルーティングマッピングサーバー優先TLVはサポートされていません。
ISISを使用したLDPとのセグメントルーティングの相互運用性
図 22を参照してください。(セグメントルーティングネットワーク内の)デバイスR2がSRMSにあるとします。マッピング機能に次の設定が追加されます。
-
SRMS機能を定義します。
[edit routing-options source-packet-routing ] user@R2# set mapping-server-entry isis-mapping-server prefix-segment-range ldp-lo0s start-prefix 192.168.0.5 user@R2# set mapping-server-entry isis-mapping-server prefix-segment-range ldp-lo0s start-index 1000 user@R2# set mapping-server-entry isis-mapping-server prefix-segment-range ldp-lo0s size 2
この設定は、サンプルトポロジーでLDPデバイスループバックアドレスの両方のマッピングブロックを生成します。R5のループバックにマッピングされた最初のセグメントID(SID)インデックスは
1000
です。サイズ2
を指定すると、SIDインデックス10001がR6のループバックアドレスにマッピングされます。注:start-prefix
として使用されるIPアドレスは、LDPネットワーク内のデバイスのループバックアドレス(この例ではR5)です。完全な接続のためにLDPルーターのすべてのループバックアドレスをSRドメインにマッピングする必要があります。ループバックアドレスが連続している場合、prefix-segment-range
ステートメントでこれを行うことができます。連続していないループバックでは、複数のマッピングステートメントの定義が必要です。私たちの例では連続したループバックを使用しているため、1つの
prefix-segment-range
が上記に示されています。ここでは、連続していないループバックアドレスを持つ2つのLDPルーターのケースを処理するためのプレフィックスマッピングの例を示します。[edit routing-options source-packet-routing] show mapping-server-entry map-server-name { prefix-segment-range lo1 { start-prefix 192.168.0.5/32; start-index 1000; size 1; } prefix-segment-range lo2 { start-prefix 192.168.0.10/32; start-index 2000; size 1; } } }
-
次に、マッピングされたプレフィックスをフラッディングするのに使用される拡張LSAのためのISISサポートを設定します。
[edit protocols] user@R2# set isis source-packet-routing mapping-server isis-mapping-server
デバイスR2でマッピングサーバー設定がコミットされると、拡張プレフィックス範囲TLVがOSPFエリア全体にフラッディングされます。セグメントルーティング(R1、R2、R3)が可能なデバイスは、セグメントID(SID)インデックスで指定されたループバックアドレス(この例ではR5とR6)のISISセグメントルーティングルートをインストールします。SIDインデックスは、セグメントルーティングデバイスによって
mpls.0
ルーティングテーブルで更新されます。 -
SRMC機能を有効にします。サンプルトポロジー用に、R4でSRMC機能を有効にする必要があります。
[edit protocols] user@R4# set ldp sr-mapping-client
デバイスR4でクライアント設定マッピングがコミットされると、SRノードIDとラベルブロックはegress FECとしてルーターR5に、そして、そこからR6にアドバタイズされます。
Junos OS 17.4R1で、ISISでのセグメントルーティングとLDPネクストホップのステッチのサポートが開始されました。
Unsupported Features and Functionality for Interoperability of Segment Routing with LDP using ISIS
-
ラベルバインディングTLVに対する最後から2番目のホップポッピング動作はサポートされていません。
-
ラベルバインディングTLVの範囲のアドバタイズはサポートされていません。
-
セグメントルーティングの競合解決はサポートされていません。
-
LDPトラフィック統計は機能しません。
-
NSR(ノンストップアクティブルーティング)と GRES(グレースフルルーティングエンジンスイッチオーバー)はサポートされていません。
-
ISIS階層間はサポートされていません。
-
RFC 7794、拡張IPv4向けのIS-ISプレフィックス属性はサポートされていません。
-
ステッチノードでのプレフィックスSIDとしてのLDPルートの再配布はサポートされていません。
その他のLDPプロパティ
以下のセクションでは、各種LDPプロパティの設定方法について説明します。
- IGPルートメトリックを使用するLDPを構成
- inet.0ルーティング テーブルへのイングレスルートの追加防止
- 複数インスタンスLDPおよびキャリアオブキャリアVPN
- 最終ホップルーターでラベルをポップするMPLSおよびLDPの設定
- RSVPが確立したLSP上でLDPの有効化
- ヘテロジニアスネットワークでRSVPが確立したLSP上でLDPの有効化
- LDPセッション向けTCP MD5署名の構成
- LDPセッション保護の設定
- LDPのSNMPトラップの無効化
- LDPリンクでIGPとのLDP同期の設定
- ルーターのIGPとのLDP同期の設定
- ラベル取消タイマーの設定
- LDPサブネットチェックの無視
IGPルートメトリックを使用するLDPを構成
デフォルトのLDPルートメトリック(デフォルトのLDPルートメトリックは1)ではなく、interior gateway protocol (IGP)ルートメトリックをLDPルートに使用したい場合、track-igp-metric
のステートメントを使用します。
IGPルートメトリックを使用するには、以下のステートメント track-igp-metric
をインクルードします。
track-igp-metric;
このステートメントを含めることができる階層レベルの一覧は、このステートメントのステートメント概要のセクションを参照してください。
inet.0ルーティング テーブルへのイングレスルートの追加防止
no-forwarding
のステートメントを設定することで、[edit protocols mpls]
または[edit logical-systems logical-system-name protocols mpls]
階層レベルでtraffic-engineering bgp-igp
のステートメントを有効にした場合でも、inet.3ルーティング テーブルの代わりに、inet.0ルーティング テーブルにイングレスルートを追加しないように設定できます。デフォルトでは、no-forwarding
のステートメントは無効になっています。
ACX シリーズルーターは、[edit logical-systems
]階層レベルをサポートしていません。
inet.0ルーティング テーブルからイングレスルートを除外するには、以下のステートメント no-forwarding
をインクルードします。
no-forwarding;
このステートメントを含めることができる階層レベルの一覧は、このステートメントのステートメント概要のセクションを参照してください。
複数インスタンスLDPおよびキャリアオブキャリアVPN
複数のLDPルーティングインスタンスを設定することで、LDPを使用して、サービス プロバイダエエッジ(PE)ルーターからカスタマーキャリアのカスタマー エッジ(CE)ルーターまで、キャリアオブキャリアVPNのラベルをアドバタイズできます。これは、キャリアカスタマーが、基本的なインターネットサービス プロバイダ(ISP)になり、インターネットのフルルートをPEルーターに制限したい場合、特に役立ちます。BGPではなくLDPを使用することで、キャリアカスタマーはインターネットから他の内部ルーターを保護します。また、キャリアカスタマーが、レイヤー2またはレイヤー3VPNサービスを顧客に提供したい場合、複数インスタンスLDPが便利です。
キャリアオブキャリアVPNに複数のLDPルーティングインスタンスを設定する方法の例については、ラベル配布プロトコルユーザーガイドの複数インスタンスを参照してください。
最終ホップルーターでラベルをポップするMPLSおよびLDPの設定
デフォルトでアドバタイズされたラベルは、ラベル3(Implicit Nullラベル)です。ラベル3がアドバタイズされると、最終ホップルーターはラベルを削除し、パケットをエグレスルーターに送信します。最終ホップのポッピングが有効になっていると、ラベル0(IPv4 Explicit Nullラベル)がアドバタイズされます。最終ホップのポッピングにより、MPLSネットワークを通過するどのパケットにも確実にラベルが含まれます。
最終ホップのポッピングを設定するには、以下のステートメント explicit-null
をインクルードします。
explicit-null;
このステートメントを含めることができる階層レベルの一覧は、このステートメントのステートメント概要のセクションを参照してください。
ジュニパーネットワークスのルーターは、着信ラベルに基づいてパケットをキューに入れます。他のベンダーのルーターは、個別にパケットをキューに入れます。複数のベンダーのルーターを搭載したネットワークで作業する場合、このことを覚えておいてください。
ラベルの詳細については、MPLSラベルの概要とMPLSラベルの割り当てを参照してください。
RSVPが確立したLSP上でLDPの有効化
RSVPが確立したLSP上でLDPを実行し、RSVPが確立したLSPからLDPが確立したLSPを効果的にトンネリングできます。そのためには、lo0.0インターフェイスでLDPを有効にします(LDPの有効化および無効化を参照してください)。また、この[edit protocols mpls label-switched-path lsp-name]
階層レベルでldp-tunneling
のステートメントをインクルードして、LDPを動作させるLSPを設定する必要があります。
[edit] protocols { mpls { label-switched-path lsp-name { from source; to destination; ldp-tunneling; } } }
このステートメントを含めることができる階層レベルの一覧は、このステートメントのステートメント概要のセクションを参照してください。
LDPはリンク保護が有効なRSVPセッションをトンネルできます。Junos OSリリース21.1以降、LDPトンネルルートに関する詳細を表示すると、プライマリおよびバイパスLSPネクストホップの両方が表示されます。Junos OS以前のリリースでは、バイパスLSPネクストホップはプライマリLSPネクストホップを表示しました。
ヘテロジニアスネットワークでRSVPが確立したLSP上でLDPの有効化
一部のベンダーは、ループバックアドレスにOSPFメトリック1を使用しています。ジュニパーネットワークスルータでは、ループバックアドレスにOSPFメトリック0を使用します。このため、ヘテロジニアスネットワークのRSVP LSP上でLDPのトンネリングを導入する場合、RSVPメトリックを手動で設定する必要があるかもしれません。
ジュニパーネットワークスルーターがRSVPトンネルで別のベンダーのルーターにリンクし、LDPトンネリングも有効になっている場合、ジュニパーネットワークスルーターは、デフォルトでRSVPトンネルを使用せず、RSVPパスにOSPF物理パスよりも1大きいメトリックがあるなら、他のベンダーのエグレス ルーターのLDP宛先ダウンストリームにトラフィックをルーティングするかもしれません。
ヘテロジニアスネットワークでLDPトンネリングが正しく機能することを確認するには、 ignore-lsp-metrics
のステートメントをインクルードすることで、RSVP LSPメトリックを無視するようOSPFを設定することができます。
ignore-lsp-metrics;
以下の階層レベルでこのステートメントを設定することができます。
-
[edit protocols ospf traffic-engineering shortcuts]
-
[edit logical-systems logical-system-name protocols ospf traffic-engineering shortcuts]
ACX シリーズルーターは、[edit logical-systems
]階層レベルをサポートしていません。
RSVP LSP上のLDPを有効にするには、引き続きセクションRSVPが確立したLSP上でLDPの有効化の手順を完了する必要があります。
LDPセッション向けTCP MD5署名の構成
LDP TCP接続にMD5シグネチャを設定し、LDPセッション接続ストリームに偽装されたTCPセグメントの導入を防止することができます。TCP認証の詳細については、TCPを参照してください。TCP MD5ではなくTCP認証オプション(TCP-AO)の使用方法については、を参照してくださいNo link title。
MD5シグネチャのオプションを使用したルーターは、認証が必要な各ピアのパスワードで設定されます。パスワードは暗号化して保存されます。
ピアリングインターフェースに様々なセキュリティシグネチャが設定されている場合でも、LDP Hello隣接関係を作成できます。ただし、TCPセッションの認証はできないので、確立されることはありません。
LDPのハッシュド認証コード(HMAC)およびMD認証は、セッションごとの構成またはサブネットマッチ(つまり最長プレフィックスマッチ)構成として構成できます。サブネットマッチ認証のサポートは、自動的にターゲットLDP(TLDP)セッションの認証の設定の柔軟性を提供します。これにより、リモートループフリー代替(LFA)およびFEC 129疑似ワイヤの導入が容易になります。
LDP TCPコネクションでMD5署名を構成するには、セッショングループの一部としてステート authentication-key
メントを含みます:
[edit protocols ldp] session-group prefix-length { authentication-key md5-authentication-key; }
このsession-group
のステートメントを使用して、LDPセッションのリモートエンドにアドレスを設定します。
設定のmd5-authentication-key
、またはパスワードは、最大69文字です。文字には任意のASCII文字列を含めることができます。スペースを含む場合、すべての文字を引用符で囲んでください。
また、LDPルーティングプロトコルに認証キー更新メカニズムを設定することもできます。このメカニズムでは、OSPF(オープン最短パス ファースト)やRSVP(リソース予約セットアッププロトコル)などの、関連するルーティングやシグナリングプロトコルを中断することなく、認証キーを更新することができます。
認証キー更新メカニズムを設定するには、[edit security authentication-key-chains]
階層レベルでkey-chain
のステートメントをインクルードし、複数の認証キーで構成されるキーチェーンを作成するkey
オプションを指定します。
[edit security authentication-key-chains] key-chain key-chain-name { key key { secret secret-data; start-time yyyy-mm-dd.hh:mm:ss; } }
LDPルーティングプロトコルに認証キー更新メカニズムを設定するには、[edit protocols ldp]
階層レベルで authentication-key-chain
のステートメントをインクルードし、プロトコルを[edit security suthentication-key-chains]
認証キーに関連付けます。また、[edit protocols ldp]
階層レベルでauthentication-algorithm algorithm
のステートメントをインクルードして、認証アルゴリズムを設定する必要があります。
[edit protocols ldp] group group-name { neighbor address { authentication-algorithm algorithm; authentication-key-chain key-chain-name; } }
認証キー更新機能に関する詳細については、「BGPおよびLDPルーティングプロトコルへの認証キー更新メカニズムの設定」を参照してください。
LDPセッション保護の設定
通常、1つ以上のリンクで接続されている2つのルーター間でLDPセッションが作成されます。このルーターは、各リンクに1つのHello隣接関係を形成し、これによってルーターが接続され、すべての隣接関係が対応するLDPセッションに関連付けられます。LDPセッションの最後のHello隣接関係がなくなると、LDPセッションは終了します。LDPセッションが不必要に終了し再確立されないよう、この動作を変更することができます。
2つのルーターを接続するリンクにHello隣接関係がない場合でも、Junos OSを設定して、session-protection
のステートメントを設定することで、2つのルーター間でLDPセッションを稼動させたままの状態にすることができます。timeout
オプションを使用して、オプションで時間を秒単位で指定できます。ルーターがIPネットワークの接続性を維持する限り、指定期間中、このセッションは稼働を続けます。
session-protection { timeout seconds; }
このステートメントを含めることができる階層レベルの一覧は、ステートメント概要セクションを参照してください。
LDPのSNMPトラップの無効化
LDP LSPが上から下、または下から上に移動する場合、ルーターはSNMPトラップを送信します。ただし、ルーター、論理システム、またはルーティングインスタンスでLDP SNMPトラップを無効にすることは可能です。
LDP SNMPトラップおよび独自のLDP MIBの情報については、SNMP MIB Explorerをご覧ください。
LDPのSNMPトラップを無効にするには、log-updown
のステートメントのtrap disable
オプションを指定します。
log-updown { trap disable; }
このステートメントを含めることができる階層レベルの一覧は、このステートメントのステートメント概要のセクションを参照してください。
LDPリンクでIGPとのLDP同期の設定
LDPは、トラフィックエンジニアリングを行っていないアプリケーションでラベルを配信するプロトコルです。IGPで決定する最適パスに沿ってラベルが配布されます。LDPとIGP間の同期が維持されていない場合、LSPは停止します。指定リンクでLDPがフル稼働していない(セッションが確立されておらず、ラベルが交換されていない)場合、IGPは最大コストメトリックでリンクをアドバタイズします。これは優先リンクではありませんが、ネットワークトポロジーに残っています。
LDP同期は、IGP下のポイントツーポイントとして設定されたアクティブポイントツーポイントインターフェイスおよびLANインターフェイスでのみサポートされています。LDP同期はグレースフルリスタート時にはサポートされていません。
LDPが稼働して同期するまで、最大コストメトリックをアドバタイズするには、以下のステートメントldp-synchronization
をインクルードします。
ldp-synchronization { disable; hold-time seconds; }
同期を無効にするには、disable
のステートメントをインクルードします。フル稼働していないリンクの最大コストメトリックをアドバタイズする期間を設定するには、hold-time
のステートメントをインクルードします。
このステートメントを設定できる階層レベルの一覧については、このステートメントの概要のセクションを参照してください。
ルーターのIGPとのLDP同期の設定
インターフェイスのLDPネイバーおよびセッションが稼働していることをIGPに通知する前に、LDPの待機時間を設定することができます。数多くのFECを搭載した大規模ネットワークの場合、LDPラベルデータベースを交換する時間を十分確保できるよう長めの値を設定する必要があるかもしれません。
LDPネイバーおよびセッションが稼働していることをIGPに通知する前にLDPの待機時間を設定するには、igp-synchronization
のステートメントをインクルードし、holddown-interval
オプションの時間を秒単位で指定します。
igp-synchronization holddown-interval seconds;
このステートメントを設定できる階層レベルの一覧については、このステートメントの概要のセクションを参照してください。
ラベル取消タイマーの設定
ラベル取消タイマーは、FECのラベル取消メッセージをネイバーに送信するタイミングを遅らせます。ネイバーがFECのネクストホップの場合、ネイバーへのIGPリンクにエラーが生じると、すべてのアップストリームルーターからFECに関連するラベルを取り消す必要があります。IGPが収束し、新しいネクストホップからラベルを受信した後、すべてのアップストリームルーターにラベルを再度アドバタイズします。これが通常のネットワーク動作です。わずかな時間でもラベル取消のタイミングを遅らせることで(例えば、IGPが収束し、ルーターがダウンストリームのネクストホップからFECの新しいラベルを受信するまで)、ラベルの取消や、ラベルマッピングの早急な送信を避けることができます。label-withdrawal-delay
のステートメントでは、この遅延時間を設定することができます。デフォルトの遅延時間は60秒です。
タイマーが時間切れになる前にルーターが新しいラベルを受信すると、ラベル取消タイマーはキャンセルされます。ただし、タイマーが時間切れになると、FECのラベルはすべてのアップストリームルーターから取り消されます。
デフォルトでは、IGPが再収束している間に何度もLSPを再シグナリングしないように、ラベルを取り消す前にLDPは60秒待機します。ラベル取消の遅延時間を秒単位で設定するには、以下のステートメントlabel-withdrawal-delay
をインクルードします。
label-withdrawal-delay seconds;
このステートメントを設定できる階層レベルの一覧については、このステートメントの概要のセクションを参照してください。
LDPサブネットチェックの無視
Junos OSリリース8.4以降のリリースでは、ネイバー確立の手続き中にLDP送信元アドレスサブネットチェックが行われます。LDPリンクのHelloパケットの送信元アドレスをインターフェイスアドレスと照合します。これにより、一部のベンダーの機器との相互運用性の問題が生じます。
サブネットチェックを無効にするには、以下のステートメントallow-subnet-mismatch
をインクルードします。
allow-subnet-mismatch;
このステートメントは、以下の階層レベルでインクルードすることができます。
-
[edit protocols ldp interface interface-name]
-
[edit logical-systems logical-system-name protocols ldp interface interface-name]
ACX シリーズのルーターは、[edit logical-systems
]階層レベルをサポートしていません。
関連項目
LDP LSP トレースルートの設定
LDP シグナル LSP が続くルートをトレースできます。LDP LSP トレースルートは、RFC 4379 マルチプロトコルラベルスイッチ (MPLS) データプレーン障害を検知するに基づいています。この機能により、FEC 内のすべてのパスを定期的にトレースできます。FEC トポロジー情報は、CLI からアクセスできるデータベースに保存されます。
トポロジーを変更しても、LDP LSP のトレースが自動的にトリガーされることはありません。ただし、トレースルートは手動で開始できます。トレースルートリクエストが現在データベースにある FEC 向けの場合、データベースのコンテンツが結果とともに更新されます。
定期トレースルート機能は、 [edit protocols ldp]
階層レベルで設定されたoam
ステートメントにより指定されたすべての FEC に適用されます。定期 LDP LSP トレースルートを設定するには、periodic-traceroute
ステートメントを含めます。
periodic-traceroute { disable; exp exp-value; fanout fanout-value; frequency minutes; paths number-of-paths; retries retry-attempts; source address; ttl ttl-value; wait seconds; }
以下の階層レベルでこのステートメントを設定することができます。
periodic-traceroute
ステートメントをそれ自体で、または以下のオプションのいずれかを使って設定できます。
exp
—プローブを送信する際に使用するサービスのクラスを指定します。fanout
—ノードごとに検索するネクストホップの最大数を指定します。frequency
—トレースルート試行の間隔を指定します。paths
—検索するパスの最大数を指定します。retries
—あきらめる前に特定のノードにプローブを送信する試行回数を指定します。source
—プローブを送信する際に使用する IPv4 ソースアドレスを指定します。ttl
—TTL(Time-to-live)の最大値を指定します。この値がトレースされなくなるノード。wait
—プローブパケットを再送する前に、待機間隔を指定します。
LDP 統計の収集
LDP トラフィック統計は、ルーターで特定の FEC を通過したトラフィックの量を示しています。
[edit protocols ldp]
階層レベルでtraffic-statistics
ステートメントを設定する場合、LDP トラフィック統計は定期的に収集され、ファイルに書き込まれています。interval
オプションを使用することで、統計を収集する頻度(秒単位)を設定することができます。デフォルトの収集間隔は 5 分です。LDP 統計ファイルを設定する必要があります。それ以外の場合、LDP トラフィック統計は収集されません。LSP がダウンした場合、LDP 統計はリセットされます。
LDPトラフィック統計を収集するには、traffic-statistics
ステートメントを含みます。
traffic-statistics { file filename <files number> <size size> <world-readable | no-world-readable>; interval interval; no-penultimate-hop; }
このステートメントを含めることができる階層レベルの一覧は、このステートメントのステートメント概要のセクションを参照してください。
このセクションには、以下のトピックが含まれています。
LDP 統計出力
以下のサンプル出力出力は LDP 統計ファイルからのものです。
FEC Type Packets Bytes Shared 10.255.350.448/32 Transit 0 0 No Ingress 0 0 No 10.255.350.450/32 Transit 0 0 Yes Ingress 0 0 No 10.255.350.451/32 Transit 0 0 No Ingress 0 0 No 220.220.220.1/32 Transit 0 0 Yes Ingress 0 0 No 220.220.220.2/32 Transit 0 0 Yes Ingress 0 0 No 220.220.220.3/32 Transit 0 0 Yes Ingress 0 0 No May 28 15:02:05, read 12 statistics in 00:00:00 seconds
LDP 統計ファイルには、以下のデータの列が含まれています。
FEC
- LDP トラフィック統計を収集する FEC。Type
- ルーターから発信されたトラフィックのタイプ、Ingress
(このルーターから発信)またはTransit
(このルーターを経由して転送された)のいずれか。Packets
- LSP の出現以来、FEC がパスしたパケット数。Bytes
- LSPの出現以来、FEC がパスしたデータのバイト数。Shared
-Yes
の値は、複数のプレフィックスが同じラベルにバインドされていることを示します(例えば、複数のプレフィックスがエグレスポリシーでアドバタイズされている場合など)。この事例での LDP トラフィック統計はすべてのプレフィックスに適用され、そのように処理する必要があります。read
-(日付と時刻の次に表示される)この数は、表示される実際の数とは異なる場合があります。表示される前に一部統計は概要説明されています。
最後から 2 番目のホップ ルーターでの LDP 統計の無効化
LDP トラフィック統計を最後から 2 番目のホップ ルーターで収集する場合、特にネクストホップ ルートにおいてリソースを過剰に消費する可能性があります。traffic-statistics
ステートメントに、deaggregate
ステートメントを追加設定していると、この問題は悪化します。ネクストホップ ルート使用の限界に達するルーターには、traffic-statistics
ステートメントのno-penultimate-hop
オプションの設定を推奨します。
traffic-statistics { no-penultimate-hop; }
traffic-statistics
ステートメントを設定できる階層レベルの一覧は、このステートメントの概要のセクションを参照してください。
no-penultimate-hop
オプションを設定する場合、このルーターの最後から 2 番目のホップである FEC は統計を利用できません。
このオプションを設定に含めたり削除するたびに、LDP セッションはダウンし再起動されます。
以下は、no-penultimate-hop
オプションが設定されているルーターを示す LDP 統計ファイルの出力例です。
FEC Type Packets Bytes Shared 10.255.245.218/32 Transit 0 0 No Ingress 4 246 No 10.255.245.221/32 Transit statistics disabled Ingress statistics disabled 13.1.1.0/24 Transit statistics disabled Ingress statistics disabled 13.1.3.0/24 Transit statistics disabled Ingress statistics disabled
LDP 統計の限界
以下は、traffic-statistics
ステートメントを設定することによる、LDP 統計の収集に関連する問題です。
LDP 統計のクリアはできません。
指定された間隔を短縮する場合、統計タイマーが新しい間隔よりも遅い場合にのみ 新しいLDP 統計リクエストは発行されます。
新しい LDP 統計収集の動作は以前のもものが完了するまで開始できません間隔が短い場合、または、LDP 統計の数が大きい場合は、2 つの統計収集のタイム ギャップが間隔よりも長くなることがあります。
LSP がダウンすると、LDP 統計はリセットされます。
LDP プロトコル トラフィックのトレース
次のセクションでは LDP プロトコル トラトラフィックを検証するためにトレース オプションを設定する方法について説明します
プロトコルとルーティング インスタンス レベルで LDP プロトコル トラフィックをトレース
LDP プロトコルのトラフィックをトレースするには、[edit routing-options]
のグローバルtraceoptions
ステートメントでオプションを指定し、traceoptions
ステートメントを含めることで LDP 固有のオプションを指定することができます。
traceoptions { file filename <files number> <size size> <world-readable | no-world-readable>; flag flag <flag-modifier> <disable>; }
このステートメントを含めることができる階層レベルの一覧は、このステートメントのステートメント概要のセクションを参照してください。
file
ステートメントを使用してトレース動作の出力を受信するファイル名を指定しますすべてのファイルが /var/log のディレクトリに置かれます。LDPトレーシングの出力は、ファイルldp-logに置くことをお勧めします。
以下のトレース フラグは、様々な LDP メッセージの送受信に関連する動作を表示します。それぞれ、以下のような 1 つ以上の修飾子が伝送可能です。
address
-アドレスおよびアドレス撤回メッセージの動作をトレースします。binding
―ラベルバインディング動作をトレースします。error
-エラー状態のトレースをします。event
―プロトコル イベントのトレースをします。initialization
―初期化メッセージの動作をトレースします。label
―ラベル リクエスト、ラベル マップ、ラベル取り消し、ラベル リリース メッセージの動作をトレースします。notification
―通知メッセージの動作をトレースします。packets
―アドレス、アドレス取り消し、初期化、ラベル リクエスト、ラベル マップ、ラベル取り消し、ラベル リリース、通知、および周期メッセージの動作をトレースします。この修飾子は、address
、initialization
、label
、notification
、およびperiodic
の各修飾子を設定することと同じです。また、
filter
フラグ修飾子にpackets
フラグのmatch-on address
サブオプションを設定することもできます。これにより、パケットの送信元アドレスと送信先アドレスをもとにしたトレースが可能になります。path
―ラベルスイッチ パス動作をトレースします。path
―ラベルスイッチ パス動作をトレースします。periodic
―helloとキープアライブ メッセージの動作をトレースします。route
―ルート メッセージの動作をトレースします。state
―プロトコル ステート遷移をトレースします。
FEC 内で LDP プロトコル トラフィックをトレース
LDP は、作成する各 LSP に FEC (Forwarding Equivalence Class) を関連付けます。LSP に関連する FEC は、どのパケットがその LSP にマッピングされるかを指定します。各ルーターは、ネクスト ホップが FEC 用にアドバタイズしたラベルを選択し、他のすべてのルーターにアドバタイズするラベルにスプライスすることで、LSP はネットワークを介して拡張されます。
特定の FEC 内の LDPプロトコルのトラフィックをトレースしたり、FEC に基づいて LDP トレース ステートメントをフィルタリングすることができます。この機能は、FEC に関連する LDPプロトコルのトラフィックをトレースしたり、トラブルシューティングしたりする場合に便利です。この目的には以下のトレース フラグが利用できます。route
、path
、およびbinding
。
次の例は、FEC に基づいて LDP トレース ステートメントをフィルタリングするために、LDP traceoptions
ステートメントを設定する方法を示しています。
[edit protocols ldp traceoptions] set flag route filter match-on fec policy "filter-policy-for-ldp-fec";
この機能には以下の制限が設けられています。
このフィルタリング機能は、IPv4(IPバージョン4)のプレフィックスで構成された FEC に対してのみ有効です。
レイヤー 2 回線 FEC はフィルタリングすることはできません。
ルート トレースとフィルタリングの両方を設定した場合、MPLS のルートは表示されません(フィルタでブロックされます)。
フィルタリングは、ポリシーと
match-on
オプションの設定値によって決定されます。ポリシーを設定する際、デフォルト動作は常にreject
であることを確認してください。唯一の
match-on
オプションはfec
です。そのため、含めるべきポリシーの種類は、ルートフィルター ポリシーのみとなります。
例:LDP プロトコル トラフィックのトレース
LDP のパス メッセージを詳細にトレースします。
[edit] protocols { ldp { traceoptions { file ldp size 10m files 5; flag path; } } }
すべての LDP の発信メッセージをトレースします。
[edit] protocols { ldp { traceoptions { file ldp size 10m files 5; flag packets; } } }
すべての LDP のエラー状態をトレースします。
[edit] protocols { ldp { traceoptions { file ldp size 10m files 5; flag error; } } }
すべての LDP 受信メッセージとすべてのラベルバインディング動作をトレースします。
[edit] protocols { ldp { traceoptions { file ldp size 10m files 5 world-readable; flag packets receive; flag binding; } interface all { } } }
LSP に関連する FEC の LDP プロトコルのトラフィックをトレースします。
[edit] protocols { ldp { traceoptions { flag route filter match-on fec policy filter-policy-for-ldp-fec; } } }
変更履歴
サポートされる機能は、使用しているプラットフォームとリリースによって決まります。 特定の機能がお使いのプラットフォームでサポートされているかどうかを確認するには、 Feature Explorer をご利用ください。