• 产品与解决方案
  • 行业解决方案
  • 服务
  • 支持
  • 合作伙伴
  • 关于我们

08-IP组播配置指导

目录

09-IPv6组播路由与转发配置

本章节下载 09-IPv6组播路由与转发配置  (433.77 KB)

09-IPv6组播路由与转发配置


1 IPv6组播路由与转发

1.1  IPv6组播路由与转发简介

每个IPv6组播路由协议都有一个自身的路由表,综合成一个总的IPv6组播路由表,由一系列(S,G)和(*,G)表项组成,即由组播源S向IPv6组播组G发送IPv6组播数据的IPv6组播路由信息。其中最优IPv6组播路由下发到IPv6组播转发表中,控制IPv6组播数据的转发。IPv6组播传输路径上的设备根据IPv6组播转发表转发IPv6组播数据的同时还需执行RPF(Reverse Path Forwarding,逆向路径转发)机制确保IPv6组播数据沿正确路径传输。

1.1.1  RPF检查机制

IPv6组播路由协议在创建和维护IPv6组播路由表项时,运用了RPF(Reverse Path Forwarding,逆向路径转发)检查机制,以确保IPv6组播数据能够沿正确的路径传输,同时还能避免由于各种原因而造成的环路。

1. RPF检查过程

执行RPF检查的过程如下:

(1)     首先,以“报文源”的IPv6地址为目的地址,分别从IPv6单播路由表和IPv6 MBGP路由表中各选出一条最优路由。

说明 

根据IPv6组播报文传输的具体情况不同,“报文源”所代表的具体含义也不同:

·     如果当前报文沿从组播源到接收者或RP(Rendezvous Point,汇集点)的SPT(Shortest Path Tree,最短路径树)进行传输,则以组播源为“报文源”进行RPF检查。

·     如果当前报文沿从RP到接收者的RPT(Rendezvous Point Tree,共享树)进行传输,或者沿从组播源到RP的组播源侧RPT进行传输,则都以RP为“报文源”进行RPF检查。

·     如果当前报文为BSR(Bootstrap Router,自举路由器)报文,沿从BSR到各设备的路径进行传输,则以BSR为“报文源”进行RPF检查。

有关SPT、RPT、组播源侧RPT、RP和BSR的详细介绍,请参见“IP组播配置指导”中的“IPv6 PIM”。

 

(2)     然后,从这些最优路由中再选出一条作为RPF路由。选取规则如下:

·     如果配置了按照最长匹配选择路由,则:

¡     选择前缀长度最长的路由。

¡     如果前缀长度相同,则选择路由优先级最高的路由。

¡     如果路由优先级也相同,则按照IPv6 MBGP路由、IPv6单播路由的顺序进行选择。

¡     如果存在等价路由,则选择下一跳的IPv6地址较大者。

·     如果没有配置按照最长匹配选择路由,则:

¡     选择路由优先级最高的路由。

¡     如果路由优先级相同,则按照IPv6 MBGP路由、IPv6单播路由的顺序进行选择。

¡     如果存在等价路由,则选择下一跳的IP地址较大者。

说明

RPF路由中包含有RPF接口和RPF邻居的信息,不论RPF路由为IPv6单播路由还是IPv6 MBGP路由,该路由表项的出接口都是RPF接口,下一跳都是RPF邻居。

 

(3)     最后,判断报文实际到达的接口与RPF接口是否相同:

·     相同,RPF检查通过。

·     不同,RPF检查失败。

2. RPF检查在IPv6组播转发中的应用

对每一个收到的IPv6组播数据报文都进行RPF检查会给设备带来较大负担,而利用IPv6组播转发表可以解决这个问题。在建立IPv6组播路由和转发表时,会把IPv6组播数据报文(S,G)的RPF接口记录为(S,G)表项的入接口。当设备收到IPv6组播数据报文(S,G)后,查找IPv6组播转发表:

·     如果IPv6组播转发表中不存在(S,G)表项,则对该报文执行RPF检查,将其RPF接口作为入接口,结合相关路由信息创建相应的表项,并下发到IPv6组播转发表中:

¡     若该报文实际到达的接口正是其RPF接口,则RPF检查通过,向所有的出接口转发该报文;

¡     若该报文实际到达的接口不是其RPF接口,则RPF检查失败,丢弃该报文。

·     如果IPv6组播转发表中已存在(S,G)表项,且该报文实际到达的接口与入接口相匹配,则向所有的出接口转发该报文。

·     如果IPv6组播转发表中已存在(S,G)表项,但该报文实际到达的接口与入接口不匹配,则对此报文执行RPF检查:

¡     若其RPF接口与入接口一致,则说明(S,G)表项正确,丢弃这个来自错误路径的报文;

¡     若其RPF接口与入接口不符,则说明(S,G)表项已过时,于是把入接口更新为RPF接口。如果该报文实际到达的接口正是其RPF接口,则向所有的出接口转发该报文,否则将其丢弃。

图1-1 RPF检查过程

 

图1-1所示,假设网络中IPv6单播路由畅通,未配置IPv6 MBGP。IPv6组播报文(S,G)沿从组播源(Source)到接收者(Receiver)的SPT进行传输。假定Device C上的IPv6组播转发表中已存在(S,G)表项,其记录的入接口为Port A:

·     如果该IPv6组播报文从接口Port A到达Device C,与(S,G)表项的入接口相匹配,则向所有的出接口转发该报文。

·     如果该IPv6组播报文从接口Port B到达Device C,与(S,G)表项的入接口不匹配,则对其执行RPF检查:通过查找IPv6单播路由表发现到达Source的出接口(即RPF接口)是Port A,与(S,G)表项的入接口一致。这说明(S,G)表项是正确的,该报文来自错误的路径,RPF检查失败,于是丢弃该报文。

1.1.2  跨IPv6单播网段的IPv6组播转发

网络中可能存在不支持IPv6组播协议的设备,从IPv6组播源发出的IPv6组播数据沿IPv6组播设备逐跳转发,当下一跳设备不支持IPv6组播协议时,IPv6组播转发路径将被阻断。而通过在处于IPv6单播网段两端的IPv6组播设备之间建立隧道,则可以实现跨IPv6单播网段的IPv6组播数据转发。

图1-2 使用隧道传输IPv6组播数据

 

图1-2所示,在IPv6组播设备Device A和Device B之间建立隧道。Device A将IPv6组播数据封装在IPv6单播报文中,通过IPv6单播设备转发至隧道另一端的Device B,再由Device B将IPv6单播报文头剥掉后继续进行IPv6组播传输。

1.2  IPv6组播路由与转发配置任务简介

IPv6组播路由与转发配置任务如下:

(1)     使能IPv6组播路由

(2)     (可选)配置按照最长匹配选择RPF路由

(3)     (可选)配置 IPv6组播负载分担

(4)     (可选)配置IPv6组播转发边界

(5)     (可选)处理RPF检查失败的IPv6组播数据报文

¡     配置在所有vlan内泛洪RPF检查失败的IPv6组播数据报文

¡     配置在特定VLAN内组播RPF检查失败的IPv6组播数据报文

¡     配置将RPF检查失败的IPv6组播数据报文上送给CPU进行处理

(6)     (可选)配置缓存未知IPv6组播数据报文的最大数目

1.3  配置准备

在配置IPv6组播路由与转发之前,需配置任一IPv6单播路由协议,实现域内网络层互通。

1.4  使能IPv6组播路由

1. 功能简介

在公网实例或VPN实例中配置各项三层IPv6组播功能之前,必须先在该实例中使能IPv6组播路由。

2. 配置步骤

(1)     进入系统视图。

system-view

(2)     使能IPv6组播路由,并进入IPv6 MRIB(Multicast Routing Information Base,组播路由信息库)视图。

ipv6 multicast routing [ vpn-instance vpn-instance-name ]

缺省情况下,IPv6组播路由处于关闭状态。

1.5  配置按照最长匹配选择RPF路由

1. 功能简介

在未配置按照最长匹配选择RPF路由之前,RPF检查以最优路由作为RPF路由。在配置按照最长匹配选择RPF路由之后,RPF检查将按照最长匹配选择RPF路由。有关RPF路由选择的详细介绍,请参见“1.1.1  1. RPF检查过程”。

(1)     进入系统视图。

system-view

(2)     进入IPv6 MRIB视图。

ipv6 multicast routing [ vpn-instance vpn-instance-name ]

(3)     配置按照最长匹配选择RPF路由。

longest-match

缺省情况下,选择路由优先级最高的路由作为RPF路由。

1.6  配置 IPv6组播负载分担

1. 功能简介

用户通过配置根据组播源或组播源组进行IPv6组播流量的负载分担,可以优化存在多条IPv6组播数据流时的网络流量。

2. 配置限制和指导

本命令对IPv6双向PIM不生效。

3. 配置步骤

(1)     进入系统视图。

system-view

(2)     进入IPv6 MRIB视图。

ipv6 multicast routing [ vpn-instance vpn-instance-name ]

(3)     配置对IPv6组播流量进行负载分担。

load-splitting { source | source-group }

缺省情况下,不对IPv6组播流量进行负载分担。

1.7  配置IPv6组播转发边界

1. 功能简介

IPv6组播信息在网络中的转发并不是漫无边际的,每个IPv6组播组对应的IPv6组播信息都必须在确定的范围内传递。IPv6组播转发边界可以限制IPv6组播协议报文的收发,为指定范围或Scope值的IPv6组播组划定了边界条件。如果IPv6组播报文的目的地址与边界条件匹配,就停止转发。当在一个接口上配置了IPv6组播转发边界后,将不能从该接口转发IPv6组播报文(包括本机发出的IPv6组播报文),并丢弃该接口接收到的IPv6组播报文。

2. 配置限制和指导

本配置不需要使能IPv6组播路由。

3. 配置步骤

(1)     进入系统视图。

system-view

(2)     进入接口视图。

interface interface-type interface-number

(3)     配置IPv6组播转发边界。

ipv6 multicast boundary { ipv6-group-address prefix-length | scope { scope-id | admin-local | global | organization-local | site-local } }

缺省情况下,接口上未配置任何IPv6组播组的转发边界。

1.8  处理RPF检查失败的IPv6组播数据报文

1.8.1  配置在所有vlan内泛洪RPF检查失败的IPv6组播数据报文

1. 功能简介

在某些特定组网环境下,会出现RPF检查失败的VLAN接口下存在接收者的情况,为了让这些接收者也能收到RPF检查失败的IPv6组播数据报文,可以将这些报文在所有VLAN内泛洪。

2. 配置限制和指导

进行本配置不需要使能IPv6组播路由。

3. 配置步骤

(1)     进入系统视图。

system-view

(2)     配置在所有VLAN内泛洪RPF检查失败的IPv6组播数据报文。

ipv6 multicast rpf-fail-pkt flooding

缺省情况下,不在VLAN内泛洪RPF检查失败的IPv6组播数据报文。

(3)     退回用户视图。

quit

(4)     清除IPv6组播转发表中的转发项。

reset ipv6 multicast [ vpn-instance vpn-instance-name ] forwarding-table all

reset ipv6 multicast forwarding-table命令的目的是让设备更新硬件表项,执行本命令后,ipv6 multicast rpf-fail-pkt flooding命令才能生效。

1.8.2  配置在特定VLAN内组播RPF检查失败的IPv6组播数据报文

1. 功能简介

在某些特定组网环境下,会出现RPF检查失败的VLAN接口下存在接收者的情况,为了让这些接收者也能收到RPF检查失败的IPv6组播数据报文,可以将这些报文特定VLAN内组播。

2. 配置限制和指导

要进行组播RPF检查失败的IPv6组播数据报文的VLAN必须使能了MLD Snooping且对应VLAN接口上配置有三层IPv6组播协议(MLD或IPv6 PIM)。当VLAN内有相应的MLD Snooping转发表项时,便在该VLAN内组播。

进行本配置不需要使能IPv6组播路由。

3. 配置步骤

(1)     进入系统视图。

system-view

(2)     配置在所有VLAN内泛洪RPF检查失败的IPv6组播数据报文。

ipv6 multicast rpf-fail-pkt flooding

缺省情况下,不在VLAN内泛洪RPF检查失败的IPv6组播数据报文。

(3)     进入VLAN接口视图。

interface vlan-interface vlan-interface-id

(4)     配置在当前VLAN内组播RPF检查失败的IPv6组播数据报文。

ipv6 multicast rpf-fail-pkt bridging

执行本命令前必须执行ipv6 multicast rpf-fail-pkt flooding命令

缺省情况下,不在VLAN内组播RPF检查失败的IPv6组播数据报文。

(5)     退回系统视图。

quit

(6)     退回用户视图。

quit

(7)     清除动态MLD Snooping转发表的信息。

reset mld-snooping group all [ vlan vlan-id ]

执行本命令后,ipv6 multicast rpf-fail-pkt bridging命令才能生效。

有关reset mld-snooping group命令的详细介绍,请参见“IP组播命令参考”中的“MLD Snooping”。

1.8.3  配置将RPF检查失败的IPv6组播数据报文上送给CPU进行处理

1. 功能简介

在以下两种情况下,需要将RPF检查失败的IPv6组播数据报文上送给CPU进行处理:

·     如果IPv6组播数据报文从IPv6组播转发表项的出接口到达,则RPF检查失败,需要将该报文上送给CPU进行处理,以触发Assert机制剪枝多余的IPv6组播流量。

·     在RPT向SPT切换时,如果SPT与RPT在DR(Designated Router,指定路由器)上的入接口不同,为了使DR能感知到SPT上组播流量的到达,就需要将到达SPT入接口但RPF检查失败(剪枝RPT前的RPF接口是RPT的入接口)的IPv6组播数据报文上送给CPU进行处理。

有关Assert机制、DR以及RPT向SPT切换的详细介绍,请参见“IP组播配置指导”中的“IPv6 PIM”。

2. 配置限制和指导

进行本配置不需要使能IPv6组播路由。

3. 配置步骤

(1)     进入系统视图。

system-view

(2)     配置把RPF检查失败的IPv6组播数据报文上送CPU处理。

ipv6 multicast rpf-fail-pkt trap-to-cpu

缺省情况下,不把RPF检查失败的IPv6组播数据报文上送CPU处理。

(3)     退回用户视图。

quit

(4)     清除IPv6组播转发表中的转发项。

reset ipv6 multicast [ vpn-instance vpn-instance-name ] forwarding-table all

执行本命令后,ipv6 multicast rpf-fail-pkt trap-to-cpu命令才能生效。

1.9  配置缓存未知IPv6组播数据报文的最大数目

1. 功能简介

建立IPv6组播转发表项需要一定时间,在这段时间内设备若收到(S,G)表项的IPv6组播数据报文,可以缓存该报文。如果需要缓存多个未知IPv6组播数据报文,可以通过本配置来设置对于同一个(S,G)表项,可缓存的最大未知IPv6组播数据报文数目。通过本配置还可以设置内存中缓存的未知IPv6组播数据报文的总数。

2. 配置限制和指导

建议配置ipv6 multicast forwarding-table cache-unknown total的值要远远大于ipv6 multicast forwarding-table cache-unknown per-entry配置的值。

3. 配置步骤

(1)     进入系统视图。

system-view

(2)     设置对于同一个(S,G)表项,可缓存的最大未知IPv6组播数据报文数目。

ipv6 multicast forwarding-table cache-unknown per-entry per-entry-limit

缺省情况下,对于同一个(S,G)表项,可缓存的最大未知IPv6组播数据报文数目为1。

(3)     设置内存中缓存的未知IPv6组播数据报文的总数。

ipv6 multicast forwarding-table cache-unknown total total-limit

缺省情况下,内存中缓存的未知IPv6组播数据报文的总数量为1024。

1.10  IPv6组播路由与转发显示和维护

注意

执行reset命令清除IPv6组播路由表或IPv6组播转发表中的信息,可能导致IPv6组播信息无法正常传输。

 

在完成上述配置后,在任意视图下执行display命令可以显示配置后IPv6组播路由与转发的运行情况,通过查看显示信息验证配置的效果。

在用户视图下执行reset命令可以清除IPv6组播路由与转发的统计信息。

表1-1 IPv6组播路由与转发显示和维护

操作

命令

显示IPv6 MRIB维护的接口信息

display ipv6 mrib [ vpn-instance vpn-instance-name ] interface [ interface-type interface-number ]

显示IPv6组播边界的信息

display ipv6 multicast [ vpn-instance vpn-instance-name ] boundary { group [ ipv6-group-address [ prefix-length ] ] | scope [ scope-id ] } [ interface interface-type interface-number ]

显示IPv6组播快速转发表项信息

(独立运行模式)

display ipv6 multicast [ vpn-instance vpn-instance-name ] fast-forwarding cache [ ipv6-source-address | ipv6-group-address ] * [ slot slot-number ]

(IRF模式)

display ipv6 multicast [ vpn-instance vpn-instance-name ] fast-forwarding cache [ ipv6-source-address | ipv6-group-address ] * [ chassis chassis-number slot slot-number ]

显示IPv6组播转发的DF信息

(独立运行模式)

display ipv6 multicast [ vpn-instance vpn-instance-name ] forwarding df-info [ ipv6-rp-address ] [ verbose ] [ slot slot-number ]

(IRF模式)

display ipv6 multicast [ vpn-instance vpn-instance-name ] forwarding df-info [ ipv6-rp-address ] [ verbose ] [ chassis chassis-number slot slot-number ]

显示IPv6组播转发的事件统计信息

(独立运行模式)

display ipv6 multicast [ vpn-instance vpn-instance-name ] forwarding event [ slot slot-number ]

(IRF模式)

display ipv6 multicast [ vpn-instance vpn-instance-name ] forwarding event [ chassis chassis-number slot slot-number ]

显示IPv6组播转发表的信息

(独立运行模式)

display ipv6 multicast [ vpn-instance vpn-instance-name ] forwarding-table [ ipv6-source-address [ prefix-length ] | ipv6-group-address [ prefix-length ] | incoming-interface interface-type interface-number | outgoing-interface { exclude | include | match } interface-type interface-number | slot slot-number | statistics ] *

(IRF模式)

display ipv6 multicast [ vpn-instance vpn-instance-name ] forwarding-table [ ipv6-source-address [ prefix-length ] | ipv6-group-address [ prefix-length ] | chassis chassis-number slot slot-number | incoming-interface interface-type interface-number | outgoing-interface { exclude | include | match } interface-type interface-number | statistics ] *

显示IPv6组播转发表的DF列表信息

(独立运行模式)

display ipv6 multicast [ vpn-instance vpn-instance-name ] forwarding-table df-list [ ipv6-group-address ] [ verbose ] [ slot slot-number ]

(IRF模式)

display ipv6 multicast [ vpn-instance vpn-instance-name ] forwarding-table df-list [ ipv6-group-address ] [ verbose ] [ chassis chassis-number slot slot-number ]

显示IPv6组播路由表的信息

display ipv6 multicast [ vpn-instance vpn-instance-name ] routing-table [ ipv6-source-address [ prefix-length ] | ipv6-group-address [ prefix-length ] | incoming-interface interface-type interface-number | outgoing-interface { exclude | include | match } interface-type interface-number ] *

显示IPv6组播源的RPF信息

display ipv6 multicast [ vpn-instance vpn-instance-name ] rpf-info ipv6-source-address [ ipv6-group-address ]

清除IPv6组播快速转发表中的转发项

(独立运行模式)

reset ipv6 multicast [ vpn-instance vpn-instance-name ] fast-forwarding cache { { ipv6-source-address | ipv6-group-address } * | all } [ slot slot-number ]

(IRF模式)

reset ipv6 multicast [ vpn-instance vpn-instance-name ] fast-forwarding cache { { ipv6-source-address | ipv6-group-address } * | all } [ chassis chassis-number slot slot-number ]

清除IPv6组播转发的事件统计信息

reset ipv6 multicast [ vpn-instance vpn-instance-name ] forwarding event

清除IPv6组播转发表中的转发项

reset ipv6 multicast [ vpn-instance vpn-instance-name ] forwarding-table { { ipv6-source-address [ prefix-length ] | ipv6-group-address [ prefix-length ] | incoming-interface { interface-type interface-number } } * | all }

清除IPv6组播路由表中的路由项

reset ipv6 multicast [ vpn-instance vpn-instance-name ] routing-table { { ipv6-source-address [ prefix-length ] | ipv6-group-address [ prefix-length ] | incoming-interface interface-type interface-number } * | all }

 

说明

·     清除IPv6组播路由表中的路由项后,IPv6组播转发表中的相应表项也将随之删除。

·     清除IPv6组播转发表中的转发项后,IPv6组播路由表中的相应表项也将随之删除。

 

1.11  IPv6组播路由与转发典型配置举例

1.11.1  利用ADVPN隧道实现组播转发配置举例

1. 组网需求

·     Spoke与Hub之间建立ADVPN隧道;

·     Hub和Spoke支持组播功能并运行PIM-SM,ADVPN隧道口运行NBMA模式;

·     Hub1、Hub2、Spoke1和Spoke2之间运行OSPF协议;

·     使Spoke1能够接收来自Hub1的组播信息。

2. 组网图

图1-3 IPv6 ADVPN实现组播转发配置组网图

 

 

设备

接口

IP地址

设备

接口

IP地址

Hub1

GE2/0/1

1::1/64

Hub2

GE2/0/1

1::2/64

 

Tunnel1

192:168::1/64

FE80::1

 

Tunnel1

192:168::2/64

FE80::2

 

Loop0

44::44/64

 

Loop0

55::55/64

GE2/0/2

100::100/64

 

 

 

Spoke1

GE2/0/1

1::3/64

Spoke2

GE2/0/1

1::4/64

 

Tunnel1

192:168::3/64

FE80::3

 

Tunnel1

192:168::4/64

FE80::4

GE2/0/2

200::100/64

 

 

 

Server

GE2/0/1

1::11/64

 

 

 

 

3. 配置步骤

(1)     配置IPv6地址

请按照图1-3配置各接口的IPv6地址和前缀长度,具体配置过程略。

(2)     配置IPv6 ADVPN信息

# 在Server上创建ADVPN域abc。

<Server> system-view

[Server] vam server advpn-domain abc id 1

# 在Server上配置VAM Server的预共享密钥为123456。

[Server-vam-server-domain-abc] pre-shared-key simple 123456

# 在Server上配置对VAM Client不进行认证。

[Server-vam-server-domain-abc] authentication-method none

# 在Server上启动该ADVPN域的VAM Server功能。

[Server-vam-server-domain-abc] server enable

# 在Server上创建Hub组0。

[Server-vam-server-domain-abc] hub-group 0

# 在Server上指定Hub组内Hub的IPv6私网地址。

[Server-vam-server-domain-abc-hub-group-0] hub ipv6 private-address 192:168::1

[Server-vam-server-domain-abc-hub-group-0] hub ipv6 private-address 192:168::2

# 在Server上指定Hub组内Spoke的IPv6私网地址范围。

[Server-vam-server-domain-abc-hub-group-0] spoke ipv6 private-address range 192:168:: 192:168::FFFF:FFFF:FFFF:FFFF

[Server-vam-server-domain-abc-hub-group-0] quit

[Server-vam-server-domain-abc] quit

# 在Hub1上创建VAM Client Hub1。

<Hub1> system-view

[Hub1] vam client name Hub1

# 在Hub1上配置VAM Client所属的ADVPN域为abc。

[Hub1-vam-client-Hub1] advpn-domain abc

# 在Hub1上配置VAM Server的IP地址。

[Hub1-vam-client-Hub1] server primary ipv6-address 1::11

# 在Hub1上配置VAM Client的预共享密钥。

[Hub1-vam-client-Hub1] pre-shared-key simple 123456

# 在Hub1上开启VAM Client功能。

[Hub1-vam-client-Hub1] client enable

# 在Hub2上创建VAM Client Hub2。

<Hub2> system-view

[Hub2] vam client name hub2

# 在Hub2上配置VAM Client所属的ADVPN域为abc。

[Hub2-vam-client-hub2] advpn-domain abc

# 在Hub2上配置VAM Server的IP地址。

[Hub2-vam-client-hub2] server primary ipv6-address 1::11

# 在Hub2上配置VAM Client的预共享密钥。

[Hub2-vam-client-hub2] pre-shared-key simple 123456

# 在Hub2上开启VAM Client功能。

[Hub2-vam-client-hub2] client enable

# 在Spoke1上创建VAM Client Spoke1。

<Spoke1> system-view

[Spoke1] vam client name Spoke1

# 在Spoke1上配置VAM Client所属的ADVPN域为abc。

[Spoke1-vam-client-Spoke1] advpn-domain abc

# 在Spoke1上配置VAM Server的IP地址。

[Spoke1-vam-client-Spoke1] server primary ipv6-address 1::11

# 在Spoke1上配置VAM Client的预共享密钥。

[Spoke1-vam-client-Spoke1] pre-shared-key simple 123456

# 在Spoke1上开启VAM Client功能。

[Spoke1-vam-client-Spoke1] client enable

[Spoke1-vam-client-Spoke1] quit

# 在Spoke2上创建VAM Client Spoke2。

<Spoke2> system-view

[Spoke2] vam client name Spoke2

# 在Spoke2上配置VAM Client所属的ADVPN域为abc。

[Spoke2-vam-client-Spoke2] advpn-domain abc

# 在Spoke2上配置VAM Server的IP地址。

[Spoke2-vam-client-Spoke2] server primary ipv6-address 1::11

# 在Spoke2上配置VAM Client的预共享密钥。

[Spoke2-vam-client-Spoke2] pre-shared-key simple 123456

# 在Spoke2上开启VAM Client功能。

[Spoke2-vam-client-Spoke2] client enable

[Spoke2-vam-client-Spoke2] quit

(3)     配置IPv6  ADVPN隧道

# 在Hub1上配置GRE封装的IPv6  ADVPN隧道接口Tunnel1。

[Hub1] interface tunnel 1 mode advpn gre ipv6

[Hub1-Tunnel1] source gigabitethernet 2/0/1

[Hub1-Tunnel1] ipv6 address FE80::1 link-local

[Hub1-Tunnel1] ipv6 address 192:168::1 64

[Hub1-Tunnel1] vam ipv6 client hub1

[Hub1-Tunnel1] quit

# 在Hub2上配置GRE封装的IPv6  ADVPN隧道接口Tunnel1。

[Hub2] interface tunnel 1 mode advpn gre ipv6

[Hub2-Tunnel1] source gigabitethernet 2/0/1

[Hub2-Tunnel1] ipv6 address FE80::2 link-local

[Hub2-Tunnel1] ipv6 address 192:168::2 64

[Hub2-Tunnel1] vam ipv6 client hub1

[Hub2-Tunnel1] quit

# 在Spoke1上配置GRE封装的IPv6  ADVPN隧道接口Tunnel1。

[Spoke1] interface tunnel 1 mode advpn gre ipv6

[Spoke1-Tunnel1] source gigabitethernet 2/0/1

[Spoke1-Tunnel1] ipv6 address FE80::3 link-local

[Spoke1-Tunnel1] ipv6 address 192:168::3/64

[Spoke1-Tunnel1] vam ipv6 client spoke1

[Spoke1-Tunnel1] quit

# 在Spoke2上配置GRE封装的IPv6  ADVPN隧道接口Tunnel1。

[Spoke2] interface tunnel 1 mode advpn gre ipv6

[Spoke2-Tunnel1] source gigabitethernet 2/0/1

[Spoke2-Tunnel1] ipv6 address FE80::4 link-local

[Spoke2-Tunnel1] ipv6 address 192:168::4/64

[Spoke2-Tunnel1] vam ipv6 client spoke2   

[Spoke2-Tunnel1] quit

(4)     配置OSPFv3路由协议

# 在Hub1上 配置路由信息。

<Hub1> system-view

[Hub1] ospfv3

[Hub1-ospfv3-1] router-id 0.0.0.1

[Hub1-ospfv3-1] area 0.0.0.0

[Hub1-ospfv3-1-area-0.0.0.0] quit

[Hub1-ospfv3-1] quit

[Hub1] interface loopback 0

[Hub1-LoopBack0] ospfv3 1 area 0.0.0.0

[Hub1-LoopBack0] quit

[Hub1] interface gigabitethernet 2/0/2

[Hub1-GigabitEthernet2/0/2] ospfv3 1 area 0.0.0.0

[Hub1-GigabitEthernet2/0/2] quit

[Hub1] interface tunnel 1

[Hub1-Tunnel1] ospfv3 1 area 0.0.0.0

[Hub1-Tunnel1] ospfv3 network-type p2mp

[Hub1-Tunnel1] quit

# 在Hub2上配置路由信息。

<Hub2> system-view

[Hub2] ospfv3

[Hub2-ospfv3-1] router-id 0.0.0.2

[Hub2-ospfv3-1] area 0.0.0.0

[Hub2-ospfv3-1-area-0.0.0.0] quit

[Hub2-ospfv3-1] quit

[Hub2] interface loopback 0

[Hub2-LoopBack0] ospfv3 1 area 0.0.0.0

[Hub2-LoopBack0] quit

[Hub2] interface tunnel 1

[Hub2-Tunnel1] ospfv3 1 area 0.0.0.0

[Hub2-Tunnel1] ospfv3 network-type p2mp

[Hub2-Tunnel1] quit

# 在Spoke1上配置路由信息。

<Spoke1> system-view

[Spoke1] ospfv3 1

[Spoke1-ospfv3-1] router-id 0.0.0.3

[Spoke1-ospfv3-1] area 0.0.0.0

[Spoke1-ospfv3-1-area-0.0.0.0] quit

[Spoke1-ospfv3-1] quit

[Spoke1] interface tunnel 1

[Spoke1-Tunnel1] ospfv3 1 area 0.0.0.0

[Spoke1-Tunnel1] ospfv3 network-type p2mp

[Spoke1-Tunnel1] quit

# 在Spoke2上配置路由信息。

<Spoke2> system-view

[Spoke2] ospfv3 1

[Spoke2-ospfv3-1] router-id 0.0.0.4

[Spoke2-ospfv3-1] area 0.0.0.0

[Spoke2-ospfv3-1-area-0.0.0.0] quit

[Spoke2-ospfv3-1] quit

[Spoke2] interface tunnel 1

[Spoke2-Tunnel1] ospfv3 1 area 0.0.0.0

[Spoke2-Tunnel1] ospfv3 network-type p2mp

[Spoke2-Tunnel1] quit

[Spoke2] interface gigabitethernet 2/0/2

[Spoke2-GigabitEthernet2/0/2] ospfv3 1 area 0.0.0.0

[Spoke2-GigabitEthernet2/0/2] quit

(5)     使能IPv6组播路由,并使能IPv6 PIM-SM和MLD

# 在Hub1上使能IPv6组播路由,并使能IPv6 PIM-SM、IPv6 PIM-NBMA。

<Hub1> system-view                                                                                                                            

[Hub1] ipv6 multicast routing

[Hub1-mrib6] quit

[Hub1] interface loopback 0

[Hub1-LoopBack0] ipv6 pim sm

[Hub1-LoopBack0] quit

[Hub1] interface gigabitethernet 2/0/2

[Hub1-GigabitEthernet2/0/2] ipv6 pim sm

[Hub1-GigabitEthernet2/0/2] quit

[Hub1] interface tunnel 1

[Hub1-Tunnel1] ipv6 pim sm

[Hub1-Tunnel1] ipv6 pim nbma-mode

[Hub1-Tunnel1] quit

# 在Hub1上配置C-BSR、C-RP。

<Hub1> system-view

[Hub1] ipv6 pim

[Hub1-pim6] c-bsr 44::44

[Hub1-pim6] c-rp 44::44

[Hub1-pim6] quit

# 在Hub2上使能IPv6组播路由,并使能IPv6 PIM-SM、IPv6 PIM-NBMA。

<Hub2> system-view

[Hub2] ipv6 multicast routing

[Hub2-mrib6] quit

[Hub2] interface loopback 0

[Hub2-LoopBack0] ipv6 pim sm

[Hub2-LoopBack0] quit

[Hub2] interface tunnel 1

[Hub2-Tunnel1] ipv6 pim sm

[Hub2-Tunnel1] ipv6 pim nbma-mode

[Hub2-Tunnel1] quit

# 在Hub2上配置C-BSR、C-RP。

<Hub2> system-view

[Hub2] ipv6 pim

[Hub2-pim6] c-bsr 55::55

[Hub2-pim6] c-rp 55::55

[Hub2-pim6] quit

# 在Spoke1上使能IPv6组播路由,并使能IPv6 PIM-SM、IPv6 PIM-NBMA、MLD。

<Spoke1> system-view

[Spoke1] ipv6 multicast routing

[Spoke1-mrib6] quit

[Spoke1] interface tunnel 1

[Spoke1-Tunnel1] ipv6 pim sm

[Spoke1-Tunnel1] ipv6 pim nbma-mode

[Spoke1-Tunnel1] quit

[Spoke1] interface gigabitethernet 2/0/2

[Spoke1-GigabitEthernet2/0/2] mld enable

[Spoke1-GigabitEthernet2/0/2] quit

# 在Spoke2上使能IPv6组播路由,并使能IPv6 PIM-SM、IPv6 PIM-NBMA。

<Spoke2> system-view

[Spoke2] ipv6 multicast routing

[Spoke2-mrib6] quit

[Spoke2] interface tunnel 1

[Spoke2-Tunnel1] ipv6 pim sm

[Spoke2-Tunnel1] ipv6 pim nbma-mode

[Spoke2-Tunnel1] quit

4. 验证配置

组播源向Hub1发送组播组FF0e::1组播数据,接收者向Spoke1加入该组播组后能够收到组播源发来的组播数据。

# 显示Hub1上的PIM路由表信息。

[Hub1] display ipv6 pim routing-table

 Total 1 (*, G) entries; 1 (S, G) entries

 

 (*, FF0E::1)

     RP: 44::44 (local)

     Protocol: pim-sm, Flag: WC

     UpTime: 17:02:10

     Upstream interface: Register-Tunnel1

         Upstream neighbor: NULL

         RPF prime neighbor: NULL

     Downstream interface information:

     Total number of downstream interfaces: 1

         1: Tunnel1, FE80::3

             Protocol: pim-sm, UpTime: 17:01:23, Expires: 00:02:41

 

 (100::1, FF0E::1)

     RP: 44::44 (local)

     Protocol: pim-sm, Flag: SPT LOC ACT

     UpTime: 00:00:02

     Upstream interface: GigabitEthernet2/0/3

         Upstream neighbor: NULL

         RPF prime neighbor: NULL

     Downstream interface information:

     Total number of downstream interfaces: 1

         1: tunnel1, FE80::3

             Protocol: pim-sm, UpTime: 00:00:02, Expires: 00:03:28

 

不同款型规格的资料略有差异, 详细信息请向具体销售和400咨询。H3C保留在没有任何通知或提示的情况下对资料内容进行修改的权利!

新华三官网
联系我们