09-IPv6组播路由与转发配置
本章节下载: 09-IPv6组播路由与转发配置 (433.77 KB)
1.8.1 配置在所有vlan内泛洪RPF检查失败的IPv6组播数据报文
1.8.2 配置在特定VLAN内组播RPF检查失败的IPv6组播数据报文
1.8.3 配置将RPF检查失败的IPv6组播数据报文上送给CPU进行处理
每个IPv6组播路由协议都有一个自身的路由表,综合成一个总的IPv6组播路由表,由一系列(S,G)和(*,G)表项组成,即由组播源S向IPv6组播组G发送IPv6组播数据的IPv6组播路由信息。其中最优IPv6组播路由下发到IPv6组播转发表中,控制IPv6组播数据的转发。IPv6组播传输路径上的设备根据IPv6组播转发表转发IPv6组播数据的同时还需执行RPF(Reverse Path Forwarding,逆向路径转发)机制确保IPv6组播数据沿正确路径传输。
IPv6组播路由协议在创建和维护IPv6组播路由表项时,运用了RPF(Reverse Path Forwarding,逆向路径转发)检查机制,以确保IPv6组播数据能够沿正确的路径传输,同时还能避免由于各种原因而造成的环路。
执行RPF检查的过程如下:
(1) 首先,以“报文源”的IPv6地址为目的地址,分别从IPv6单播路由表和IPv6 MBGP路由表中各选出一条最优路由。
根据IPv6组播报文传输的具体情况不同,“报文源”所代表的具体含义也不同:
· 如果当前报文沿从组播源到接收者或RP(Rendezvous Point,汇集点)的SPT(Shortest Path Tree,最短路径树)进行传输,则以组播源为“报文源”进行RPF检查。
· 如果当前报文沿从RP到接收者的RPT(Rendezvous Point Tree,共享树)进行传输,或者沿从组播源到RP的组播源侧RPT进行传输,则都以RP为“报文源”进行RPF检查。
· 如果当前报文为BSR(Bootstrap Router,自举路由器)报文,沿从BSR到各设备的路径进行传输,则以BSR为“报文源”进行RPF检查。
有关SPT、RPT、组播源侧RPT、RP和BSR的详细介绍,请参见“IP组播配置指导”中的“IPv6 PIM”。
(2) 然后,从这些最优路由中再选出一条作为RPF路由。选取规则如下:
· 如果配置了按照最长匹配选择路由,则:
¡ 选择前缀长度最长的路由。
¡ 如果前缀长度相同,则选择路由优先级最高的路由。
¡ 如果路由优先级也相同,则按照IPv6 MBGP路由、IPv6单播路由的顺序进行选择。
¡ 如果存在等价路由,则选择下一跳的IPv6地址较大者。
· 如果没有配置按照最长匹配选择路由,则:
¡ 选择路由优先级最高的路由。
¡ 如果路由优先级相同,则按照IPv6 MBGP路由、IPv6单播路由的顺序进行选择。
¡ 如果存在等价路由,则选择下一跳的IP地址较大者。
RPF路由中包含有RPF接口和RPF邻居的信息,不论RPF路由为IPv6单播路由还是IPv6 MBGP路由,该路由表项的出接口都是RPF接口,下一跳都是RPF邻居。
(3) 最后,判断报文实际到达的接口与RPF接口是否相同:
· 相同,RPF检查通过。
· 不同,RPF检查失败。
对每一个收到的IPv6组播数据报文都进行RPF检查会给设备带来较大负担,而利用IPv6组播转发表可以解决这个问题。在建立IPv6组播路由和转发表时,会把IPv6组播数据报文(S,G)的RPF接口记录为(S,G)表项的入接口。当设备收到IPv6组播数据报文(S,G)后,查找IPv6组播转发表:
· 如果IPv6组播转发表中不存在(S,G)表项,则对该报文执行RPF检查,将其RPF接口作为入接口,结合相关路由信息创建相应的表项,并下发到IPv6组播转发表中:
¡ 若该报文实际到达的接口正是其RPF接口,则RPF检查通过,向所有的出接口转发该报文;
¡ 若该报文实际到达的接口不是其RPF接口,则RPF检查失败,丢弃该报文。
· 如果IPv6组播转发表中已存在(S,G)表项,且该报文实际到达的接口与入接口相匹配,则向所有的出接口转发该报文。
· 如果IPv6组播转发表中已存在(S,G)表项,但该报文实际到达的接口与入接口不匹配,则对此报文执行RPF检查:
¡ 若其RPF接口与入接口一致,则说明(S,G)表项正确,丢弃这个来自错误路径的报文;
¡ 若其RPF接口与入接口不符,则说明(S,G)表项已过时,于是把入接口更新为RPF接口。如果该报文实际到达的接口正是其RPF接口,则向所有的出接口转发该报文,否则将其丢弃。
图1-1 RPF检查过程
如图1-1所示,假设网络中IPv6单播路由畅通,未配置IPv6 MBGP。IPv6组播报文(S,G)沿从组播源(Source)到接收者(Receiver)的SPT进行传输。假定Device C上的IPv6组播转发表中已存在(S,G)表项,其记录的入接口为Port A:
· 如果该IPv6组播报文从接口Port A到达Device C,与(S,G)表项的入接口相匹配,则向所有的出接口转发该报文。
· 如果该IPv6组播报文从接口Port B到达Device C,与(S,G)表项的入接口不匹配,则对其执行RPF检查:通过查找IPv6单播路由表发现到达Source的出接口(即RPF接口)是Port A,与(S,G)表项的入接口一致。这说明(S,G)表项是正确的,该报文来自错误的路径,RPF检查失败,于是丢弃该报文。
网络中可能存在不支持IPv6组播协议的设备,从IPv6组播源发出的IPv6组播数据沿IPv6组播设备逐跳转发,当下一跳设备不支持IPv6组播协议时,IPv6组播转发路径将被阻断。而通过在处于IPv6单播网段两端的IPv6组播设备之间建立隧道,则可以实现跨IPv6单播网段的IPv6组播数据转发。
图1-2 使用隧道传输IPv6组播数据
如图1-2所示,在IPv6组播设备Device A和Device B之间建立隧道。Device A将IPv6组播数据封装在IPv6单播报文中,通过IPv6单播设备转发至隧道另一端的Device B,再由Device B将IPv6单播报文头剥掉后继续进行IPv6组播传输。
IPv6组播路由与转发配置任务如下:
(1) 使能IPv6组播路由
(2) (可选)配置按照最长匹配选择RPF路由
(3) (可选)配置 IPv6组播负载分担
(4) (可选)配置IPv6组播转发边界
(5) (可选)处理RPF检查失败的IPv6组播数据报文
¡ 配置在所有vlan内泛洪RPF检查失败的IPv6组播数据报文
¡ 配置在特定VLAN内组播RPF检查失败的IPv6组播数据报文
¡ 配置将RPF检查失败的IPv6组播数据报文上送给CPU进行处理
(6) (可选)配置缓存未知IPv6组播数据报文的最大数目
在配置IPv6组播路由与转发之前,需配置任一IPv6单播路由协议,实现域内网络层互通。
在公网实例或VPN实例中配置各项三层IPv6组播功能之前,必须先在该实例中使能IPv6组播路由。
(1) 进入系统视图。
system-view
(2) 使能IPv6组播路由,并进入IPv6 MRIB(Multicast Routing Information Base,组播路由信息库)视图。
ipv6 multicast routing [ vpn-instance vpn-instance-name ]
缺省情况下,IPv6组播路由处于关闭状态。
在未配置按照最长匹配选择RPF路由之前,RPF检查以最优路由作为RPF路由。在配置按照最长匹配选择RPF路由之后,RPF检查将按照最长匹配选择RPF路由。有关RPF路由选择的详细介绍,请参见“1.1.1 1. RPF检查过程”。
system-view
(2) 进入IPv6 MRIB视图。
ipv6 multicast routing [ vpn-instance vpn-instance-name ]
(3) 配置按照最长匹配选择RPF路由。
longest-match
缺省情况下,选择路由优先级最高的路由作为RPF路由。
用户通过配置根据组播源或组播源组进行IPv6组播流量的负载分担,可以优化存在多条IPv6组播数据流时的网络流量。
本命令对IPv6双向PIM不生效。
(1) 进入系统视图。
system-view
(2) 进入IPv6 MRIB视图。
ipv6 multicast routing [ vpn-instance vpn-instance-name ]
(3) 配置对IPv6组播流量进行负载分担。
load-splitting { source | source-group }
缺省情况下,不对IPv6组播流量进行负载分担。
IPv6组播信息在网络中的转发并不是漫无边际的,每个IPv6组播组对应的IPv6组播信息都必须在确定的范围内传递。IPv6组播转发边界可以限制IPv6组播协议报文的收发,为指定范围或Scope值的IPv6组播组划定了边界条件。如果IPv6组播报文的目的地址与边界条件匹配,就停止转发。当在一个接口上配置了IPv6组播转发边界后,将不能从该接口转发IPv6组播报文(包括本机发出的IPv6组播报文),并丢弃该接口接收到的IPv6组播报文。
本配置不需要使能IPv6组播路由。
(1) 进入系统视图。
system-view
(2) 进入接口视图。
interface interface-type interface-number
(3) 配置IPv6组播转发边界。
ipv6 multicast boundary { ipv6-group-address prefix-length | scope { scope-id | admin-local | global | organization-local | site-local } }
缺省情况下,接口上未配置任何IPv6组播组的转发边界。
在某些特定组网环境下,会出现RPF检查失败的VLAN接口下存在接收者的情况,为了让这些接收者也能收到RPF检查失败的IPv6组播数据报文,可以将这些报文在所有VLAN内泛洪。
进行本配置不需要使能IPv6组播路由。
(1) 进入系统视图。
system-view
(2) 配置在所有VLAN内泛洪RPF检查失败的IPv6组播数据报文。
ipv6 multicast rpf-fail-pkt flooding
缺省情况下,不在VLAN内泛洪RPF检查失败的IPv6组播数据报文。
(3) 退回用户视图。
quit
(4) 清除IPv6组播转发表中的转发项。
reset ipv6 multicast [ vpn-instance vpn-instance-name ] forwarding-table all
reset ipv6 multicast forwarding-table命令的目的是让设备更新硬件表项,执行本命令后,ipv6 multicast rpf-fail-pkt flooding命令才能生效。
在某些特定组网环境下,会出现RPF检查失败的VLAN接口下存在接收者的情况,为了让这些接收者也能收到RPF检查失败的IPv6组播数据报文,可以将这些报文特定VLAN内组播。
要进行组播RPF检查失败的IPv6组播数据报文的VLAN必须使能了MLD Snooping且对应VLAN接口上配置有三层IPv6组播协议(MLD或IPv6 PIM)。当VLAN内有相应的MLD Snooping转发表项时,便在该VLAN内组播。
进行本配置不需要使能IPv6组播路由。
(1) 进入系统视图。
system-view
(2) 配置在所有VLAN内泛洪RPF检查失败的IPv6组播数据报文。
ipv6 multicast rpf-fail-pkt flooding
缺省情况下,不在VLAN内泛洪RPF检查失败的IPv6组播数据报文。
(3) 进入VLAN接口视图。
interface vlan-interface vlan-interface-id
(4) 配置在当前VLAN内组播RPF检查失败的IPv6组播数据报文。
ipv6 multicast rpf-fail-pkt bridging
执行本命令前必须执行ipv6 multicast rpf-fail-pkt flooding命令。
缺省情况下,不在VLAN内组播RPF检查失败的IPv6组播数据报文。
(5) 退回系统视图。
quit
(6) 退回用户视图。
quit
(7) 清除动态MLD Snooping转发表的信息。
reset mld-snooping group all [ vlan vlan-id ]
执行本命令后,ipv6 multicast rpf-fail-pkt bridging命令才能生效。
有关reset mld-snooping group命令的详细介绍,请参见“IP组播命令参考”中的“MLD Snooping”。
在以下两种情况下,需要将RPF检查失败的IPv6组播数据报文上送给CPU进行处理:
· 如果IPv6组播数据报文从IPv6组播转发表项的出接口到达,则RPF检查失败,需要将该报文上送给CPU进行处理,以触发Assert机制剪枝多余的IPv6组播流量。
· 在RPT向SPT切换时,如果SPT与RPT在DR(Designated Router,指定路由器)上的入接口不同,为了使DR能感知到SPT上组播流量的到达,就需要将到达SPT入接口但RPF检查失败(剪枝RPT前的RPF接口是RPT的入接口)的IPv6组播数据报文上送给CPU进行处理。
有关Assert机制、DR以及RPT向SPT切换的详细介绍,请参见“IP组播配置指导”中的“IPv6 PIM”。
进行本配置不需要使能IPv6组播路由。
(1) 进入系统视图。
system-view
(2) 配置把RPF检查失败的IPv6组播数据报文上送CPU处理。
ipv6 multicast rpf-fail-pkt trap-to-cpu
缺省情况下,不把RPF检查失败的IPv6组播数据报文上送CPU处理。
(3) 退回用户视图。
quit
(4) 清除IPv6组播转发表中的转发项。
reset ipv6 multicast [ vpn-instance vpn-instance-name ] forwarding-table all
执行本命令后,ipv6 multicast rpf-fail-pkt trap-to-cpu命令才能生效。
建立IPv6组播转发表项需要一定时间,在这段时间内设备若收到(S,G)表项的IPv6组播数据报文,可以缓存该报文。如果需要缓存多个未知IPv6组播数据报文,可以通过本配置来设置对于同一个(S,G)表项,可缓存的最大未知IPv6组播数据报文数目。通过本配置还可以设置内存中缓存的未知IPv6组播数据报文的总数。
建议配置ipv6 multicast forwarding-table cache-unknown total的值要远远大于ipv6 multicast forwarding-table cache-unknown per-entry配置的值。
(1) 进入系统视图。
system-view
(2) 设置对于同一个(S,G)表项,可缓存的最大未知IPv6组播数据报文数目。
ipv6 multicast forwarding-table cache-unknown per-entry per-entry-limit
缺省情况下,对于同一个(S,G)表项,可缓存的最大未知IPv6组播数据报文数目为1。
(3) 设置内存中缓存的未知IPv6组播数据报文的总数。
ipv6 multicast forwarding-table cache-unknown total total-limit
缺省情况下,内存中缓存的未知IPv6组播数据报文的总数量为1024。
执行reset命令清除IPv6组播路由表或IPv6组播转发表中的信息,可能导致IPv6组播信息无法正常传输。
在完成上述配置后,在任意视图下执行display命令可以显示配置后IPv6组播路由与转发的运行情况,通过查看显示信息验证配置的效果。
在用户视图下执行reset命令可以清除IPv6组播路由与转发的统计信息。
表1-1 IPv6组播路由与转发显示和维护
操作 |
命令 |
显示IPv6 MRIB维护的接口信息 |
display ipv6 mrib [ vpn-instance vpn-instance-name ] interface [ interface-type interface-number ] |
显示IPv6组播边界的信息 |
display ipv6 multicast [ vpn-instance vpn-instance-name ] boundary { group [ ipv6-group-address [ prefix-length ] ] | scope [ scope-id ] } [ interface interface-type interface-number ] |
显示IPv6组播快速转发表项信息 |
(独立运行模式) display ipv6 multicast [ vpn-instance vpn-instance-name ] fast-forwarding cache [ ipv6-source-address | ipv6-group-address ] * [ slot slot-number ] (IRF模式) display ipv6 multicast [ vpn-instance vpn-instance-name ] fast-forwarding cache [ ipv6-source-address | ipv6-group-address ] * [ chassis chassis-number slot slot-number ] |
显示IPv6组播转发的DF信息 |
(独立运行模式) display ipv6 multicast [ vpn-instance vpn-instance-name ] forwarding df-info [ ipv6-rp-address ] [ verbose ] [ slot slot-number ] (IRF模式) display ipv6 multicast [ vpn-instance vpn-instance-name ] forwarding df-info [ ipv6-rp-address ] [ verbose ] [ chassis chassis-number slot slot-number ] |
显示IPv6组播转发的事件统计信息 |
(独立运行模式) display ipv6 multicast [ vpn-instance vpn-instance-name ] forwarding event [ slot slot-number ] (IRF模式) display ipv6 multicast [ vpn-instance vpn-instance-name ] forwarding event [ chassis chassis-number slot slot-number ] |
显示IPv6组播转发表的信息 |
(独立运行模式) display ipv6 multicast [ vpn-instance vpn-instance-name ] forwarding-table [ ipv6-source-address [ prefix-length ] | ipv6-group-address [ prefix-length ] | incoming-interface interface-type interface-number | outgoing-interface { exclude | include | match } interface-type interface-number | slot slot-number | statistics ] * (IRF模式) display ipv6 multicast [ vpn-instance vpn-instance-name ] forwarding-table [ ipv6-source-address [ prefix-length ] | ipv6-group-address [ prefix-length ] | chassis chassis-number slot slot-number | incoming-interface interface-type interface-number | outgoing-interface { exclude | include | match } interface-type interface-number | statistics ] * |
显示IPv6组播转发表的DF列表信息 |
(独立运行模式) display ipv6 multicast [ vpn-instance vpn-instance-name ] forwarding-table df-list [ ipv6-group-address ] [ verbose ] [ slot slot-number ] (IRF模式) display ipv6 multicast [ vpn-instance vpn-instance-name ] forwarding-table df-list [ ipv6-group-address ] [ verbose ] [ chassis chassis-number slot slot-number ] |
显示IPv6组播路由表的信息 |
display ipv6 multicast [ vpn-instance vpn-instance-name ] routing-table [ ipv6-source-address [ prefix-length ] | ipv6-group-address [ prefix-length ] | incoming-interface interface-type interface-number | outgoing-interface { exclude | include | match } interface-type interface-number ] * |
显示IPv6组播源的RPF信息 |
display ipv6 multicast [ vpn-instance vpn-instance-name ] rpf-info ipv6-source-address [ ipv6-group-address ] |
清除IPv6组播快速转发表中的转发项 |
(独立运行模式) reset ipv6 multicast [ vpn-instance vpn-instance-name ] fast-forwarding cache { { ipv6-source-address | ipv6-group-address } * | all } [ slot slot-number ] (IRF模式) reset ipv6 multicast [ vpn-instance vpn-instance-name ] fast-forwarding cache { { ipv6-source-address | ipv6-group-address } * | all } [ chassis chassis-number slot slot-number ] |
清除IPv6组播转发的事件统计信息 |
reset ipv6 multicast [ vpn-instance vpn-instance-name ] forwarding event |
清除IPv6组播转发表中的转发项 |
reset ipv6 multicast [ vpn-instance vpn-instance-name ] forwarding-table { { ipv6-source-address [ prefix-length ] | ipv6-group-address [ prefix-length ] | incoming-interface { interface-type interface-number } } * | all } |
清除IPv6组播路由表中的路由项 |
reset ipv6 multicast [ vpn-instance vpn-instance-name ] routing-table { { ipv6-source-address [ prefix-length ] | ipv6-group-address [ prefix-length ] | incoming-interface interface-type interface-number } * | all } |
· 清除IPv6组播路由表中的路由项后,IPv6组播转发表中的相应表项也将随之删除。
· 清除IPv6组播转发表中的转发项后,IPv6组播路由表中的相应表项也将随之删除。
· Spoke与Hub之间建立ADVPN隧道;
· Hub和Spoke支持组播功能并运行PIM-SM,ADVPN隧道口运行NBMA模式;
· Hub1、Hub2、Spoke1和Spoke2之间运行OSPF协议;
· 使Spoke1能够接收来自Hub1的组播信息。
图1-3 IPv6 ADVPN实现组播转发配置组网图
设备 |
接口 |
IP地址 |
设备 |
接口 |
IP地址 |
Hub1 |
GE2/0/1 |
1::1/64 |
Hub2 |
GE2/0/1 |
1::2/64 |
|
Tunnel1 |
192:168::1/64 FE80::1 |
|
Tunnel1 |
192:168::2/64 FE80::2 |
|
Loop0 |
44::44/64 |
|
Loop0 |
55::55/64 |
GE2/0/2 |
100::100/64 |
|
|
|
|
Spoke1 |
GE2/0/1 |
1::3/64 |
Spoke2 |
GE2/0/1 |
1::4/64 |
|
Tunnel1 |
192:168::3/64 FE80::3 |
|
Tunnel1 |
192:168::4/64 FE80::4 |
GE2/0/2 |
200::100/64 |
|
|
|
|
Server |
GE2/0/1 |
1::11/64 |
|
|
|
(1) 配置IPv6地址
请按照图1-3配置各接口的IPv6地址和前缀长度,具体配置过程略。
(2) 配置IPv6 ADVPN信息
# 在Server上创建ADVPN域abc。
<Server> system-view
[Server] vam server advpn-domain abc id 1
# 在Server上配置VAM Server的预共享密钥为123456。
[Server-vam-server-domain-abc] pre-shared-key simple 123456
# 在Server上配置对VAM Client不进行认证。
[Server-vam-server-domain-abc] authentication-method none
# 在Server上启动该ADVPN域的VAM Server功能。
[Server-vam-server-domain-abc] server enable
# 在Server上创建Hub组0。
[Server-vam-server-domain-abc] hub-group 0
# 在Server上指定Hub组内Hub的IPv6私网地址。
[Server-vam-server-domain-abc-hub-group-0] hub ipv6 private-address 192:168::1
[Server-vam-server-domain-abc-hub-group-0] hub ipv6 private-address 192:168::2
# 在Server上指定Hub组内Spoke的IPv6私网地址范围。
[Server-vam-server-domain-abc-hub-group-0] spoke ipv6 private-address range 192:168:: 192:168::FFFF:FFFF:FFFF:FFFF
[Server-vam-server-domain-abc-hub-group-0] quit
[Server-vam-server-domain-abc] quit
# 在Hub1上创建VAM Client Hub1。
<Hub1> system-view
[Hub1] vam client name Hub1
# 在Hub1上配置VAM Client所属的ADVPN域为abc。
[Hub1-vam-client-Hub1] advpn-domain abc
# 在Hub1上配置VAM Server的IP地址。
[Hub1-vam-client-Hub1] server primary ipv6-address 1::11
# 在Hub1上配置VAM Client的预共享密钥。
[Hub1-vam-client-Hub1] pre-shared-key simple 123456
# 在Hub1上开启VAM Client功能。
[Hub1-vam-client-Hub1] client enable
# 在Hub2上创建VAM Client Hub2。
<Hub2> system-view
[Hub2] vam client name hub2
# 在Hub2上配置VAM Client所属的ADVPN域为abc。
[Hub2-vam-client-hub2] advpn-domain abc
# 在Hub2上配置VAM Server的IP地址。
[Hub2-vam-client-hub2] server primary ipv6-address 1::11
# 在Hub2上配置VAM Client的预共享密钥。
[Hub2-vam-client-hub2] pre-shared-key simple 123456
# 在Hub2上开启VAM Client功能。
[Hub2-vam-client-hub2] client enable
# 在Spoke1上创建VAM Client Spoke1。
<Spoke1> system-view
[Spoke1] vam client name Spoke1
# 在Spoke1上配置VAM Client所属的ADVPN域为abc。
[Spoke1-vam-client-Spoke1] advpn-domain abc
# 在Spoke1上配置VAM Server的IP地址。
[Spoke1-vam-client-Spoke1] server primary ipv6-address 1::11
# 在Spoke1上配置VAM Client的预共享密钥。
[Spoke1-vam-client-Spoke1] pre-shared-key simple 123456
# 在Spoke1上开启VAM Client功能。
[Spoke1-vam-client-Spoke1] client enable
[Spoke1-vam-client-Spoke1] quit
# 在Spoke2上创建VAM Client Spoke2。
<Spoke2> system-view
[Spoke2] vam client name Spoke2
# 在Spoke2上配置VAM Client所属的ADVPN域为abc。
[Spoke2-vam-client-Spoke2] advpn-domain abc
# 在Spoke2上配置VAM Server的IP地址。
[Spoke2-vam-client-Spoke2] server primary ipv6-address 1::11
# 在Spoke2上配置VAM Client的预共享密钥。
[Spoke2-vam-client-Spoke2] pre-shared-key simple 123456
# 在Spoke2上开启VAM Client功能。
[Spoke2-vam-client-Spoke2] client enable
[Spoke2-vam-client-Spoke2] quit
(3) 配置IPv6 ADVPN隧道
# 在Hub1上配置GRE封装的IPv6 ADVPN隧道接口Tunnel1。
[Hub1] interface tunnel 1 mode advpn gre ipv6
[Hub1-Tunnel1] source gigabitethernet 2/0/1
[Hub1-Tunnel1] ipv6 address FE80::1 link-local
[Hub1-Tunnel1] ipv6 address 192:168::1 64
[Hub1-Tunnel1] vam ipv6 client hub1
[Hub1-Tunnel1] quit
# 在Hub2上配置GRE封装的IPv6 ADVPN隧道接口Tunnel1。
[Hub2] interface tunnel 1 mode advpn gre ipv6
[Hub2-Tunnel1] source gigabitethernet 2/0/1
[Hub2-Tunnel1] ipv6 address FE80::2 link-local
[Hub2-Tunnel1] ipv6 address 192:168::2 64
[Hub2-Tunnel1] vam ipv6 client hub1
[Hub2-Tunnel1] quit
# 在Spoke1上配置GRE封装的IPv6 ADVPN隧道接口Tunnel1。
[Spoke1] interface tunnel 1 mode advpn gre ipv6
[Spoke1-Tunnel1] source gigabitethernet 2/0/1
[Spoke1-Tunnel1] ipv6 address FE80::3 link-local
[Spoke1-Tunnel1] ipv6 address 192:168::3/64
[Spoke1-Tunnel1] vam ipv6 client spoke1
[Spoke1-Tunnel1] quit
# 在Spoke2上配置GRE封装的IPv6 ADVPN隧道接口Tunnel1。
[Spoke2] interface tunnel 1 mode advpn gre ipv6
[Spoke2-Tunnel1] source gigabitethernet 2/0/1
[Spoke2-Tunnel1] ipv6 address FE80::4 link-local
[Spoke2-Tunnel1] ipv6 address 192:168::4/64
[Spoke2-Tunnel1] vam ipv6 client spoke2
[Spoke2-Tunnel1] quit
(4) 配置OSPFv3路由协议
# 在Hub1上 配置路由信息。
<Hub1> system-view
[Hub1] ospfv3
[Hub1-ospfv3-1] router-id 0.0.0.1
[Hub1-ospfv3-1] area 0.0.0.0
[Hub1-ospfv3-1-area-0.0.0.0] quit
[Hub1-ospfv3-1] quit
[Hub1] interface loopback 0
[Hub1-LoopBack0] ospfv3 1 area 0.0.0.0
[Hub1-LoopBack0] quit
[Hub1] interface gigabitethernet 2/0/2
[Hub1-GigabitEthernet2/0/2] ospfv3 1 area 0.0.0.0
[Hub1-GigabitEthernet2/0/2] quit
[Hub1] interface tunnel 1
[Hub1-Tunnel1] ospfv3 1 area 0.0.0.0
[Hub1-Tunnel1] ospfv3 network-type p2mp
[Hub1-Tunnel1] quit
# 在Hub2上配置路由信息。
<Hub2> system-view
[Hub2] ospfv3
[Hub2-ospfv3-1] router-id 0.0.0.2
[Hub2-ospfv3-1] area 0.0.0.0
[Hub2-ospfv3-1-area-0.0.0.0] quit
[Hub2-ospfv3-1] quit
[Hub2] interface loopback 0
[Hub2-LoopBack0] ospfv3 1 area 0.0.0.0
[Hub2-LoopBack0] quit
[Hub2] interface tunnel 1
[Hub2-Tunnel1] ospfv3 1 area 0.0.0.0
[Hub2-Tunnel1] ospfv3 network-type p2mp
[Hub2-Tunnel1] quit
# 在Spoke1上配置路由信息。
<Spoke1> system-view
[Spoke1] ospfv3 1
[Spoke1-ospfv3-1] router-id 0.0.0.3
[Spoke1-ospfv3-1] area 0.0.0.0
[Spoke1-ospfv3-1-area-0.0.0.0] quit
[Spoke1-ospfv3-1] quit
[Spoke1] interface tunnel 1
[Spoke1-Tunnel1] ospfv3 1 area 0.0.0.0
[Spoke1-Tunnel1] ospfv3 network-type p2mp
[Spoke1-Tunnel1] quit
# 在Spoke2上配置路由信息。
<Spoke2> system-view
[Spoke2] ospfv3 1
[Spoke2-ospfv3-1] router-id 0.0.0.4
[Spoke2-ospfv3-1] area 0.0.0.0
[Spoke2-ospfv3-1-area-0.0.0.0] quit
[Spoke2-ospfv3-1] quit
[Spoke2] interface tunnel 1
[Spoke2-Tunnel1] ospfv3 1 area 0.0.0.0
[Spoke2-Tunnel1] ospfv3 network-type p2mp
[Spoke2-Tunnel1] quit
[Spoke2] interface gigabitethernet 2/0/2
[Spoke2-GigabitEthernet2/0/2] ospfv3 1 area 0.0.0.0
[Spoke2-GigabitEthernet2/0/2] quit
(5) 使能IPv6组播路由,并使能IPv6 PIM-SM和MLD
# 在Hub1上使能IPv6组播路由,并使能IPv6 PIM-SM、IPv6 PIM-NBMA。
<Hub1> system-view
[Hub1] ipv6 multicast routing
[Hub1-mrib6] quit
[Hub1] interface loopback 0
[Hub1-LoopBack0] ipv6 pim sm
[Hub1-LoopBack0] quit
[Hub1] interface gigabitethernet 2/0/2
[Hub1-GigabitEthernet2/0/2] ipv6 pim sm
[Hub1-GigabitEthernet2/0/2] quit
[Hub1] interface tunnel 1
[Hub1-Tunnel1] ipv6 pim sm
[Hub1-Tunnel1] ipv6 pim nbma-mode
[Hub1-Tunnel1] quit
# 在Hub1上配置C-BSR、C-RP。
<Hub1> system-view
[Hub1] ipv6 pim
[Hub1-pim6] c-bsr 44::44
[Hub1-pim6] c-rp 44::44
[Hub1-pim6] quit
# 在Hub2上使能IPv6组播路由,并使能IPv6 PIM-SM、IPv6 PIM-NBMA。
<Hub2> system-view
[Hub2] ipv6 multicast routing
[Hub2-mrib6] quit
[Hub2] interface loopback 0
[Hub2-LoopBack0] ipv6 pim sm
[Hub2-LoopBack0] quit
[Hub2] interface tunnel 1
[Hub2-Tunnel1] ipv6 pim sm
[Hub2-Tunnel1] ipv6 pim nbma-mode
[Hub2-Tunnel1] quit
# 在Hub2上配置C-BSR、C-RP。
<Hub2> system-view
[Hub2] ipv6 pim
[Hub2-pim6] c-bsr 55::55
[Hub2-pim6] c-rp 55::55
[Hub2-pim6] quit
# 在Spoke1上使能IPv6组播路由,并使能IPv6 PIM-SM、IPv6 PIM-NBMA、MLD。
<Spoke1> system-view
[Spoke1] ipv6 multicast routing
[Spoke1-mrib6] quit
[Spoke1] interface tunnel 1
[Spoke1-Tunnel1] ipv6 pim sm
[Spoke1-Tunnel1] ipv6 pim nbma-mode
[Spoke1-Tunnel1] quit
[Spoke1] interface gigabitethernet 2/0/2
[Spoke1-GigabitEthernet2/0/2] mld enable
[Spoke1-GigabitEthernet2/0/2] quit
# 在Spoke2上使能IPv6组播路由,并使能IPv6 PIM-SM、IPv6 PIM-NBMA。
<Spoke2> system-view
[Spoke2] ipv6 multicast routing
[Spoke2-mrib6] quit
[Spoke2] interface tunnel 1
[Spoke2-Tunnel1] ipv6 pim sm
[Spoke2-Tunnel1] ipv6 pim nbma-mode
[Spoke2-Tunnel1] quit
组播源向Hub1发送组播组FF0e::1组播数据,接收者向Spoke1加入该组播组后能够收到组播源发来的组播数据。
# 显示Hub1上的PIM路由表信息。
[Hub1] display ipv6 pim routing-table
Total 1 (*, G) entries; 1 (S, G) entries
(*, FF0E::1)
RP: 44::44 (local)
Protocol: pim-sm, Flag: WC
UpTime: 17:02:10
Upstream interface: Register-Tunnel1
Upstream neighbor: NULL
RPF prime neighbor: NULL
Downstream interface information:
Total number of downstream interfaces: 1
1: Tunnel1, FE80::3
Protocol: pim-sm, UpTime: 17:01:23, Expires: 00:02:41
(100::1, FF0E::1)
RP: 44::44 (local)
Protocol: pim-sm, Flag: SPT LOC ACT
UpTime: 00:00:02
Upstream interface: GigabitEthernet2/0/3
Upstream neighbor: NULL
RPF prime neighbor: NULL
Downstream interface information:
Total number of downstream interfaces: 1
1: tunnel1, FE80::3
Protocol: pim-sm, UpTime: 00:00:02, Expires: 00:03:28
不同款型规格的资料略有差异, 详细信息请向具体销售和400咨询。H3C保留在没有任何通知或提示的情况下对资料内容进行修改的权利!