10-LLDP配置
本章节下载: 10-LLDP配置 (427.34 KB)
目前,网络设备的种类日益繁多且各自的配置错综复杂,为了使不同厂商的设备能够在网络中相互发现并交互各自的系统及配置信息,需要有一个标准的信息交流平台。
LLDP(Link Layer Discovery Protocol,链路层发现协议)就是在这样的背景下产生的,它提供了一种标准的链路层发现方式,可以将本端设备的信息(包括主要能力、管理地址、设备标识、接口标识等)组织成不同的TLV(Type/Length/Value,类型/长度/值),并封装在LLDPDU(Link Layer Discovery Protocol Data Unit,链路层发现协议数据单元)中发布给与自己直连的邻居,邻居收到这些信息后将其以标准MIB(Management Information Base,管理信息库)的形式保存起来,以供网络管理系统查询及判断链路的通信状况。有关MIB的详细介绍,请参见“网络管理和监控配置指导”中的“SNMP”。
LLDP代理是LLDP协议运行实体的一个抽象映射。一个接口下,可以运行多个LLDP代理。目前LLDP定义的代理类型包括:Nearest Bridge(最近桥代理)、Nearest non-TPMR Bridge(最近非TPMR桥代理)和Nearest Customer Bridge(最近客户桥代理)。其中TPMR(Two-Port MAC Relay,双端口MAC中继),是一种只有两个可供外部访问桥端口的桥,支持MAC桥的功能子集。TPMR对于所有基于帧的介质无关协议都是透明的,但如下协议除外:以TPMR为目的地的协议、以保留MAC地址为目的地址但TPMR定义为不予转发的协议。LLDP在相邻的代理之间进行协议报文交互,并基于代理创建及维护邻居信息。如图1-1所示,是LLDP不同类型的代理邻居关系示意图。其中,CB(Customer Bridge,客户桥)和SB(Service Bridge,服务桥)表示LLDP的两种桥模式。
图1-1 LLDP邻居关系示意图
封装有LLDPDU的报文称为LLDP报文,其封装格式有两种:Ethernet II和SNAP(Subnetwork Access Protocol,子网访问协议)。
(1) Ethernet II格式封装的LLDP报文
图1-2 Ethernet II格式封装的LLDP报文
如图1-2所示,是以Ethernet II格式封装的LLDP报文,其中各字段的含义如下:
· Destination MAC address:目的MAC地址。为区分同一接口下不同类型代理发送及接收的LLDP报文,LLDP协议规定了不同的组播MAC地址作为不同类型代理的LLDP报文的目的MAC地址。其中固定的组播MAC地址0x0180-C200-000E供最近桥代理类型的LLDP报文使用,0x0180-C200-0000供最近客户桥代理类型的LLDP报文使用,0x0180-C200-0003供最近非TPMR桥代理类型的LLDP报文使用。
· Source MAC address:源MAC地址,为端口MAC地址。
· Type:报文类型,为0x88CC。
· Data:数据内容,为LLDPDU。
· FCS:帧检验序列,用来对报文进行校验。
(2) SNAP格式封装的LLDP报文
图1-3 SNAP格式封装的LLDP报文
如图1-3所示,是以SNAP格式封装的LLDP报文,其中各字段的含义如下:
· Destination MAC address:目的MAC地址,与Ethernet II格式封装的LLDP报文目的MAC地址相同。
· Source MAC address:源MAC地址,为端口MAC地址。
· Type:报文类型,为0xAAAA-0300-0000-88CC。
· Data:数据内容,为LLDPDU。
· FCS:帧检验序列,用来对报文进行校验。
LLDPDU就是封装在LLDP报文数据部分的数据单元。在组成LLDPDU之前,设备先将本地信息封装成TLV格式,再由若干个TLV组合成一个LLDPDU封装在LLDP报文的数据部分进行传送。
图1-4 LLDPDU的封装格式
如图1-4所示,蓝色的Chassis ID TLV、Port ID TLV、Time To Live TLV和End of LLDPDU TLV这四种TLV是每个LLDPDU都必须携带的,其余的TLV则为可选携带。每个LLDPDU最多可携带32种TLV。
TLV是组成LLDPDU的单元,每个TLV都代表一个信息。LLDP可以封装的TLV包括基本TLV、802.1组织定义TLV、802.3组织定义TLV和LLDP-MED(Link Layer Discovery Protocol Media Endpoint Discovery,链路层发现协议媒体终端发现) TLV。
基本TLV是网络设备管理基础的一组TLV,802.1组织定义TLV、802.3组织定义TLV和LLDP-MED TLV则是由标准组织或其他机构定义的TLV,用于增强对网络设备的管理,可根据实际需要选择是否在LLDPDU中发送。
在基本TLV中,有几种TLV对于实现LLDP功能来说是必选的,即必须在LLDPDU中发布,如表1-1所示。
TLV名称 |
||
标识LLDPDU发送端的端口。如果LLDPDU中携带有LLDP-MED TLV,其内容为端口的MAC地址;否则,其内容为端口的名称 |
||
LLDPDU的结束标识,是LLDPDU的最后一个TLV |
||
管理地址,以及该地址所对应的接口号和OID(Object Identifier,对象标识符) |
(2) 802.1组织定义TLV
IEEE 802.1组织定义TLV的内容如表1-2所示。
表1-2 IEEE 802.1组织定义的TLV
TLV名称 |
|
端口的PVID(Port VLAN ID) |
|
端口的PPVID(Port and Protocol VLAN ID) |
|
端口所属VLAN的名称 |
|
EVB模块 |
边缘虚拟桥接(Edge Virtual Bridging)模块,具体包括EVB TLV和CDCP(S-Channel Discovery and Configuration Protocol,S通道发现和配置协议) TLV这两种TLV。有关这两种TLV的详细介绍,请参见“EVB配置指导” |
包含VLAN ID使用摘要的数据 |
|
· 目前,H3C设备不支持发送Protocol Identity TLV和VID Usage Digest TLV,但可以接收这两种类型的TLV。
(3) 802.3组织定义TLV
IEEE 802.3组织定义TLV的内容如表1-3所示。
表1-3 IEEE 802.3组织定义的TLV
TLV名称 |
|
端口的供电能力,包括PoE(Power over Ethernet,以太网供电)的类型(包括PSE(Power Sourcing Equipment,供电设备)和PD(Powered Device,受电设备)两种)、PoE端口的远程供电模式、是否支持PSE供电、是否已使能PSE供电、供电方式是否可控、供电类型、功率来源、功率优先级、PD请求功率值、PSE分配功率值 |
|
端口支持的最大帧长度,取端口配置的MTU(Maximum Transmission Unit,最大传输单元) |
|
端口的电源状态控制,包括PSE/PD所采用的电源类型、供/受电的优先级以及供/受电的功率 |
|
Power Stateful Control TLV是在IEEE P802.3at D1.0版本中被定义的,之后的版本不再支持该TLV。H3C设备只有在收到Power Stateful Control TLV后才会发送该类型的TLV。
LLDP-MED TLV为VoIP(Voice over IP,在IP网络上传送语音)提供了许多高级的应用,包括基本配置、网络策略配置、地址信息以及目录管理等,满足了语音设备的不同生产厂商在投资收效、易部署、易管理等方面的要求,并解决了在以太网中部署语音设备的问题,为语音设备的生产者、销售者以及使用者提供了便利。LLDP-MED TLV的内容如表1-4所示。
TLV名称 |
|
网络设备或终端设备上端口的VLAN类型、VLAN ID以及二三层与具体应用类型相关的优先级等 |
|
如果禁止发布802.3的组织定义的MAC/PHY Configuration/Status TLV,则LLDP-MED TLV将不会被发布,不论其是否被允许发布;如果禁止发布LLDP-MED Capabilities TLV,则其他LLDP-MED TLV将不会被发布,不论其是否被允许发布。
管理地址是供网络管理系统标识网络设备并进行管理的地址。管理地址可以明确地标识一台设备,从而有利于网络拓扑的绘制,便于网络管理。管理地址被封装在LLDP报文的Management Address TLV中向外发布。
在指定类型的LLDP代理下,LLDP有以下四种工作模式:
· TxRx:既发送也接收LLDP报文。
· Tx:只发送不接收LLDP报文。
· Rx:只接收不发送LLDP报文。
· Disable:既不发送也不接收LLDP报文。
当端口的LLDP工作模式发生变化时,端口将对协议状态机进行初始化操作。为了避免端口工作模式频繁改变而导致端口不断执行初始化操作,可配置端口初始化延迟时间,当端口工作模式改变时延迟一段时间再执行初始化操作。
在指定类型LLDP代理下,当端口工作在TxRx或Tx模式时,设备会周期性地向邻居设备发送LLDP报文。如果设备的本地配置发生变化则立即发送LLDP报文,以将本地信息的变化情况尽快通知给邻居设备。但为了防止本地信息的频繁变化而引起LLDP报文的大量发送,使用令牌桶机制对LLDP报文发送作限速处理。有关令牌桶的详细介绍,请参见“ACL和QoS配置指导”中的“流量监管、流量整形和接口限速”。
当设备的工作模式由Disable/Rx切换为TxRx/Tx,或者发现了新的邻居设备(即收到一个新的LLDP报文且本地尚未保存发送该报文设备的信息)时,该设备将自动启用快速发送机制,即将LLDP报文的发送周期设置为快速发送周期,并连续发送指定数量的LLDP报文后再恢复为正常的发送周期。
当端口工作在TxRx或Rx模式时,设备会对收到的LLDP报文及其携带的TLV进行有效性检查,通过检查后再将邻居信息保存到本地,并根据Time To Live TLV中TTL(Time To Live,生存时间)的值来设置邻居信息在本地设备上的老化时间,若该值为零,则立刻老化该邻居信息。
与LLDP相关的协议规范有:
· IEEE 802.1AB-2005:Station and Media Access Control Connectivity Discovery
· IEEE 802.1AB 2009:Station and Media Access Control Connectivity Discovery
· ANSI/TIA-1057:Link Layer Discovery Protocol for Media Endpoint Devices
· DCB Capability Exchange Protocol Specification Rev 1.0
· DCB Capability Exchange Protocol Base Specification Rev 1.01
· IEEE Std 802.1Qaz-2011:Media Access Control (MAC) Bridges and Virtual Bridged Local Area Networks-Amendment 18: Enhanced Transmission Selection for Bandwidth Sharing Between Traffic Classes
配置LLDP基本功能 |
使能LLDP功能 |
||
配置LLDP桥模式 |
|||
配置LLDP工作模式 |
|||
调整LLDP相关参数 |
|||
配置LLDP报文的封装格式 |
|||
关闭LLDP的PVID不一致检查功能 |
可选 |
||
配置LLDP兼容CDP功能 |
|||
配置DCBX功能 |
|||
配置LLDP Trap和LLDP-MED Trap功能 |
只有当全局和接口上都使能了LLDP功能后,该功能才会生效。
需要注意的是,当LLDP与OpenFlow配合使用时,需要在Openflow网络设备上全局使能LLDP功能,但为了此时LLDP不影响OpenFlow控制器发现拓扑,建议在OpenFlow实例内的接口上关闭LLDP功能。有关OpenFlow的详细介绍,请参见“OpenFlow配置指导”中的“OpenFlow”。
全局使能LLDP功能 |
缺省情况下,全局LLDP功能处于关闭状态 |
|
进入二/三层以太网接口视图、管理以太网接口视图或二/三层聚合接口视图 |
||
缺省情况下,LLDP功能在接口上处于使能状态 |
LLDP桥模式有客户桥模式和服务桥模式两种:
· 工作于客户桥模式时,设备可支持最近桥代理、最近非TPMR桥代理和最近客户桥代理,即对上述类型的代理MAC的LLDP报文进行处理,其他目的MAC的LLDP报文进行VLAN内透传。
· 工作于服务桥模式时,设备可支持最近桥代理和最近非TPMR桥代理,即对上述类型的代理MAC的LLDP报文进行处理,其他目的MAC的LLDP报文进行VLAN内透传。
表1-7 配置LLDP桥模式
配置LLDP桥模式 |
缺省情况下,LLDP桥模式为客户桥模式 |
LLDP工作模式分为以下四种:
· TxRx:既发送也接收LLDP报文。
· Tx:只发送不接收LLDP报文。
· Rx:只接收不发送LLDP报文。
· Disable:既不发送也不接收LLDP报文。
表1-8 配置LLDP工作模式
进入二/三层以太网接口视图、管理以太网接口视图或二/三层聚合接口视图 |
||
配置LLDP的工作模式 |
在二/三层以太网接口视图或管理以太网接口视图下: lldp [ agent { nearest-customer | nearest-nontpmr } ] admin-status { disable | rx | tx | txrx } 在二/三层聚合接口视图下: lldp agent { nearest-customer | nearest-nontpmr } admin-status { disable | rx | tx | txrx } |
缺省情况下,最近桥代理类型的LLDP工作模式为TxRx,最近客户桥代理和最近非TPMR桥代理类型的LLDP工作模式为Disable 以太网接口视图下,未指定agent参数时,表示配置最近桥代理的工作模式 |
当接口上LLDP的工作模式发生变化时,接口将对协议状态机进行初始化操作,通过配置接口初始化的延迟时间,可以避免由于工作模式频繁改变而导致接口不断地进行初始化。
在使能了轮询功能后,LLDP将以轮询间隔周期性地查询本设备的相关配置是否发生改变,如果发生改变将触发LLDP报文的发送,以将本设备的配置变化迅速通知给其他设备。
进入二/三层以太网接口视图、管理以太网接口视图或二/三层聚合接口视图 |
||
在二/三层以太网接口视图或管理以太网接口视图下: lldp [ agent { nearest-customer | nearest-nontpmr } ] check-change-interval interval 在二/三层聚合接口视图下: lldp agent { nearest-customer | nearest-nontpmr } check-change-interval interval |
管理地址被封装在Management Address TLV中向外发布,封装格式可以是数字或字符串。如果邻居将管理地址以字符串格式封装在TLV中,用户可在本地设备上也将封装格式改为字符串,以保证与邻居设备的正常通信。
进入二/三层以太网接口视图、管理以太网接口视图或二/三层聚合接口视图 |
||
允许在LLDP报文中发布管理地址并配置所发布的管理地址 |
在二/三层以太网接口视图或管理以太网接口视图下: 在二/三层聚合接口视图下: |
缺省情况下,最近桥代理和最近客户桥代理类型的LLDP允许在LLDP报文中发布管理地址,最近非TPMR桥代理类型LLDP不允许在LLDP报文中发布管理地址 |
配置管理地址在TLV中的封装格式为字符串格式 |
在二/三层以太网接口视图或管理以太网接口视图下: lldp [ agent { nearest-customer | nearest-nontpmr } ] management-address-format string 在二/三层聚合接口视图下: lldp agent { nearest-customer | nearest-nontpmr } management-address-format string |
缺省情况下,管理地址在TLV中的封装格式为数字格式 |
LLDP报文所携Time To Live TLV中TTL的值用来设置邻居信息在本地设备上的老化时间,由于TTL=Min(65535,(TTL乘数×LLDP报文的发送间隔+1)),即取65535与(TTL乘数×LLDP报文的发送间隔+1)中的最小值,因此通过调整TTL乘数可以控制本设备信息在邻居设备上的老化时间。
表1-13 调整LLDP相关参数
配置TTL乘数 |
缺省情况下,TTL乘数为4 |
|
配置LLDP报文的发送间隔 |
缺省情况下,LLDP报文的发送间隔为30秒 |
|
配置LLDP报文发包限速的令牌桶大小 |
||
配置快速发送LLDP报文的个数 |
缺省情况下,快速发送LLDP报文的个数为4个 |
|
配置快速发送LLDP报文的间隔 |
缺省情况下,快速发送LLDP报文的发送间隔为1秒 |
LLDP报文的封装格式有Ethernet II和SNAP两种:
· 当采用Ethernet II封装格式时,使能了LLDP功能的接口所发送的LLDP报文将以Ethernet II格式封装。
· 当采用SNAP封装格式时,使能了LLDP功能的接口所发送的LLDP报文将以SNAP格式封装。
需要注意的是,LLDP早期版本要求只有配置为相同的封装格式才能处理该格式的LLDP报文,因此为了确保与运行LLDP早期版本的设备成功通信,必须配置为与之相同的封装格式。
表1-14 配置LLDP报文的封装格式
进入二/三层以太网接口视图、管理以太网接口视图或二/三层聚合接口视图 |
||
配置LLDP报文的封装格式为SNAP格式 |
在二/三层以太网接口视图或管理以太网接口视图下: lldp [ agent { nearest-customer | nearest-nontpmr } ] encapsulation snap 在二/三层聚合接口视图下: lldp agent { nearest-customer | nearest-nontpmr } encapsulation snap |
缺省情况下,LLDP报文的封装格式为Ethernet II格式 |
一般组网情况下,要求链路两端的PVID保持一致。设备会对收到的LLDP报文中的PVID TLV进行检查,如果发现报文中的PVID与本端PVID不一致,则认为网络中可能存在错误配置,LLDP会打印日志信息,提示用户。
但在一些特殊情况下,可以允许链路两端的PVID配置不一致。例如为了简化接入交换机的配置,各接入交换机的上行口采用相同的PVID,而对端汇聚交换机的各接口采用不同的PVID,从而使各接入交换机的流量进入不同VLAN。此时,可以关闭LLDP的PVID不一致性检查功能。
表1-15 关闭LLDP的PVID不一致检查功能
操作 |
命令 |
说明 |
进入系统视图 |
system-view |
- |
关闭LLDP的PVID不一致检查功能 |
lldp ignore-pvid-inconsistency |
缺省情况下, LLDP的PVID不一致检查功能处于开启状态 |
当设备与Cisco的IP电话直连时,IP电话将会向设备发送CDP(Cisco Discovery Protocol,思科发现协议)报文以请求在设备上所配Voice VLAN的VLAN ID;如果在指定时间内没有收到设备发送的Voice VLAN的VLAN ID,IP电话将会把语音数据流以Untagged方式发送,从而导致语音数据流与其他类型的数据流混在一起,无法进行区分。
通过在设备上配置LLDP兼容CDP功能,可以利用LLDP来接收、识别从IP电话发送的CDP报文,并向IP电话发送CDP报文,该CDP报文携带设备所配Voice VLAN的TLV,使IP电话完成Voice VLAN的自动配置。语音数据流将被限制在配置的Voice VLAN内,与其他数据流区分开来。
有关Voice VLAN的详细介绍,请参见“二层技术-以太网交换配置指导”中的“Voice VLAN”。
在配置LLDP兼容CDP功能之前,需完成以下任务:
· 全局使能LLDP功能。
· 在设备与IP电话相连接的接口上使能LLDP功能,并配置接口的LLDP工作模式为Rx或TxRx。
LLDP兼容CDP功能有以下工作模式:
· Rx:接收但不发送CDP报文。
· TxRx:既发送也接收CDP报文。
· Disable:既不发送也不接收CDP报文。
要使LLDP兼容CDP功能生效,必须先在全局使能LLDP兼容CDP功能,并将LLDP兼容CDP功能的工作模式配置为Rx或TxRx。
由于CDP报文所携Time To Live TLV中TTL的最大值为255,而CDP报文的发送间隔由LLDP报文的发送间隔控制,因此为保证LLDP兼容CDP功能的正常运行,建议配置LLDP报文的发送间隔值不大于实际TTL的1/3。
表1-16 配置LLDP兼容CDP功能
使能LLDP兼容CDP功能 |
缺省情况下,LLDP兼容CDP功能处于关闭状态 |
|
进入二层/三层以太网接口视图或管理以太网接口视图 |
- |
|
配置LLDP兼容CDP功能的工作模式为Rx或TxRx |
缺省情况下,LLDP兼容CDP功能的工作模式为Disable |
|
配置CDP报文携带的Voice VLAN ID |
缺省情况下,未配置CDP报文携带的Voice VLAN ID |
DCE(Data Center Ethernet,数据中心以太网)也称为CEE(Converged Enhanced Ethernet,汇聚增强型以太网),是针对以太网在数据中心的应用,对传统以太网的增强和扩展。DCBX(Data Center Bridging Exchange Protocol,数据中心桥能力交换协议)是DCE的一个组成部分,用于DCE中各网络单元进行桥能力协商以及远程配置,目前有三个版本:预标准版1.0(DCB Capability Exchange Protocol Specification Rev 1.0)、预标准版1.01(DCB Capability Exchange Protocol Base Specification Rev 1.01)和标准版IEEE Std 802.1Qaz-2011(Media Access Control (MAC) Bridges and Virtual Bridged Local Area Networks-Amendment 18: Enhanced Transmission Selection for Bandwidth Sharing Between Traffic Classes),这三个版本之间支持自适应。
DCBX的主要功能包括:
· 发现对端设备的能力,并由此决定两端设备是否要支持相应的能力。
目前,H3C设备只支持上述三种功能中的最后一种。
图1-5 DCBX应用场景示意图
用于数据中心网络的以太网必须是无损以太网,即网络中传输的报文不允许出现丢包,DCBX就是实现无损以太网的关键手段之一。如图1-5所示,DCBX主要应用于基于FCoE(Fibre Channel over Ethernet,基于以太网的光纤通道)的数据中心网络,一般工作在接入层交换机上,以实现交换机对服务器或存储设备网卡的控制,从而达到简化配置以及保证配置一致性的目的。作为LLDP协议的一种扩展应用,DCBX使用IEEE 802.1组织定义的TLV(即DCBX TLV)来传递各种参数信息,在预标准版1.0和预标准版1.01中使用包括APP(Application Protocol,应用协议)、ETS和PFC(Priority-based Flow Control,基于优先级的流量控制)在内的三种参数信息,在标准版中使用包括ETS Configuration(增强传输选择配置)、ETS Recommendation(增强传输选择推荐)、PFC(Priority-based Flow Control,基于优先级的流量控制)和APP(Application Protocol,应用协议)在内的四种参数信息。H3C设备只能向支持FCoE的服务器或存储设备网卡发布这些参数,而不能接受这些参数。
使能LLDP并允许发布DCBX TLV |
|||
配置DCBX版本 |
|||
配置APP参数 |
|||
配置ETS参数 |
配置802.1p优先级到本地优先级的映射 |
||
配置分组WRR队列 |
|||
配置PFC参数 |
在全局和接口上都使能LLDP功能并允许接口发布DCBX TLV,从而使设备可通过该接口来发布APP、ETS和PFC参数。
表1-18 使能LLDP并允许发布DCBX TLV
全局使能LLDP功能 |
缺省情况下,全局LLDP功能处于关闭状态 |
|
缺省情况下,接口上的LLDP功能处于使能状态 |
||
配置DCBX版本时,需要注意:
· 进行本配置时,配置的DCBX版本需要视对端设备支持的版本而定,要求两端端口的DCBX版本配置一致,否则版本无法兼容,将会导致DCBX无法正常工作。建议配置两端设备都支持的最高版本(版本从高到低的顺序为:标准版->预标准版1.01->预标准版1.00)。
· 完成本配置后,本端端口发送的LLDP报文中携带的DCBX版本为配置的版本,不再与对端端口进行DCBX版本协商。
· 当端口的DCBX版本采用自协商决定,协商的初始版本为DCBX标准版,以保证优先协商到该版本。
配置DCBX版本 |
缺省情况下,未配置DCBX版本,此时DCBX版本由两端端口自协商决定 |
设备通过APP参数与服务器网卡进行协商,可以控制服务器网卡所发送报文的802.1p优先级,从而使设备可直接根据802.1p优先级来识别流量。比如,设备利用APP参数与服务器网卡协商将所有FCoE报文和FIP(FCoE Initialization Protocol,FCoE初始化协议)报文的802.1p优先级都设置为3。如果协商成功,后续服务器网卡发送给设备的FCoE报文和FIP所携带的802.1p优先级都将为3。
下表中,有关acl和rule命令的详细介绍,请参见“ACL和QoS命令参考”中的“ACL”;有关其他命令的详细介绍,请参见“ACL和QoS命令参考”中的“QoS策略”。
配置APP参数时,需要注意:
· 二层ACL和IPv4高级ACL分别采用数据帧类型和TCP/UDP端口号来识别应用协议报文。预标准版1.0只支持采用数据帧类型来识别应用协议报文,且只能发布数据帧类型为0x8906(即FCoE协议)的TLV;而预标准版1.01则支持两种识别方式,能发布的TLV的数据帧类型或TCP/UDP端口号不限,且根据当前报文的剩余长度,最多可发布前77条有效配置。
· 由于在一个策略中可以为多个类指定流行为,因此可能存在将同一类型报文标记为不同的802.1p优先级,或同一802.1p优先级映射到不同的本地优先级的情况,在这种情况下,采用首次匹配原则。
创建二层ACL或IPv4高级ACL,并进入相应的ACL视图 |
acl number acl-number [ name acl-name ] [ match-order { auto | config } ] |
二层ACL的编号范围为4000~4999;IPv4高级ACL的编号范围为3000~3999 预标准版1.0只支持二层ACL;而预标准版1.01和标准版则支持二层ACL和IPv4高级ACL |
||
为二层ACL创建规则 |
根据之前创建的ACL类型,创建相应的规则 |
|||
为IPv4高级ACL创建规则 |
rule [ rule-id ] permit { tcp | udp } destination-port eq port |
|||
定义匹配ACL的规则 |
||||
ETS用于实现承诺带宽:设备通过ETS参数与服务器网卡进行协商,控制服务器网卡上指定类型数据的发送带宽,保证其在接口的承诺带宽范围之内,从而不会因流量拥塞而导致数据丢失。
在配置发布ETS参数时,首先需要配置802.1p优先级到本地优先级的映射,然后再配置分组WRR队列。
配置802.1p优先级到本地优先级的映射有两种方式:一种是QoS策略方式,另一种是优先级映射表方式。如果同时配置了这两种方式,则前者的配置优先生效。
下表中有关命令的详细介绍,请参见“ACL和QoS命令参考”中的“QoS策略”。
(1) QoS策略方式
表1-21 QoS策略方式
定义匹配运营商网络802.1p优先级的规则 |
||
下表中有关命令的详细介绍,请参见“QoS命令参考”中的“优先级映射”。
进入802.1P优先级到本地优先级映射表视图 |
qos map-table dot1p-lp |
- |
缺省优先级映射表请参见“ACL和QoS配置指导”中的“附录” |
通过配置分组WRR队列以实现带宽的分配。
下表中,有关命令的详细介绍,请参见“QoS命令参考”中的“拥塞管理”。
使能WRR队列 |
缺省情况下,端口使用SP队列进行调度 |
|
配置WRR优先组1的WRR队列调度权重 |
||
当要求指定802.1p优先级的流量无丢包时,可以开启该优先级的PFC功能,从而在网络发生拥塞时能够通知对端降低发包速率。设备通过PFC参数与服务器网卡进行协商,来开启服务器网卡上指定802.1p优先级的PFC功能。
下表中有关命令的详细介绍,请参见“接口管理命令参考”中的“以太网接口”。
配置PFC功能的开启模式为自动协商模式 |
缺省情况下,PFC功能处于关闭状态 PFC功能的开启模式必须配置为自动协商模式,否则PFC参数将无法发布 |
|
开启指定802.1p优先级的PFC功能 |
缺省情况下,所有802.1p优先级的PFC功能都处于关闭状态 |
使能LLDP Trap或LLDP-MED Trap功能后,设备可以通过向网管系统发送Trap信息以通告如发现新的LLDP邻居或LLDP-MED邻居、与原来邻居的通信链路发生故障等重要事件。
LLDP Trap和LLDP-MED Trap信息的发送间隔是指设备向网管系统发送Trap信息的最小时间间隔,通过调整该时间间隔,可以避免由于邻居信息频繁变化而导致Trap信息的频繁发送。
表1-25 配置LLDP Trap和LLDP-MED Trap功能
进入二/三层以太网接口、管理以太网接口或二/三层聚合接口视图 |
- |
|
在二/三层以太网接口视图或管理以太网接口视图下: lldp [ agent { nearest-customer | nearest-nontpmr } ] notification remote-change enable 在二/三层聚合接口视图下: lldp agent { nearest-customer | nearest-nontpmr } notification remote-change enable |
缺省情况下,LLDP Trap功能处于关闭状态 |
|
在二/三层以太网接口视图或管理以太网接口视图下: |
缺省情况下,LLDP-MED Trap功能处于关闭状态 |
|
(可选)配置LLDP Trap和LLDP-MED Trap信息的发送间隔 |
缺省情况下,LLDP Trap和LLDP-MED Trap信息的发送间隔均为30秒 |
在完成上述配置后,在任意视图下执行display命令可以显示配置后LLDP的运行情况,通过查看显示信息验证配置的效果。
表1-26 LLDP显示和维护
显示LLDP本地信息 |
display lldp local-information [ global | interface interface-type interface-number ] |
显示LLDP的统计信息 |
|
显示LLDP的状态信息 |
|
· NMS(Network Management System,网络管理系统)与Switch A相连,Switch A通过接口GigabitEthernet1/0/1和GigabitEthernet1/0/2分别与MED设备和Switch B相连。
· 通过在Switch A和Switch B上配置LLDP功能,使NMS可以对Switch A与MED设备之间、以及Switch A与Switch B之间链路的通信情况进行判断。
图1-6 LLDP基本功能配置组网图
# 全局使能LLDP功能。
[SwitchA] lldp global enable
# 在接口GigabitEthernet1/0/1和GigabitEthernet1/0/2上分别使能LLDP功能(此步骤可省略,LLDP功能在接口上缺省使能),并配置LLDP工作模式为Rx。
[SwitchA] interface gigabitethernet 1/0/1
[SwitchA-GigabitEthernet1/0/1] lldp enable
[SwitchA-GigabitEthernet1/0/1] lldp admin-status rx
[SwitchA-GigabitEthernet1/0/1] quit
[SwitchA] interface gigabitethernet 1/0/2
[SwitchA-GigabitEthernet1/0/2] lldp enable
[SwitchA-GigabitEthernet1/0/2] lldp admin-status rx
[SwitchA-GigabitEthernet1/0/2] quit
# 全局使能LLDP功能。
[SwitchB] lldp global enable
# 在接口GigabitEthernet1/0/1上使能LLDP功能(此步骤可省略,LLDP功能在接口上缺省使能),并配置LLDP工作模式为Tx。
[SwitchB] interface gigabitethernet 1/0/1
[SwitchB-GigabitEthernet1/0/1] lldp enable
[SwitchB-GigabitEthernet1/0/1] lldp admin-status tx
[SwitchB-GigabitEthernet1/0/1] quit
# 显示Switch A上全局和所有接口的LLDP状态信息。
Global status of LLDP: Enable
Bridge mode of LLDP: customer-bridge
The current number of LLDP neighbors: 2
The current number of CDP neighbors: 0
LLDP neighbor information last changed time: 0 days, 0 hours, 4 minutes, 40 seconds
Transmit interval : 30s
Fast transmit interval : 1s
Transmit credit max : 5
Hold multiplier : 4
Reinit delay : 2s
Trap interval : 30s
Fast start times : 4
LLDP status information of port 1 [GigabitEthernet1/0/1]:
LLDP agent nearest-bridge:
Port status of LLDP : Enable
Admin status : RX_Only
Trap flag : No
MED trap flag : No
Polling interval : 0s
Number of LLDP neighbors : 1
Number of MED neighbors : 1
Number of CDP neighbors : 0
Number of sent optional TLV : 21
Number of received unknown TLV : 0
LLDP agent nearest-nontpmr:
Port status of LLDP : Enable
Admin status : Disable
Trap flag : No
MED trap flag : No
Polling interval : 0s
Number of LLDP neighbors : 0
Number of MED neighbors : 0
Number of CDP neighbors : 0
Number of sent optional TLV : 1
Number of received unknown TLV : 0
LLDP agent nearest-customer:
Port status of LLDP : Enable
Admin status : Disable
Trap flag : No
MED trap flag : No
Polling interval : 0s
Number of LLDP neighbors : 0
Number of MED neighbors : 0
Number of CDP neighbors : 0
Number of sent optional TLV : 16
Number of received unknown TLV : 0
LLDP status information of port 2 [GigabitEthernet1/0/2]:
LLDP agent nearest-bridge:
Port status of LLDP : Enable
Admin status : RX_Only
Trap flag : No
MED trap flag : No
Polling interval : 0s
Number of LLDP neighbors : 1
Number of MED neighbors : 0
Number of CDP neighbors : 0
Number of sent optional TLV : 21
Number of received unknown TLV : 3
LLDP agent nearest-nontpmr:
Port status of LLDP : Enable
Admin status : Disable
Trap flag : No
MED trap flag : No
Polling interval : 0s
Number of LLDP neighbors : 0
Number of MED neighbors : 0
Number of CDP neighbors : 0
Number of sent optional TLV : 1
Number of received unknown TLV : 0
LLDP agent nearest-customer:
Port status of LLDP : Enable
Admin status : Disable
Trap flag : No
MED trap flag : No
Polling interval : 0s
Number of LLDP neighbors : 0
Number of MED neighbors : 0
Number of CDP neighbors : 0
Number of sent optional TLV : 16
Number of received unknown TLV : 0
由此可见,Switch A的接口GigabitEthernet1/0/1上连接了一个MED邻居设备,GigabitEthernet1/0/2上则连接了一个非MED邻居设备,且这两个接口的LLDP工作模式都为Rx,即只接收而不发送LLDP报文。
# 将Switch A和Switch B间的链路断掉后,再显示Switch A上所有接口的LLDP状态信息。
Global status of LLDP: Enable
The current number of LLDP neighbors: 1
The current number of CDP neighbors: 0
LLDP neighbor information last changed time: 0 days, 0 hours, 5 minutes, 20 seconds
Transmit interval : 30s
Fast transmit interval : 1s
Transmit credit max : 5
Hold multiplier : 4
Reinit delay : 2s
Trap interval : 30s
Fast start times : 4
LLDP status information of port 1 [GigabitEthernet1/0/1]:
LLDP agent nearest-bridge:
Port status of LLDP : Enable
Admin status : RX_Only
Trap flag : No
MED trap flag : No
Polling interval : 0s
Number of LLDP neighbors : 1
Number of MED neighbors : 1
Number of CDP neighbors : 0
Number of sent optional TLV : 0
Number of received unknown TLV : 5
LLDP agent nearest-nontpmr:
Port status of LLDP : Enable
Admin status : Disabl
Trap flag : No
MED trap flag : No
Polling interval : 0s
Number of LLDP neighbors : 0
Number of MED neighbors : 0
Number of CDP neighbors : 0
Number of sent optional TLV : 1
Number of received unknown TLV : 0
LLDP status information of port 2 [GigabitEthernet1/0/2]:
LLDP agent nearest-bridge:
Port status of LLDP : Enable
Admin status : RX_Only
Trap flag : No
MED trap flag : No
Polling interval : 0s
Number of LLDP neighbors : 0
Number of MED neighbors : 0
Number of CDP neighbors : 0
Number of sent optional TLV : 0
Number of received unknown TLV : 0
LLDP agent nearest-nontpmr:
Port status of LLDP : Enable
Admin status : Disable
Trap flag : No
MED trap flag : No
Polling interval : 0s
Number of LLDP neighbors : 0
Number of MED neighbors : 0
Number of CDP neighbors : 0
Number of sent optional TLV : 1
Number of received unknown TLV : 0
LLDP agent nearest-customer:
Port status of LLDP : Enable
Admin status : Disable
Trap flag : No
MED trap flag : No
Polling interval : 0s
Number of LLDP neighbors : 0
Number of MED neighbors : 0
Number of CDP neighbors : 0
Number of sent optional TLV : 16
Number of received unknown TLV : 0
由此可见,Switch A的接口GigabitEthernet1/0/2上已经没有任何邻居设备了。
· Switch A通过接口GigabitEthernet1/0/1和GigabitEthernet1/0/2分别与两部Cisco的IP电话相连,这两部IP电话发送的Tagged语音数据。
· 在Switch A上配置VLAN ID为2的Voice VLAN,通过在Switch A上配置LLDP兼容CDP功能使IP电话完成Voice VLAN的自动配置,以使语音数据流被限制在Voice VLAN内,与其他数据流区分开来。
图1-7 LLDP兼容CDP功能配置组网图
(1) 在Switch A上配置Voice VLAN
# 创建VLAN 2。
[SwitchA] vlan 2
[SwitchA-vlan2] quit
# 分别将接口GigabitEthernet1/0/1和GigabitEthernet1/0/2配置为Trunk端口,并使能Voice VLAN功能。
[SwitchA] interface gigabitethernet 1/0/1
[SwitchA-GigabitEthernet1/0/1] port link-type trunk
[SwitchA-GigabitEthernet1/0/1] voice vlan 2 enable
[SwitchA-GigabitEthernet1/0/1] quit
[SwitchA] interface gigabitethernet 1/0/2
[SwitchA-GigabitEthernet1/0/2] port link-type trunk
[SwitchA-GigabitEthernet1/0/2] voice vlan 2 enable
[SwitchA-GigabitEthernet1/0/2] quit
(2) 在Switch A上配置LLDP兼容CDP功能
# 全局使能LLDP功能以及LLDP兼容CDP功能。
[SwitchA] lldp compliance cdp
# 在接口GigabitEthernet1/0/1和GigabitEthernet1/0/2上分别使能LLDP功能(此步骤可省略,LLDP功能在接口上缺省使能),配置LLDP工作模式为TxRx,并配置LLDP兼容CDP功能的工作模式为TxRx。
[SwitchA] interface gigabitethernet 1/0/1
[SwitchA-GigabitEthernet1/0/1] lldp enable
[SwitchA-GigabitEthernet1/0/1] lldp admin-status txrx
[SwitchA-GigabitEthernet1/0/1] lldp compliance admin-status cdp txrx
[SwitchA-GigabitEthernet1/0/1] quit
[SwitchA] interface gigabitethernet 1/0/2
[SwitchA-GigabitEthernet1/0/2] lldp enable
[SwitchA-GigabitEthernet1/0/2] lldp admin-status txrx
[SwitchA-GigabitEthernet1/0/2] lldp compliance admin-status cdp txrx
[SwitchA-GigabitEthernet1/0/2] quit
# 显示Switch A上的邻居信息。
[SwitchA] display lldp neighbor-information
CDP neighbor-information of port 1[GigabitEthernet1/0/1]:
CDP neighbor index : 1
Chassis ID : SEP00141CBCDBFE
Port ID : Port 1
Software version : P0030301MFG2
Platform : Cisco IP Phone 7960
Duplex : Full
CDP neighbor-information of port 2[GigabitEthernet1/0/2]:
CDP neighbor index : 2
Chassis ID : SEP00141CBCDBFF
Port ID : Port 1
Software version : P0030301MFG2
Platform : Cisco IP Phone 7960
Duplex : Full
由此可见,Switch A已发现了分别连接在接口GigabitEthernet1/0/1和GigabitEthernet1/0/2上的IP电话,并获取到了相关的设备信息。
· 在数据中心网络中,接入交换机Switch A通过接口GigabitEthernet1/0/1与数据中心服务器(DC server)的FCoE网卡相连。
· 通过配置,实现Switch A与DC server之间转发的FCoE报文和FIP报文无丢包。
假定Switch A和DC server都支持DCBX预标准版1.01。
图1-8 DCBX功能配置组网图
(1) 使能LLDP并允许发布DCBX TLV
# 全局使能LLDP功能。
[SwitchA] lldp global enable
# 在接口GigabitEthernet1/0/1上使能LLDP功能,并允许发布DCBX TLV。
[SwitchA] interface gigabitethernet 1/0/1
[SwitchA-GigabitEthernet1/0/1] lldp enable
[SwitchA-GigabitEthernet1/0/1] lldp tlv-enable dot1-tlv dcbx
# 配置接口GigabitEthernet1/0/1的DCBX版本为预标准版1.01。
[SwitchA-GigabitEthernet1/0/1] dcbx version rev101
[SwitchA-GigabitEthernet1/0/1] quit
# 创建编号为4000的二层ACL,并为其创建规则来匹配FCoE报文(数据帧类型为0x8906)和FIP报文(数据帧类型为0x8914)。
[SwitchA-acl-ethernetframe-4000] rule permit type 8906 ffff
[SwitchA-acl-ethernetframe-4000] rule permit type 8914 ffff
[SwitchA-acl-ethernetframe-4000] quit
# 定义名为app_c的类,其下各规则间的关系为逻辑或,并定义其匹配ACL 4000。
[SwitchA] traffic classifier app_c operator or
[SwitchA-classifier-app_c] if-match acl 4000
[SwitchA-classifier-app_c] quit
# 定义名为app_b的流行为,并配置标记报文的802.1p优先级为3。
[SwitchA] traffic behavior app_b
[SwitchA-behavior-app_b] remark dot1p 3
[SwitchA-behavior-app_b] quit
# 定义名为plcy的策略,为类app_c指定采用的流行为是app_b,并指定该策略为DCBX模式。
[SwitchA-qospolicy-plcy] classifier app_c behavior app_b mode dcbx
[SwitchA-qospolicy-plcy] quit
# 在接口GigabitEthernet1/0/1的出方向上应用策略plcy。
[SwitchA] interface gigabitethernet 1/0/1
[SwitchA-GigabitEthernet1/0/1] qos apply policy plcy outbound
[SwitchA-GigabitEthernet1/0/1] quit
# 在报文出方向上配置802.1p优先级3到本地优先级3的映射(这是缺省的映射关系,用户可根据实际情况自行规划映射关系)。
[SwitchA] qos map-table outbound dot1p-lp
[SwitchA-maptbl-out-dot1p-lp] import 3 export 3
[SwitchA-maptbl-out-dot1p-lp] quit
# 在接口GigabitEthernet1/0/1上使能WRR队列,并按照每次轮询可发送的字节数进行计算,同时配置端口队列3采用严格优先级调度算法。
[SwitchA] interface gigabitethernet 1/0/1
[SwitchA-GigabitEthernet1/0/1] qos wrr byte-count
[SwitchA-GigabitEthernet1/0/1] qos wrr 3 group sp
# 在接口GigabitEthernet1/0/1上配置PFC功能的开启模式为自动协商模式,并对802.1p优先级3开启PFC功能。
[SwitchA-GigabitEthernet1/0/1] priority-flow-control auto
[SwitchA-GigabitEthernet1/0/1] priority-flow-control no-drop dot1p 3
通过DC server上服务器网卡对应的软件设置界面查看DC server与Switch A间的数据交互结果。以DC server上安装Qlogic网卡为例,查看到的数据交互结果如下:
------------------------------------------------------
DCBX Parameters Details for CNA Instance 0 - QLE8142
------------------------------------------------------
Mon May 17 10:00:50 2010
DCBX TLV (Type-Length-Value) Data
=================================
DCBX Parameter Type and Length
DCBX Parameter Length: 13
DCBX Parameter Type: 2
DCBX Parameter Information
Parameter Type: Current
Pad Byte Present: Yes
DCBX Parameter Valid: Yes
Reserved: 0
DCBX Parameter Data
Priority Group ID of Priority 1: 0
Priority Group ID of Priority 0: 2
Priority Group ID of Priority 3: 15
Priority Group ID of Priority 2: 1
Priority Group ID of Priority 5: 5
Priority Group ID of Priority 4: 4
Priority Group ID of Priority 7: 7
Priority Group ID of Priority 6: 6
Priority Group 0 Percentage: 2
Priority Group 1 Percentage: 4
Priority Group 2 Percentage: 6
Priority Group 3 Percentage: 0
Priority Group 4 Percentage: 10
Priority Group 5 Percentage: 18
Priority Group 6 Percentage: 27
Priority Group 7 Percentage: 31
Number of Traffic Classes Supported: 8
DCBX Parameter Information
Parameter Type: Remote
Pad Byte Present: Yes
DCBX Parameter Valid: Yes
Reserved: 0
DCBX Parameter Data
Priority Group ID of Priority 1: 0
Priority Group ID of Priority 0: 2
Priority Group ID of Priority 3: 15
Priority Group ID of Priority 2: 1
Priority Group ID of Priority 5: 5
Priority Group ID of Priority 4: 4
Priority Group ID of Priority 7: 7
Priority Group ID of Priority 6: 6
Priority Group 0 Percentage: 2
Priority Group 1 Percentage: 4
Priority Group 2 Percentage: 6
Priority Group 3 Percentage: 0
Priority Group 4 Percentage: 10
Priority Group 5 Percentage: 18
Priority Group 6 Percentage: 27
Priority Group 7 Percentage: 31
Number of Traffic Classes Supported: 8
DCBX Parameter Information
Parameter Type: Local
Pad Byte Present: Yes
DCBX Parameter Valid: Yes
Reserved: 0
DCBX Parameter Data
Priority Group ID of Priority 1: 0
Priority Group ID of Priority 0: 0
Priority Group ID of Priority 3: 1
Priority Group ID of Priority 2: 0
Priority Group ID of Priority 5: 0
Priority Group ID of Priority 4: 0
Priority Group ID of Priority 7: 0
Priority Group ID of Priority 6: 0
Priority Group 0 Percentage: 50
Priority Group 1 Percentage: 50
Priority Group 2 Percentage: 0
Priority Group 3 Percentage: 0
Priority Group 4 Percentage: 0
Priority Group 5 Percentage: 0
Priority Group 6 Percentage: 0
Priority Group 7 Percentage: 0
Number of Traffic Classes Supported: 2
以上信息表明,通过与Switch A协商,DC server将对802.1p优先级为3的报文采用严格优先级调度算法进行调度(15即表示采用严格优先级调度算法)。
DCBX Parameter Type and Length
DCBX Parameter Length: 2
DCBX Parameter Type: 3
DCBX Parameter Information
Parameter Type: Current
Pad Byte Present: No
DCBX Parameter Valid: Yes
Reserved: 0
DCBX Parameter Data
PFC Enabled on Priority 0: No
PFC Enabled on Priority 1: No
PFC Enabled on Priority 2: No
PFC Enabled on Priority 3: Yes
PFC Enabled on Priority 4: No
PFC Enabled on Priority 5: No
PFC Enabled on Priority 6: No
PFC Enabled on Priority 7: No
Number of Traffic Classes Supported: 6
DCBX Parameter Information
Parameter Type: Remote
Pad Byte Present: No
DCBX Parameter Valid: Yes
Reserved: 0
DCBX Parameter Data
PFC Enabled on Priority 0: No
PFC Enabled on Priority 1: No
PFC Enabled on Priority 2: No
PFC Enabled on Priority 3: Yes
PFC Enabled on Priority 4: No
PFC Enabled on Priority 5: No
PFC Enabled on Priority 6: No
PFC Enabled on Priority 7: No
Number of Traffic Classes Supported: 6
DCBX Parameter Information
Parameter Type: Local
Pad Byte Present: No
DCBX Parameter Valid: Yes
Reserved: 0
DCBX Parameter Data
PFC Enabled on Priority 0: No
PFC Enabled on Priority 1: No
PFC Enabled on Priority 2: No
PFC Enabled on Priority 3: Yes
PFC Enabled on Priority 4: No
PFC Enabled on Priority 5: No
PFC Enabled on Priority 6: No
PFC Enabled on Priority 7: No
Number of Traffic Classes Supported: 1
以上信息表明,通过与Switch A协商,DC server将对802.1p优先级为3的报文进行流量控制。
不同款型规格的资料略有差异, 详细信息请向具体销售和400咨询。H3C保留在没有任何通知或提示的情况下对资料内容进行修改的权利!