• 产品与解决方案
  • 行业解决方案
  • 服务
  • 支持
  • 合作伙伴
  • 关于我们

04-二层技术-以太网交换配置指导

目录

06-LLDP配置

本章节下载 06-LLDP配置  (577.08 KB)

06-LLDP配置


1 LLDP

1.1  LLDP简介

LLDP(Link Layer Discovery Protocol,链路层发现协议)提供了一种标准的链路层发现方式,使不同厂商的设备能够在网络中相互发现并交互各自的系统及配置信息。LLDP将本端设备的信息(包括主要能力、管理地址、设备标识、接口标识等)封装在LLDPDU(Link Layer Discovery Protocol Data Unit,链路层发现协议数据单元)中发布给与自己直连的邻居,邻居收到这些信息后将其以标准MIB的形式保存起来,以供网络管理系统查询及判断链路的通信状况。

1.1.1  LLDP代理和桥模式

LLDP代理是LLDP协议运行实体的一个抽象映射。一个接口下,可以运行多个LLDP代理。目前LLDP定义的代理类型包括:

Nearest Bridge:最近桥代理。

Nearest non-TPMR Bridge:最近非TPMR桥代理。其中TPMR(Two-Port MAC Relay,双端口MAC中继),是一种只有两个可供外部访问桥端口的桥,支持MAC桥的功能子集。TPMR对于所有基于帧的介质无关协议都是透明的,但如下协议除外:以TPMR为目的地的协议、以保留MAC地址为目的地址但TPMR定义为不予转发的协议。

Nearest Customer Bridge:最近客户桥代理。

LLDP在相邻的代理之间进行协议报文交互,并基于代理创建及维护邻居信息。LLDP不同类型的代理邻居关系如图1-1所示。

图1-1 LLDP邻居关系示意图

 

其中,CB(Customer Bridge,客户桥)和SB(Service Bridge,服务桥)表示LLDP的两种桥模式。

·     LLDP工作于客户桥模式时,设备可支持最近桥代理、最近非TPMR桥代理和最近客户桥代理,即设备对报文目的MAC地址为上述代理的MAC地址的LLDP报文进行处理,对报文目的MAC地址为其他MAC地址的LLDP报文进行VLAN内透传。

·     LLDP工作于服务桥模式时,设备可支持最近桥代理和最近非TPMR桥代理,即设备对报文目的MAC地址为上述代理的MAC地址的LLDP报文进行处理,对报文目的MAC地址为其他MAC地址的LLDP报文进行VLAN内透传。

1.1.2  LLDP报文

封装LLDPDU的报文称为LLDP报文,其封装格式有两种:Ethernet II和SNAP(Subnetwork Access Protocol,子网访问协议)。

1. Ethernet II格式封装的LLDP报文

图1-2 Ethernet II格式封装的LLDP报文

 

图1-2所示,Ethernet II格式封装的LLDP报文包含如下字段:

·     Destination MAC address:目的MAC地址。为区分同一接口下不同类型代理发送及接收的LLDP报文,LLDP协议规定了不同的组播MAC地址作为不同类型代理的LLDP报文的目的MAC地址。

¡     最近桥代理类型的LLDP报文使用组播MAC地址0x0180-c200-000e。

¡     最近客户桥代理类型的LLDP报文使用组播MAC地址0x0180-c200-0000。

¡     最近非TPMR桥代理类型的LLDP报文使用组播MAC地址0x0180-c200-0003。

·     Source MAC address:源MAC地址,为端口MAC地址。

·     Type:报文类型,为0x88CC。

·     Data:数据内容,为LLDPDU。

·     FCS:帧检验序列,用来对报文进行校验。

2. SNAP格式封装的LLDP报文

图1-3 SNAP格式封装的LLDP报文

 

图1-3所示,SNAP格式封装的LLDP报文包含如下字段:

·     Destination MAC address:目的MAC地址,与Ethernet II格式封装的LLDP报文目的MAC地址相同。

·     Source MAC address:源MAC地址,为端口MAC地址。

·     Type:报文类型,为0xAAAA-0300-0000-88CC。

·     Data:数据内容,为LLDPDU。

·     FCS:帧检验序列,用来对报文进行校验。

1.1.3  LLDPDU

LLDPDU是封装在LLDP报文数据部分的数据单元。在组成LLDPDU之前,设备先将本地信息封装成TLV格式,再由若干个TLV组合成一个LLDPDU封装在LLDP报文的数据部分进行传送。

图1-4 LLDPDU的封装格式

 

图1-4所示,蓝色的Chassis ID TLV、Port ID TLV、Time To Live TLV是每个LLDPDU都必须携带的,其余的TLV则为可选携带。每个LLDPDU最多可携带32种TLV。

1.1.4  TLV

TLV是组成LLDPDU的单元,每个TLV都代表一个信息。LLDP可以封装的TLV包括基本TLV、802.1组织定义TLV、802.3组织定义TLV和LLDP-MED(Link Layer Discovery Protocol Media Endpoint Discovery,链路层发现协议媒体终端发现) TLV。

基本TLV是网络设备管理基础的一组TLV,802.1组织定义TLV、802.3组织定义TLV和LLDP-MED TLV则是由标准组织或其他机构定义的TLV,用于增强对网络设备的管理,可根据实际需要选择是否在LLDPDU中发送。

1. 基本TLV

在基本TLV中,有几种TLV对于实现LLDP功能来说是必选的,即必须在LLDPDU中发布,如表1-1所示。

表1-1 基本TLV

TLV名称

说明

是否必须发布

Chassis ID

发送设备的桥MAC地址

Port ID

标识LLDPDU发送端的端口。如果LLDPDU中携带有LLDP-MED TLV,其内容为端口的MAC地址;否则,其内容为端口的名称

Time To Live

本设备信息在邻居设备上的存活时间

End of LLDPDU

LLDPDU的结束标识,是LLDPDU的最后一个TLV

Port Description

端口的描述

System Name

设备的名称

System Description

系统的描述

System Capabilities

系统的主要功能以及已开启的功能项

Management Address

管理地址,以及该地址所对应的接口号和OID(Object Identifier,对象标识符)

 

2. 802.1组织定义TLV

IEEE 802.1组织定义TLV的内容如表1-2所示。

目前,H3C设备不支持发送Protocol Identity TLV和VID Usage Digest TLV,但可以接收这两种类型的TLV。

三层以太网接口仅支持Link Aggregation TLV。

表1-2 IEEE 802.1组织定义的TLV

TLV名称

说明

Port VLAN ID(PVID)

端口PVID

Port and protocol VLAN ID(PPVID)

端口协议VLAN ID

VLAN Name

端口所属VLAN的名称

Protocol Identity

端口所支持的协议类型

DCBX

数据中心桥能力交换协议(Data Center Bridging Exchange Protocol)

EVB模块

(暂不支持)边缘虚拟桥接(Edge Virtual Bridging)模块,具体包括EVB TLV和CDCP(S-Channel Discovery and Configuration Protocol,S通道发现和配置协议) TLV这两种TLV

Link Aggregation

端口是否支持链路聚合以及是否已开启链路聚合

Management VID

管理VLAN

VID Usage Digest

包含VLAN ID使用摘要的数据

ETS Configuration

增强传输选择(Enhanced Transmission Selection)配置

ETS Recommendation

增强传输选择推荐

PFC

基于优先级的流量控制(Priority-based Flow Control)

APP

应用协议(Application Protocol)

QCN

(暂不支持)量化拥塞通知(Quantized Congestion Notification)

 

3. 802.3组织定义TLV

IEEE 802.3组织定义TLV的内容如表1-3所示。

Power Stateful Control TLV是在IEEE P802.3at D1.0版本中被定义的,之后的版本不再支持该TLV。H3C设备只有在收到Power Stateful Control TLV后才会发送该类型的TLV。

表1-3 IEEE 802.3组织定义的TLV

TLV名称

说明

MAC/PHY Configuration/Status

(暂不支持)端口支持的速率和双工状态、是否支持端口速率自动协商、是否已开启自动协商功能以及当前的速率和双工状态

Power Via MDI

(暂不支持)端口的供电能力

Maximum Frame Size

(暂不支持)端口支持的最大帧长度

Power Stateful Control

(暂不支持)端口的电源状态控制,包括PSE/PD所采用的电源类型、供/受电的优先级以及供/受电的功率

Energy-Efficient Ethernet

(暂不支持)节能以太网

 

4. LLDP-MED TLV

LLDP-MED TLV为VoIP(Voice over IP,在IP网络上传送语音)提供了许多高级的应用,包括基本配置、网络策略配置、地址信息以及目录管理等,满足了语音设备的不同生产厂商在投资收效、易部署、易管理等方面的要求,并解决了在以太网中部署语音设备的问题,为语音设备的生产者、销售者以及使用者提供了便利。LLDP-MED TLV的内容如表1-4所示。

如果禁止发布802.3的组织定义的MAC/PHY Configuration/Status TLV,则LLDP-MED TLV将不会被发布,不论其是否被允许发布;如果禁止发布LLDP-MED Capabilities TLV,则其他LLDP-MED TLV将不会被发布,不论其是否被允许发布。

表1-4 LLDP-MED TLV

TLV名称

说明

LLDP-MED Capabilities

网络设备所支持的LLDP-MED TLV类型

Network Policy

网络设备或终端设备上端口的VLAN类型、VLAN ID以及二三层与具体应用类型相关的优先级等

Extended Power-via-MDI

网络设备或终端设备的扩展供电能力,对Power Via MDI TLV进行了扩展

Hardware Revision

终端设备的硬件版本

Firmware Revision

终端设备的固件版本

Software Revision

终端设备的软件版本

Serial Number

终端设备的序列号

Manufacturer Name

终端设备的制造厂商名称

Model Name

终端设备的模块名称

Asset ID

终端设备的资产标识符,以便目录管理和资产跟踪

Location Identification

网络设备的位置标识信息,以供终端设备在基于位置的应用中使用

 

1.1.5  管理地址

管理地址是供网络管理系统标识网络设备并进行管理的地址。管理地址可以明确地标识一台设备,从而有利于网络拓扑的绘制,便于网络管理。管理地址被封装在LLDP报文的Management Address TLV中向外发布。

1.1.6  LLDP的工作模式

在指定类型的LLDP代理下,LLDP有以下四种工作模式:

·     TxRx:既发送也接收LLDP报文。

·     Tx:只发送不接收LLDP报文。

·     Rx:只接收不发送LLDP报文。

·     Disable:既不发送也不接收LLDP报文。

当端口的LLDP工作模式发生变化时,端口将对协议状态机进行初始化操作。为了避免端口工作模式频繁改变而导致端口不断执行初始化操作,可配置端口初始化延迟时间,当端口工作模式改变时延迟一段时间再执行初始化操作。

1.1.7  LLDP报文的收发工作机制

1. LLDP报文的发送机制

在指定类型LLDP代理下,当端口工作在TxRx或Tx模式时,设备会周期性地向邻居设备发送LLDP报文。如果设备的本地配置发生变化则立即发送LLDP报文,以将本地信息的变化情况尽快通知给邻居设备。但为了防止本地信息的频繁变化而引起LLDP报文的大量发送,使用令牌桶机制对LLDP报文发送作限速处理。有关令牌桶的详细介绍,请参见“ACL和QoS配置指导”中的“流量监管、流量整形和接口限速”。

当设备的工作模式由Disable/Rx切换为TxRx/Tx,或者发现了新的邻居设备(即收到一个新的LLDP报文且本地尚未保存发送该报文设备的信息)时,该设备将自动启用快速发送机制,即将LLDP报文的发送周期设置为快速发送周期,并连续发送指定数量的LLDP报文后再恢复为正常的发送周期。

2. LLDP报文的接收机制

当端口工作在TxRx或Rx模式时,设备会对收到的LLDP报文及其携带的TLV进行有效性检查,通过检查后再将邻居信息保存到本地,并根据Time To Live TLV中TTL(Time to Live,生存时间)的值来设置邻居信息在本地设备上的老化时间,若该值为零,则立刻老化该邻居信息。

1.1.8  协议规范

与LLDP相关的协议规范有:

·     IEEE 802.1AB-2005:Station and Media Access Control Connectivity Discovery

·     IEEE 802.1AB 2009:Station and Media Access Control Connectivity Discovery

·     ANSI/TIA-1057:Link Layer Discovery Protocol for Media Endpoint Devices

·     IEEE Std 802.1Qaz-2011:Media Access Control (MAC) Bridges and Virtual Bridged Local Area Networks-Amendment 18: Enhanced Transmission Selection for Bandwidth Sharing Between Traffic Classes

1.2  LLDP配置限制和指导

表1-5所示,LLDP以下配置任务支持在多个接口视图配置。

表1-5 LLDP配置任务对应的接口视图

配置任务

支持配置的接口视图

开启LLDP功能

支持配置的接口视图:

·     二层以太网接口视图

·     三层以太网接口视图

·     管理以太网接口视图

·     二层聚合接口视图

·     三层聚合接口视图

配置LLDP工作模式

配置允许发布的TLV类型

配置管理地址及其封装格式

配置LLDP报文的封装格式

配置轮询功能

配置LLDP Trap功能

 

1.3  LLDP配置任务简介

LLDP配置任务如下:

(1)     开启LLDP功能

(2)     配置LLDP工作模式

(3)     (可选)配置接口初始化延迟时间

(4)     (可选)配置LLDP报文相关参数

¡     配置允许发布的TLV类型

¡     配置管理地址及其封装格式

¡     配置LLDP报文的封装格式

¡     调整LLDP报文发送参数

(5)     (可选)配置轮询功能

(6)     (可选)关闭LLDP的PVID不一致检查功能

(7)     (可选)配置LLDP Trap和LLDP-MED Trap功能

(8)     (可选)配置地址借用功能

¡     配置LLDP报文的源MAC地址为指定的MAC地址

¡     配置设备支持通过LLDP生成对端管理地址的ARP或ND表项

1.4  开启LLDP功能

1. 配置限制和指导

只有当全局和接口上都开启了LLDP功能后,该功能才会生效。

2. 配置步骤

(1)     进入系统视图。

system-view

(2)     全局开启LLDP功能。

lldp global enable

缺省情况下,LLDP功能全局处于关闭状态。

(3)     进入接口视图。

interface interface-type interface-number

(4)     在接口上开启LLDP功能。

lldp enable

缺省情况下,LLDP功能在接口上处于开启状态。

1.5  配置LLDP工作模式

(1)     进入系统视图。

system-view

(2)     进入接口视图。

interface interface-type interface-number

(3)     配置LLDP的工作模式。

¡     在二/三层以太网接口视图或管理以太网接口视图下:

lldp [ agent { nearest-customer | nearest-nontpmr } ] admin-status { disable | rx | tx | txrx }

以太网接口视图下,未指定agent参数时,表示配置最近桥代理的工作模式。

¡     在二/三层聚合接口视图下:

lldp agent { nearest-customer | nearest-nontpmr } admin-status { disable | rx | tx | txrx }

聚合接口视图下,只支持配置最近客户桥代理和最近非TPMR代理的工作模式。

缺省情况下,最近桥代理类型的LLDP工作模式为TxRx,最近客户桥代理和最近非TPMR桥代理类型的LLDP工作模式为Disable。

1.6  配置接口初始化延迟时间

1. 功能简介

当接口上LLDP的工作模式发生变化时,接口将对协议状态机进行初始化操作,通过配置接口初始化的延迟时间,可以避免由于工作模式频繁改变而导致接口不断地进行初始化。

2. 配置步骤

(1)     进入系统视图。

system-view

(2)     配置接口初始化的延迟时间。

lldp timer reinit-delay delay

缺省情况下,接口初始化的延迟时间为2秒。

1.7  配置允许发布的TLV类型

(1)     进入系统视图。

system-view

(2)     进入接口视图。

interface interface-type interface-number

(3)     配置接口上允许发布的TLV类型。

¡     在二层以太网接口视图下:

lldp tlv-enable { basic-tlv { all | port-description | system-capability | system-description | system-name | management-address-tlv [ ipv6 ] [ ip-address | interface loopback interface-number ] } | dot1-tlv { all | port-vlan-id | link-aggregation | dcbx | protocol-vlan-id [ vlan-id ] | vlan-name [ vlan-id ] | management-vid [ mvlan-id ] } | dot3-tlv { all | mac-physic | max-frame-size | power } | med-tlv { all | capability | inventory | network-policy [ vlan-id ] | power-over-ethernet | location-id { civic-address device-type country-code { ca-type ca-value }&<1-10> | elin-address tel-number } } }

缺省情况下,最近桥代理允许发布除DCBX TLV、Location-id TLV、Port And Protocol VLAN ID TLV、VLAN Name TLV、Management VLAN ID TLV之外所有类型的TLV。

lldp agent nearest-nontpmr tlv-enable { basic-tlv { all | port-description | system-capability | system-description | system-name | management-address-tlv [ ipv6 ] [ ip-address ] } | dot1-tlv { all | port-vlan-id | link-aggregation } }

lldp tlv-enable dot1-tlv { protocol-vlan-id [ vlan-id ] | vlan-name [ vlan-id ] | management-vid [ mvlan-id ] }

缺省情况下,最近非TPMR桥代理不发布任何TLV。

lldp agent nearest-customer tlv-enable { basic-tlv { all | port-description | system-capability | system-description | system-name | management-address-tlv [ ipv6 ] [ ip-address ] } | dot1-tlv { all | port-vlan-id | link-aggregation } }

lldp tlv-enable dot1-tlv { protocol-vlan-id [ vlan-id ] | vlan-name [ vlan-id ] | management-vid [ mvlan-id ] }

缺省情况下,最近客户桥代理允许发布基本TLV和IEEE 802.1组织定义TLV。

¡     在三层以太网接口视图下:

lldp tlv-enable { basic-tlv { all | port-description | system-capability | system-description | system-name | management-address-tlv [ ipv6 ] [ ip-address | interface loopback interface-number ] } | dot1-tlv { all | link-aggregation } | dot3-tlv { all | mac-physic | max-frame-size | power } | med-tlv { all | capability | inventory | power-over-ethernet | location-id { civic-address device-type country-code { ca-type ca-value }&<1-10> | elin-address tel-number } } }

缺省情况下,最近桥代理允许发布除Network Policy TLV之外所有类型的TLV,其中IEEE 802.1组织定义的TLV只支持Link Aggregation TLV。

lldp agent { nearest-nontpmr | nearest-customer } tlv-enable { basic-tlv { all | port-description | system-capability | system-description | system-name | management-address-tlv [ ipv6 ] [ ip-address ] } | dot1-tlv { all | link-aggregation } }

缺省情况下,最近非TPMR桥代理不发布任何TLV;最近客户桥代理允许发布基本TLV和IEEE 802.1组织定义TLV,其中IEEE 802.1组织定义的TLV只支持Link Aggregation TLV。

¡     在管理以太网接口视图下:

lldp tlv-enable { basic-tlv { all | port-description | system-capability | system-description | system-name | management-address-tlv [ ipv6 ] [ ip-address ] } | dot1-tlv { all | link-aggregation } | dot3-tlv { all | mac-physic | max-frame-size | power } | med-tlv { all | capability | inventory | power-over-ethernet | location-id { civic-address device-type country-code { ca-type ca-value }&<1-10> | elin-address tel-number } } }

缺省情况下,最近桥代理允许发布除Network Policy TLV之外所有类型的TLV,其中IEEE 802.1组织定义的TLV只支持Link Aggregation TLV。

lldp agent { nearest-nontpmr | nearest-customer } tlv-enable { basic-tlv { all | port-description | system-capability | system-description | system-name | management-address-tlv [ ipv6 ] [ ip-address ] } | dot1-tlv { all | link-aggregation } }

缺省情况下,最近非TPMR桥代理不发布任何TLV;最近客户桥代理允许发布基本TLV和IEEE 802.1组织定义TLV,其中IEEE 802.1组织定义的TLV只支持Link Aggregation TLV。

¡     在二层聚合接口视图下:

lldp tlv-enable dot1-tlv { protocol-vlan-id [ vlan-id ] | vlan-name [ vlan-id ] | management-vid [ mvlan-id ]

lldp agent nearest-nontpmr tlv-enable { basic-tlv { all | management-address-tlv [ ipv6 ] [ ip-address ] | port-description | system-capability | system-description | system-name } | dot1-tlv { all | port-vlan-id } }

缺省情况下,最近非TPMR桥代理不发布任何TLV。

lldp agent nearest-customer tlv-enable { basic-tlv { all | management-address-tlv [ ipv6 ] [ ip-address ] | port-description | system-capability | system-description | system-name } | dot1-tlv { all | port-vlan-id } }

缺省情况下,最近客户桥代理允许发布基本TLV和IEEE 802.1组织定义TLV,其中IEEE 802.1组织定义的TLV只支持Port And Protocol VLAN ID TLV、VLAN Name TLV及Management VLAN ID TLV。

不存在最近桥代理。

¡     在三层聚合接口视图下:

lldp agent { nearest-customer | nearest-nontpmr } tlv-enable basic-tlv { all | management-address-tlv [ ipv6 ] [ ip-address ] | port-description | system-capability | system-description | system-name }

lldp agent nearest-nontpmr tlv-enable basic-tlv management-address-tlv [ ipv6 ] [ ip-address | interface loopback interface-number ]

缺省情况下,最近非TPMR桥代理不发布任何TLV;最近客户桥代理只允许发布基本TLV。

不存在最近桥代理。

1.8  配置管理地址及其封装格式

1. 功能简介

管理地址被封装在Management Address TLV中向外发布,封装格式可以是数字或字符串。如果邻居将管理地址以字符串格式封装在TLV中,用户可在本地设备上也将封装格式改为字符串,以保证与邻居设备的正常通信。

可以在全局或接口上配置允许在LLDP报文中发布管理地址并配置所发布的管理地址:全局的配置对所有接口都有效,而接口上的配置只对当接口有效。对于一个接口来说,优先采用该接口上的配置,只有该接口上未进行配置时,才采用全局的配置。当全局和接口下都未配置时,会采用接口下的缺省配置。

2. 配置步骤

(1)     进入系统视图。

system-view

(2)     配置全局允许在LLDP报文中发布管理地址并配置所发布的管理地址。

lldp [ agent { nearest-customer | nearest-nontpmr } ] global tlv-enable basic-tlv management-address-tlv [ ipv6 ] { ip-address | interface loopback interface-number | interface vlan-interface interface-number }

缺省情况下,全局不允许在LLDP报文中发布管理地址TLV。

(3)     进入接口视图。

interface interface-type interface-number

(4)     允许在LLDP报文中发布管理地址并配置所发布的管理地址。

¡     在二层以太网接口视图/管理以太网接口视图下:

lldp tlv-enable basic-tlv management-address-tlv [ ipv6 ] [ ip-address | interface loopback interface-number ]

lldp agent { nearest-customer | nearest-nontpmr } tlv-enable basic-tlv management-address-tlv [ ipv6 ] [ ip-address ]

¡     在三层以太网接口视图下:

lldp tlv-enable basic-tlv management-address-tlv [ ipv6 ] [ ip-address | interface loopback interface-number ]

lldp agent { nearest-customer | nearest-nontpmr } tlv-enable basic-tlv management-address-tlv [ ipv6 ] [ ip-address ]

¡     在二层聚合接口视图下:

lldp agent { nearest-customer | nearest-nontpmr } tlv-enable basic-tlv management-address-tlv [ ipv6 ] [ ip-address ]

¡     在三层聚合接口视图下:

lldp agent nearest-customer tlv-enable basic-tlv management-address-tlv [ ipv6 ] [ ip-address ]

lldp agent nearest-nontpmr tlv-enable basic-tlv management-address-tlv [ ipv6 ] [ ip-address | interface loopback interface-number ]

缺省情况下,最近桥代理和最近客户桥代理类型的LLDP允许在LLDP报文中发布管理地址,最近非TPMR桥代理类型LLDP不允许在LLDP报文中发布管理地址。

对于LLDP报文中所要发布的IPv6格式的管理地址,仅支持数字格式的封装格式。

(5)     配置管理地址在TLV中的封装格式为字符串格式。

¡     在二/三层以太网接口视图或管理以太网接口视图下:

lldp [ agent { nearest-customer | nearest-nontpmr } ] management-address-format string

¡     在二/三层聚合接口视图下:

lldp agent { nearest-customer | nearest-nontpmr } management-address-format string

缺省情况下,管理地址在TLV中的封装格式为数字格式。

1.9  配置LLDP报文的封装格式

1. 功能简介

LLDP早期版本要求只有配置为相同的封装格式才能处理该格式的LLDP报文,因此为了确保与运行LLDP早期版本的设备成功通信,必须配置为与之相同的封装格式。

2. 配置步骤

(1)     进入系统视图。

system-view

(2)     进入接口视图。

interface interface-type interface-number

(3)     配置LLDP报文的封装格式为SNAP格式。

¡     在二/三层以太网接口视图或管理以太网接口视图下:

lldp [ agent { nearest-customer | nearest-nontpmr } ] encapsulation snap

¡     在二/三层聚合接口视图下:

lldp agent { nearest-customer | nearest-nontpmr } encapsulation snap

缺省情况下,LLDP报文的封装格式为Ethernet II格式。

1.10  调整LLDP报文发送参数

1. 功能简介

LLDP报文所携Time To Live TLV中TTL的值用来设置邻居信息在本地设备上的老化时间,由于TTL=Min(65535,(TTL乘数×LLDP报文的发送时间间隔+1)),即取65535与(TTL乘数×LLDP报文的发送时间间隔+1)中的最小值,因此通过调整TTL乘数可以控制本设备信息在邻居设备上的老化时间。

2. 配置步骤

(1)     进入系统视图。

system-view

(2)     配置TTL乘数。

lldp hold-multiplier value

缺省情况下,TTL乘数为4。

(3)     配置LLDP报文的发送时间间隔。

lldp timer tx-interval interval

缺省情况下,LLDP报文的发送时间间隔为30秒。

(4)     配置LLDP报文发包限速的令牌桶大小。

lldp max-credit credit-value

缺省情况下,发包限速令牌桶大小为5。

(5)     配置快速发送LLDP报文的个数。

lldp fast-count count

缺省情况下,快速发送LLDP报文的个数为4个。

(6)     配置快速发送LLDP报文的时间间隔。

lldp timer fast-interval interval

缺省情况下,快速发送LLDP报文的发送时间间隔为1秒。

1.11  配置轮询功能

1. 功能简介

在开启了轮询功能后,LLDP将以轮询间隔周期性地查询本设备的相关配置是否发生改变,如果发生改变将触发LLDP报文的发送,以将本设备的配置变化迅速通知给其他设备。

2. 配置步骤

(1)     进入系统视图。

system-view

(2)     进入接口视图。

interface interface-type interface-number

(3)     开启轮询功能并配置轮询间隔。

¡     在二/三层以太网接口视图或管理以太网接口视图下:

lldp [ agent { nearest-customer | nearest-nontpmr } ] check-change-interval interval

¡     在二/三层聚合接口视图下:

lldp agent { nearest-customer | nearest-nontpmr } check-change-interval interval

缺省情况下,轮询功能处于关闭状态。

1.12  关闭LLDP的PVID不一致检查功能

1. 功能简介

一般组网情况下,要求链路两端的PVID保持一致。设备会对收到的LLDP报文中的PVID TLV进行检查,如果发现报文中的PVID与本端PVID不一致,则认为网络中可能存在错误配置,LLDP会打印日志信息,提示用户。

但在一些特殊情况下,可以允许链路两端的PVID配置不一致。例如为了简化接入设备的配置,各接入设备的上行口采用相同的PVID,而对端汇聚设备的各接口采用不同的PVID,从而使各接入设备的流量进入不同VLAN。此时,可以关闭LLDP的PVID不一致性检查功能。

2. 配置步骤

(1)     进入系统视图。

system-view

(2)     关闭LLDP的PVID不一致检查功能。

lldp ignore-pvid-inconsistency

缺省情况下, LLDP的PVID不一致检查功能处于开启状态。

1.13  配置LLDP Trap和LLDP-MED Trap功能

1. 功能简介

开启LLDP Trap或LLDP-MED Trap功能后,设备可以通过向网管系统发送Trap信息以通告如发现新的LLDP邻居或LLDP-MED邻居、与原来邻居的通信链路发生故障等重要事件。

LLDP Trap和LLDP-MED Trap信息的发送时间间隔是指设备向网管系统发送Trap信息的最小时间间隔,通过调整该时间间隔,可以避免由于邻居信息频繁变化而导致Trap信息的频繁发送。

2. 配置步骤

(1)     进入系统视图。

system-view

(2)     进入接口视图。

interface interface-type interface-number

(3)     开启LLDP Trap功能。

¡     在二/三层以太网接口视图或管理以太网接口视图下:

lldp [ agent { nearest-customer | nearest-nontpmr } ] notification remote-change enable

¡     在二/三层聚合接口视图下:

lldp agent { nearest-customer | nearest-nontpmr } notification remote-change enable

缺省情况下,LLDP Trap功能处于关闭状态。

(4)     在二/三层以太网接口视图或管理以太网接口视图下开启LLDP-MED Trap功能。

lldp notification med-topology-change enable

缺省情况下,LLDP-MED Trap功能处于关闭状态。

(5)     退回系统视图。

quit

(6)     (可选)配置LLDP Trap和LLDP-MED Trap信息的发送时间间隔。

lldp timer notification-interval interval

缺省情况下,LLDP Trap和LLDP-MED Trap信息的发送时间间隔均为30秒。

1.14  配置地址借用功能

1.14.1  功能简介

在DCN(Data Communication Network,数据通信网)组网环境中,DCN功能需要学习对端接口的MAC地址,以便对设备进行远程管理和控制。通过配置本功能,用户可以通过LLDP协议实现,当收到对端的LLDP报文时,设备可以根据LLDP报文的Management Address TLV生成对端设备管理地址的ARP或者ND表项,从而学习到对端接口的MAC地址。有关DCN功能的详细介绍,请参见“三层技术-IP路由配置指导”中的“DCN”。

1.14.2  配置LLDP报文的源MAC地址为指定的MAC地址

1. 功能简介

本功能用来配合设备支持通过LLDP生成对端管理地址的ARP或ND表项功能使用,以保证设备发送报文的源MAC地址为VLAN接口、当前三层以太网接口或当前三层聚合接口的MAC地址,而不是当前接口的MAC地址,确保对端学习到正确的ARP/ND表项。

在二层以太网接口下配置本功能后,当前接口发送的LLDP报文源MAC地址为本功能指定的VLAN ID对应的VLAN接口的MAC地址。以下情况时,LLDP报文源MAC地址为当前二层以太网接口的MAC地址:

·     指定的VLAN未创建或对应的VLAN接口未创建。

·     指定的VLAN ID对应的VLAN接口物理状态为DOWN。

在三层以太网接口视图/三层聚合接口视图下配置本功能时,无论是否指定vlan vlan-id参数,LLDP报文源MAC地址为当前接口的MAC地址。

2. 配置步骤

(1)     进入系统视图。

system-view

(2)     进入二层以太网接口视图/三层以太网接口视图/三层聚合接口视图。

interface interface-type interface-number

(3)     配置LLDP报文源MAC地址为VLAN接口或当前三层以太网接口/三层聚合接口的MAC地址。

lldp source-mac vlan vlan-id

缺省情况下,LLDP报文源MAC地址为当前接口的MAC地址。

1.14.3  配置设备支持通过LLDP生成对端管理地址的ARP或ND表项

1. 功能简介

配置本特性后,当接口收到携带IPv4格式Management Address TLV的LLDP报文后,会生成该报文携带的管理地址与报文源MAC地址组成的ARP表项;当接口收到携带IPv6格式Management Address TLV的LLDP报文后,会生成该报文携带的管理地址与报文源MAC地址组成的ND表项。

在二层以太网接口下配置本功能后,生成的表项中的出接口为当前二层以太网接口,表项所属的VLAN为本命令指定的VLAN。以下情况时,无法生成ARP表项及ND表项:

·     指定的VLAN未创建或对应的VLAN接口未创建。

·     指定的VLAN ID对应的VLAN接口物理状态为DOWN。

在三层以太网接口视图/三层聚合接口视图下配置本功能时,无论是否指定vlan vlan-id参数,生成的表项中的接口均为主接口。

2. 配置限制和指导

本功能需要与配置LLDP报文的源MAC地址为指定的MAC地址功能配合使用,使设备发送报文的源MAC地址为VLAN接口、当前三层以太网接口或当前三层聚合接口的MAC地址,而不是当前接口的MAC地址,确保LLDP邻居能学习到正确的ARP/ND表项。

3. 配置步骤

(1)     进入系统视图。

system-view

(2)     进入二层以太网接口视图/三层以太网接口视图/三层聚合接口视图。

interface interface-type interface-number

(3)     配置接口收到携带Management Address TLV的LLDP报文后生成ARP表项或ND表项。

¡     在二层以太网接口视图下:

lldp management-address { arp-learning | nd-learning } vlan vlan-id

¡     在三层以太网接口视图下:

lldp management-address { arp-learning | nd-learning } [ vlan vlan-id ]

¡     在三层聚合接口视图下:

lldp agent nearest-nontpmr management-address { arp-learning | nd-learning }  [ vlan vlan-id ]

缺省情况下,接口收到携带Management Address TLV的LLDP报文后不生成ARP表项和ND表项。

ARP表项和ND表项的生成互不影响,可同时配置。

对于二层以太网接口,不允许多个端口关联同一个VLAN,否则生成的ARP表项或ND表项会相互覆盖。

1.15  LLDP显示和维护

可在任意视图下执行以下命令:

·     显示LLDP本地信息。

display lldp local-information [ global | interface interface-type interface-number ]

·     显示由邻居设备发来的LLDP信息。

display lldp neighbor-information [ [ [ interface interface-type interface-number ] [ agent { nearest-bridge | nearest-customer | nearest-nontpmr } ] [ verbose ] ] | list [ system-name system-name ] ]

·     显示接口上可发送的可选TLV信息。

display lldp tlv-config [ interface interface-type interface-number ] [ agent { nearest-bridge | nearest-customer | nearest-nontpmr } ]

·     显示LLDP的状态信息。

display lldp status [ interface interface-type interface-number ] [ agent { nearest-bridge | nearest-customer | nearest-nontpmr } ]

·     显示LLDP的统计信息。

display lldp statistics [ global | [ interface interface-type interface-number ] [ agent { nearest-bridge | nearest-customer | nearest-nontpmr } ] ]

1.16  LLDP典型配置举例

1.16.1  LLDP基本功能配置举例

1. 组网需求

·     NMS(Network Management System,网络管理系统)与Device A相连,Device A通过接口HundredGigE1/0/1和HundredGigE1/0/2分别与MED设备和Device B相连。

·     通过在Device A和Device B上配置LLDP功能,使NMS可以对Device A与MED设备之间、以及Device A与Device B之间链路的通信情况进行判断。

2. 组网图

图1-5 LLDP基本功能配置组网图

3. 配置步骤

(1)     配置Device A

# 全局开启LLDP功能。

<DeviceA> system-view

[DeviceA] lldp global enable

# 在接口HundredGigE1/0/1和HundredGigE1/0/2上分别开启LLDP功能(此步骤可省略,LLDP功能在接口上缺省开启),并配置LLDP工作模式为Rx。

[DeviceA] interface hundredgige 1/0/1

[DeviceA-HundredGigE1/0/1] lldp enable

[DeviceA-HundredGigE1/0/1] lldp admin-status rx

[DeviceA-HundredGigE1/0/1] quit

[DeviceA] interface hundredgige 1/0/2

[DeviceA-HundredGigE1/0/2] lldp enable

[DeviceA-HundredGigE1/0/2] lldp admin-status rx

[DeviceA-HundredGigE1/0/2] quit

(2)     配置Device B

# 全局开启LLDP功能。

<DeviceB> system-view

[DeviceB] lldp global enable

# 在接口HundredGigE1/0/1上开启LLDP功能(此步骤可省略,LLDP功能在接口上缺省开启),并配置LLDP工作模式为Tx。

[DeviceB] interface hundredgige 1/0/1

[DeviceB-HundredGigE1/0/1] lldp enable

[DeviceB-HundredGigE1/0/1] lldp admin-status tx

[DeviceB-HundredGigE1/0/1] quit

4. 验证配置

# 显示Device A上全局和所有接口的LLDP状态信息。

[DeviceA] display lldp status

Global status of LLDP: Enable

Bridge mode of LLDP: customer-bridge

The current number of LLDP neighbors: 2

The current number of CDP neighbors: 0

LLDP neighbor information last changed time: 0 days, 0 hours, 4 minutes, 40 seconds

Transmit interval              : 30s

Fast transmit interval         : 1s

Transmit credit max            : 5

Hold multiplier                : 4

Reinit delay                   : 2s

Trap interval                  : 30s

Fast start times               : 4

 

LLDP status information of port 1 [HundredGigE1/0/1]:

LLDP agent nearest-bridge:

Port status of LLDP            : Enable

Admin status                   : Rx_Only

Trap flag                      : No

MED trap flag                  : No

Polling interval               : 0s

Number of LLDP neighbors       : 1

Number of MED neighbors        : 1

Number of CDP neighbors        : 0

Number of sent optional TLV    : 21

Number of received unknown TLV : 0

 

LLDP agent nearest-nontpmr:

Port status of LLDP            : Enable

Admin status                   : Disable

Trap flag                      : No

MED trap flag                  : No

Polling interval               : 0s

Number of LLDP neighbors       : 0

Number of MED neighbors        : 0

Number of CDP neighbors        : 0

Number of sent optional TLV    : 1

Number of received unknown TLV : 0

 

LLDP agent nearest-customer:

Port status of LLDP            : Enable

Admin status                   : Disable

Trap flag                      : No

MED trap flag                  : No

Polling interval               : 0s

Number of LLDP neighbors       : 0

Number of MED neighbors        : 0

Number of CDP neighbors        : 0

Number of sent optional TLV    : 16

Number of received unknown TLV : 0

 

LLDP status information of port 2 [HundredGigE1/0/2]:

LLDP agent nearest-bridge:

Port status of LLDP            : Enable

Admin status                   : Rx_Only

Trap flag                      : No

MED trap flag                  : No

Polling interval               : 0s

Number of LLDP neighbors       : 1

Number of MED neighbors        : 0

Number of CDP neighbors        : 0

Number of sent optional TLV    : 21

Number of received unknown TLV : 3

 

LLDP agent nearest-nontpmr:

Port status of LLDP            : Enable

Admin status                   : Disable

Trap flag                      : No

MED trap flag                  : No

Polling interval               : 0s

Number of LLDP neighbors       : 0

Number of MED neighbors        : 0

Number of CDP neighbors        : 0

Number of sent optional TLV    : 1

Number of received unknown TLV : 0

 

LLDP agent nearest-customer:

Port status of LLDP            : Enable

Admin status                   : Disable

Trap flag                      : No

MED trap flag                  : No

Polling interval               : 0s

Number of LLDP neighbors       : 0

Number of MED neighbors        : 0

Number of CDP neighbors        : 0

Number of sent optional TLV    : 16

Number of received unknown TLV : 0

由此可见,Device A的接口HundredGigE1/0/1上连接了一个MED邻居设备,HundredGigE1/0/2上则连接了一个非MED邻居设备,且这两个接口的LLDP工作模式都为Rx,即只接收而不发送LLDP报文。

# 将Device A和Device B间的链路断掉后,再显示Device A上所有接口的LLDP状态信息。

[DeviceA] display lldp status

Global status of LLDP: Enable

The current number of LLDP neighbors: 1

The current number of CDP neighbors: 0

LLDP neighbor information last changed time: 0 days, 0 hours, 5 minutes, 20 seconds

Transmit interval              : 30s

Fast transmit interval         : 1s

Transmit credit max            : 5

Hold multiplier                : 4

Reinit delay                   : 2s

Trap interval                  : 30s

Fast start times               : 4

 

LLDP status information of port 1 [HundredGigE1/0/1]:

LLDP agent nearest-bridge:

Port status of LLDP            : Enable

Admin status                   : Rx_Only

Trap flag                      : No

MED trap flag                  : No

Polling interval               : 0s

Number of LLDP neighbors       : 1

Number of MED neighbors        : 1

Number of CDP neighbors        : 0

Number of sent optional TLV    : 0

Number of received unknown TLV : 5

 

LLDP agent nearest-nontpmr:

Port status of LLDP            : Enable

Admin status                   : Disabl

Trap flag                      : No

MED trap flag                  : No

Polling interval               : 0s

Number of LLDP neighbors       : 0

Number of MED neighbors        : 0

Number of CDP neighbors        : 0

Number of sent optional TLV    : 1

Number of received unknown TLV : 0

 

LLDP status information of port 2 [HundredGigE1/0/2]:

LLDP agent nearest-bridge:

Port status of LLDP            : Enable

Admin status                   : Rx_Only

Trap flag                      : No

MED trap flag                  : No

Polling interval               : 0s

Number of LLDP neighbors       : 0

Number of MED neighbors        : 0

Number of CDP neighbors        : 0

Number of sent optional TLV    : 0

Number of received unknown TLV : 0

 

LLDP agent nearest-nontpmr:

Port status of LLDP            : Enable

Admin status                   : Disable

Trap flag                      : No

MED trap flag                  : No

Polling interval               : 0s

Number of LLDP neighbors       : 0

Number of MED neighbors        : 0

Number of CDP neighbors        : 0

Number of sent optional TLV    : 1

Number of received unknown TLV : 0

 

LLDP agent nearest-customer:

Port status of LLDP            : Enable

Admin status                   : Disable

Trap flag                      : No

MED trap flag                  : No

Polling interval               : 0s

Number of LLDP neighbors       : 0

Number of MED neighbors        : 0

Number of CDP neighbors        : 0

Number of sent optional TLV    : 16

Number of received unknown TLV : 0

由此可见,Device A的接口HundredGigE1/0/2上已经没有任何邻居设备了。


2 配置DCBX功能

2.1  DCBX简介

DCE(Data Center Ethernet,数据中心以太网)也称为CEE(Converged Enhanced Ethernet,汇聚增强型以太网),是针对以太网在数据中心的应用,对传统以太网的增强和扩展。DCBX(Data Center Bridging Exchange Protocol,数据中心桥能力交换协议)是DCE的一个组成部分,用于DCE中各网络单元进行桥能力协商以及远程配置。

2.1.1  支持的DCE版本

目前有三个版本:预标准版1.0(DCB Capability Exchange Protocol Specification Rev 1.0)、预标准版1.01(DCB Capability Exchange Protocol Base Specification Rev 1.01)和标准版IEEE Std 802.1Qaz-2011(Media Access Control (MAC) Bridges and Virtual Bridged Local Area Networks-Amendment 18: Enhanced Transmission Selection for Bandwidth Sharing Between Traffic Classes),这三个版本之间支持自适应。

2.1.2  DCBX主要功能

DCBX的主要功能包括:

·     发现对端设备的能力,并由此决定两端设备是否要支持相应的能力。

·     发现对端设备的配置错误。

·     在对端设备接受的前提下,可以对对端设备进行配置。

说明

目前,H3C设备只支持上述三种功能中的最后一种。

 

2.1.3  DCBX应用场景

图2-1 DCBX应用场景示意图

用于数据中心网络的以太网必须是无损以太网,即网络中传输的报文不允许出现丢包,DCBX就是实现无损以太网的关键手段之一。如图2-1所示,DCBX主要应用于基于FCoE(Fibre Channel over Ethernet,基于以太网的光纤通道)的数据中心网络,一般工作在接入层交换机上,以实现交换机对服务器或存储设备网卡的控制,从而达到简化配置以及保证配置一致性的目的。作为LLDP协议的一种扩展应用,DCBX使用IEEE 802.1组织定义的TLV(即DCBX TLV)来传递各种参数信息,在预标准版1.0和预标准版1.01中使用包括APP(Application Protocol,应用协议)、ETS和PFC(Priority-based Flow Control,基于优先级的流量控制)在内的三种参数信息,在标准版中使用包括ETS Configuration(增强传输选择配置)、ETS Recommendation(增强传输选择推荐)、PFC(Priority-based Flow Control,基于优先级的流量控制)和APP(Application Protocol,应用协议)在内的四种参数信息。H3C设备只能向支持FCoE的服务器或存储设备网卡发布这些参数,而不能接受这些参数。

2.1.4  协议规范

与DCBX相关的协议规范有:

·     DCB Capability Exchange Protocol Specification Rev 1.0

·     DCB Capability Exchange Protocol Base Specification Rev 1.01

2.2  DCBX配置任务简介

DCBX配置任务如下:

(1)     开启LLDP并允许发布DCBX TLV

(2)     配置DCBX版本

(3)     配置APP参数

(4)     配置ETS参数

a.     配置802.1p优先级到本地优先级的映射

b.     配置分组WRR队列

(5)     配置PFC参数

2.3  开启LLDP并允许发布DCBX TLV

1. 配置限制和指导

在全局和接口上都开启LLDP功能并允许接口发布DCBX TLV,从而使设备可通过该接口来发布APP、ETS和PFC参数。

2. 配置步骤

(1)     进入系统视图。

system-view

(2)     全局开启LLDP功能。

lldp global enable

缺省情况下,LLDP功能全局处于关闭状态。

(3)     进入二层以太网接口视图。

interface interface-type interface-number

(4)     在接口上开启LLDP功能。

lldp enable

缺省情况下,接口上的LLDP功能处于开启状态。

(5)     允许接口发布DCBX TLV。

lldp tlv-enable dot1-tlv dcbx

缺省情况下,接口上不允许发布DCBX TLV。

2.4  配置DCBX版本

1. 配置限制和指导

进行本配置时,配置的DCBX版本需要视对端设备支持的版本而定,要求两端端口的DCBX版本配置一致,否则版本无法兼容,将会导致DCBX无法正常工作。建议配置两端设备都支持的最高版本(版本从高到低的顺序为:标准版->预标准版1.01->预标准版1.00)。

完成本配置后,本端端口发送的LLDP报文中携带的DCBX版本为配置的版本,不再与对端端口进行DCBX版本协商。

当端口的DCBX版本采用自协商决定,协商的初始版本为DCBX标准版,以保证优先协商到该版本。

2. 配置步骤

(1)     进入系统视图。

system-view

(2)     进入二层以太网接口视图。

interface interface-type interface-number

(3)     配置DCBX版本。

dcbx version { rev100 | rev101 | standard }

缺省情况下,未配置DCBX版本,此时DCBX版本由两端端口自协商决定。

2.5  配置APP参数

1. 功能简介

设备通过APP参数与服务器网卡进行协商,可以控制服务器网卡所发送报文的802.1p优先级,从而使设备可直接根据802.1p优先级来识别流量。比如,设备利用APP参数与服务器网卡协商将所有FCoE报文和FIP(FCoE Initialization Protocol,FCoE初始化协议)报文的802.1p优先级都设置为3。如果协商成功,后续服务器网卡发送给设备的FCoE报文和FIP所携带的802.1p优先级都将为3。

有关aclrule命令的详细介绍,请参见“ACL和QoS命令参考”中的“ACL”;有关其他命令的详细介绍,请参见“ACL和QoS命令参考”中的“QoS”。

2. 配置限制和指导

二层ACL和IPv4高级ACL分别采用数据帧类型和TCP/UDP端口号来识别应用协议报文。预标准版1.0只支持采用数据帧类型来识别应用协议报文,且只能发布数据帧类型为0x8906(即FCoE协议)的TLV;‌而预标准版1.01则支持两种识别方式,能发布的TLV的数据帧类型或TCP/UDP端口号不限,且根据当前报文的剩余长度,最多可发布前77条有效配置。

由于在一个策略中可以为多个类指定流行为,因此可能存在将同一类型报文标记为不同的802.1p优先级,或同一802.1p优先级映射到不同的本地优先级的情况,在这种情况下,采用首次匹配原则。

3. 配置步骤

(1)     进入系统视图。

system-view

(2)     创建ACL匹配规则。请选择其中一项进行配置。

¡     依次执行以下命令创建二层ACL,并配置匹配规则。

acl mac { acl-number | name acl-name } [ match-order { auto | config } ]

rule [ rule-id ] permit type protocol-type ffff

¡     依次执行以下命令创建IPv4高级ACL,并配置匹配规则。
acl advanced { acl-number | name acl-name } [ match-order { auto | config } ]

rule [ rule-id ] permit { tcp | udp } destination-port eq port

预标准版1.0只支持二层ACL;而预标准版1.01和标准版则支持二层ACL和IPv4高级ACL。

(3)     退回系统视图。

quit

(4)     定义类。

a.     创建一个类,其下各规则间的关系为逻辑或,并进入类视图。

traffic classifier classifier-name operator or

b.     引用已创建的ACL的规则。

if-match acl acl-number

c.     退回系统视图。

quit

(5)     定义流行为。

a.     创建流行为,并进入流行为视图。

traffic behavior behavior-name

b.     配置标记报文的802.1p优先级。

remark dot1p 8021p

c.     退回系统视图。

quit

(6)     定义策略。

a.     创建策略,并进入策略视图。

qos policy policy-name

b.     在策略中为类指定采用的流行为,并指定该策略为DCBX模式。

classifier classifier-name behavior behavior-name mode dcbx

c.     退回系统视图。

quit

(7)     应用策略。请选择其中一项进行配置。

¡     全局在出方向上应用策略。

qos apply policy policy-name global outbound

¡     依次执行以下命令在二层以太网接口出方向上应用策略。

interface interface-type interface-number

qos apply policy policy-name outbound

系统视图下的全局配置对所有端口都有效;二层以太网接口视图下的配置只对当前端口有效。

2.6  配置ETS参数

2.6.1  功能简介

ETS用于实现承诺带宽:设备通过ETS参数与服务器网卡进行协商,控制服务器网卡上指定类型数据的发送带宽,保证其在接口的承诺带宽范围之内,从而不会因流量拥塞而导致数据丢失。

2.6.2  配置限制和指导

在配置发布ETS参数时,需要配置以下内容:

(1)     配置802.1p优先级到本地优先级的映射。有以下两种方式:

¡     QoS策略方式。

¡     优先级映射表方式。

如果同时配置了这两种方式,则前者的配置优先生效。有关QoS策略以及优先级映射表命令的详细介绍,请参见“ACL和QoS命令参考”中的“QoS”。

(2)     配置分组WRR队列,以实现带宽的分配。有关WRR队列命令的详细介绍,请参见“ACL和QoS命令参考”中的“QoS”。

2.6.3  配置802.1p优先级到本地优先级的映射

1. QoS策略方式

(1)     进入系统视图。

system-view

(2)     创建一个类,其下各规则间的关系为逻辑或,并进入类视图。

traffic classifier classifier-name operator or

(3)     创建匹配运营商网络802.1p优先级的规则。

if-match service-dot1p 8021p-list

(4)     退回系统视图。

quit

(5)     创建流行为,并进入流行为视图。

traffic behavior behavior-name

(6)     配置标记报文的本地优先级。

remark local-precedence local-precedence

缺省情况下,没有配置重新标记报文的动作。

(7)     退回系统视图。

quit

(8)     进入策略视图。

qos policy policy-name

(9)     在策略中为类指定采用的流行为,并指定该策略为DCBX模式。

classifier classifier-name behavior behavior-name mode dcbx

缺省情况下,没有为类指定流行为。

(10)     退回系统视图。

quit

(11)     应用策略。请选择其中一项进行配置。

¡     全局在出方向上应用策略。

qos apply policy policy-name global outbound

¡     依次执行以下命令在二层以太网接口出方向上应用策略。

interface interface-type interface-number

qos apply policy policy-name outbound

系统视图下的全局配置对所有端口都有效;二层以太网接口视图下的配置只对当前端口有效。

2. 优先级映射表方式

(1)     进入系统视图。

system-view

(2)     进入报文出方向上802.1p优先级到本地优先级映射表视图。

qos map-table dot1p-lp

(3)     配置指定优先级映射表参数,创建优先级映射规则。

import import-value-list export export-value

缺省优先级映射表请参见“ACL和QoS配置指导”中的“QoS”。

2.6.4  配置分组WRR队列

(1)     进入系统视图。

system-view

(2)     进入二层以太网接口视图。

interface interface-type interface-number

(3)     开启WRR队列。

qos wrr byte-count

缺省情况下,接口使用SP队列调度算法。

(4)     配置WRR队列。请选择其中一项进行配置。

¡     配置WRR优先组1的WRR队列调度权重。

qos wrr queue-id group 1 byte-count schedule-value

¡     配置端口队列采用严格优先级调度算法。

qos wrr queue-id group sp

2.7  配置PFC参数

1. 功能简介

当要求指定802.1p优先级的流量无丢包时,可以开启该优先级的PFC功能,从而在网络发生拥塞时能够通知对端降低发包速率。设备通过PFC参数与服务器网卡进行协商,来开启服务器网卡上指定802.1p优先级的PFC功能。

有关PFC命令的详细介绍,请参见“接口管理命令参考”中的“以太网接口”。

2. 配置步骤

(1)     进入系统视图。

system-view

(2)     进入二层以太网接口视图。

interface interface-type interface-number

(3)     配置PFC功能的开启模式为自动协商模式。

priority-flow-control auto

缺省情况下,PFC功能处于关闭状态。

PFC功能的开启模式必须配置为自动协商模式,否则PFC参数将无法发布。

(4)     开启指定802.1p优先级的PFC功能。

priority-flow-control no-drop dot1p dot1p-list

缺省情况下,所有802.1p优先级的PFC功能都处于关闭状态。

2.8  DCBX典型配置举例

2.8.1  DCBX功能配置举例

1. 组网需求

·     在数据中心网络中,接入交换机Switch A通过接口HundredGigE1/0/1与数据中心服务器(DC server)的FCoE网卡相连。

·     通过配置,实现Switch A与DC server之间转发的FCoE报文和FIP报文无丢包。

说明

假定Switch A和DC server都支持DCBX预标准版1.01。

 

2. 组网图

图2-2 DCBX功能配置组网图

3. 配置步骤

(1)     开启LLDP并允许发布DCBX TLV

# 全局开启LLDP功能。

<SwitchA> system-view

[SwitchA] lldp global enable

# 在接口HundredGigE1/0/1上开启LLDP功能,并允许发布DCBX TLV。

[SwitchA] interface hundredgige 1/0/1

[SwitchA-HundredGigE1/0/1] lldp enable

[SwitchA-HundredGigE1/0/1] lldp tlv-enable dot1-tlv dcbx

(2)     配置DCBX版本

# 配置接口HundredGigE1/0/1的DCBX版本为预标准版1.01。

[SwitchA-HundredGigE1/0/1] dcbx version rev101

[SwitchA-HundredGigE1/0/1] quit

(3)     配置APP参数

# 创建编号为4000的二层ACL,并为其创建规则来匹配FCoE报文(数据帧类型为0x8906)和FIP报文(数据帧类型为0x8914)。

[SwitchA] acl mac 4000

[SwitchA-acl-mac-4000] rule permit type 8906 ffff

[SwitchA-acl-mac-4000] rule permit type 8914 ffff

[SwitchA-acl-mac-4000] quit

# 创建名为app_c的类,其下各规则间的关系为逻辑或,并创建其匹配ACL 4000。

[SwitchA] traffic classifier app_c operator or

[SwitchA-classifier-app_c] if-match acl mac 4000

[SwitchA-classifier-app_c] quit

# 创建名为app_b的流行为,并配置标记报文的802.1p优先级为3。

[SwitchA] traffic behavior app_b

[SwitchA-behavior-app_b] remark dot1p 3

[SwitchA-behavior-app_b] quit

# 创建名为plcy的策略,为类app_c指定采用的流行为是app_b,并指定该策略为DCBX模式。

[SwitchA] qos policy plcy

[SwitchA-qospolicy-plcy] classifier app_c behavior app_b mode dcbx

[SwitchA-qospolicy-plcy] quit

# 在接口HundredGigE1/0/1的出方向上应用策略plcy。

[SwitchA] interface hundredgige 1/0/1

[SwitchA-HundredGigE1/0/1] qos apply policy plcy outbound

[SwitchA-HundredGigE1/0/1] quit

(4)     配置ETS参数

# 在报文出方向上配置802.1p优先级3到本地优先级3的映射(这是缺省的映射关系,用户可根据实际情况自行规划映射关系)。

[SwitchA] qos map-table dot1p-lp

[SwitchA-maptbl-dot1p-lp] import 3 export 3

[SwitchA-maptbl-dot1p-lp] quit

# 在接口HundredGigE1/0/1上开启WRR队列,并按照每次轮询可发送的字节数进行计算,同时配置端口队列3采用严格优先级调度算法。

[SwitchA] interface hundredgige 1/0/1

[SwitchA-HundredGigE1/0/1] qos wrr byte-count

[SwitchA-HundredGigE1/0/1] qos wrr 3 group sp

(5)     配置PFC参数

# 在接口HundredGigE1/0/1上配置PFC功能的开启模式为自动协商模式,并对802.1p优先级3开启PFC功能。

[SwitchA-HundredGigE1/0/1] priority-flow-control auto

[SwitchA-HundredGigE1/0/1] priority-flow-control no-drop dot1p 3

4. 验证配置

通过DC server上服务器网卡对应的软件设置界面查看DC server与Switch A间的数据交互结果。以DC server上安装Qlogic网卡为例,查看到的数据交互结果如下:

------------------------------------------------------

DCBX Parameters Details for CNA Instance 0 - QLE8142

------------------------------------------------------

 

Mon May 17 10:00:50 2010

 

DCBX TLV (Type-Length-Value) Data

=================================

DCBX Parameter Type and Length

        DCBX Parameter Length: 13

        DCBX Parameter Type: 2

 

DCBX Parameter Information

        Parameter Type: Current

        Pad Byte Present: Yes

        DCBX Parameter Valid: Yes

        Reserved: 0

 

DCBX Parameter Data

        Priority Group ID of Priority 1: 0

        Priority Group ID of Priority 0: 2

 

        Priority Group ID of Priority 3: 15

        Priority Group ID of Priority 2: 1

 

        Priority Group ID of Priority 5: 5

        Priority Group ID of Priority 4: 4

 

        Priority Group ID of Priority 7: 7

        Priority Group ID of Priority 6: 6

 

        Priority Group 0 Percentage: 2

        Priority Group 1 Percentage: 4

        Priority Group 2 Percentage: 6

        Priority Group 3 Percentage: 0

        Priority Group 4 Percentage: 10

        Priority Group 5 Percentage: 18

        Priority Group 6 Percentage: 27

        Priority Group 7 Percentage: 31

 

        Number of Traffic Classes Supported: 8

 

DCBX Parameter Information

        Parameter Type: Remote

        Pad Byte Present: Yes

        DCBX Parameter Valid: Yes

        Reserved: 0

 

DCBX Parameter Data

        Priority Group ID of Priority 1: 0

        Priority Group ID of Priority 0: 2

 

        Priority Group ID of Priority 3: 15

        Priority Group ID of Priority 2: 1

 

        Priority Group ID of Priority 5: 5

        Priority Group ID of Priority 4: 4

 

        Priority Group ID of Priority 7: 7

        Priority Group ID of Priority 6: 6

 

        Priority Group 0 Percentage: 2

        Priority Group 1 Percentage: 4

        Priority Group 2 Percentage: 6

        Priority Group 3 Percentage: 0

        Priority Group 4 Percentage: 10

        Priority Group 5 Percentage: 18

        Priority Group 6 Percentage: 27

        Priority Group 7 Percentage: 31

 

        Number of Traffic Classes Supported: 8

 

DCBX Parameter Information

        Parameter Type: Local

        Pad Byte Present: Yes

        DCBX Parameter Valid: Yes

        Reserved: 0

 

DCBX Parameter Data

        Priority Group ID of Priority 1: 0

        Priority Group ID of Priority 0: 0

 

        Priority Group ID of Priority 3: 1

        Priority Group ID of Priority 2: 0

 

        Priority Group ID of Priority 5: 0

        Priority Group ID of Priority 4: 0

 

        Priority Group ID of Priority 7: 0

        Priority Group ID of Priority 6: 0

 

        Priority Group 0 Percentage: 50

        Priority Group 1 Percentage: 50

        Priority Group 2 Percentage: 0

        Priority Group 3 Percentage: 0

        Priority Group 4 Percentage: 0

        Priority Group 5 Percentage: 0

        Priority Group 6 Percentage: 0

        Priority Group 7 Percentage: 0

 

        Number of Traffic Classes Supported: 2

以上信息表明,通过与Switch A协商,DC server将对802.1p优先级为3的报文采用严格优先级调度算法进行调度(15即表示采用严格优先级调度算法)。

DCBX Parameter Type and Length

        DCBX Parameter Length: 2

        DCBX Parameter Type: 3

 

DCBX Parameter Information

        Parameter Type: Current

        Pad Byte Present: No

        DCBX Parameter Valid: Yes

        Reserved: 0

 

DCBX Parameter Data

        PFC Enabled on Priority 0: No

        PFC Enabled on Priority 1: No

        PFC Enabled on Priority 2: No

        PFC Enabled on Priority 3: Yes

        PFC Enabled on Priority 4: No

        PFC Enabled on Priority 5: No

        PFC Enabled on Priority 6: No

        PFC Enabled on Priority 7: No

 

        Number of Traffic Classes Supported: 6

 

DCBX Parameter Information

        Parameter Type: Remote

        Pad Byte Present: No

        DCBX Parameter Valid: Yes

        Reserved: 0

 

DCBX Parameter Data

        PFC Enabled on Priority 0: No

        PFC Enabled on Priority 1: No

        PFC Enabled on Priority 2: No

        PFC Enabled on Priority 3: Yes

        PFC Enabled on Priority 4: No

        PFC Enabled on Priority 5: No

        PFC Enabled on Priority 6: No

        PFC Enabled on Priority 7: No

 

        Number of Traffic Classes Supported: 6

 

DCBX Parameter Information

        Parameter Type: Local

        Pad Byte Present: No

        DCBX Parameter Valid: Yes

        Reserved: 0

 

DCBX Parameter Data

        PFC Enabled on Priority 0: No

        PFC Enabled on Priority 1: No

        PFC Enabled on Priority 2: No

        PFC Enabled on Priority 3: Yes

        PFC Enabled on Priority 4: No

        PFC Enabled on Priority 5: No

        PFC Enabled on Priority 6: No

        PFC Enabled on Priority 7: No

 

        Number of Traffic Classes Supported: 1

以上信息表明,通过与Switch A协商,DC server将对802.1p优先级为3的报文进行流量控制。

不同款型规格的资料略有差异, 详细信息请向具体销售和400咨询。H3C保留在没有任何通知或提示的情况下对资料内容进行修改的权利!

新华三官网
联系我们