17-VCF Fabric配置
本章节下载: 17-VCF Fabric配置 (316.80 KB)
目 录
当前由云、网络、终端组成的IT基础架构正经历着巨大的技术变革,传统终端向智能化、移动化演进,传统IT架构也向云迁移,实现计算资源的弹性扩张,随需交付,应需而动。在此环境下,H3C公司提出了VCF(Virtual Converged Framework)架构,该架构打通网络平台、云管理平台以及终端平台的界限,使整个IT系统成为一个融合架构来承载所有应用,并可实现网络自动配置和部署。
在VCF Fabric网络拓扑中,设备角色分为以下几种:
· Spine节点:用于连接Leaf节点。
· Leaf节点:在数据中心典型组网中Leaf节点设备用于连接服务器;在园区网典型组网中Leaf节点设备用于连接Access节点。
· Access节点:节点设备属于接入设备,上行与Leaf节点相连,下行与服务器或终端相连。
· Border节点:节点设备位于VCF Fabric网络拓扑的边界,用于连接外网。
Spine节点和Leaf节点组成了一个大二层网络,具体的网络拓扑类型可以为VLAN、集中式VXLAN IP网关和分布式VXLAN IP网关。有关集中式VXLAN IP网关和分布式VXLAN IP网关的详细介绍请参见“VXLAN配置指导”中的“VXLAN”。
图1-1 VCF Fabric数据中心网络拓扑示意图
图1-2 VCF Fabric园区网网络拓扑示意图
Neutron是OpenStack框架中的一个组件,用来为虚拟机提供网络服务,管理各种虚拟网络资源,包括网络、子网、DHCP、虚拟路由器等,使每个租户可以拥有互相隔离的虚拟网络。简单来讲,Neutron基于一个可插拔的架构,提供了统一的网络资源模型,VCF Fabric正是基于这个模型做的具体实现。
Neutron基本概念如下:
· 网络(Network):Neutron中的网络是虚拟的、可创建的对象,用于在多租户环境下为每个租户提供独立的网络环境。一个网络相当于一台拥有无限多个动态可创建和销毁的虚拟端口的交换机。
· 子网(Subnet):子网是网络中由一组IP地址组成的地址池。不同子网间的通信需要通过路由器。
· 端口(Port):Neutron中的端口是路由器和虚拟机挂接网络的附着点。
· 路由器(vRouter):Neutron中的路由器是虚拟路由器,负责路由选择和转发,可以创建和销毁。
Neutron包含如下重要组件。
· Neutron server
Neutron server包含守护进程Neutron server和多个neutron-*-plugin。Neutron server提供API接口,并把对API的调用请求传给已经配置好的插件进行后续处理。插件通过访问Neutron数据库来维护配置数据和对应关系,例如路由器、网络、子网和端口等。
· 插件代理(Plugin agent)
虚拟网络上数据包的处理由插件代理来完成,名字为neutron-*-agent。通常情况下选择了什么插件,就需要选择相应的代理。代理与Neutron Server及其插件的交互通过消息队列来来实现。
· DHCP agent
名字为neutron-dhcp-agent,为租户网络提供DHCP服务。
· L3 agent
名字为neutron-l3-agent,为租户网络提供提供三层转发,以支持租户间的访问和租户网络与外网间的访问。
Neutron部署包括服务器侧和网络侧的部署。
· 服务器侧的部署:
· 控制节点:部署Neutron server、Neutron DB、Message Server(例如RabbitMQ服务器);安装H3C ML2插件,该插件通过消息队列机制与设备侧进行交互,具体安装方法请参见《H3C Neutron ML2 Driver安装指导》。
· 网络节点:部署neutron-openvswitch-agent和neutron-dhcp-agent。
¡ 计算节点:部署neutron-openvswitch-agent和LLDP功能。
· 网络侧的部署:网络设备通过l2-agent /l3-agent模块,接收和解析服务器侧ML2插件的消息,并转换成二层或三层相关配置在设备上进行下发。不同Fabric组网方式下,Spine节点设备和Leaf节点设备支持的neutron-*-agent不同,具体如所表1-1示。
表1-1 Neutron在设备侧的部署
Fabric组网方式 |
网络设备节点 |
Neutron功能模块 |
集中式 |
Spine |
· neutron-l2-agent · neutron-l3-agent |
Leaf |
neutron-l2-agent |
|
分布式 |
Spine |
N/A |
Leaf |
· neutron-l2-agent · neutron-l3-agent |
图1-3 集中式组网Neutron部署示意图
由于数据中心的计算、存储、网络三要素的虚拟化演进,大量虚拟机的部署已经成为常态,数据中心网络部署面临的主要问题包括:
· 配置复杂:大量设备上线配置复杂。
· 维护复杂:设备上线过程不可见,故障排除复杂。
· 部署慢:面向应用的网络资源部署周期长。
VCF Fabric自动配置实现了如下功能:
· 拓扑自动发现
· Underlay网络配置自动化
· Overlay网络配置自动部署
· 与H3C的VCF Fabric Director配合,可以实现设备上线过程的动态拓扑展示
在VCF Fabric组网中,网络设备通过LLDP协议获取各物理连接的对端接口名、对端用户角色和对端MAC地址、管理口IP地址等信息,形成本地拓扑信息,并将本地拓扑信息进行格式化之后上传到Neutron数据库中,形成整个网络的拓扑结构,用于网络的自动配置和部署。
当网络中不止一个Spine节点时,需要指定主Spine节点,主Spine节点收集全网拓扑后用于Underlay网络配置自动化。
Underlay网络就是传统的物理网络,可实现设备间的三层互通。Overlay网络是在传统的物理网络基础上叠加的一层逻辑网络,也成为虚拟网络。目前主流的Overlay技术为VXLAN技术,有关VXLAN的详细介绍,请参见“VXLAN配置指导”中的“VXLAN”。
Underlay网络配置自动化根据用户定义的模板文件自动完成IRF配置、网络的三层互通配置等,为用户提供一个IP路由可达的三层网络。
Underlay网络配置自动化之前,需要完成以下任务:
(1) 根据用户需求完成Underlay网络规划,包括IP地址、可靠性、路由部署规划等。
(2) 完成DHCP服务器、TFTP服务器的部署。
(3) 完成启动软件包的放置。软件启动包是设备启动、运行的必备软件,需保存在TFTP服务器上。如果现有设备的启动软件包全部一致且不需要升级软件版本,可不需要准备该文件。
(4) 完成基于VCF Fabric组网角色的配置模板文件的编写和放置。模板文件以.template结尾,需保存在TFTP服务器上。根据不同的网络拓扑类型和设备角色需要定义不同的配置模板。例如:集中式网关Leaf模板、分布式网关Leaf模板、集中式网关Spine模板、分布式网关Spine模板等。
Underlay网络自动化配置流程如下:
(1) 设备以出厂配置启动,从DHCP服务器获取设备IP地址、TFTP服务器IP地址、模板文件名(文件名通常以“网络类型.template”命名)等信息。
(2) 设备根据自身缺省的VCF Fabric网络拓扑角色,从TFTP服务器下载对应的名称模板(文件名通常以“网络类型_网络拓扑角色.template”命名)到本地。
(3) 设备解析模板文件,完成配置的下发。
· 如果模板文件中定义了软件版本信息,设备会根据模板信息中的URL地址,获取新的软件版本,并与设备当前运行的版本进行比较,如果不一致,则自动下载新版本并完成升级和重启。
· 执行模板配置后,如果不存在IRF相关配置,则设备不会自动保存配置,用户可通过执行save命令手工保存配置。
模板文件的内容分为如下几部分:
· 系统预定义变量:变量名不可以随意更改;变量取值由网络拓扑自动发现功能赋予,不需要用户配置。
· 用户自定义变量:变量名和取值可以由用户手工修改,包括本地用户名、组网类型、以及与Neutron Server建立连接的相关配置等。举例如下:
#USERDEF
_underlayIPRange = 10.100.0.0/16
_master_spine_mac = 1122-3344-5566
_backup_spine_mac = aabb-ccdd-eeff
_username = aaa
_password = aaa
_rbacUserRole = network-admin
_neutron_username = openstack
_neutron_password = 12345678
_neutron_ip = 172.16.1.136
_loghost_ip = 172.16.1.136
_network_type = centralized-vxlan
……
· 静态配置:与VCF Fabirc网络拓扑等动态信息无关,设备可以直接下发的配置。举例如下:
#STATICCFG
#
clock timezone beijing add 08:00:00
#
lldp global enable
#
stp global enable
#
· 动态配置:与VCF Fabirc拓扑等动态信息相关,设备需要先获取拓扑信息才能下发的配置。举例如下:
#
interface $$_underlayIntfDown
port link-mode route
ip address unnumbered interface LoopBack0
ospf 1 area 0.0.0.0
ospf network-type p2p
lldp management-address arp-learning
lldp tlv-enable basic-tlv management-address-tlv interface LoopBack0
#
Overlay网络自动化部署主要包括:VXLAN和EVPN的部署。
Overlay网络自动化部署通过Neutron进程实现,主要包括L2-agent功能和L3-agent功能。
· L2-agent功能用于响应Openstack的网络创建、子网创建、端口创建等事件,在设备上完成二层网络的部署,实现同一虚拟网络的二层互通、不同虚拟网络的二层隔离。
· L3-agent功能用于响应Openstack的虚拟路由器创建、接口创建和网关设置等事件,在设备上完成网关的部署,以便为虚拟机提供三层转发服务。
在VCF Fabric组网中,设备是通过RabbitMQ服务器和Neutron server进行通信,因此需要在设备上指定RabbitMQ服务器的IP地址、登录用户名、登录密码、监听端口号等。
VCF Fabric自动配置(包括Underlay网络配置自动化和Overlay网络配置自动部署)功能一般通过自动下载并执行模板文件完成,无需使用命令行对设备进行配置。如果设备仅需要完成Overlay网络配置自动部署,则不用下载模板文件,仅完成1.5 开启VCF Farbic网络拓扑发现功能和1.7 Overlay网络配置自动部署即可。
表1-2 VCF Fabric自动配置任务简介
开启VCF Fabric拓扑发现功能 |
必选 |
|
Underlay网络配置自动化功能 |
可选 |
|
Overlay网络配置自动部署功能 |
· VCF Fabric网络拓扑发现通常在设备启动后通过执行模板文件自动完成,也可以通过命令行手工开启。
· 通过命令行手工开启网络拓扑发现功能,则由于设备的网络拓扑发现功能是基于LLDP协议获取直连设备信息的,因此需要先开启LLDP功能。
表1-3 开启VCF Fabric网络拓扑发现功能
操作 |
命令 |
说明 |
进入系统视图 |
system-view |
- |
全局开启LLDP功能 |
lldp global enable |
本命令的缺省情况与设备的型号有关,请以设备的实际情况为准 |
开启VCF Farbic网络拓扑发现功能 |
vcf-fabric topology enable |
缺省情况下,VCF Farbic网络拓扑发现功能处于关闭状态 |
· Underlay网络的自动配置功能可在设备上电启动后自动完成。若需要在正在运行的设备上重新进行Underlay网络的自动配置,可通过TFTP等方式将先将模板文件下载到本地,再通过命令行配置采用指定的模板文件进行Underlay网络的自动配置。
· 设备运行过程中不建议手工修改网络拓扑类型和设备角色。如需调整,请确保完全了解调整会给网络和业务带来的影响。
· 手工修改设备缺省的网络拓扑角色,重启后角色修改才能生效。
表1-4 配置Underlay网络配置自动化功能
操作 |
命令 |
说明 |
进入系统视图 |
system-view |
- |
(可选)指定设备在VCF Fabric网络拓扑中的角色 |
vcf-fabric role { access | leaf | spine } |
缺省情况下,设备在VCF Fabric网络拓扑中的角色与设备的型号有关,请以设备的实际情况为准 |
采用指定的模板文件进行Underlay网络的自动配置 |
vcf-fabric underlay autoconfigure template |
缺省情况下,未指定进行Underlay网络自动配置的模板文件 |
(可选)配置设备角色为主Spine节点 |
vcf-fabric spine-role master |
缺省情况下,未配置主Spine节点 |
(可选)开启Neutron服务,并进入Neutron视图 |
neutron |
缺省情况下,Neutron服务处于关闭状态 |
(可选)指定网络拓扑类型 |
network-type { centralized-vxlan | distributed-vxlan | vlan } |
缺省情况下,网络拓扑类型为VLAN |
· 若网络拓扑结构为VLAN或集中式VXLAN IP网关,Spine节点和Leaf节点上均需要进行Overlay网络配置自动部署。
· 若网络拓扑类型为分布式VXLAN IP网关,仅需要在Leaf节点上进行Overlay网络配置自动部署。
· 在VCF Fabric组网中,网络设备通过RabbitMQ与Neutron server通信,从而自动获取Overlay网络配置并部署Overlay网络。为此,用户需要在网络设备上指定RabbitMQ服务器参数,并保证设置的RabbitMQ服务器参数与控制节点上的参数保持一致。当服务器侧配置了RabbitMQ的持久化属性时,设备侧需要开启创建RabbitMQ的持久化功能,否则无法成功创建消息队列。
· 在设备上指定或取消已有的RabbitMQ服务器参数配置时,均需确保服务器与设备之间网络可达,否则会造成命令行无法响应直到TCP超时。
· 一个RabbitMQ服务器上可以创建多个虚拟主机,每个虚拟主机都可以独立地提供RabbitMQ服务,为保证设备与Neutron server正常通信,需要为其指定相同的RabbitMQ虚拟主机。
表1-5 配置Overlay网络配置自动部署
操作 |
命令 |
说明 |
进入系统视图 |
system-view |
- |
开启Neutron服务,并进入Neutron视图 |
neutron |
缺省情况下,Neutron服务处于关闭状态 |
指定RabbitMQ服务器的IPv4地址 |
rabbit host ip ipv4-address [ vpn-instance vpn-instance-name ] |
缺省情况下,未指定RabbitMQ服务器的IPv4地址 |
配置设备与RabbitMQ服务器建立连接所使用的用户名 |
rabbit user username |
缺省情况下,设备与RabbitMQ服务器建立连接所使用的用户名为guest |
配置设备与RabbitMQ服务器建立连接使用的密码 |
rabbit password { cipher | plain } string |
缺省情况下,设备与RabbitMQ服务器建立连接使用的密码为guest |
配置设备与RabbitMQ服务器通信的端口号 |
rabbit port port-number |
缺省情况下,设备与RabbitMQ服务器通信的端口号为5672 |
配置为设备提供服务的RabbitMQ服务器上虚拟主机的名称 |
rabbit virtual-host hostname |
缺省情况下,为设备提供服务的RabbitMQ服务器虚拟主机名称为“/” |
(可选)开启设备侧创建RabbitMQ的持久化功能 |
rabbit durable-queue enable |
缺省情况下,设备侧创建的RabbitMQ为非持久化队列 |
配置设备通过Restful下发配置时使用的用户名和密码 |
restful user username password { cipher | plain } password |
缺省情况下,未配置设备通过Restful下发配置时使用的用户名和密码 |
开启L2-agent功能 |
l2agent enable |
缺省情况下,L2-agent功能处于关闭状态 |
(可选)开启L3-agent功能 |
l3agent enable |
缺省情况下,L3-agent功能处于关闭状态 |
(可选)配置租户网络所属VPN实例的Export Target |
vpn-target target export-extcommunity |
缺省情况下,未配置租户网络所属VPN实例的Export Target |
(可选)配置租户网络所属VPN实例的Import Target |
vpn-target target import-extcommunity |
缺省情况下,未配置租户网络所属VPN实例的Import Target |
(可选)配置网关的IP地址 |
gateway ip ipv4-address |
缺省情况下,未配置网关的IP地址 |
(可选)配置设备为border节点,并初始化Overlay网络自动部署中border节点的相关配置 |
border enable |
缺省情况下,设备不是border节点 |
(可选)配置分布式VXLAN组网的Overlay自动部署环境下开启VSI虚接口的本地的ARP代理功能 |
proxy-arp enable |
缺省情况下,未开启VSI虚接口的本地ARP代理功能 |
(可选)配置VSI虚接口的MAC地址 |
vsi-mac mac-address |
缺省情况下,未设置VSI虚接口的MAC地址 |
在完成上述配置后,在任意视图下执行display命令可以显示配置后VCF Fabric的运行情况,通过查看显示信息验证配置的效果。
查看VCF Fabric的拓扑信息 |
display vcf-fabric topology |
查看Underlay的自动化配置信息 |
display vcf-fabric underlay autoconfigure |
如图1-4所示,VCF Fabric采用集中式VXLAN IP网关组网,Device A为Spine节点,Device B和Device C为Leaf节点,通过管理以太网口与TFTP服务器和DHCP服务器相连。控制节点为Ubuntu(Kilo版本,Ubuntu14.04 LTS操作系统)。
配置VCF Fabric,实现如下需求:
· DHCP服务器为设备动态分配10.11.113.0/24网段的IP地址。
· 通过VCF Fabric自动配置实现在Device A、Device B、Device C初次上电启动后,可根据模板文件完成VXLAN网络Underlay配置自动化。
· 在Controller Node和Compute Node节点上分别创建虚拟机VM后,Device A、Device B、Device C可以完成Overlay配置的自动部署,满足Controller Node上的虚拟机VM 1和Compute Node上的虚拟机VM 2之间的互通的需求。
图1-4 VCF Fabric自动配置组网图
DHCP服务器的设置主要包括:
· DHCP地址池:配置地址池动态分配IP地址的网段为10.11.113.0/24。
· TFTP服务器的IP地址10.11.113.19/24。
· Boot文件名:以“网络类型.template”形式命名,如“vxlan.template”。
编写模板文件并将其放置在TFTP服务器上,模板文件一般包含如下内容:
· 系统定义变量:用于系统内部使用,用户自定义变量名不得与其重复。
· 用户自定义变量:定义设备本地用户名、密码,用户角色等基本信息,以及Neutron相关配置信息,如Neutron server的IP地址、与Neutron server建立连接使用的用户名和密码等。
· 设备需要升级的最新版本和下载地址
· 配置命令:包括与网络拓扑无关的LLDP、NTP、SNMP等配置命令,以及与网络拓扑有关的接口、Neutron相关配置等。
TFTP服务器上需要根据组网规划,放置好模板文件,模板文件的名称为“网络类型_网络设备角色.template”。本例中Device A为Spine角色,Device B和Device C为Leaf角色,因此需要放置两个模板文件,“vlxan_spine.template”和“vlxan_leaf.template”。
设备以出厂配置启动,从DHCP服务器获取IP地址、TFTP服务器IP地址等信息,并通过TFTP服务器获取模板文件(Device A获取“vxlan_spine.template”文件,Device B和Device C获取“vxlan_leaf.template”文件);此后解析模板文件,完成Underlay网络的自动配置。
安装Openstack neutron相关组件
a. 安装Neutron、Image、Dashboard、Networking、RabbitMQ组件。
b. 安装H3C ML2 Driver插件,具体安装方法请参考《H3C Opentack ML2 Driver插件安装指导》。
c. 安装LLDP。
(2) 配置网络拓扑为VXLAN
手动修改/etc/neutron/plugin/ml2/ml2_conf.ini文件,具体配置步骤如下:
a. type_drivers增加h3c_vxlan
type_drivers = h3c_vxlan
b. mechanism_driver增加h3c,以便neutron-server加载h3c驱动
mechanism_driver = openvswitch, h3c
c. 指定租户创建网络的默认类型
tenant_network_types=h3c_vxlan
d. 配置VXLAN网络的ID范围,需新增[ml2_type_h3c_vxlan]段。VXLAN的网络ID范围为0-16777215,ID起始和结束中间以冒号分隔
[ml2_type_h3c_vxlan]
vni_ranges = 10000:60000
(3) 配置数据库
配置数据库前,确保Neutron-server配置已经完成。
[openstack@localhost ~]$ sudo h3c_config db_sync
(4) 重启neutron-server
[root@localhost ~]# service neutron-server restart
(5) 在Controller Node上创建名称为“Network”的网络
(6) 在Controller Node上创建名称为“subnet-1”和“subnet-2”的两个子网,并配置网络地址为10.10.1.0/24和10.1.1.0/24
需要注意的是,本例中VM通过DHCP自动获取IP地址,因此需要在创建子网时,激活DHCP功能。
(7) 在Controller Node上创建名称为“router”的路由器,并将路由器的接口与两个子网网段相绑定
在Controller Node和Compute Node上分别创建VM1和VM2,VM1和VM2的IP地址由子网内的DHCP自动分配,这里假设为10.10.1.3/24和10.1.1.3/24。
在Device A设备上查看VCF Fabric拓扑信息。
[DeviceA] display vcf-fabric topology
Topology Information
----------------------------------------------------------------------------------
* indicates the master spine role among all spines
SpineIP Interface Link LeafIP Status
*10.11.113.51 GigabitEthernet1/0/1 Up 10.11.113.52 Running
GigabitEthernet1/0/2 Down -- --
GigabitEthernet1/0/3 Down -- --
GigabitEthernet1/0/4 Down -- --
GigabitEthernet1/0/5 Up 10.11.113.53 Running
GigabitEthernet1/0/6 Down -- --
GigabitEthernet1/0/7 Down -- --
GigabitEthernet1/0/8 Down -- --
在Device A设备上查看Underlay网络配置自动化信息。
[DeviceA] display vcf-fabric underlay autoconfigure
success command:
#
system
clock timezone beijing add 08:00:00
#
system
lldp global enable
#
system
stp global enable
#
system
ospf 1
graceful-restart ietf
area 0.0.0.0
#
system
interface LoopBack0
#
system
ip vpn-instance global
route-distinguisher 1:1
vpn-target 1:1 import-extcommunity
#
system
l2vpn enable
#
system
vxlan tunnel mac-learning disable
vxlan tunnel arp-learning disable
#
system
ntp-service enable
ntp-service unicast-peer 10.11.113.136
#
system
netconf soap http enable
netconf soap https enable
restful http enable
restful https enable
#
system
ip http enable
ip https enable
#
system
telnet server enable
#
system
info-center loghost 10.11.113.136
#
system
local-user aaa
password ******
service-type telnet http https
service-type ssh
authorization-attribute user-role network-admin
#
system
line vty 0 63
authentication-mode scheme
user-role network-admin
#
system
bgp 100
graceful-restart
address-family l2vpn evpn
undo policy vpn-target
#
system
vcf-fabric topology enable
#
system
neutron
rabbit user openstack
rabbit password ******
rabbit host ip 10.11.113.136
restful user aaa password ******
network-type centralized-vxlan
vpn-target 1:1 export-extcommunity
l2agent enable
l3agent enable
#
system
snmp-agent
snmp-agent community read public
snmp-agent community write private
snmp-agent sys-info version all
#interface up-down:
GigabitEthernet1/0/1
GigabitEthernet1/0/5
Loopback0 IP Allocation:
DEV_MAC LOOPBACK_IP MANAGE_IP STATE
a43c-adae-0400 10.100.16.17 10.11.113.53 up
a43c-9aa7-0100 10.100.16.15 10.11.113.51 up
a43c-a469-0300 10.100.16.16 10.11.113.52 up
IRF Allocation:
Self Bridge Mac: a43c-9aa7-0100
IRF Status: No
Member List: [1]
bgp configure peer:
10.100.16.17
10.100.16.16
在Device A设备上查看当前VSI配置VPN相关配置。
[DeviceA] display current-configuration configuration vsi
#
vsi vxlan10071
gateway vsi-interface 8190
vxlan 10071
evpn encapsulation vxlan
route-distinguisher auto
vpn-target auto export-extcommunity
vpn-target auto import-extcommunity
#
return
[DeviceA] display current-configuration interface Vsi-interface
#
interface Vsi-interface8190
ip binding vpn-instance neutron-1024
ip address 11.1.1.1 255.255.255.0 sub
ip address 10.10.1.1 255.255.255.0 sub
#
return
[DeviceA] display ip vpn-instance
Total VPN-Instances configured : 1
VPN-Instance Name RD Create time
neutron-1024 1024:1024 2016/03/12 00:25:59
# 进入Controller Node上的VM的控制台,执行ping操作,可以ping通Compute Node上的VM。
$ ping 10.1.1.3
Ping 10.1.1.3 (10.1.1.3): 56 data bytes, press CTRL_C to break
56 bytes from 10.1.1.3: icmp_seq=0 ttl=254 time=10.000 ms
56 bytes from 10.1.1.3: icmp_seq=1 ttl=254 time=4.000 ms
56 bytes from 10.1.1.3: icmp_seq=2 ttl=254 time=4.000 ms
56 bytes from 10.1.1.3: icmp_seq=3 ttl=254 time=3.000 ms
56 bytes from 10.1.1.3: icmp_seq=4 ttl=254 time=3.000 ms
--- Ping statistics for 10.1.1.3 ---
5 packet(s) transmitted, 5 packet(s) received, 0.0% packet loss
round-trip min/avg/max/std-dev = 3.000/4.800/10.000/2.638 ms
不同款型规格的资料略有差异, 详细信息请向具体销售和400咨询。H3C保留在没有任何通知或提示的情况下对资料内容进行修改的权利!