17-VCF Fabric配置
本章節下載: 17-VCF Fabric配置 (321.81 KB)
目 錄
當前由雲、網絡、終端組成的IT基礎架構正經曆著巨大的技術變革,傳統終端向智能化、移動化演進,傳統IT架構也向雲遷移,實現計算資源的彈性擴張,隨需交付,應需而動。在此環境下,H3C公司提出了VCF(Virtual Converged Framework)架構,該架構打通網絡平台、雲管理平台以及終端平台的界限,使整個IT係統成為一個融合架構來承載所有應用,並可實現網絡自動配置和部署。
在VCF Fabric網絡拓撲中,設備角色分為以下幾種:
· Spine節點:用於連接Leaf節點。
· Leaf節點:在數據中心典型組網中Leaf節點設備用於連接服務器;在園區網典型組網中Leaf節點設備用於連接Access節點。
· Access節點:節點設備屬於接入設備,上行與Leaf節點相連,下行與服務器或終端相連。
· Border節點:節點設備位於VCF Fabric網絡拓撲的邊界,用於連接外網。
Spine節點和Leaf節點組成了一個大二層網絡,具體的網絡拓撲類型可以為VLAN、集中式VXLAN IP網關和分布式VXLAN IP網關。有關集中式VXLAN IP網關和分布式VXLAN IP網關的詳細介紹請參見“VXLAN配置指導”中的“VXLAN”。
圖1-1 VCF Fabric數據中心網絡拓撲示意圖
圖1-2 VCF Fabric園區網網絡拓撲示意圖
Neutron是OpenStack框架中的一個組件,用來為虛擬機提供網絡服務,管理各種虛擬網絡資源,包括網絡、子網、DHCP、虛擬路由器等,使每個租戶可以擁有互相隔離的虛擬網絡。簡單來講,Neutron基於一個可插拔的架構,提供了統一的網絡資源模型,VCF Fabric正是基於這個模型做的具體實現。
Neutron基本概念如下:
· 網絡(Network):Neutron中的網絡是虛擬的、可創建的對象,用於在多租戶環境下為每個租戶提供獨立的網絡環境。一個網絡相當於一台擁有無限多個動態可創建和銷毀的虛擬端口的交換機。
· 子網(Subnet):子網是網絡中由一組IP地址組成的地址池。不同子網間的通信需要通過路由器。
· 端口(Port):Neutron中的端口是路由器和虛擬機掛接網絡的附著點。
· 路由器(vRouter):Neutron中的路由器是虛擬路由器,負責路由選擇和轉發,可以創建和銷毀。
Neutron包含如下重要組件。
· Neutron server
Neutron server包含守護進程Neutron server和多個neutron-*-plugin。Neutron server提供API接口,並把對API的調用請求傳給已經配置好的插件進行後續處理。插件通過訪問Neutron數據庫來維護配置數據和對應關係,例如路由器、網絡、子網和端口等。
· 插件代理(Plugin agent)
虛擬網絡上數據包的處理由插件代理來完成,名字為neutron-*-agent。通常情況下選擇了什麼插件,就需要選擇相應的代理。代理與Neutron Server及其插件的交互通過消息隊列來來實現。
· DHCP agent
名字為neutron-dhcp-agent,為租戶網絡提供DHCP服務。
· L3 agent
名字為neutron-l3-agent,為租戶網絡提供提供三層轉發,以支持租戶間的訪問和租戶網絡與外網間的訪問。
Neutron部署包括服務器側和網絡側的部署。
· 服務器側的部署:
¡ 控製節點:部署Neutron server、Neutron DB、Message Server(例如RabbitMQ服務器);安裝H3C ML2插件,該插件通過消息隊列機製與設備側進行交互,具體安裝方法請參見《H3C Neutron ML2 Driver安裝指導》。
¡ 網絡節點:部署neutron-openvswitch-agent和neutron -dhcp-agent
¡ 計算節點:部署neutron-openvswitch-agent和LLDP功能。
· 網絡側的部署:網絡設備通過l2-agent /l3-agent模塊,接收和解析服務器側ML2插件的消息,並轉換成二層或三層相關配置在設備上進行下發。不同Fabric組網方式下,Spine節點設備和Leaf節點設備支持的neutron-*-agent不同,具體如所表1-1示。
表1-1 Neutron在設備側的部署
Fabric組網方式 |
網絡設備節點 |
Neutron功能模塊 |
集中式 |
Spine |
· neutron-l2-agent · neutron-l3-agent |
Leaf |
neutron-l2-agent |
|
分布式 |
Spine |
N/A |
Leaf |
· neutron-l2-agent · neutron-l3-agent |
圖1-3 集中式組網Neutron部署示意圖
圖1-4 分布式組網Neutron部署示意圖
由於數據中心的計算、存儲、網絡三要素的虛擬化演進,大量虛擬機的部署已經成為常態,數據中心網絡部署麵臨的主要問題包括:
· 配置複雜:大量設備上線配置複雜。
· 維護複雜:設備上線過程不可見,故障排除複雜。
· 部署慢:麵向應用的網絡資源部署周期長。
VCF Fabric自動配置實現了如下功能:
· 拓撲自動發現
· Underlay網絡配置自動化
· Overlay網絡配置自動部署
· 與H3C的VCF Fabric Director配合,可以實現設備上線過程的動態拓撲展示
在VCF Fabric組網中,網絡設備通過LLDP協議獲取各物理連接的對端接口名、對端用戶角色和對端MAC地址、管理口IP地址等信息,形成本地拓撲信息,並將本地拓撲信息進行格式化之後上傳到Neutron數據庫中,形成整個網絡的拓撲結構,用於網絡的自動配置和部署。
當網絡中不止一個Spine節點時,需要指定主Spine節點,主Spine節點收集全網拓撲後用於Underlay網絡配置自動化。
Underlay網絡就是傳統的物理網絡,可實現設備間的三層互通。Overlay網絡是在傳統的物理網絡基礎上疊加的一層邏輯網絡,也成為虛擬網絡。目前主流的Overlay技術為VXLAN技術,有關VXLAN的詳細介紹,請參見“VXLAN配置指導”中的“VXLAN”。
Underlay網絡配置自動化根據用戶定義的模板文件自動完成IRF配置、網絡的三層互通配置等,為用戶提供一個IP路由可達的三層網絡。
Underlay網絡配置自動化之前,需要完成以下任務:
(1) 根據用戶需求完成Underlay網絡規劃,包括IP地址、可靠性、路由部署規劃等。
(2) 完成DHCP服務器、TFTP服務器的部署。
(3) 完成啟動軟件包的放置。軟件啟動包是設備啟動、運行的必備軟件,需保存在TFTP服務器上。如果現有設備的啟動軟件包全部一致且不需要升級軟件版本,可不需要準備該文件。
(4) 完成基於VCF Fabric組網角色的配置模板文件的編寫和放置。模板文件以.template結尾,需保存在TFTP服務器上。根據不同的網絡拓撲類型和設備角色需要定義不同的配置模板。例如:集中式網關Leaf模板、分布式網關Leaf模板、集中式網關Spine模板、分布式網關Spine模板等。
Underlay網絡自動化配置流程如下:
(1) 設備以出廠配置啟動,從DHCP服務器獲取設備IP地址、TFTP服務器IP地址、模板文件名(文件名通常以“網絡類型.template”命名)等信息。
(2) 設備根據自身缺省的VCF Fabric網絡拓撲角色,從TFTP服務器下載對應的名稱模板(文件名通常以“網絡類型_網絡拓撲橘色.template”命名)到本地。
(3) 設備解析模板文件,完成配置的下發。
· 如果模板文件中定義了軟件版本信息,設備會根據模板信息中的URL地址,獲取新的軟件版本,並與設備當前運行的版本進行比較,如果不一致,則自動下載新版本並完成升級和重啟。
· 執行模板配置後,如果不存在IRF相關配置,則設備不會自動保存配置,用戶可通過執行save命令手工保存配置。
模板文件的內容分為如下幾部分:
· 係統預定義變量:變量名不可以隨意更改;變量取值由網絡拓撲自動發現功能賦予,不需要用戶配置。
· 用戶自定義變量:變量名和取值可以由用戶手工修改,包括本地用戶名、組網類型、以及與Neutron Server建立連接的相關配置等。舉例如下:
#USERDEF
_underlayIPRange = 10.100.0.0/16
_master_spine_mac = 1122-3344-5566
_backup_spine_mac = aabb-ccdd-eeff
_username = aaa
_password = aaa
_rbacUserRole = network-admin
_neutron_username = openstack
_neutron_password = 12345678
_neutron_ip = 172.16.1.136
_loghost_ip = 172.16.1.136
_network_type = centralized-vxlan
……
· 靜態配置:與VCF Fabirc網絡拓撲等動態信息無關,設備可以直接下發的配置。舉例如下:
#STATICCFG
#
clock timezone beijing add 08:00:00
#
lldp global enable
#
stp global enable
#
· 動態配置:與VCF Fabirc拓撲等動態信息相關,設備需要先獲取拓撲信息才能下發的配置。舉例如下:
#
interface $$_underlayIntfDown
port link-mode route
ip address unnumbered interface LoopBack0
ospf 1 area 0.0.0.0
ospf network-type p2p
lldp management-address arp-learning
lldp tlv-enable basic-tlv management-address-tlv interface LoopBack0
#
Overlay網絡自動化部署主要包括:VXLAN和EVPN的部署。
Overlay網絡自動化部署通過Neutron進程實現,主要包括L2-agent功能和L3-agent功能。
· L2-agent功能用於響應Openstack的網絡創建、子網創建、端口創建等事件,在設備上完成二層網絡的部署,實現同一虛擬網絡的二層互通、不同虛擬網絡的二層隔離。
· L3-agent功能用於響應Openstack的虛擬路由器創建、接口創建和網關設置等事件,在設備上完成網關的部署,以便為虛擬機提供三層轉發服務。
在VCF Fabric組網中,設備是通過RabbitMQ服務器和Neutron server進行通信,因此需要在設備上指定RabbitMQ服務器的IP地址、登錄用戶名、登錄密碼、監聽端口號等。
VCF Fabric自動配置(包括Underlay網絡配置自動化和Overlay網絡配置自動部署)功能一般通過自動下載並執行模板文件完成,無需使用命令行對設備進行配置。如果設備僅需要完成Overlay網絡配置自動部署,則不用下載模板文件,僅完成1.5 開啟VCF Farbic網絡拓撲發現功能和1.7 Overlay網絡配置自動部署即可。
表1-2 VCF Fabric自動配置任務簡介
開啟VCF Fabric拓撲發現功能 |
必選 |
|
Underlay網絡配置自動化功能 |
可選 |
|
Overlay網絡配置自動部署功能 |
· VCF Fabric網絡拓撲發現通常在設備啟動後通過執行模板文件自動完成,也可以通過命令行手工開啟。
· 通過命令行手工開啟網絡拓撲發現功能,則由於設備的網絡拓撲發現功能是基於LLDP協議獲取直連設備信息的,因此需要先開啟LLDP功能。
表1-3 開啟VCF Fabric網絡拓撲發現功能
操作 |
命令 |
說明 |
進入係統視圖 |
system-view |
- |
全局開啟LLDP功能 |
lldp global enable |
缺省情況下,LLDP功能處於開啟狀態 |
開啟VCF Farbic網絡拓撲發現功能 |
vcf-fabric topology enable |
缺省情況下,VCF Farbic網絡拓撲發現功能處於關閉狀態 |
· Underlay網絡的自動配置功能可在設備上電啟動後自動完成。若需要在正在運行的設備上重新進行Underlay網絡的自動配置,可通過TFTP等方式將先將模板文件下載到本地,再通過命令行配置采用指定的模板文件進行Underlay網絡的自動配置。
· 設備運行過程中不建議手工修改網絡拓撲類型和設備角色。如需調整,請確保完全了解調整會給網絡和業務帶來的影響。
· 手工修改設備缺省的網絡拓撲角色,重啟後角色修改才能生效。
表1-4 配置Underlay網絡配置自動化功能
操作 |
命令 |
說明 |
進入係統視圖 |
system-view |
- |
(可選)指定設備在VCF Fabric網絡拓撲中的角色 |
vcf-fabric role { access | leaf | spine } |
缺省情況下,設備在VCF Fabric網絡拓撲中的角色為Spine節點 |
采用指定的模板文件進行Underlay網絡的自動配置 |
vcf-fabric underlay autoconfigure template |
缺省情況下,未指定進行Underlay網絡自動配置的模板文件 |
(可選)配置設備角色為主Spine節點 |
vcf-fabric spine-role master |
缺省情況下,未配置主Spine節點 |
(可選)開啟Neutron服務,並進入Neutron視圖 |
neutron |
缺省情況下,Neutron服務處於關閉狀態 |
(可選)指定網絡拓撲類型 |
network-type { centralized-vxlan | distributed-vxlan | vlan } |
缺省情況下,網絡拓撲類型為VLAN |
· 若網絡拓撲結構為VLAN或集中式VXLAN IP網關,Spine節點和Leaf節點上均需要進行Overlay網絡配置自動部署。
· 若網絡拓撲類型為分布式VXLAN IP網關,僅需要在Leaf節點上進行Overlay網絡配置自動部署。
· 在VCF Fabric組網中,網絡設備通過RabbitMQ與Neutron server通信,從而自動獲取Overlay網絡配置並部署Overlay網絡。為此,用戶需要在網絡設備上指定RabbitMQ服務器參數,並保證設置的RabbitMQ服務器參數與控製節點上的參數保持一致。
· 一個RabbitMQ服務器上可以創建多個虛擬主機,每個虛擬主機都可以獨立地提供RabbitMQ服務,為保證設備與Neutron server正常通信,需要為其指定相同的RabbitMQ虛擬主機。
表1-5 配置Overlay網絡配置自動部署
操作 |
命令 |
說明 |
進入係統視圖 |
system-view |
- |
開啟Neutron服務,並進入Neutron視圖 |
neutron |
缺省情況下,Neutron服務處於關閉狀態 |
指定RabbitMQ服務器的IPv4地址 |
rabbit host ip ipv4-address [ vpn-instance vpn-instance-name ] |
缺省情況下,未指定RabbitMQ服務器的IPv4地址 |
配置設備與RabbitMQ服務器建立連接所使用的用戶名 |
rabbit user username |
缺省情況下,設備與RabbitMQ服務器建立連接所使用的用戶名為guest |
配置設備與RabbitMQ服務器建立連接使用的密碼 |
rabbit password { cipher | plain } string |
缺省情況下,設備與RabbitMQ服務器建立連接使用的密碼為guest |
配置設備與RabbitMQ服務器通信的端口號 |
rabbit port port-number |
缺省情況下,設備與RabbitMQ服務器通信的端口號為5672 |
配置為設備提供服務的RabbitMQ服務器上虛擬主機的名稱 |
rabbit virtual-host hostname |
缺省情況下,為設備提供服務的RabbitMQ服務器虛擬主機名稱為“/” |
配置設備通過Restful下發配置時使用的用戶名和密碼 |
restful user username password { cipher | plain } password |
缺省情況下,未配置設備通過Restful下發配置時使用的用戶名和密碼 |
開啟L2-agent功能 |
l2agent enable |
缺省情況下,L2-agent功能處於關閉狀態 |
(可選)開啟L3-agent功能 |
l3agent enable |
缺省情況下,L3-agent功能處於關閉狀態 |
(可選)配置租戶網絡所屬VPN實例的Export Target |
vpn-target target export-extcommunity |
缺省情況下,未配置租戶網絡所屬VPN實例的Export Target |
(可選)配置租戶網絡所屬VPN實例的Import Target |
vpn-target target import-extcommunity |
缺省情況下,未配置租戶網絡所屬VPN實例的Import Target |
(可選)配置網關的IP地址 |
gateway ip ipv4-address |
缺省情況下,未配置網關的IP地址 |
(可選)配置設備為border節點,並初始化Overlay網絡自動部署中border節點的相關配置 |
border enable |
缺省情況下,設備不是border節點 |
(可選)配置分布式VXLAN組網的Overlay自動部署環境下開啟VSI虛接口的本地的ARP代理功能。
|
proxy-arp enable |
缺省情況下,未開啟VSI虛接口的本地ARP代理功能。
|
(可選)配置VSI虛接口的MAC地址 |
vsi-mac mac-address |
缺省情況下,未設置VSI虛接口的MAC地址 |
在完成上述配置後,在任意視圖下執行display命令可以顯示配置後VCF Fabric的運行情況,通過查看顯示信息驗證配置的效果。
查看VCF Fabric的拓撲信息 |
display vcf-fabric topology |
查看Underlay的自動化配置信息 |
display vcf-fabric underlay autoconfigure |
如圖1-5所示,VCF Fabric采用集中式VXLAN IP網關組網,Device A為Spine節點,Device B和Device C為Leaf節點,通過管理以太網口與TFTP服務器和DHCP服務器相連。控製節點為Ubuntu(Kilo版本,Ubuntu14.04 LTS操作係統)。
配置VCF Fabric,實現如下需求:
· DHCP服務器為設備動態分配10.11.113.0/24網段的IP地址。
· 通過VCF Fabric自動配置實現在Device A、Device B、Device C初次上電啟動後,可根據模板文件完成VXLAN網絡Underlay配置自動化。
· 在Controller Node和Compute Node節點上分別創建虛擬機VM後,Device A、Device B、Device C可以完成Overlay配置的自動部署,滿足Controller Node上的虛擬機VM 1和Compute Node上的虛擬機VM 2之間的互通的需求。
圖1-5 VCF Fabric自動配置組網圖
DHCP服務器的設置主要包括:
· DHCP地址池:配置地址池動態分配IP地址的網段為10.11.113.0/24。
· TFTP服務器的IP地址10.11.113.19/24。
· Boot文件名:以“網絡類型.template”形式命名,如“vxlan.template”。
編寫模板文件並將其放置在TFTP服務器上,模板文件一般包含如下內容:
· 係統定義變量:用於係統內部使用,用戶自定義變量名不得與其重複。
· 用戶自定義變量:定義設備本地用戶名、密碼,用戶角色等基本信息,以及Neutron相關配置信息,如Neutron server的IP地址、與Neutron server建立連接使用的用戶名和密碼等。
· 設備需要升級的最新版本和下載地址
· 配置命令:包括與網絡拓撲無關的LLDP、NTP、SNMP等配置命令,以及與網絡拓撲有關的接口、Neutron相關配置等。
TFTP服務器上需要根據組網規劃,放置好模板文件,模板文件的名稱為“網絡類型_網絡設備角色.template”。本例中Device A為Spine角色,Device B和Device C為Leaf角色,因此需要放置兩個模板文件,“vlxan_spine,template”和“vlxan_leaf,template”。
設備以出廠配置啟動,從DHCP服務器獲取IP地址、TFTP服務器IP地址等信息,並通過TFTP服務器獲取模板文件(Device A獲取“vxlan_spine.template”文件,Device B和Device C獲取“vxlan_leaf.template”文件);子後解析模板文件,完成Underlay網絡的自動配置。
安裝Openstack neutron相關組件
a. 安裝Neutron、Image、Dashboard、Networking、RabbitMQ組件。
b. 安裝H3C ML2 Driver插件,具體安裝方法請參考《H3C Opentack ML2 Driver插件安裝指導》。
c. 安裝LLDP。
(2) 配置網絡拓撲為VXLAN
手動修改/etc/neutron/plugin/ml2/ml2_conf.ini文件,具體配置步驟如下:
a. type_drivers增加h3c_vxlan
type_drivers = h3c_vxlan
b. mechanism_driver增加h3c,以便neutron-server加載h3c驅動
mechanism_driver = openvswitch, h3c
c. 指定租戶創建網絡的默認類型
tenant_network_types=h3c_vxlan
d. 配置VXLAN網絡的ID範圍,需新增[ml2_type_h3c_vxlan]段。VXLAN的網絡ID範圍為0-16777215,ID起始和結束中間以冒號分隔
[ml2_type_h3c_vxlan]
vni_ranges = 10000:60000
(3) 配置數據庫
配置數據庫前,確保Neutron-server配置已經完成。
[openstack@localhost ~]$ sudo h3c_config db_sync
(4) 重啟neutron-server
[root@localhost ~]# service neutron-server restart
(5) 在Controller Node上創建名稱為“Network”的網絡
(6) 在Controller Node上創建名稱為“subnet-1”和“subnet-2”的兩個子網,並配置網絡地址為10.10.1.0/24和10.1.1.0/24
需要注意的是,本例中VM通過DHCP自動獲取IP地址,因此需要在創建子網時,激活DHCP功能。
(7) 在Controller Node上創建名稱為“router”的路由器,並將路由器的接口與兩個子網網段相綁定
(8) 在Controller Node和Compute Node上分別創建VM1和VM2,VM1和VM2的IP地址由子網內的DHCP自動分配,這裏假設為10.10.1.3/24和10.1.1.3/24。
在Device A設備上查看VCF Fabric拓撲信息。
[DeviceA] display vcf-fabric topology
Topology Information
----------------------------------------------------------------------------------
* indicates the master spine role among all spines
SpineIP Interface Link LeafIP Status
*10.11.113.51 HundredGigE1/0/1 Up 10.11.113.52 Running
HundredGigE1/0/2 Down -- --
HundredGigE1/0/3 Down -- --
HundredGigE1/0/4 Down -- --
HundredGigE1/0/5 Up 10.11.113.53 Running
HundredGigE1/0/6 Down -- --
HundredGigE1/0/7 Down -- --
HundredGigE1/0/8 Down -- --
在Device A設備上查看Underlay網絡配置自動化信息。
[DeviceA] display vcf-fabric underlay autoconfigure
success command:
#
system
clock timezone beijing add 08:00:00
#
system
lldp global enable
#
system
stp global enable
#
system
ospf 1
graceful-restart ietf
area 0.0.0.0
#
system
interface LoopBack0
#
system
ip vpn-instance global
route-distinguisher 1:1
vpn-target 1:1 import-extcommunity
#
system
l2vpn enable
#
system
vxlan tunnel mac-learning disable
vxlan tunnel arp-learning disable
#
system
ntp-service enable
ntp-service unicast-peer 10.11.113.136
#
system
netconf soap http enable
netconf soap https enable
restful http enable
restful https enable
#
system
ip http enable
ip https enable
#
system
telnet server enable
#
system
info-center loghost 10.11.113.136
#
system
local-user aaa
password ******
service-type telnet http https
service-type ssh
authorization-attribute user-role network-admin
#
system
line vty 0 63
authentication-mode scheme
user-role network-admin
#
system
bgp 100
graceful-restart
address-family l2vpn evpn
undo policy vpn-target
#
system
vcf-fabric topology enable
#
system
neutron
rabbit user openstack
rabbit password ******
rabbit host ip 10.11.113.136
restful user aaa password ******
network-type centralized-vxlan
vpn-target 1:1 export-extcommunity
l2agent enable
l3agent enable
#
system
snmp-agent
snmp-agent community read public
snmp-agent community write private
snmp-agent sys-info version all
#interface up-down:
HundredGigE1/0/1
HundredGigE1/0/5
Loopback0 IP Allocation:
DEV_MAC LOOPBACK_IP MANAGE_IP STATE
a43c-adae-0400 10.100.16.17 10.11.113.53 up
a43c-9aa7-0100 10.100.16.15 10.11.113.51 up
a43c-a469-0300 10.100.16.16 10.11.113.52 up
IRF Allocation:
Self Bridge Mac: a43c-9aa7-0100
IRF Status: No
Member List: [1]
bgp configure peer:
10.100.16.17
10.100.16.16
在Device A設備上查看當前VSI配置VPN相關配置。
[DeviceA] display current-configuration configuration vsi
#
vsi vxlan10071
gateway vsi-interface 8190
vxlan 10071
evpn encapsulation vxlan
route-distinguisher auto
vpn-target auto export-extcommunity
vpn-target auto import-extcommunity
#
return
[DeviceA] display current-configuration interface Vsi-interface
#
interface Vsi-interface8190
ip binding vpn-instance neutron-1024
ip address 11.1.1.1 255.255.255.0 sub
ip address 10.10.1.1 255.255.255.0 sub
#
return
[DeviceA] display ip vpn-instance
Total VPN-Instances configured : 1
VPN-Instance Name RD Create time
neutron-1024 1024:1024 2016/03/12 00:25:59
# 進入Controller Node上的VM的控製台,執行ping操作,可以ping通Compute Node上的VM。
$ ping 10.1.1.3
Ping 10.1.1.3 (10.1.1.3): 56 data bytes, press CTRL_C to break
56 bytes from 10.1.1.3: icmp_seq=0 ttl=254 time=10.000 ms
56 bytes from 10.1.1.3: icmp_seq=1 ttl=254 time=4.000 ms
56 bytes from 10.1.1.3: icmp_seq=2 ttl=254 time=4.000 ms
56 bytes from 10.1.1.3: icmp_seq=3 ttl=254 time=3.000 ms
56 bytes from 10.1.1.3: icmp_seq=4 ttl=254 time=3.000 ms
--- Ping statistics for 10.1.1.3 ---
5 packet(s) transmitted, 5 packet(s) received, 0.0% packet loss
round-trip min/avg/max/std-dev = 3.000/4.800/10.000/2.638 ms
不同款型規格的資料略有差異, 詳細信息請向具體銷售和400谘詢。H3C保留在沒有任何通知或提示的情況下對資料內容進行修改的權利!