21-VCF Fabric配置
本章節下載: 21-VCF Fabric配置 (470.02 KB)
VCF(Virtual Converged Framework)架構基於Openstack組網(Neutron)架構設計,為雲業務租戶提供隔離的從二層到七層的虛擬網絡服務。該架構打通網絡平台、雲管理平台以及終端平台的界限,使整個IT係統成為一個融合架構來承載所有應用,並可實現拓撲自動發現、Underlay網絡和Overlay網絡的自動部署,以減輕配置和維護的工作量、加快網絡部署和升級速度。
在VCF Fabric數據中心二層網絡拓撲中,設備角色分為以下幾種:
· Spine節點:用於連接Leaf節點。
· Leaf節點:用於連接服務器。
· Border節點:位於VCF Fabric網絡拓撲的邊界,用於連接外網。
Spine節點和Leaf節點組成了一個大二層網絡,網絡拓撲類型可以為VLAN、集中式VXLAN IP網關和分布式VXLAN IP網關組網。有關集中式VXLAN IP網關和分布式VXLAN IP網關的詳細介紹請參見“VXLAN配置指導”中的“VXLAN”。
圖1-1 VCF Fabric數據中心網絡拓撲示意圖
在VCF Fabric數據中心三層網絡拓撲中,設備角色分為以下幾種:
· Spine節點:用於連接Aggr節點。
· Aggr節點:彙聚層,用於連接Leaf節點。
· Leaf節點:用於連接服務器。
· Border節點:位於VCF Fabric網絡拓撲的邊界,用於連接外網。
Spine節點和Aggr節點、Aggr節點和Leaf節點之間Underlay網絡是三層網絡,使用OSPF協議;Overlay網絡為VXLAN網絡。
圖1-2 VCF Fabric數據中心三層網絡拓撲示意圖
在VCF Fabric數據中心四層網絡拓撲中,設備角色分為以下幾種:
· Spine節點:用於連接Aggr節點。
· Aggr節點:上行與Spine節點相連,下行與Leaf節點相連。
· Leaf節點:上行與Aggr節點相連,下行與Access節點相連。
· Access節點:為接入設備,上行與Leaf節點相連,下行與服務器相連。
· Border節點:位於VCF Fabric網絡拓撲的邊界,用於連接外網。
Spine節點和Aggr節點、Aggr節點和Leaf節點之間Underlay網絡是三層網絡,使用OSPF協議;Overlay網絡為VXLAN網絡。
圖1-3 VCF Fabric數據中心四層網絡拓撲示意圖
在VCF Fabric園區網網絡拓撲中,設備角色分為以下幾種:
· Spine節點:用於連接Leaf節點。
· Leaf節點:用於連接Access節點。
· Access節點:為接入設備,上行與Leaf節點相連,下行與終端相連,且支持級聯。
· Border節點:位於VCF Fabric網絡拓撲的邊界,用於連接外網。
Spine節點和Leaf節點組成了一個大二層網絡,網絡拓撲類型可以為VLAN、集中式VXLAN IP網關和分布式VXLAN IP網關組網。有關集中式VXLAN IP網關和分布式VXLAN IP網關的詳細介紹請參見“VXLAN配置指導”中的“VXLAN”。
圖1-4 VCF Fabric園區網網絡拓撲示意圖
Neutron是OpenStack框架中的一個組件,用來為虛擬機提供網絡服務,管理各種虛擬網絡資源,包括網絡、子網、DHCP、虛擬路由器等,使每個租戶可以擁有互相隔離的虛擬網絡。Neutron基於一個可插拔的架構,提供了統一的網絡資源模型,VCF Fabric正是基於這個模型的具體實現。
Neutron基本概念如下:
· 網絡(Network):Neutron中的網絡是虛擬的、可創建的對象,用於在多租戶環境下為每個租戶提供獨立的網絡環境。一個網絡相當於一台擁有無限多個動態可創建和銷毀的虛擬端口的交換機。
· 子網(Subnet):子網是網絡中由一組IP地址組成的地址池。不同子網間的通信需要通過路由器。
· 端口(Port):Neutron中的端口是路由器和虛擬機掛接網絡的附著點。
· 路由器(vRouter):Neutron中的路由器是虛擬路由器,負責路由選擇和轉發,可以創建和銷毀。
Neutron包含如下重要組件:
· Neutron server
Neutron server包含守護進程Neutron server和多個neutron-*-plugin。Neutron server提供API接口,並把對API的調用請求傳給已經配置好的插件進行後續處理。插件通過訪問Neutron數據庫來維護配置數據和對應關係,例如路由器、網絡、子網和端口等。
· 插件代理(Plugin agent)
虛擬網絡上數據包的處理由插件代理來完成,名字為neutron-*-agent。通常情況下選擇了什麼插件,就需要選擇相應的插件代理。插件代理與Neutron Server及其插件的交互通過消息隊列來實現。
· DHCP agent
名字為neutron-dhcp-agent,為租戶網絡提供DHCP服務。
· L3 agent
名字為neutron-l3-agent,為租戶網絡提供三層轉發,以支持租戶間的訪問和租戶網絡與外網間的訪問。
Neutron部署包括服務器側和網絡側的部署。
服務器側的部署,具體如表1-1所示。
表1-1 Neutron在服務器側的部署
節點 |
Neutron組件 |
控製節點 |
· Neutron server · Neutron DB · Message Server(例如RabbitMQ服務器) · ML2插件 |
網絡節點 |
· neutron-openvswitch-agent · neutron-dhcp-agent |
計算節點 |
· neutron-openvswitch-agent · LLDP |
網絡側的部署包括網絡設備通過l2-agent/l3-agent模塊,接收和解析服務器側ML2插件的消息,並轉換成二層或三層相關配置在設備上進行下發。不同Fabric組網方式下,Spine節點設備和Leaf節點設備支持的neutron-*-agent不同,具體如表1-2所示。
表1-2 Neutron在設備側的部署
Fabric組網方式 |
網絡設備節點 |
Neutron功能模塊 |
集中式VXLAN IP網關 |
Spine |
neutron-l2-agent neutron-l3-agent |
Leaf |
neutron-l2-agent |
|
分布式VXLAN IP網關 |
Spine |
N/A |
Leaf |
neutron-l2-agent neutron-l3-agent |
圖1-5 集中式組網Neutron部署示意圖
圖1-6 分布式組網Neutron部署示意圖
VCF Fabric自動部署實現了如下功能:
· 拓撲自動發現
在VCF Fabric組網中,網絡設備通過LLDP協議獲取各物理連接的對端設備的接口名、用戶角色、MAC地址、管理口IP地址等信息,形成本地拓撲信息。在采用IPv4地址自動部署的網絡中有多個Spine節點時,需要指定主Spine節點,由主Spine節點收集全網拓撲後用於網絡配置自動化;在采用IPv6地址自動部署的網絡中,無需指定主Spine節點,由控製器完成全網拓撲收集。
· Underlay網絡配置自動化
Underlay網絡就是傳統的物理網絡,可實現設備間的三層互通。Underlay網絡配置自動化通過模板文件自動完成設備的IRF配置、網絡的三層互通配置等,為用戶提供一個IP路由可達的三層網絡。
· Overlay網絡配置自動部署
Overlay網絡是在傳統的物理網絡基礎上疊加的一層邏輯網絡,也稱為虛擬網絡。Overlay網絡配置自動化是自動從Neutron server獲取Overlay網絡配置,主要包括VXLAN和EVPN的配置,實現麵向應用按需分配的虛擬網絡。
(1) 設備以空配置啟動,從DHCP服務器獲取設備IPv4/IPv6地址、TFTP服務器IP地址、模板文件名等信息。
(2) 設備根據角色和DHCP server攜帶的模板文件名,生成模板文件名,例如1_leaf.template,表示Leaf角色的模板文件。
(3) 設備從TFTP服務器自動下載該模板文件到本地。
(4) 設備解析模板文件,完成配置的下發,主要包括:
¡ 模板中與網絡拓撲等動態信息無關的靜態配置將直接下發給本設備。
¡ 模板中與網絡拓撲等動態信息相關的配置,依賴於拓撲變化。拓撲進程會在鄰居刪除、創建或修改時通知自動化進程,自動化進程監聽到拓撲變化後,根據攜帶的拓撲信息來完成角色發現、聚合、搭建IRF等配置下發。
模板文件的內容分為如下幾部分:
· 係統預定義變量:變量名不可以隨意更改;變量取值由網絡拓撲自動發現功能賦予,不需要用戶配置。
· 用戶自定義變量:變量名和取值可以由用戶手工修改,包括本地用戶名、組網類型、以及與Neutron Server建立連接的相關配置等。舉例如下:
¡ IPv4網絡
#USERDEF
_underlayIPRange = 10.100.0.0/16
_master_spine_mac = 1122-3344-5566
_username = aaa
_password = hello12345
_rbacUserRole = network-admin
_neutron_username = openstack
_neutron_password = 12345678
_neutron_ip = 172.16.1.136
_loghost_ip = 172.16.1.136
_network_type = centralized-vxlan
……
¡ IPv6網絡
#USERDEF
_username = aaa
_password = hello12345
_rbacUserRole = network-admin
_loghost_ip = 200:0:0:0:0:0:0:210
_network_type = distributed-vxlan
_OOB = True
_lagg_enable = false
_lagg_mode = dynamic
……
· 靜態配置:與VCF Fabric網絡拓撲等動態信息無關,設備可以直接下發的配置。舉例如下:
#STATICCFG
#
clock timezone beijing add 08:00:00
#
lldp global enable
#
stp global enable
#
· 動態配置:與VCF Fabric拓撲等動態信息相關,設備通過LLDP功能獲取並收集拓撲信息才能下發的配置。舉例如下:
#
interface $$_underlayIntfDown
port link-mode route
ip address unnumbered interface LoopBack0
ospf 1 area 0.0.0.0
ospf network-type p2p
lldp management-address arp-learning
lldp tlv-enable basic-tlv management-address-tlv interface LoopBack0
#
VCF Fabric自動配置任務如下:
自動部署VCF Fabric功能在設備上不需要進行任何配置,但需要在DHCP服務器、TFTP服務器完成必要的配置,以便設備空配置啟動後可自動下載並解析模板文件完成部署。
· (可選)調整VCF Fabric部署
如果設備無法自動獲取並解析模板文件完成VCF Fabric的自動部署,也可以通過命令行調整VCF Fabric部署的相關配置:
· 在數據中心組網中,如果模板文件中定義了軟件版本信息,設備會根據模板信息中的URL地址,獲取新的軟件版本,並與設備當前運行的版本進行比較,如果不一致,則自動下載新版本並完成升級和重啟。
· 在數據中心組網中,隻有Leaf節點和服務器之間可以進行自動聚合。
· 在園區網組網中,Leaf節點和Access節點之間,Access和Access節點之間均可以實現自動聚合,但級聯的Access節點之間聚合端口隻能為千兆以太網端口;Spine節點與Leaf節點之間的每條物理鏈路都要自動下發trunk permit vlan。
· 在園區網組網中,Leaf節點設備之間組成IRF並下聯Aceess節點的場景中:一台Access節點設備與一台Leaf節點設備之間請不要部署兩條或以上的鏈路連接。
· 完成自動化配置後,在上線設備重啟過程中或斷電時,請不要進行鏈路遷移,否則鏈路相關的部分配置可能無法自動更新。
· 自動配置的模板版本號的格式為“x.y”,在設備上可通過執行display vcf-fabric underlay template-version命令查看支持的最高模板版本。實際部署時采用的模板版本號中的“x”可小於等於最高版本;若大於最高版本,可能導致通過模板文件自動部署失敗。模板版本號中的“y”取值不影響兼容性,不同取值僅對應不同的靜態配置組合。
· 執行模板配置後,如果不存在IRF相關配置,則設備不會自動保存配置,用戶可通過執行save命令手工保存配置。
· 對於相同角色的兩台直連設備,隻有IRF物理端口之間已連線,才可自動搭建IRF係統。
· 兩台設備搭建IRF係統,自動化配置首先依據設備的上線時間選擇主設備,若本設備的上線時間大於或等於2小時,則配置本設備為IRF係統的主設備;若本設備上線時間小於2小時,則比較本設備與對端設備的橋MAC地址,橋MAC地址大的設備作為IRF係統的主設備。若兩台設備的上線時間均大於或等於2小時,自動化配置過程中會提示搭建IRF衝突,用戶需要手動重啟其中一台設備,被重啟的設備再次進行自動化配置時將作為IRF係統的從設備。
· 通過自動化配置搭建IRF係統時,若設備的IRF member ID不為1,可能導致自動化搭建IRF的過程中主設備重啟。
(1) 根據用戶需求完成Underlay網絡規劃,包括IP地址、可靠性、路由部署規劃等。
(2) 配置DHCP服務器。
服務器上應為設備配置IPv4/IPv6地址、TFTP服務器IP地址以及保存在TFTP服務器上的模板文件名等信息。具體的配置步驟,請參考DHCP服務器的用戶手冊。
(3) 配置TFTP服務器。
配置模板文件,並保存在TFTP服務器上。
網絡中部署了H3C DR1000 ADDC或ADCAM網管軟件的環境下,模板文件可通過該網管軟件自動生成,並放置於TFTP服務器上;除此之外,用戶需要手工編寫模板文件並放置於TFTP服務器上。有關模板文件的介紹,請參見“1.1.5 模板文件”。
(4) (可選)配置NTP服務器。
(5) 將設備接入網絡並啟動設備。
設備空配置啟動後,通過管理用以太網口或Vlan-interface1接口連接VCF Fabric管理網絡,根據自身角色下載對應的模板文件到本地,並解析模板文件的內容,完成VCF Fabric的自動配置。
(6) 解析並下發模板配置後,設備不會自動保存配置。若希望保存當前配置,可執行save命令。有關該命令的詳細介紹,請參考“基礎命令參考”中的“配置文件管理”。
(1) 進入係統視圖。
system-view
(2) 全局開啟LLDP功能。
lldp global enable
缺省情況下,全局LLDP功能處於關閉狀態。
網絡拓撲發現功能基於LLDP協議獲取直連設備信息的,因此需要先開啟LLDP功能。
(3) 開啟VCF Fabric網絡拓撲發現功能。
vcf-fabric topology enable
缺省情況下,VCF Fabric網絡拓撲發現功能處於關閉狀態。
采用自動化部署Underlay網絡時,用戶不能再通過命令行修改配置,以免因配置衝突導致自動化部署失敗。如需通過命令行修改配置,請通過undo vcf-fabric underlay autoconfigure命令取消自動化配置或vcf-fabric underlay pause命令暫停Underlay網絡的自動配置功能,並在修改完配置後不再開啟自動化配置功能。
自動化部署的Underlay網絡既可以是IPv4網絡,也可以是IPv6網絡。
(1) 進入係統視圖。
system-view
(2) 采用指定的模板文件進行Underlay網絡的自動配置。
vcf-fabric underlay autoconfigure template
缺省情況下,未指定進行Underlay網絡自動配置的模板文件。
設備空配置啟動時具有缺省的VCF Fabric角色,通過本配置可以根據實際組網需求調整設備在VCF Fabric中的角色。
通過自動下載並執行模板文件完成VCF Fabric自動部署的情況下,建議在手工配置設備角色後,以空配置重啟設備,使設備以新角色重新獲取模板文件,並按照模板文件進行Underlay網絡的自動部署。
當采用手工方式進行IRF配置時,請確保IRF所有成員設備在VCF Fabric中的角色一致,否則會出現IRF切換後設備在VCF Fabric中的角色不一致的情況。
(1) 進入係統視圖。
system-view
(2) 指定設備在VCF Fabric網絡拓撲中的角色。
vcf-fabric role { access | aggr | leaf | spine }
缺省情況下,設備在VCF Fabric網絡拓撲中的角色為Leaf節點角色。
(3) 退回係統視圖。
quit
(4) 重啟設備。
reboot
調整設備在VCF Fabric中的角色後,需要重啟設備才能生效。
在采用IPv4地址自動部署的網絡中有多個Spine節點時,需要指定主Spine節點,由主Spine節點收集全網拓撲。
對IPv6 Underlay網絡進行自動化部署時,不需要指定主Spine節點,由控製器完成全網拓撲收集。
(1) 進入係統視圖。
system-view
(2) 配置設備角色為主Spine節點。
vcf-fabric spine-role master
缺省情況下,未配置主Spine節點。
在VCF Fabric組網中,Underlay網絡自動化部署時,Spine設備使用模板中定義的用戶名和密碼與Underlay網絡中的設備建立Netconf連接,通過Netconf收集全局拓撲信息。自動化部署完成後,若用戶手動更改Underlay網絡設備上的用戶名或密碼,會導致Spine設備與其斷開Netconf連接,Spine設備無法感知Underlay網絡的拓撲變化。此時,可以在Spine設備上執行本配置來修改Netconf操作使用的用戶名和密碼,使其與Underlay網絡設備上的用戶名和密碼保持一致,並重新建立Netconf連接,以便進行拓撲收集。
在VCF Fabric組網中,所有Underlay網絡設備上用於建立Netconf連接的用戶名和密碼必須相同。
在Spine設備上執行本配置,會導致Spine節點與Leaf節點間的Netconf連接重新建立。如果網絡中存在多個Spine設備,在主Spine設備上執行本配置後,還會導致主Spine設備與其他Spine設備間的Netconf連接重新建立。
(1) 進入係統視圖。
system-view
(2) 配置Spine設備通過Netconf收集全局拓撲時使用的用戶名。
vcf-fabric underlay netconf-username username
缺省情況下,Spine設備通過Netconf收集全局拓撲時,使用模板文件中定義的用戶名。
(3) 配置Spine設備通過Netconf收集全局拓撲時使用的密碼。
vcf-fabric underlay netconf-password { cipher | simple } string
缺省情況下,Spine設備通過Netconf收集全局拓撲時,使用模板文件中定義的密碼。
暫停Underlay網絡自動配置功能後,VCF Fabric會保存當前的設備狀態,但不響應新的LLDP事件,也不會自動搭建IRF、進行端口聚合、上行口/下行口發現等。本功能通常可在VCF Fabric中的網絡設備自動化完成後配置。後續如果有新的設備接入,可取消暫停功能,在當前狀態的基礎上完成模板中動態配置部分的部署。
(1) 進入係統視圖。
system-view
(2) 暫停Underlay網絡自動配置功能。
vcf-fabric underlay pause
缺省情況下,Underlay網絡自動配置功能處於非暫停狀態。
· 若網絡拓撲結構為VLAN或集中式VXLAN IP網關,Spine節點和Leaf節點上均需要進行Overlay網絡配置自動部署。
· 若網絡拓撲類型為分布式VXLAN IP網關,僅需要在Leaf節點上進行Overlay網絡配置自動部署。
· 設備跟RabbitMQ服務器通信的過程中,不建議用戶進行源IP地址切換或down/up與服務器相連的端口等操作,否則執行開啟或關閉L2-agent/L3-agent功能時,命令行界麵響應時間較長,請耐心等待。
· Aggr節點角色和Access節點角色不支持Overlay網絡自動部署。
· 目前,暫不支持對IPv6 Overlay網絡進行自動化部署。
Overlay網絡自動化部署配置任務簡介如下:
(2) 配置網絡拓撲類型
(3) 開啟L2-agent功能
在VLAN組網和集中式VXLAN IP網關組網中,僅對於Spine節點和Leaf節點為必選;在分布式VXLAN IP網關組網中,僅對於Leaf節點必選。
(4) 開啟L3-agent功能
在VLAN組網和集中式VXLAN IP網關組網中,僅對於Spine節點為必選;在分布式VXLAN IP網關組網中,僅對於Leaf節點為必選。
(5) 配置Border設備
VCF Fabric網絡拓撲中,設備作為Border節點時必選。
(6) (可選)配置VSI虛接口的本地ARP代理功能
(7) (可選)配置VSI虛接口的MAC地址
· 在VCF Fabric的控製節點安裝Openstack neutron相關組件、插件,並完成網絡拓撲類型等配置。
· 在VCF Fabric計算節點安裝Openstack Nova計算相關組件,openvswitch以及neutron ovs agent。
· 確保設備已通過模板自動開啟或通過命令行手工開啟LLDP和VCF Fabric網絡拓撲自動發現功能。
在VCF Fabric組網中,設備是通過RabbitMQ服務器和Neutron server進行通信,因此需要在設備上指定RabbitMQ服務器的IP地址、登錄用戶名、登錄密碼、監聽端口號等。
· 用戶需要在網絡設備上指定RabbitMQ服務器參數要與服務器側設置的RabbitMQ參數保持一致。當服務器側配置了RabbitMQ的持久化屬性時,設備側需要開啟創建RabbitMQ的持久化功能,否則無法成功創建消息隊列。
· 在設備上指定或取消已有的RabbitMQ服務器參數配置時,均需確保服務器與設備之間網絡可達,否則會造成命令行無法響應直到TCP超時。
· 一個RabbitMQ服務器上可以創建多個虛擬主機,每個虛擬主機都可以獨立地提供RabbitMQ服務,為保證設備與Neutron server正常通信,需要為其指定相同的RabbitMQ虛擬主機。
(1) 進入係統視圖。
system-view
(2) 開啟Neutron服務,並進入Neutron視圖。
neutron
缺省情況下,Neutron服務處於關閉狀態。
(3) 指定RabbitMQ服務器的IPv4地址、端口號和VPN實例。
rabbit host ip ipv4-address [ port port-number ] [ vpn-instance vpn-instance-name ]
缺省情況下,未指定RabbitMQ服務器的IPv4地址和VPN實例,通信端口為5672。
(4) 指定設備側與RabbitMQ服務器通信的源IPv4地址。
rabbit source-ip ipv4-address [ vpn-instance vpn-instance-name ]
缺省情況下,未指定設備側與RabbitMQ服務器通信的源IPv4地址,設備通過路由協議自動選擇與RabbitMQ服務器通信的源IPv4地址。
(5) (可選)開啟設備側創建RabbitMQ的持久化功能。
rabbit durable-queue enable
(6) 配置設備與RabbitMQ服務器建立連接所使用的用戶名。
rabbit user username
缺省情況下,設備與RabbitMQ服務器建立連接所使用的用戶名為guest。
(7) 配置設備與RabbitMQ服務器建立連接使用的密碼。
rabbit password { cipher | plain } string
缺省情況下,設備與RabbitMQ服務器建立連接使用的密碼為guest。
(8) 配置為設備提供服務的RabbitMQ服務器上虛擬主機的名稱。
rabbit virtual-host hostname
缺省情況下,為設備提供服務的RabbitMQ服務器虛擬主機名稱為“/”。
(9) 配置設備通過Restful下發配置時使用的用戶名和密碼。
restful user username password { cipher | plain } password
缺省情況下,未配置設備通過Restful下發配置時使用的用戶名和密碼。
通過命令行調整設備所在的網絡拓撲類型後,Neutron會根據新的拓撲類型下發相應的配置,完成Overlay自動部署。
(1) 進入係統視圖。
system-view
(2) 進入Neutron視圖。
neutron
(3) 指定網絡拓撲類型。
network-type { centralized-vxlan | distributed-vxlan | vlan }
缺省情況下,網絡拓撲類型為VLAN。
L2-agent功能用於響應網絡創建、子網創建、端口創建等事件,在設備上完成二層網絡的部署,實現同一虛擬網絡的二層互通、不同虛擬網絡的二層隔離。
在VLAN組網和集中式VXLAN IP網關組網中,Spine節點和Leaf節點上均需要開啟L2-agent功能。
在分布式VXLAN IP網關組網中,僅Leaf節點設備上需要開啟L2-agent功能。
(1) 進入係統視圖。
system-view
(2) 進入Neutron視圖。
neutron
(3) 開啟L2-agent功能。
l2agent enable
缺省情況下,L2-agent功能處於關閉狀態。
L3-agent功能用於響應虛擬路由器創建、接口創建和網關設置等事件,在設備上完成網關的部署,以便為虛擬機提供三層轉發服務。
在VLAN和集中式VXLAN IP網關組網中,僅Spine節點上需要開啟L3-agent功能。
在分布式VXLAN IP網關組網中,僅Leaf節點上需要開啟L3-agent功能。
(1) 進入係統視圖。
system-view
(2) 進入Neutron視圖。
neutron
(3) 開啟L3-agent功能。
l3agent enable
缺省情況下,L3-agent功能處於關閉狀態。
VCF Fabric組網中,位於VCF Fabric網絡拓撲的邊界、用於連接外網的設備稱為Border設備。在集中式VXLAN IP網關和VLAN組網中Border設備為Spine節點,在分布式VXLAN IP網關組網中Border設備為Leaf節點。
在Border設備上可以手工配置外部網關地址;也可以通過開啟Border功能,在OpenStack的界麵上創建外部網絡和路由器時,通過Overlay網絡自動部署為設備完成路由相關配置,實現租戶網絡與外網的互通。如果手工配置和Overlay自動下發的網關地址不同,則以自動下發的為準。
通過Border設備連接外網時,Border連接外網的接口加入名稱為global的VPN實例。為了確保外網返回的流量能夠在VPN實例global中查找到到達虛擬機的路由,需要通過配置租戶網絡所屬VPN實例的Import Target將租戶網絡的路由學習到VPN實例global中。
(1) 進入係統視圖。
system-view
(2) 進入Neutron視圖。
neutron
(3) 開啟Border功能。
border enable
缺省情況下,設備不是Border節點。
(4) (可選)配置網關的IP地址。
gateway ip ipv4-address
缺省情況下,未配置網關的IP地址。
(5) 配置租戶網絡所屬VPN實例的Export Target。
vpn-target target export-extcommunity
缺省情況下,未配置租戶網絡所屬VPN實例的Export Target。
(6) (可選)配置租戶網絡所屬VPN實例的Import Target。
vpn-target target import-extcommunity
缺省情況下,未配置租戶網絡所屬VPN實例的Import Target。
開啟VSI虛接口的本地ARP代理功能後設備收到本站點內虛擬機請求其它虛擬機MAC地址的ARP請求時,使用VSI虛接口的MAC地址應答該請求,減少ARP泛洪,實現虛擬機流量通過網關的三層轉發。
僅需要在分布式VXLAN IP網關組網的Leaf節點設備上配置本功能。
僅對新創建的VSI虛接口生效,對已經存在VSI虛接口不起作用。
(1) 進入係統視圖。
system-view
(2) 進入Neutron視圖。
neutron
(3) 開啟VSI虛接口的本地ARP代理功能。
proxy-arp enable
缺省情況下,VSI虛接口的本地ARP代理功能處於關閉狀態。
配置VSI虛接口的MAC地址後,在Overlay網絡自動部署時會修改自動部署設備上創建的所有VSI虛接口的MAC地址,實現虛擬機的動態遷移。
僅需要在分布式VXLAN IP網關組網的Leaf節點設備上配置本功能。
僅對新創建的VSI虛接口生效,對已經存在VSI虛接口不起作用。
(1) 進入係統視圖。
system-view
(2) 進入Neutron視圖。
neutron
(3) 配置VSI虛接口的MAC地址。
vsi-mac mac-address
缺省情況下,未設置VSI虛接口的MAC地址。
在完成上述配置後,在任意視圖下執行display命令可以顯示配置後VCF Fabric的運行情況,通過查看顯示信息驗證配置的效果。
查看設備在VCF Fabric中的角色 |
display vcf-fabric role |
查看VCF Fabric的拓撲信息 |
display vcf-fabric topology |
查看Underlay的自動化配置信息 |
display vcf-fabric underlay autoconfigure |
查看VCF Fabric自動配置功能支持的模板版本和當前自動部署功能使用的模板版本 |
display vcf-fabric underlay template-version |
不同款型規格的資料略有差異, 詳細信息請向具體銷售和400谘詢。H3C保留在沒有任何通知或提示的情況下對資料內容進行修改的權利!