隨著5G、云計算、AI等技術的不斷演進,SDN與NFV或者其他虛擬化網絡技術在數據中心進行應用。數據中心經歷了從經典三層架構、大二層網絡架構、再到Spine/Leaf的葉脊架構,數據中心網絡架構的發展越來越扁平化與自動化。
另外,數據中心有簡化的趨勢,數據中心網絡新設計正在從2層轉向3層。當前最先進的數據中心只是運行BGP、EVPN和BFD協議來進行快速的故障轉移。
數據中心越先進,運行的協議就越少,配置文件就越短。然而,這種簡化趨勢主要是需要更多的可見性,因為聰明的人想要看到他們的網絡內部發生了什么。隨著網絡變得越來越大、越來越快,精明的IT管理人員正在使用更少的協議,但目標是更多的遙測和監控技術,以實現更好的可見性。
面對數據中心的網絡結構的發展變化,納多德在已有大量項目方案的實際經驗基礎上,介紹五種新方法,來幫助用戶優化企業的數據中心網絡架構:
用VXLAN替換VLAN
使用ARP抑制來減少廣播流
用EVPN Multihoming替換MLAG
使用ECMP和UCMP 處理流量平衡
利用自適應路由解決流量極化問題
1.用VXLAN替換VLAN
VXLAN(Virtual eXtensible Local Area Network,虛擬擴展局域網)是由IETF定義的NVO3(Network Virtualization over Layer 3)標準技術之一,采用L2 over L4(MAC-in-UDP)的報文封裝模式,將二層報文用三層協議進行封裝,可實現二層網絡在三層范圍內進行擴展,同時滿足數據中心大二層虛擬遷移和多租戶的需求。
傳統2層網絡具有以下缺點:
它依賴生成樹協議(STP),導致帶寬利用率、冗余和多路徑的能力受到生成樹功能的限制。
它只能在一個子網內運行,當使用MLAG時 ,冗余通常僅限于兩個設備。
任何路徑級冗余都需要鏈路聚合控制協議(LACP),這是端口的標準冗余技術。
如上圖所示,VXLAN克服了傳統2層網絡的缺陷,允許網絡管理者在3層路由結構上進行優化。用戶仍然可以實現2層網絡的覆蓋,但由于使用EVPN作為控制平面,因此不再需要生成樹來進行控制平面收斂。EVPN通過BGP地址簇來交換MAC信息,而不是低效的廣播泛洪和學習。此外,VXLAN使用24位ID ,可定義多達1600萬個虛擬網絡,而VLAN只有12位ID,僅限于4094個虛擬網絡??傊?,VXLAN通過MAC-in-UDP的報文封裝,實現了二層報文在三層網絡上的透傳,在云端上架起了一道道無形的“彩虹”,解決了云計算中虛擬化帶來的一系列問題。
2. 使用ARP抑制來減少廣播傳播
在部署VXLAN的數據中心中BUM報文可以通過ARP抑制進一步優化。通常是在EVPN中使用頭端復制的方式(具體體現是在橋中添加mac地址為全0的FDB表項進行頭端復制)來進行實現。當有很多的ARP廣播請求報文的時候,容易造成廣播泛濫。采用ARP抑制可以有效限制廣播ARP報文的數量。
如上圖所示,VXLAN三層網關通過動態學習終端租戶的ARP表項,再根據ARP表項生成主機信息(包括主機IP地址、 MAC地址、 VTEP地址和VNI ID),并將主機信息通過MP-BGP或BGP EVPN對外發布,使其他的BGP鄰居可以學習到主機信息。因此部署ARP抑制可以優化覆蓋網絡控制平面的,獲得更快的地址解析速度。它還減少了網絡中的廣播流量,因為ARP抑制減少了向VXLAN基礎設施中的每個VTEP發送ARP請求的需要。
3. 用 EVPN Multihoming(EVPN-MH(EVPN多宿主))替換MLAG
在某些場景中,VXLAN環境中仍然需要MLAG來實現冗余多宿主機的連接。EVPN-MH是一個擺脫現有專用MLAG解決方案的機會,它提供雙活服務器冗余支持,因為專用MLAG解決方案的擴展范圍不超過一個設備冗余級別。
EVPNMultihoming特點
無需在TOR交換機之間建立Peerlink鏈路或交換機間鏈路
允許兩個以上TOR交換機成為一個冗余組
提供單個BGP-EVPN 控制平面
允許多供應商互操作性
如上圖所示,VXLAN有助于消除MLAG所需的背靠LEAF到SPINE交換機連接的需要。EVPN-MH進一步消除了Server到TOR交換機連接中對MLAG的任何需要。
Multihoming 使用EVPN消息與宿主機進行通信,并使用主機連接信息動態構建與服務器的2層鄰接關系。當MLAG需要LAG ID時,Multihoming使用以太網段ID。接口映射到用于作為與同一終端主機邏輯連接的以太網段(Ethernet Segment)。
此外,通過在交換機中使用標準協議構造冗余,轉向使用EVPN-MH可以提高網絡供應商的互操作性。由于EVPN底層使用開放標準協議BGP ,任何通過RFC規范實現EVPN-MH的供應商都可以成為以太網段的一部分。
4. ECMP和UCMP處理流量平衡
ECMP(等價多路徑路由)即存在多條到達同一個目的地址的相等開銷的路徑。它是大多數3層路由協議中的標準功能,在這些協議中,在所有可用的下一跳上行鏈路中實現平衡的等價路由。2層控制平面技術(如:生成樹)僅允許通過依賴外部技術(如:LACP)實現同等價負載分擔。
ECMP是3層路由中的原生功能,它使您能夠提高網絡設備的效率。
在某些情況下,ECMP可能會導致轉發效率低下,特別是在部署全面的3層解決方案時,在網絡中的任何位置都使用點對點L3鏈路,甚至到主機。在這種情況下,您可能希望在使用鏈路數量以外的指標來平衡流量。UCMP(非平衡鏈路負載均衡)在這里很有用,因為它使用BGP標記創建跨躍點的流量分布,以便更好地與應用程序分布相匹配。UCMP區別于傳統ECMP,其最大特點是利用權重值來區別對待帶寬的使用,使得兩條不同帶寬的出口,可根據帶寬大小不同來承擔不同的數據流量傳輸.
5. 通過自適應路由解決流量極化問題
自適應路由是現有InfiniBand技術在以太網交換上的實現。自適應路由監控鏈路帶寬、鏈路利用率、交換機緩沖區和ECN/PFC ,將轉發到ECMP組的流量選擇擁塞程度最低的端口進行傳輸,擁塞程度基于出口隊列負載進行評估,確保 ECMP組在不考慮“熵”級別的情況下保持良好平衡。
“熵”是一種衡量流經既定網絡的流量的豐富性和多樣性的方法。
例如:當您有數千個從全球各地的客戶端隨機連接的流時,您的網絡被稱為有high entropy(高熵)。然而,當您只有少數大型流時(這在 AI 和存儲工作負載中經常發生),大型流會控制帶寬,因此會出現 low entropy(低熵)。這種低熵流量模式也稱為“大象流”分布,在許多數據中心工作負載中都很明顯。
當使用靜態 ECMP 的傳統技術,您需要“高熵”來將流量均勻地分布在多個鏈路上,而不會出現擁塞。然而,在“大象流”場景中,多個流可能出現在同一條鏈路上,從而創建一個超過線路帶寬的流量熱點或微突發。這會導致擁塞、延遲增加、數據包丟失和重傳。對于許多應用程序,性能不僅取決于網絡的平均帶寬,還取決于流完成時間的分布。完成時間分布中的長尾或異常值可能會顯著降低應用程序性能。
因此,通過自適應路由技術利用其靈活的網絡拓撲適應性,對于 CLOS(或葉/脊椎)等典型拓撲,到既定目標的各種路徑間距相同時,交換機通常擁塞最小的端口傳輸數據包。當在路徑間距不同的其他拓撲中,交換機傾向于通過最短路徑發送流量。如果擁塞發生在最短路徑上,則選擇擁塞最小的備選路徑。這確保了網絡帶寬得到有效利用。自適應路由的目標是將網絡管理員從手動調整干預中解放出來,讓基礎網絡處理聚合流負載均衡的優化工作。
以上我們介紹了數據中心網絡中可用的優化方案。這些優化有助于減少基礎設施上不必要的控制流量,并且可平衡現有物理鏈路上的流量,充分利用所有可用鏈路帶寬。
納多德NADDOD利用自有光連接件與NVIDIA的網絡硬軟件產品資源和技術優勢,可為客戶提供更豐富、更靈活、更優質的產品技術解決方案,為用戶業務賦能。納多德NADDOD光網絡整體解決方案如下圖所示:
面對數據中心的網絡結構的發展變化,納多德NADDOD作為NVIDIA網絡產品Elite Partner,實現光連接+NVIDIA 網絡產品與解決方案強強聯合,充分發揮雙方產品技術、市場覆蓋與生態優勢,在技術領先競爭力與產品整體方案豐富度上優勢互補,為數據中心、高性能計算、邊緣計算、人工智能等應用場景提供更具優勢與價值的光連接產品和整體解決方案,大幅提高客戶業務加速能力。
審核編輯:湯梓紅
-
數據中心
+關注
關注
16文章
4820瀏覽量
72232 -
網絡結構
+關注
關注
0文章
48瀏覽量
11136 -
5G
+關注
關注
1355文章
48480瀏覽量
564950
發布評論請先 登錄
相關推薦
評論