隨著數字經濟進入“算力時代”,在算力蓬勃發展的同時,打造一張與時俱進的高水平數據中心網絡顯得尤為重要。近日,華為聯合中國信息通信研究院共同發布的數據中心超融合以太技術白皮書,就為我們擘畫了一張高水平數據中心網絡的新藍圖。
決定一個木桶能裝多少水的往往是最短的那塊木板,那么,算力時代的數據中心最短的那塊木板是什么呢?
數據中心網絡是實現數據傳輸的重要通道,也是推動數據中心算力服務能力升級,實現算力充分釋放的關鍵。數據中心網絡主要負責連接用戶終端以及數據中心內部的計算、存儲等設備,保障數據通信網絡鏈路上高效、安全的傳輸。
《中國綜合算力指數(2022年)》報告中明確指出計算、存儲和網絡是算力最重要的組成部分,在數字經濟發展新時期,要更加關注構建集算力、存力和運力于一體的數據中心。由于網絡設備算力水平無法滿足要求而引發的“木桶效應”,可能會拉低整個數據中心的實際算力水平。因此,要提升數據中心算力服務能力,就需要進一步提升數據中心網絡性能。
IDC分析報告顯示,以太網是當前以及未來數據中心的主要技術,當前數據中心以太網占比已經接近95%。眾所周知,標準以太網絡采用盡力而為的工作機制,天然有丟包的特性對存儲的性能穩定性帶來了極大的影響。算力時代,0.1%的丟包會導致50%的算力損失。因此傳統以太網已經不適應現在算力時代數據中心的要求。推動以太網進化從而搭建先進網絡架構的時代已然來臨,以太網正在從“盡力而為”型向“性能敏感”型網絡演進。
從網絡架構、帶寬、時延、可靠性、應用加速、網絡技術演進六個方面來看,數據中心網絡正在從傳統以太、無損以太向超融合以太升級。
具體來看,超融合以太技術具備五大優勢。
01 網絡級負載均衡算法,釋放AI算力
AI集群訓練過程中,參數通過高速互聯網絡在不同的服務器間進行同步交互,這些通信流量具有共同的特征:流量成周期性、流數量少、流量長連接、并行任務間有強實時同步性要求,通信效率取決于最慢的節點,并且AI集群訓練場景下,傳輸的數據量較大。上述的流量特征導致網絡較易出現負載分擔不均、整網吞吐下降的問題,從而影響AI集群訓練的性能。
現有創新的網絡均衡技術NSLB是面向AI訓練場景量身打造的,根據該場景下的流量特征,將搜集到的整網信息作為創新算路算法的輸入,從而得到最優的流量轉發路徑,實現AI訓練場景下整網流量100%的均衡度和AI訓練性能的提升。
02 端網協同擁塞控制實現存儲算力優化
高性能計算、AI模型訓練等應用場景,以及數據中心網絡/云網絡在架構上的發展(資源池化),均要求網絡傳輸排隊時延和吞吐上的進一步性能提升。
端網協同擁塞控制技術采用“端(智能網卡)網(交換機)”配合的方式達到交換機上的近似“零排隊”時延,使得端到端傳輸時延接近靜態時延。
端網協同主要根據網絡可用帶寬,調整端側發送速率,這種源端與交換機之間的密切配合使網絡中的隊列近乎為空,同時能保持接近100%的利用率。和當前業界主流的協同算法相比,端網協同算法C-AQM能夠把排隊時延控制得極低,接近于0,同時瓶頸鏈路達到接近100%利用率。
03
數據面快速收斂
提供分布式數據庫高可靠算力
隨著業務發放速度的不斷加快,以及引入了VM、容器等虛擬化技術,網絡流量的不確定性增加。而當前運維手段有限,仍然依靠傳統網管和命令行方式進行查看、監控,分鐘級的網絡監控已經無法滿足業務秒級體驗保障的要求,往往被動感知故障。故障發生后,定位仍主要依賴專家經驗,利用多種輔助工具,逐段定界、逐流分析、抓包定位,效率十分低下。
網絡故障收斂慢對業務穩定性產生的負面影響,尤其會造成高性能數據庫類業務性能的嚴重下降。為了解決上述故障收斂慢的問題,華為提出了一種基于網絡設備數據面的鏈路故障快速自愈技術,稱為DPFF(Data Plane Fast Failover)。該技術基于轉發芯片的硬件可編程能力構建。DPFF從傳統的基于控制面軟件協議的收斂方式演進到基于數據面硬件極速感知故障和快速換路的收斂方式,并且基于數據面硬件實現遠程通告和快速換路,可達到亞毫秒級(<1ms)的收斂速度,將對業務性能的影響降至最低。該技術為高性能數據庫、存儲以及超算等關鍵應用提供了極致的高可靠性保證和穩定性體驗。
測試結果表明,DPFF收斂方案比傳統的OSPF收斂方案在鏈路故障下,每100ms周期內完成交易事務數量下降減少60%~80%。
04
網絡架構創新
構建E/10E級超大規模算力集群
5G、萬物互聯智能時代產生海量數據,智能訓練大模型部署,國家新一代超級計算中心的規劃建設……爆炸式增長的算力需求與實際算力增長速度之間存在巨大鴻溝。在后摩爾時代,通過構建大規模并行計算集群滿足不斷增長的算力需求,如10E級計算集群其計算服務器規模達到20萬以上。
計算集群網絡傳統采用CLOS架構,以業界常見的64口盒式交換機為例,3級CLOS架構,最大可支持6.5萬服務器接口,不滿足10E級計算集群規模訴求。如果增加網絡層數則會帶來網絡跳數增加,通信時延不滿足業務需求。
業界針對該問題開展了多樣的架構研究和新拓撲的設計。直連拓撲在超大規模組網場景下,因為網絡直徑短,具備低成本、端到端通信跳數少的特點。以64口盒式交換機構建10萬個節點超大規模集群為例,傳統的CLOS架構需要部署4層組網,端到端通信最大需要跨7跳交換機。使用無阻塞直連拓撲組網,端到端交換機轉發跳數最少只3跳,交換機臺數(整體投資)下降40%。
05
業務級SLA保障
實現數據中心一張網
為了解決這個難題,華為提出超融合智能無損網絡方案,將業務級SLA智能保障技術引入到交換機中,用iLossless智能無損算法代替專家經驗,對網絡流量的變化進行基于隊列級捕獲和預測,實現細粒度動態差異化優化。結合不同業務的流量變化情況以及業務特征,實現不同業務流量差異化動態優化保障。
根據實驗室測試,采用3臺華為交換機組成2級Spine-Leaf組網,每臺接入層交換機下掛16臺100GE服務器,Spine與每個Leaf之間采用4個400G互聯(1:1收斂)。在計算和存儲benchmark流量混跑的測試環境下,智能無損算法相比于傳統算法配置,在保持存儲持平前提下,能夠有效降低計算任務的總體完成時間,在測試場景中實現最高20%以上的計算時延降低。
隨著數字產業智能化向智能世界發展,未來數據中心將朝著多云異構算力演進,要構建強大的算力,需要各類資源高度協同,深度融合。新算力,對網絡提出了新的訴求,下一代數據中心需要超融合以太技術給新算力進行新的賦能,以應對新的挑戰。作為數據中心動脈血管新的路標,一張開放、自主的超融合以太網絡將多維度與各類算力資源協同,全面提升網絡性能,通過網絡全棧技術的持續創新,為新算力賦能,釋放更高算力,從而助力“高算力、高安全、高效能、高可靠”的新型算力中心建設。
原文標題:轉載|數據中心網絡持續進階,超融合以太技術正當其時
文章出處:【微信公眾號:華為數據通信】歡迎添加關注!文章轉載請注明出處。
-
華為
+關注
關注
216文章
34476瀏覽量
252114
原文標題:轉載|數據中心網絡持續進階,超融合以太技術正當其時
文章出處:【微信號:Huawei_Fixed,微信公眾號:華為數據通信】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論