色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

聊聊數據中心的兩項最新黑科技—NPO/CPO

鮮棗課堂 ? 來源:鮮棗課堂 ? 作者:小棗君 ? 2022-10-21 09:37 ? 次閱讀

故事還是要從頭開始講起。

去年,國家發布了“東數西算”戰略,吸引了全社會的關注。

所謂“東數西算”,其實就是數據中心的任務分工調整。我們將東部沿海地區的部分算力需求,轉移到西部地區的數據中心完成。

之所以這么做,就是因為西部地區能源資源比較充沛,而且自然溫度較低,可以大幅減少電費以及碳排放。

我們都知道,數據中心是算力的載體,現階段我們大搞數字化轉型和數字經濟,離不開算力,也離不開數據中心。但是,數據中心的耗電問題,無法忽視。

根據數據顯示,2021年全國數據中心總用電量為2166億千瓦時,占全國總用電量的2.6%,相當于2個三峽水電站的年發電量,1.8個北京地區的總用電量。

如此恐怖的耗電量,對我們實現“雙碳”目標造成了很大壓力。

于是乎,行業開始加緊研究,究竟如何才能將數據中心的能耗降下來。

數據中心(IDC

大家應該都知道,數據中心有一個重要的參數指標,那就是PUE(Power Usage Effectiveness,電能使用效率)。

PUE=數據中心總能耗/IT設備能耗。其中數據中心總能耗,包括IT設備能耗,以及制冷、配電等其它系統的能耗。

我們可以看出,除了用在主設備上的電量之外,還有很大一部分能耗,用在散熱和照明上。

所以,搗鼓數據中心的節能減排,思路就在兩點:

1、減少主設備的功耗

2、減少散熱和照明方面的功耗(主要是散熱)

主設備的功耗挑戰

說起主設備,大家馬上就想到了服務器。是的沒錯,服務器是數據中心最主要的設備,它上面承載了各種業務服務,有CPU、內存等硬件,可以輸出算力。

但實際上,主設備還包括一類重要的設備,那就是網絡設備,也就是交換機、路由器、防火墻等。

目前,AI/ML(人工智能/機器學習)的加速落地,再加上物聯網的高速發展,使得數據中心的業務壓力越來越大。

這個壓力不僅體現在算力需求上,也體現在網絡流量上。數據中心的網絡接入帶寬標準,從過去的10G、40G,一路提升到現在100G、200G甚至400G。

網絡設備為了滿足流量增長的需求,自身也就需要不斷迭代升級。于是乎,更強勁的交換芯片,還有更高速率的光模塊,統統開始用上。

我們先看看交換芯片

交換芯片是網絡設備的心臟,它的處理能力直接決定了設備的能力。這些年,交換芯片的功耗水漲船高,如下圖所示:

ad6e3752-5066-11ed-a3b6-dac502259ad0.png

交換機芯片功耗變化趨勢

值得一提的是,雖然網絡設備的總體功耗在持續提升,但是,單Bit(比特)的功耗是持續降低的。也就是說,能效越來越高。

再看光模塊

光模塊在光通信領域,擁有重要的地位,直接決定了網絡通信的帶寬。

早在2007年的時候,一個萬兆(10Gbps)的光模塊,功率才1W左右。

隨著40G、100G到現在的400G,800G甚至以后的1.6T光模塊,功耗提升速度就像坐上了火箭,一路飆升,直逼30W。大家可要知道,一個交換機可不止一個光模塊,滿載的話,往往就有幾十個光模塊(假如48個,就是48×30=1440 W)。

一般來說,光模塊的功耗大約占整機功耗的40%以上。這就意味著,整機的功耗極大可能會超過3000 W。

一個數據中心,又不止一交換機。這背后的功耗,想想都很可怕。

除了交換芯片和光模塊之外,網絡設備還有一個大家可能不太熟悉的“耗電大戶”,那就是——SerDes。

SerDes是英文SERializer(串行器)/DESerializer(解串器)的簡稱。在網絡設備中,它是一個重要器件,主要負責連接光模塊和網絡交換芯片。

ad7eb24e-5066-11ed-a3b6-dac502259ad0.png ? 簡單來說,就是將交換芯片出來的并行數據,轉換成串行數據進行傳輸。然后,在接收端,又將串行數據轉換成并行數據。

前面提到,網絡交換芯片的能力在不斷提升。因此,SerDes的速率也必須隨之提升,以便滿足數據傳輸的要求。

SerDes的速率提升,自然就帶動了功耗的增加。

在102.4Tbps時代,SerDes速率需要達到224G,芯片SerDes(ASIC SerDes)功耗預計會達到300W。

需要注意的是,SerDes的速率和傳輸距離,會受到PCB材料工藝的影響,并不能無限增加。換句話說,當SerDes速率增加、功耗增加時,PCB銅箔能力不足,不能讓信號傳播得更遠。只有縮短傳輸距離,才能保證傳輸效果。

這有點像扔鉛球比賽,當鉛球越重(SerDes速率越高),你能扔的距離就越短。

ad911b00-5066-11ed-a3b6-dac502259ad0.png

具體來說,SerDes速率達到224G時,最多只能支持5~6英寸的傳輸距離。

這意味著,在SerDes沒有技術突破的前提下,網絡交換芯片和光模塊之間的距離,必須縮短。

綜上所述,交換芯片、光模塊、SerDes,是網絡設備的三座“功耗”大山。

根據設備廠商的數據顯示,過去的12年時間,數據中心的網絡交換帶寬提升了80倍,背后的代價就是:交換芯片功耗提升約8倍,光模塊功耗提升26倍,交換芯片SerDes功耗提升25倍。

adb303f0-5066-11ed-a3b6-dac502259ad0.jpg

信息來源:2020 Cisco and/or its affiliates.All rights reserved.Cisco Public

在此情況下,網絡設備在數據中心內的功耗占比,隨之不斷攀升。

adcddbbc-5066-11ed-a3b6-dac502259ad0.jpg

網絡設備(紅色)的能耗占比

數據來源:Facebook-OIF CPO Webinar 2020

散熱的功耗挑戰

前面小棗君仔細介紹了網絡設備的功耗挑戰。接下來,我們再看看散熱。

事實上,相比對網絡設備的功耗提升,散熱的功耗才是真正的大頭。

根據數據統計,交換設備在典型數據中心總能耗中的占比,僅僅只有4%左右,還不到服務器的1/10。

但是散熱呢?根據CCID數據統計,2019年中國數據中心能耗中,約有43%是用于IT設備的散熱,基本與45%的IT設備自身的能耗持平。

即便是現在國家對PUE提出了嚴格要求,按照三級能效(PUE=1.5,數據中心的限定值)來算,散熱也占了將近40%。

addbe5d6-5066-11ed-a3b6-dac502259ad0.png

傳統的散熱方式(風冷/空調制冷),已經不能滿足當前高密數據中心的業務發展需求。于是,我們引入了液冷技術

液冷,是使用液體作為冷媒,為發熱部件散熱的一種新技術。引入液冷,可以降低數據中心能近90%的散熱能耗。數據中心整體能耗,則可下降近36%。

ae04ae6c-5066-11ed-a3b6-dac502259ad0.png

這個節能效果,可以說是非常給力了,直接省電三分之一。

除了散熱更強更省電之外,液冷在噪音、選址(不受環境氣候影響)、建設成本(可以讓機柜采用高密度布局,減少機房占地面積)等方面也有顯著優勢。

所以,現在幾乎所有的數據中心,都在采用液冷。有的液冷數據中心,甚至可以將PUE干到1.1左右,接近1的極限值。

液冷,是不是把整個設備全部浸沒在液體里呢?

不一定。

液冷的方案,一般包括兩種,分別是浸沒式冷板式。

浸沒式,也叫直接式,是將主設備里發熱量大的元器件,全部浸入冷卻液中,進行散熱。

冷板式,也稱間接式,是將主要散熱部件與一塊金屬板貼合,然后金屬板里有冷媒液體流動,把熱量帶走?,F在很多DIY組裝電腦,就是冷板式。

服務器采用液冷,已經是非常成熟的技術。那么,既然要上液冷,當然是服務器和網絡設備一起上,會更好啊,不然還要搞兩套體系。

問題來了,咱們的網絡設備,能上液冷嗎?

NPO/CPO,閃亮登場

當當當!鋪墊了那么多,我們的主角,終于要閃亮登場了。

為了盡可能地降低網絡設備的自身工作功耗以及散熱功耗,在OIF(光互聯網絡論壇)的主導下,業界多家廠商,共同推出了——NPO/CPO技術

2021年11月,國內設備廠商銳捷網絡(Ruijie Networks),發布了全球第一款25.6T的NPO冷板式液冷交換機。2022年3月,他們又發布了51.2T的 NPO冷板式液冷交換機(概念機)。

NPO冷板式液冷交換機

NPO,英文全稱Near packaged optics,近封裝光學。CPO,英文全稱Co-packaged optics,共封裝光學。

簡單來說,NPO/CPO是將網絡交換芯片和光引擎(光模塊)進行“封裝”的技術。

我們傳統的連接方式,叫做Pluggable(可插拔)。光引擎是可插拔的光模塊。光纖過來以后,插在光模塊上,然后通過SerDes通道,送到網絡交換芯片(AISC)。

aef556aa-5066-11ed-a3b6-dac502259ad0.png

CPO呢,是將交換芯片和光引擎共同裝配在同一個Socketed(插槽)上,形成芯片和模組的共封裝。

NPO是將光引擎與交換芯片分開,裝配在同一塊PCB基板上。

大家應該能看出來,CPO是終極形態,NPO是過渡階段。NPO更容易實現,也更具開放性。

之所以要做集成(“封裝”),目的很明確,就是為了縮短了交換芯片和光引擎間的距離(控制在5~7cm),使得高速電信號能夠高質量的在兩者之間傳輸,滿足系統的誤碼率(BER)要求。

af598be8-5066-11ed-a3b6-dac502259ad0.png

縮短距離,保證高速信號的高質量傳輸

集成后,還可以實現更高密度的高速端口,提升整機的帶寬密度。

此外,集成使得元件更加集中,也有利于引入冷板液冷。

af6ce8be-5066-11ed-a3b6-dac502259ad0.png

NPO交換機內部(揭開冷板后)

可以看到,交換芯片和光引擎之間的距離大幅縮短

NPO/CPO技術的背后,其實就是現在非常熱門的硅光技術。

硅光,是以光子和電子為信息載體的硅基光電大規模集成技術。簡單來說,就是把多種光器件集成在一個硅基襯底上,變成集成“光”路。它是一種微型光學系統。

硅光之所以這么火,根本原因在于微電子技術已經逐漸接近性能極限,傳統的“電芯片”在帶寬、功耗、時延方面,越來越力不從心,所以,就改走了“(硅)光芯片”這個新賽道。

NPO/CPO交換機的進展

NPO/CPO技術是目前各大廠商研究的熱門方向。尤其是NPO,因為擁有最優開放生態,產業鏈更加成熟,可以獲得成本及功耗的最快收益,所以,發展落地更快。

前面提到了銳捷網絡的25.6T硅光NPO冷板式液冷交換機。

這款NPO交換機基于112G SerDes的25.6T的交換芯片,1RU的高度,前面板支持64個連接器的400G光接口,由16個1.6T(4×400G DR4)的NPO模塊組成,支持8個ELS/RLS(外置激光源模塊)。

散熱方面,采用了非導電冷卻劑的冷板冷卻方式。

那款51.2T硅光NPO冷板式液冷交換機,高度不變,將NPO模組從1.6T升級到了3.2T,前面板支持64個800G連接器,每個連接器還可以分成2個400G端口,實現向前兼容。外置光源模塊增加到了16個。

51.2T NPO冷板式液冷交換機

在實際組網中,51.2T的NPO交換機(最快在2023年底商用發布),可以應用于100G/200G的接入網絡,作為接入&匯聚設備,實現高速互聯。

值得一提的是,NPO/CPO的技術和產品研發,并不是一件簡單的事情,背后是對一家企業整體研發實力的考驗。

這次銳捷網絡能夠全球首發NPO/CPO產品,是他們持續投入資源進行艱苦研發和創新的成果,也體現了他們在這個領域的技術領先性。

銳捷網絡在2019年開始關注硅光領域技術,2020年6月正式成立研發及產品團隊。作為OIF/COBO的成員,他們一直都有參與工作組全球會議,參加相關標準的討論和制定。

在硅光這個方向上,銳捷網絡已經走在了世界前列,未來可期。

結語

好了,介紹了這么多,相信大家已經看明白,到底什么是NPO/CPO了。

這兩項技術,是數據中心網絡設備毫無疑問的發展方向。在目前的數字化浪潮下,我們對算力和網絡通信能力的追求是無止境的。在追求性能的同時,我們也要努力平衡功耗。畢竟,我們要走的是可持續性發展的道路。

希望以NPO/CPO為代表的硅光科技,能夠進一步加速落地,為信息基礎設施的綠色低碳做出貢獻。

未來,硅光技術究竟還會帶來怎樣的技術創新?讓我們拭目以待吧!





審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 服務器
    +關注

    關注

    12

    文章

    9123

    瀏覽量

    85324
  • 人工智能
    +關注

    關注

    1791

    文章

    47183

    瀏覽量

    238253
  • 機器學習
    +關注

    關注

    66

    文章

    8406

    瀏覽量

    132562
  • 交換芯片
    +關注

    關注

    0

    文章

    81

    瀏覽量

    11012
  • CPO
    CPO
    +關注

    關注

    0

    文章

    18

    瀏覽量

    174

原文標題:數據中心的黑科技——到底什么是NPO/CPO?

文章出處:【微信號:鮮棗課堂,微信公眾號:鮮棗課堂】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    數據中心子系統的組成

    本帖最后由 bestups365 于 2011-11-11 10:21 編輯 數據中心的主要組成部分共有如下11個。(1)物理結構數據中心的物理結構就是能夠安裝數據中心并保護其免受環境條件
    發表于 11-11 10:16

    走向綠色數據中心的7種手段

      云計算數據中心涉及資源空間,電力,不間斷電源等等因素。毫無疑問,數據中心對當地的生態系統造成巨大的壓力。將數據中心變成環保的數據中心不是一個簡單的任務,就像許多
    發表于 08-16 15:35

    數據中心市場的十大趨勢

    使云數據中心運營商能夠通過提高功率效率來降低成本。例如,現在可以在單個芯片上配置48端口開關,而以前則需要個芯片。 優化的解決方案(如MACOM的L-PIC?)讓云數據中心運營商能夠以高性價比的方式
    發表于 12-31 22:23

    數據中心的建設也看重風水

    相比中國傳統的風水理論,數據中心所看重的風水則更加貼合實際。以整體架構來劃分,目前的主流的數據中心已經進入第三代,并開始向第四代演進。第一代和第二代數據中心分別誕生于20世紀40和70年代,當時
    發表于 08-07 06:22

    數據中心光互聯解決方案

      數據中心光互聯解決方案  隨著數據中心在全球的大規模部署,數據中心對于100Gbps模塊的需求時代已經到了,而對于10G/40Gbps模塊的需求依然強勁。  SMC針對數據中心光模
    發表于 07-03 10:36

    未來數據中心與光模塊發展假設

    國內數據中心的發展經歷了由運營商主導的以通信機樓為主的分散、小規?;l展階段,逐步向市場驅動的規?;?、標準化、高密度、綠色節能方向發展。隨著我們步入未來,數據中心的任務和概念還將繼續發展。而光模塊占
    發表于 08-07 10:27

    數據中心布線之有源光纜

    本帖最后由 易飛揚 于 2020-8-22 15:05 編輯 根據通信產業研究機構(CIR)的報告,2020年用于數據中心的有源光纜AOC市場將達42億美元(約合人民幣266.8億元)。有源
    發表于 08-22 15:04

    數據和物聯網是如何影響數據中心的?

    數據和物聯網是如何影響數據中心的?
    發表于 05-21 06:24

    數據中心太耗電怎么辦

    ??????摘要:其實對于節能,傳統技術也是做了“十二分”的努力。但是在技術不斷演進的情況下,傳統節能技術還是存在問題,如何破?本文分享自華為云社區《數據中心節能?來試試華為NAIE數據中心節能技術
    發表于 06-30 06:27

    數據中心是什么

    數據中心是什么:數據中心是全球協作的特定設備網絡,用來在因特網絡基礎設施上傳遞、加速、展示、計算、存儲數據信息。數據中心大部分電子元件都是由低直流電源驅動運行的。
    發表于 07-12 07:10

    PUE指標能準確衡量數據中心能效嗎?

    PUE指標能準確衡量數據中心能效嗎?孫長青,注冊暖通工程師,高級工程師,規劃設計部總工程師,IDC單位設計總監等,有多年從事數據中心規劃設計、咨詢顧問、甲方自建設計部等全過程的實戰經驗,對數據中心
    發表于 07-12 08:06

    如何去提高數據中心的運營效率呢

    現如今,盡管IT業界的各種新興技術可能正發生著各種突飛猛進的快速變化,但每家數據中心仍然需要依賴電力資源的消耗來維持其運行能力。故而,數據中心運營商們仍然需要通過更新電源使用、冷卻和電氣設計方案,來
    發表于 09-09 06:14

    什么是數據中心

    數據中心是企業用來容納其關鍵業務應用程序和信息的物理設施。隨著它們的發展,重要的是要長期考慮如何保持它們的可靠性和安全性。什么是數據中心數據中心通常被稱為單個事物,但實際上它們由許多技...
    發表于 09-15 06:46

    可插拔LPO如何替代NPO/CPO的傳統技術

    作為一技術的偽概念,LPO由來已久。然而我們必須及時放棄,替代以NPO/CPO的傳統技術觀念。 ? 大體上,人們可以實現200G LPO的基本應用,且最好基于硅光子技術。至于更多速率LPO的升級性
    的頭像 發表于 09-10 09:15 ?1591次閱讀

    ODCC 2023 | 華為數據中心網絡榮膺2023開放數據中心大會三大獎

    [中國,北京,2023年9月13日] 9月13日,華為數據中心網絡在2023開放數據中心大會(簡稱:ODCC)上,斬獲十周年攜手同行獎、十周年卓越項目-無損網絡系列、NDMA優秀項目獎三大獎。能
    的頭像 發表于 09-13 19:35 ?917次閱讀
    主站蜘蛛池模板: 久久精品热播在线看| 高清观看ZSHH96的视频素材| 51精品国产AV无码久久久密桃| 正在播放一区二区| 91久久偷偷做嫩草影院免| max girls 大感谢祭| 成人在线免费视频| 国产伦精品一区二区三区| 黄色三级网络| 么么哒日本影院| 日本久久精品毛片一区随边看| 午夜片无码区在线观看| 亚洲午夜久久影院| 999久久久国产| 国产99在线视频| 果冻传媒在线观看视频| 美女扒开尿口让男生添动态图| 日本bbwhd| 亚洲精品视频区| 99在线视频免费观看视频| 国产精品VIDEOSSEX久久发布| 久久电影精品| 青草在线观看视频| 亚洲精品拍拍央视网出文| 99在线免费视频| 含羞草国产亚洲精品岁国产精品| 伦理在线影院伦理电影| 手机国产视频福利| 在线亚洲黄色| 国产成人无码一区AV在线观看 | ass女人下部欣赏| 国产精品人妻无码免费A片导航| 久久高清内射无套| 日欧一片内射VA在线影院| 伊人久久中文大香线蕉综合| 成人免费视频网站www| 午夜神器18以下不能进免费| 97精品国产自产在线观看永久| 国产精品人妻99一区二| 美女用手扒开粉嫩的屁股| 无颜之月全集免费观看|