電子發燒友網報道(文/李彎彎)近年來,在全球數字化、智能化的浪潮下,智能手機、自動駕駛、數據中心、圖像識別等應用推動 AI服務器市場迅速成長。根據 IDC 數據,2021 年全球 AI 服務器市場規模已達到 145 億美元,并預計 2025 年將超過 260 億美元。
近段時間ChatGPT概念的火熱,更是對算力基礎設施的需求起到了帶動作用。寧暢副總裁兼CTO趙雷此前在接受媒體采訪的時候表示,ChatGP的訓練和部署,都需要大量智能計算數據存儲以及傳輸資源,計算機基礎設施、算力等上游技術將因此受益。
ChatGPT有著多達1750億個模型參數。在算力方面,GPT-3.5在訓練階段消耗的總算力約3640PF-days。在應用時,ChatGPT仍然需要大算力的服務器支持。ChatGPT的持續爆火也為AIGC帶來全新增量,行業對AI模型訓練所需要的算力支持提出了更高要求。
寧暢是一家集研發、生產、部署、運維一體的服務器廠商,及IT系統解決方案提供商。該公司早早就開始著重發力于人工智能服務器和液冷服務器。趙雷表示,公司目前在用的、在研的人工智能和液冷服務器,包括明年還將推出的浸沒液冷服務器,剛好跟上算力高速增長的市場需求。公司隨時準備著為客戶提供合適的高算力產品和解決方案。
在人工智能服務器方面,寧暢已經推出多款產品,包括X620 G50、X660 G45、X640 G40、X620 G40。X620 G50適用于機器學習、AI推理、云計算、高性能計算等場景;660 G45是專門為深度學習訓練開發的高性能計算平臺;X640 G40是兼備訓練與推理功能的全能型GPU服務器;X620 G40性能提升的同時支持PCIe 4.0高速總線技術,完美支持NVIDIA各類最新型GPU加速服務,是最為理想的AI推理平臺。
在液冷服務器方面,寧暢推出了三款冷板式液冷服務器,包括產品B5000 G4 LP、X660 G45 LP、R620 G40 LP,范圍覆蓋了高密度、通用機架以及人工智能服務器產品,可滿足科學計算、AI訓練、云計算等眾多IT應用場景,可滿足用戶不同需求。
作為服務器廠商需要給下游互聯網客戶提供怎樣的產品和服務呢?對于服務器廠商來說,不只是要提供服務器硬件或者基礎設施,還要有對應的服務能力。
從服務層面來看,在用戶現場會關注什么呢,比如說核心業務,會關注業務的在線率,不管服務器壞不壞,整個業務的運行是要有彈性的、靈活的,不會給客戶造成影響的。就以百度、微信這些業務為例,大家幾乎不會看到微信不能用了,或者百度搜索不反饋結果了。
趙雷表示,對于服務器廠商來說,要做的是在服務層面能夠快速響應,不管是采用現場備件模式,機房備機模式,還是駐場人員巡檢的模式,都需要做到24小時的快速響應。這是純粹的服務方面,也就是說,在互聯網搭建業務連續性良好的基礎上,服務器廠商能夠將故障和快速維修的能力做到極致,有效地支撐客戶的前端應用。
從產品層面來看,對于每個硬件子系統在設計研發過程中,都需要從易維修和低故障角度去思考如何將產品做得更好。寧暢在這方面做了很多工作:首先,現在冷卻方式是影響故障率比較重要的因素,因為溫度太高故障率就會高,寧暢的精密風冷和液冷的方式,能夠有效地降低芯片和對應組件的故障率。
其次,其精密六維減震模式,能夠有效提升硬盤的性能,降低故障率;接著是,采用DAE的散熱器,從散熱的維度有效降低光模塊的故障率。同時CPU、GPU的液冷可以有效降低CPU、GPU的故障率;通過內存的漏斗,內存的故障篩選或者在線隔離技術,有效地降低內存的故障率;另外還在板卡走線、機箱結構方面進行了優化設計。
此外還有整機BMC易管理特性,趙雷認為,任何東西不可能不壞,有毛病是不可避免的,壞了以后,如何快速通知客戶或者維護人員維修時關鍵。BMC有一個完善的通知機制,郵件自動通知、SMP遠程告警、IPMI告警等。寧暢按照互聯網客戶的需求定制,將其融入整個機房的運維系統,出現故障以后可以第一時間通知去維修。
雖然目前國內有不少優秀的服務器、云廠商等,不過整體來看,國內的算力仍然存在瓶頸,比如,總體算力不夠,算力的分布不平均。部分客戶算力過剩,部分客戶算力不足。或者A時間算力過剩,B時間算力不足,這是算力協調的問題。
短期來看這個問題要靠云技術解決,長期來看是要提供過剩的算力。也就是說,需要云技術去平衡協調算力不均勻的問題,還需要提供算力、算力效率等。
再比如算力成本高的問題,雖然目前每單位算力單價下降了,但是過去幾年服務器的平均售價一直上漲。趙雷認為,可能算力類型單一,不太能夠有效地支撐高速增長的模式,可能要有各種各樣不同類型的算力。比如ChatGPT,是不是可以做針對GPT模型專門的ASIC。算力的應用類型越窄,它的效率就會越高,越通用,效率就越低。
整體而言,過去幾年在全球數字化、智能化浪潮下,市場對算力的需求不斷增加。ChatGP的出現更是讓行業對算力提出了新的要求。國內服務器廠商在對人工智能行業提供算力支持方面已經有所準備。不過從目前的情況來看,國內在算力方面仍然存在一些瓶頸,比如算力分布不均勻,成本高等問題。后續還需業界共同去探討解決。
近段時間ChatGPT概念的火熱,更是對算力基礎設施的需求起到了帶動作用。寧暢副總裁兼CTO趙雷此前在接受媒體采訪的時候表示,ChatGP的訓練和部署,都需要大量智能計算數據存儲以及傳輸資源,計算機基礎設施、算力等上游技術將因此受益。
ChatGPT有著多達1750億個模型參數。在算力方面,GPT-3.5在訓練階段消耗的總算力約3640PF-days。在應用時,ChatGPT仍然需要大算力的服務器支持。ChatGPT的持續爆火也為AIGC帶來全新增量,行業對AI模型訓練所需要的算力支持提出了更高要求。
寧暢是一家集研發、生產、部署、運維一體的服務器廠商,及IT系統解決方案提供商。該公司早早就開始著重發力于人工智能服務器和液冷服務器。趙雷表示,公司目前在用的、在研的人工智能和液冷服務器,包括明年還將推出的浸沒液冷服務器,剛好跟上算力高速增長的市場需求。公司隨時準備著為客戶提供合適的高算力產品和解決方案。
在人工智能服務器方面,寧暢已經推出多款產品,包括X620 G50、X660 G45、X640 G40、X620 G40。X620 G50適用于機器學習、AI推理、云計算、高性能計算等場景;660 G45是專門為深度學習訓練開發的高性能計算平臺;X640 G40是兼備訓練與推理功能的全能型GPU服務器;X620 G40性能提升的同時支持PCIe 4.0高速總線技術,完美支持NVIDIA各類最新型GPU加速服務,是最為理想的AI推理平臺。
在液冷服務器方面,寧暢推出了三款冷板式液冷服務器,包括產品B5000 G4 LP、X660 G45 LP、R620 G40 LP,范圍覆蓋了高密度、通用機架以及人工智能服務器產品,可滿足科學計算、AI訓練、云計算等眾多IT應用場景,可滿足用戶不同需求。
作為服務器廠商需要給下游互聯網客戶提供怎樣的產品和服務呢?對于服務器廠商來說,不只是要提供服務器硬件或者基礎設施,還要有對應的服務能力。
從服務層面來看,在用戶現場會關注什么呢,比如說核心業務,會關注業務的在線率,不管服務器壞不壞,整個業務的運行是要有彈性的、靈活的,不會給客戶造成影響的。就以百度、微信這些業務為例,大家幾乎不會看到微信不能用了,或者百度搜索不反饋結果了。
趙雷表示,對于服務器廠商來說,要做的是在服務層面能夠快速響應,不管是采用現場備件模式,機房備機模式,還是駐場人員巡檢的模式,都需要做到24小時的快速響應。這是純粹的服務方面,也就是說,在互聯網搭建業務連續性良好的基礎上,服務器廠商能夠將故障和快速維修的能力做到極致,有效地支撐客戶的前端應用。
從產品層面來看,對于每個硬件子系統在設計研發過程中,都需要從易維修和低故障角度去思考如何將產品做得更好。寧暢在這方面做了很多工作:首先,現在冷卻方式是影響故障率比較重要的因素,因為溫度太高故障率就會高,寧暢的精密風冷和液冷的方式,能夠有效地降低芯片和對應組件的故障率。
其次,其精密六維減震模式,能夠有效提升硬盤的性能,降低故障率;接著是,采用DAE的散熱器,從散熱的維度有效降低光模塊的故障率。同時CPU、GPU的液冷可以有效降低CPU、GPU的故障率;通過內存的漏斗,內存的故障篩選或者在線隔離技術,有效地降低內存的故障率;另外還在板卡走線、機箱結構方面進行了優化設計。
此外還有整機BMC易管理特性,趙雷認為,任何東西不可能不壞,有毛病是不可避免的,壞了以后,如何快速通知客戶或者維護人員維修時關鍵。BMC有一個完善的通知機制,郵件自動通知、SMP遠程告警、IPMI告警等。寧暢按照互聯網客戶的需求定制,將其融入整個機房的運維系統,出現故障以后可以第一時間通知去維修。
雖然目前國內有不少優秀的服務器、云廠商等,不過整體來看,國內的算力仍然存在瓶頸,比如,總體算力不夠,算力的分布不平均。部分客戶算力過剩,部分客戶算力不足。或者A時間算力過剩,B時間算力不足,這是算力協調的問題。
短期來看這個問題要靠云技術解決,長期來看是要提供過剩的算力。也就是說,需要云技術去平衡協調算力不均勻的問題,還需要提供算力、算力效率等。
再比如算力成本高的問題,雖然目前每單位算力單價下降了,但是過去幾年服務器的平均售價一直上漲。趙雷認為,可能算力類型單一,不太能夠有效地支撐高速增長的模式,可能要有各種各樣不同類型的算力。比如ChatGPT,是不是可以做針對GPT模型專門的ASIC。算力的應用類型越窄,它的效率就會越高,越通用,效率就越低。
整體而言,過去幾年在全球數字化、智能化浪潮下,市場對算力的需求不斷增加。ChatGP的出現更是讓行業對算力提出了新的要求。國內服務器廠商在對人工智能行業提供算力支持方面已經有所準備。不過從目前的情況來看,國內在算力方面仍然存在一些瓶頸,比如算力分布不均勻,成本高等問題。后續還需業界共同去探討解決。
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。
舉報投訴
-
服務器
+關注
關注
12文章
9425瀏覽量
86494 -
AI
+關注
關注
87文章
32439瀏覽量
271616 -
算力
+關注
關注
1文章
1043瀏覽量
15101
發布評論請先 登錄
相關推薦
無人叉車的市場規模怎么樣?適合使用agv的企業有哪些共同點?
無人叉車的市場規模正在穩步增長,并展現出巨大的發展潛力。以下是對無人叉車市場規模及傾向使用無人叉車企業的詳細分析: 更多無人叉車/agv叉車咨詢請點擊 一、無人叉車市場規模 全球市場規模

2024年AI IC市場規模預計達1100億美元
據市場研究機構預測,2024年全球AI IC(人工智能集成電路)市場規模將達到驚人的1100億美元。這一數字不僅彰顯了AI技術的迅猛發展,也反映了全球
算力再躍升!億萬克發布新一代AI服務器——G882N7+!
的特質,但算力告急。想要打破數智時代的算力瓶頸,異構智算成為有效方案。 近期,億萬克面向激增的
SoC芯片,市場規模大漲
SoC芯片,市場規模大漲根據MarketsandMarkets的一份新報告,片上系統(SoC)市場規模預計將從2024年的1384.6億美元增長到2029年的2059.7億美元;預計從2024年到

了解AI行業的定義
設計的集成電路,我國 AI 芯片市場規模不斷增長。2023 年中國 AI 芯片市場規模達到 1206 億元,同比增長 41.9%,預計 2024 年將增長至 1412 億元。
差分晶振在AI服務器中的應用案例
隨著ChatGPT技術不斷發展和應用,我國AI服務器市場保持較快增速(預計 2023年我國服務器市場規模將增至308億美元),而
發表于 06-17 15:15
?1次下載
AI高算力服務器散熱,需要用到哪些導熱界面材料?
在數字經濟、AI大模型等發展的帶動下,全球服務器的市場需求急劇提升,利用其強大的計算能力,能夠處理復雜的算法和海量數據。與此同時,生成式人工智能的大算

智能算力存在缺口,AI服務器市場規模持續提升
商的資本支出將大幅增加。全球前四大云服務商資本支出調升,預計將從2023年的1400億美元提升至2024年的超過2000億美元。 ? AI 服務器市
人形機器人領域六維力傳感器市場規模將達138.40億元
隨著人形機器人量產及商業化進程的推進,高工機器人產業研究所(GGII)預測,到2030年,全球人形機器人領域力傳感器市場規模將達328.06億元,其中人形機器人領域六維力傳感

以太網交換芯片市場規模
以太網交換芯片市場規模在近年來呈現穩步增長的態勢。根據公開數據,2022年中國以太網交換芯片市場的銷售規模已經增長到132.45億元,2018~2022年的年均復合增長率達到13.8%。2023年
評論