預計未來兩年HBM供應仍將緊張。
據電子時報援引業內人士消息稱,由于人工智能服務器需求激增,高帶寬內存(HBM)價格已開始上漲。
目前,全球前三大存儲芯片制造商正將更多產能轉移至生產HBM,但由于調整產能需要時間,很難迅速增加HBM產量,預計未來兩年HBM供應仍將緊張。
另據韓媒報道,三星計劃投資1萬億韓元(約合7.6億美元)擴產HBM,目標明年底之前將HBM產能提高一倍,公司已下達主要設備訂單。據悉,三星已收到AMD與英偉達的訂單,以增加HBM供應。
本次三星將在天安工廠展開擴產,該廠主要負責半導體封裝等后道工藝。HBM主要是通過垂直堆疊多個DRAM來提高數據處理速度,因此只有增加后段設備才能擴大出貨量。三星計劃生產目前正在供應的HBM2和HBM2E等產品,并計劃于下半年量產8層堆疊HBM3和12層HBM3E。
值得一提的是,6月已有報道指出,另一存儲芯片巨頭SK海力士已著手擴建HBM產線,目標將HBM產能翻倍。擴產焦點在于HBM3,SK海力士正在準備投資后段工藝設備,將擴建封裝HBM3的利川工廠。預計到今年年末,后段工藝設備規模將增加近一倍。SK海力士的這一投資金額大約也在1萬億韓元(約合7.6億美元)水平。
業內預計,明年三星與SK海力士都將進一步擴大投資規模。由于谷歌、蘋果、微軟等科技巨頭都在籌劃擴大AI服務,HBM需求自然水漲船高,“若想滿足未來需求,三星、SK海力士都必須將產能提高10倍以上。”
HBM或迎量價齊升
HBM主要是通過硅通孔(Through SiliconVia, 簡稱“TSV”)技術進行芯片堆疊,以增加吞吐量并克服單一封裝內帶寬的限制,將數個DRAM裸片像樓層一樣垂直堆疊。
SK海力士表示,TSV是在DRAM芯片上搭上數千個細微孔并通過垂直貫通的電極連接上下芯片的技術。該技術在緩沖芯片上將數個DRAM芯片堆疊起來,并通過貫通所有芯片層的柱狀通道傳輸信號、指令、電流。相較傳統封裝方式,該技術能夠縮減30%體積,并降低50%能耗。
憑借TSV方式,HBM大幅提高了容量和數據傳輸速率。與傳統內存技術相比,HBM具有更高帶寬、更多I/O數量、更低功耗、更小尺寸。隨著存儲數據量激增,市場對于HBM的需求將有望大幅提升。
HBM的高帶寬離不開各種基礎技術和先進設計工藝的支持。由于HBM是在3D結構中將一個邏輯die與4-16個DRAM die堆疊在一起,因此開發過程極為復雜。鑒于技術上的復雜性,HBM是公認最能夠展示廠商技術實力的旗艦產品。
2013年,SK海力士將TSV技術應用于DRAM,在業界首次成功研發出HBM。隨后,SK海力士、三星、美光等存儲巨頭在HBM領域展開了升級競賽。
實際上,2023年開年后三星、SK海力士的HBM訂單快速增加,之前另有消息稱HBM3較DRAM價格上漲5倍。
隨著AI技術不斷發展,AI訓練、推理所需計算量呈指數級增長,2012年至今計算量已擴大30萬倍。處理AI大模型的海量數據,需要寬廣的傳輸“高速公路”即帶寬來吞吐數據。
HBM通過垂直連接多個DRAM,顯著提高數據處理速度。它們與CPU、GPU協同工作,可以極大提高服務器性能。其帶寬相比DRAM大幅提升,例如SK海力士的HBM3產品帶寬高達819GB/s。同時,得益于TSV技術,HBM的芯片面積較GDDR大幅節省。
國盛證券指出,HBM最適用于AI訓練、推理的存儲芯片。受AI服務器增長拉動,HBM需求有望在2027年增長至超過6000萬片。Omdia則預計,2025年HBM市場規模可達25億美元。
廣發證券也補充稱,HBM方案目前已演進為高性能計算領域擴展高帶寬的主流方案,并逐漸成為主流AI訓練芯片的標配。
AIGC時代為HBM帶來的需求增量主要體現在兩方面:一方面,單顆GPU需要配置的單個HBM的Die層數增加、HBM個數增加;另一方面,大模型訓練需求提升拉動對AI服務器和AI芯片需求,HBM在2023年將需求明顯增加,價格也隨之提升。
審核編輯:劉清
-
半導體
+關注
關注
334文章
27297瀏覽量
218114 -
DRAM芯片
+關注
關注
1文章
84瀏覽量
18011 -
人工智能
+關注
關注
1791文章
47202瀏覽量
238271 -
存儲芯片
+關注
關注
11文章
896瀏覽量
43134 -
TSV技術
+關注
關注
0文章
17瀏覽量
5673
原文標題:HBM出現缺貨漲價,又一半導體巨頭加入擴產
文章出處:【微信號:ICViews,微信公眾號:半導體產業縱橫】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論