2023過(guò)去,當(dāng)我們回顧這一年的最受產(chǎn)業(yè)關(guān)注的芯片,相信大多數(shù)人會(huì)將票投向GPU。2023年中,我們總能聽(tīng)到“GPU緊缺”、“英偉達(dá)狂飆”、“黃仁勛分享成功秘訣”。
無(wú)可否認(rèn),2023年生成式AI的熱潮無(wú)邊無(wú)際,全球高科技公司都涌入了AI的軍備競(jìng)賽。隨之帶來(lái)的是算力告急、全球瘋搶GPU。
01 全球最火的GPU
2023年層出不窮地傳出,人工智能AI大模型的消息。OpenAI、百度、谷歌、騰訊都在搭建屬于自己的大模型。對(duì)于這些五花八門(mén)的大模型,我們不多贅述,但大模型的搭建,最需要的就是GPU,而2023年需求量最大的GPU不外乎:A100/H100。
首當(dāng)其沖的就是A100GPU。OpenAI使用的是3,617臺(tái)HGXA100服務(wù)器,包含近3萬(wàn)塊英偉達(dá)GPU。國(guó)內(nèi)云計(jì)算相關(guān)專(zhuān)家認(rèn)為,做好AI大模型的算力最低門(mén)檻是1萬(wàn)枚英偉達(dá)A100芯片。
TrendForce研究則顯示,以A100的算力為基礎(chǔ),GPT-3.5大模型需要高達(dá)2萬(wàn)枚GPU,未來(lái)商業(yè)化后可能需要超過(guò)3萬(wàn)枚。
H100也是業(yè)內(nèi)追求的對(duì)象。H100于去年9月量產(chǎn),由臺(tái)積電4N工藝代工。相較于前任A100,H100單卡在推理速度上提升3.5倍,在訓(xùn)練速度上提升2.3倍;如果用服務(wù)器集群運(yùn)算的方式,訓(xùn)練速度更是能提高到9倍,原本一個(gè)星期的工作量,現(xiàn)在只需要20個(gè)小時(shí)。
考慮到整體系統(tǒng)成本,H100每美元產(chǎn)生的性能比A100還要高4到5倍之多。與A100相比,H100的單卡價(jià)格更貴,但是由于其訓(xùn)練、推理效率增加,成為了最具性價(jià)比的產(chǎn)品。
正因如此,科技大廠各個(gè)都搶著要買(mǎi)英偉達(dá)H100GPU,或者更準(zhǔn)確地說(shuō),是英偉達(dá)的8-GPU HGX H100SXM服務(wù)器。
英偉達(dá)成為了最受關(guān)注的賣(mài)鏟人。針對(duì)中國(guó)市場(chǎng),還按照A800操作模式(A100芯片的降維版本),推出了完全符合出口規(guī)定的H100的降維版本芯片。
02 熱情的買(mǎi)家
“GPU就是新時(shí)代的比特幣。”O(jiān)penAI首席科學(xué)家IlyaSutskever將這句話寫(xiě)在他個(gè)人的X賬號(hào)上。在算力激增的背景下,英偉達(dá)的GPU成為了“硬通貨”。
夸張的是,甚至有海外初創(chuàng)企業(yè)開(kāi)始利用GPU進(jìn)行抵押融資,一家硅谷的創(chuàng)業(yè)公司使用H100拿到了23億美元的債務(wù)融資。
購(gòu)買(mǎi)H100和A100的公司有三種。第一種,是需要超過(guò)1000張的公司,包括訓(xùn)練LLM的創(chuàng)業(yè)公司,如OpenAI、Anthropic;云服務(wù)提供商,如谷歌云、AWS、騰訊云;其他大公司,如特斯拉。第二種,是需要超過(guò)100張的公司,也就是對(duì)開(kāi)源模型進(jìn)行大量微調(diào)的初創(chuàng)公司。第三種,需要10張的公司,就是大部分創(chuàng)業(yè)公司和開(kāi)源勢(shì)力,熱衷使用大模型的輸出微調(diào)小模型。
這些買(mǎi)家需要多少GPU呢?OpenAI可能需要5萬(wàn)張、Inflection要2.2萬(wàn)張、Meta需要2.5萬(wàn)張、大型云廠商(Azure、GoogleCloud、AWS、Oracle),每家可能需要3萬(wàn)張,Lambda和CoreWeave以及其他私有云可能總共需要10萬(wàn)張,Anthropic、Helsing、Mistral、Character,每家可能要1萬(wàn)張。
僅僅這幾家公司,就已經(jīng)需要43.2萬(wàn)張H100,如果以每塊約3.5萬(wàn)美元計(jì)算,GPU的價(jià)值約為150億美元。而這還沒(méi)有包括字節(jié)、百度、騰訊等國(guó)內(nèi)公司。
在AI大模型競(jìng)爭(zhēng)上,榜上有名的幾個(gè)國(guó)家:中國(guó)、美國(guó)、沙特阿拉伯、阿聯(lián)酋,都是英偉達(dá)的座上賓。
沙特阿拉伯已通過(guò)公共研究機(jī)構(gòu)阿卜杜拉國(guó)王科技大學(xué)(Kaust)購(gòu)買(mǎi)了至少3000塊英偉達(dá)的H100芯片。這些芯片將于2023年底全部交付,總價(jià)值約為1.2億美元,用于訓(xùn)練AI大模型。
阿聯(lián)酋也獲得了數(shù)千顆英偉達(dá)芯片的使用權(quán),并已推出自己的開(kāi)源大語(yǔ)言模型“Falcon40B”,“Falcon40B”使用了384個(gè)A100芯片進(jìn)行訓(xùn)練。
03 GPU的出貨量
英偉達(dá)H100的出貨量也備受關(guān)注。研究機(jī)構(gòu)Omdia披露,英偉達(dá)在2023年第二季度的H100出貨量為900噸。按照單片H100GPU的重量約為3千克,那么英偉達(dá)在二季度售出了約30萬(wàn)片H100。
到了三季度,英偉達(dá)大約賣(mài)出了50萬(wàn)臺(tái)H100和A100 GPU。每家能夠分到的GPU數(shù)量有限,Meta和微軟各自采購(gòu)了15萬(wàn)個(gè)H100GPU,谷歌、亞馬遜、甲骨文和騰訊則各采購(gòu)了5萬(wàn)片。
如此龐大的GPU需求量,導(dǎo)致基于H100的服務(wù)器需要36~52周的時(shí)間才能交付。按照英偉達(dá)官方的說(shuō)法,2024年一季度之前的GPU芯片早已全部售罄。
業(yè)內(nèi)預(yù)估,明年英偉達(dá)的出貨量將達(dá)到150萬(wàn)-200萬(wàn)顆。
04 2024,GPU能降價(jià)嗎?
GPU能否降價(jià),還要看明年的供需情況。上圖是GPUUtils列出的目前對(duì)GPU市場(chǎng)供需變化最有直接影響的科技公司,包括了:開(kāi)發(fā)出Chat-GPT的OpenAI、臺(tái)積電、微軟、Meta以及成立僅僅一年便募得13億美元資金的AI新創(chuàng)Inflection。
買(mǎi)方
有的人不想買(mǎi)。谷歌、Meta都覺(jué)得英偉達(dá)的GPU太貴了。
Meta最近已經(jīng)宣布構(gòu)建了自己的DLRM推理芯片,并且得到廣泛部署。Meta大大方方承認(rèn),自己即將發(fā)布的AI芯片并不能直接替代英偉達(dá)的芯片,但是自研芯片可以降低成本。
就算在谷歌I/O開(kāi)發(fā)者大會(huì)兩個(gè)小時(shí)的演講中,谷歌方面一直在贊賞英偉達(dá)的H100GPU芯片。這也不妨礙,谷歌開(kāi)始“騎驢找馬”,谷歌的云服務(wù)器上已經(jīng)用上了自家TPU。
Google TPU v5e于2023年8月發(fā)布,成為人工智能硬件領(lǐng)域的強(qiáng)大力量,專(zhuān)為大型語(yǔ)言模型和生成式人工智能量身定制。與前代產(chǎn)品相比,TPUv5e的每美元訓(xùn)練性能顯著提高2倍,每美元推理性能顯著提高2.5倍,可大幅節(jié)省成本。其突破性的多片架構(gòu)可實(shí)現(xiàn)數(shù)萬(wàn)個(gè)芯片的無(wú)縫連接,突破了以往的限制,為處理海量人工智能任務(wù)開(kāi)辟了途徑。
有的人不能買(mǎi)。中國(guó)是英偉達(dá)的第三大市場(chǎng),占據(jù)其收入的1/5以上。隨著美國(guó)政府宣布進(jìn)一步禁止中國(guó)銷(xiāo)售英偉達(dá)H800和A800芯片,賣(mài)不出去的GPU,必然會(huì)對(duì)英偉達(dá)產(chǎn)生負(fù)面影響。
此外,明年AI或許迎來(lái)退潮。2023年的AI熱潮,除了大模型震驚業(yè)界外,炒作的因素也不在少數(shù)。毫無(wú)疑問(wèn),ChatGPT是2023年的世界頂流。因?yàn)樗琌penAI網(wǎng)站的流量在4月份就超過(guò)了18億,進(jìn)入了全球流量排名前20。然而,網(wǎng)絡(luò)分析公司Similarweb公布的數(shù)據(jù)顯示,在狂飆半年后,ChatGPT的訪問(wèn)量首次出現(xiàn)負(fù)增長(zhǎng),6月份的訪問(wèn)量環(huán)比下滑9.7%。
在大模型創(chuàng)業(yè)狂飆200多天后,探索者們的心態(tài),從理想亢奮來(lái)到現(xiàn)實(shí)落地。大模型的維護(hù)依賴大量的高性能芯片,而單要建構(gòu)、維護(hù)生成式AI工具的成本就非常巨大。這對(duì)于大公司而言還好,但是對(duì)于許多組織與創(chuàng)作者而言,這卻是一筆難以負(fù)擔(dān)的支出。
對(duì)于生產(chǎn)式AI,2024年還會(huì)再次迎來(lái)大眾的檢驗(yàn)。行業(yè)分析師認(rèn)為,2023年關(guān)于生成式人工智能的炒作非常大,AI被過(guò)度吹捧,因?yàn)橄嚓P(guān)技術(shù)需要克服許多障礙才能將其推向市場(chǎng)。
退潮之后,能夠剩下的高性能GPU需求還能有多少?
賣(mài)方
我們先來(lái)看看英偉達(dá)這個(gè)最大的賣(mài)家。優(yōu)先關(guān)注兩個(gè)方面:能不能供應(yīng)足夠的GPU,明年是否有新品刺激市場(chǎng)需求。
第一個(gè)供貨方面,眾所周知,英偉達(dá)只與臺(tái)積電合作生產(chǎn)H100,臺(tái)積電一共有4個(gè)生產(chǎn)節(jié)點(diǎn)是為5nm芯片提供產(chǎn)能:N5、N5P、N4、N4P。而H100只在N5或者是N5P的中的4N節(jié)點(diǎn)上生產(chǎn),這是一個(gè)5nm芯片的增強(qiáng)型節(jié)點(diǎn),同時(shí)英偉達(dá)還必須與蘋(píng)果、AMD和高通共享這個(gè)節(jié)點(diǎn)的產(chǎn)能,至于A100顯卡則是在臺(tái)積電的N7生產(chǎn)線制作的。從短期的情況看,三星和英特爾都因?yàn)橹瞥碳夹g(shù)的問(wèn)題,無(wú)法替英偉達(dá)緩解供應(yīng)緊張的問(wèn)題。因此,預(yù)計(jì)明年市場(chǎng),英偉達(dá)的GPU供應(yīng)仍會(huì)緊缺。
第二個(gè)新品方面,英偉達(dá)在2023年11月底時(shí),發(fā)布了H100的下一代繼承者——H200。表示在處理Llama2等LLM時(shí),H200的推理速度比H100GPU提高了近2倍。從2024年開(kāi)始,亞馬遜網(wǎng)絡(luò)服務(wù)、谷歌云、微軟Azure和甲骨文云基礎(chǔ)設(shè)施將成為首批部署基于H200實(shí)例的云服務(wù)提供商。盡管還沒(méi)有公布H200的價(jià)格,但一定比H100目前每臺(tái)2.5萬(wàn)美元至4萬(wàn)美元的價(jià)格更加昂貴。
從兩個(gè)方面看,英偉達(dá)的GPU供需還存在較大的不確定性。不過(guò)。賣(mài)家市場(chǎng),會(huì)有更多廠商加入。
明年GPU的另一大賣(mài)家,就是回過(guò)神來(lái)的AMD。
從最近的財(cái)報(bào)來(lái)看,AMD預(yù)計(jì)四季度GPU收入將達(dá)到4億美元,到2024年底將超過(guò)10億美元。其CEO蘇姿豐對(duì)明年充滿期待:“MI300將成為自2020年后,銷(xiāo)售額達(dá)到10億美元最快的產(chǎn)品。”
2023年11月,AMD正式發(fā)布了對(duì)標(biāo)H100的產(chǎn)品——MI300。據(jù)AMD展示,由8塊MI300X組成的服務(wù)器在大模型推理方面的表現(xiàn),要比同樣規(guī)模的H100速度最高提升1.6倍之多。對(duì)于AMD來(lái)說(shuō),這種直接對(duì)標(biāo),實(shí)屬罕見(jiàn)。
有意思的是,Meta、微軟和OpenAI公司在AMD投資者活動(dòng)上表態(tài),未來(lái)他們將會(huì)使用AMD最新的人工智能(AI)芯片InstinctMI300X。
不過(guò),英偉達(dá)對(duì)AMD的對(duì)標(biāo)也態(tài)度強(qiáng)硬,官方發(fā)布博客,駁斥AMD的評(píng)測(cè)不客觀。英偉達(dá)表示,如果H100GPU使用了優(yōu)化過(guò)的軟件進(jìn)行正確的基準(zhǔn)測(cè)試,它的性能將大大超過(guò)MI300X。
由于MI300還未正式應(yīng)用,對(duì)于我們對(duì)于AMD和英偉達(dá)之間的“官司”很難分說(shuō),但不論如何,AMD已經(jīng)走到了高性能GPU的起跑線。
總而言之,2024年的GPU還充滿變數(shù)。在AI大模型冷靜后、在買(mǎi)家不想當(dāng)冤大頭后、在賣(mài)家越來(lái)越多后,GPU還會(huì)維持天價(jià)嗎?相信各位看官心中自有答案。從市場(chǎng)的角度看,無(wú)論是當(dāng)下多先進(jìn)的技術(shù),到最后終將會(huì)越來(lái)越普世。就看GPU玩家們,在2024年如何進(jìn)攻戰(zhàn)場(chǎng)了。
-
gpu
+關(guān)注
關(guān)注
28文章
4729瀏覽量
128890 -
人工智能
+關(guān)注
關(guān)注
1791文章
47183瀏覽量
238264 -
OpenAI
+關(guān)注
關(guān)注
9文章
1079瀏覽量
6482 -
大模型
+關(guān)注
關(guān)注
2文章
2423瀏覽量
2643
原文標(biāo)題:2024年,GPU能降價(jià)嗎?
文章出處:【微信號(hào):ICViews,微信公眾號(hào):半導(dǎo)體產(chǎn)業(yè)縱橫】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論