導讀
ChatGPT是由OpenAI公司開發的人工智能聊天機器人程序,于2022年11月發布,達到1億用戶量用時僅2個月。ChatGPT是基于GPT-3.5微調得到的新版本模型,能夠借助人類反饋的強化學習(RLHF)技術來指導模型訓練,實現模型輸出與人類預期的需求,使對話內容更加人性化和富有邏輯性。
01.ChatGPT激起AI浪潮
1.1 AI創新浪潮興起,多模態賦能下游行業
ChatGPT是生成式人工智能技術(AIGC)的一種,與傳統的決策/分析式AI相比,生成式AI并非通過簡單分析已有數據來進行分析與決策,而是在學習歸納已有數據后進行演技創造,基于歷史進行模仿式、縫合式創作,生成全新的內容。AIGC的應用非常廣泛,包括自然語言生成、圖像生成、視頻生成、音樂生成、藝術創作等領域。
AIGC產業鏈主要分為上游算力硬件層、中游數據/算法軟件層和下游行業應用層。硬件層依靠高性能AI芯片、服務器和數據中心為AIGC模型的訓練提供算力支持,是承載行業發展的基礎設施;數據/算法層軟件層主要負責AI數據的采集、清洗、標注及模型的開發與訓練,多方廠商入局自然語言處理、計算機視覺、多模態模型等領域;行業應用層目前主要涉及搜索、對話、推薦等場景,未來有望在多個行業呈現井噴式革新。
資料來源:甲子光年,中泰證券研究所
多模態大模型有望成為AI主流,賦能下游行業智能升級。生成式AI主要依賴于人工智能大模型,如Transformer、BERT、GPT系列等。這些模型通常包含數十億至數萬億個參數,需要龐大的數據集進行訓練,致使AI算力的需求也呈現出指數級的增長。多模態是一種全新的交互、生成模式,集合了圖像、語音、文本等方式,因其可以結合多種數據類型和模態的學習,將有望徹底改變我們與機器互動的方式,快速占據人工智能主導地位。我們認為多模態大模型長期來看不僅可以從成本端降本增效,需求端也將通過快速滲透推廣為下游行業帶來持續增長需求,從而快速推動下游行業智慧化應用升級。
從GPT-1到ChatGPT,模型參數與訓練數據量不斷增加,所需算力資源不斷提升:
GPT-1:最早的GPT模型之一,包含了1.17億個參數,預訓練數據量約為5GB。
GPT-2:參數數量達到了1.5億個,預訓練數據量達40GB。
GPT-3:是目前為止最大的語言模型之一,包含了1750億個參數,預訓練數據量為45TB。
ChatGPT:基于GPT-3模型的變種之一,參數量預計與GPT-3相近。
資料來源:OpenAI官網,中泰證券研究所
多模態模型是實現人工智能應用的關鍵。3月14日OpenAI發布GPT-4多模態大模型,擁有1)強大的識圖能力;2)文字輸入限制提升至2.5萬字;3)回答準確性顯著提高;4)能夠生成歌詞、創意文本、實現風格變化。在各種專業和學術基準上,GPT-4已具備與人類水平相當表現。如在模擬律師考試中,其分數在應試者前10%,相比下GPT-3.5在倒數10%左右。多模態大模型在整體復雜度及交互性上已有較大提升,模型升級有望加速細分垂直應用成熟,賦能下游智慧化升級,帶動需求快速增長。
AIGC下游市場滲透率低,增長空間廣闊。根據Gartner數據,目前由人工智能生成的數據占所有數據的1%以下,預計2023年將有20%的內容被生成式AI所創建,2025年人工智能生成數據占比將達到10%。根據前瞻產業研究院數據,2025年中國生成式商業AI應用規模將達2070億元,CAGR(2020-2025)為84.06%。
1.2 算力芯片迎來產業機遇
AI人工智能的發展主要依賴兩個領域的創新和演進:一是模仿人腦建立起來的數學模型和算法,其次是半導體集成電路AI芯片。AI的發展一直伴隨著半導體芯片的演進過程,20世紀90年代,貝爾實驗室的楊立昆(Yann LeCun)等人一起開發了可以通過訓練來識別手寫郵政編碼的神經網絡,但在那個時期,訓練一個深度學習卷積神經網絡(Convolutional Neural Network,CNN)需要3天的時間,因此無法實際使用,而硬件計算能力的不足,也導致了當時AI科技泡沫的破滅。
AI芯片是AI發展的底層基石。英偉達早在1999年就發明出GPU,但直到2009年才由斯坦福大學發表論文介紹了如何利用現代GPU遠超過多核CPU的計算能力(超過70倍),把AI訓練時間從幾周縮短到了幾小時。算力、模型、數據一直是AI發展的三大要素,而AI芯片所代表的算力則是人工智能的底層基石。
算力硬件層是構成AIGC產業的核心底座,主要包括AI芯片、AI服務器和數據中心。
AI芯片是算力硬件層的基石。AI芯片主要分為CPU、GPU、FPGA和ASIC四類,CPU是AI計算的基礎,GPU、FPGA、ASIC作為加速芯片協助CPU進行大規模計算。目前AI芯片主要被國際廠商壟斷,根據Counterpoint、IDC數據,Intel和AMD共計占2022年全球數據中心CPU市場收入的92.45%,Nvidia占2021年中國加速卡市場份額的80%以上。
AI服務器是AI芯片的系統集成。AI服務器采用CPU+加速芯片的架構形式,在進行模型的訓練和推斷時會更具有效率優勢。與國外AI芯片廠商的壟斷局面不同,中國AI服務器水平位于世界前列。據IDC數據,在2021H1全球AI服務器市場競爭格局中,浪潮信息以20.2%的份額排名第一,聯想和華為分別以6.1%和4.8%的份額位列第四、五名。
數據中心的計算服務是承接AI算力需求的直接形式。AIGC的模型訓練是通常是通過云計算服務完成的,其本質是AIGC模型廠商借助IDC的算力資源,在云端實現模型的訓練。目前國內的數據中心廠商主要包括三大運營商、華為、聯想、中科曙光等,提供云計算的廠商主要有阿里、騰訊等互聯網企業。
資料來源:智通財經,Counterpoint,IDC,中泰證券研究所
ChatGPT單次訓練所需算力約27.5PFlop/s-day,單顆NVIDIAV100需計算220天。
根據OpenAI數據,GPT-3XL參數規模為13.2億,訓練所需算力為27.5PFlop/s-day。由于ChatGPT是在13億參數的InstructGPT基礎上微調而來,參數量與GPT-3XL接近,因此預計ChatGPT訓練所需算力約為27.5PFlop/s-day。以NVIDIAV100芯片為例,一顆NVLink版本V100芯片的深度學習算力為125TFlops,則ChatGPT模型的訓練至少需要1顆V100芯片計算220天才能完成。
隨著模型參數的不斷增加,模型訓練所需算力將進一步提升,將進一步拉動對算力芯片的需求。根據OpenAI數據,隨著GPT-3系列模型參數規模由1.25億增加至1746億,訓練所需算力從2.6PFlop/s-day上升至3640PFlop/s-day,規模參數(1396.8倍)與算力需求(1400倍)呈同比例增長。
02.芯片是ChatGPT底層土壤
2.1 AI芯片有望率先受益,CPU+XPU異構形式成為主流
機器學習主要包括訓練(training)和推斷(inference)兩個步驟,通常需要不同類型的AI芯片來執行。訓練是指通過大數據訓練出一個復雜的神經網絡模型,通過大量標記過的數據來訓練相應的系統,使其能夠適應特定的功能;推理是指利用訓練好的模型,使用新數據推理出各種結論。
訓練芯片:通過大量的數據輸入,構建復雜的深度神經網絡模型的一種AI芯片。需要較高的計算性能、能夠處理海量的數據、具有一定的通用性,以便完成各種各樣的學習任務,注重絕對的計算能力。
推斷芯片:推斷芯片主要是指利用訓練出來的模型加載數據,計算“推理”出各種結論的一種AI芯片,注重綜合指標,側重考慮單位能耗算力、時延、成本等性能。
AI芯片是AI算力的核心,需求有望率先擴張。AI芯片是用于加速人工智能訓練和推理任務的專用硬件,主要包括GPU、FPGA、ASIC等,具有高度并行性和能夠實現低功耗高效計算的特點。
資料來源:IDC,中泰證券研究所
目前CPU+XPU異構形式成為AI服務器主流架構。傳統的CPU單元對于AI計算任務的處理能力有限,而XPU(包括GPU、FPGA、ASIC等)則可以提供更強大的計算能力,因此將CPU和XPU結合起來使用可以實現計算任務的高效處理和資源的最優利用。一般來說,CPU負責整個系統的管理和控制,而加速芯片則負責AI計算任務的加速,兩者相互協作,共同提升整個系統的性能。
服務器計算架構從單核的串行走向多核的并行,又進一步從同構并行走向異構并行,未來或將從異構并行走向超異構并行。目前在AI服務器中,常見的異構組合有8xGPU+2xCPU、4xGPU+2xCPU、8xFPGA+1xCPU、4xFPGA+1xCPU。在異構計算的趨勢下,AI加速芯片搭載率將持續增高。根據IDC全球范圍調研顯示,2022年每臺AI服務器上普遍多配置2個GPU,未來18個月GPU、ASIC、FPGA的搭載率均會上升。根據IDC數據,2021H1全球AI服務器市場規模達66.6億美元,同比增長率超過全球AI整體市場增長率22.4%。預計在2025年全球AI服務器市場規模將達到277億美元,CAGR(2020-2025)為20.3%。
2.2AI算力需求,存儲芯片受益
ChatGPT帶動AI服務器需求,存儲芯片受益。ChatGPT的數據獲取、數據整理、訓練、推理除大算力芯片外,還需存儲芯片支持。
服務器成本構成:服務器成本包括算力芯片、存儲器等,根據IDC 2018年服務器成本構成,在高性能服務器/推理型服務器/機器學習型服務器中存儲占比29%/25%/16%。AI服務器,除了內存需要128GB或更大容量的高性能HBM和高容量服務器DRAM,還需硬盤去存儲大量數據。
存儲下游市場:智能手機+服務器+PC是主要下游。智能手機端出貨量增速有限,單機容量提升是主要推動力;服務器端,受益人工智能、物聯網和云計算等應用興起,服務器出貨量及單機容量提升推動增長。
資料來源:IDC、Dramexchange,SIA,中泰證券研究所
03.芯片需求增長拉動產業鏈機會
3.1 封測:Chiplet是AI芯片大勢所趨
當前AI芯片呈現幾大趨勢:
1)制程越來越先進。從2017年英偉達發布Tesla V100 AI芯片的12nm制程開始,業界一直在推進先進制程在AI芯片上的應用。英偉達、英特爾、AMD一路將AI芯片制程從16nm推進至4/5nm。
2)Chiplet封裝初露頭角。2022年英偉達發布H100 AI芯片,其芯片主體為單芯片架構,但其GPU與HBM3存儲芯片的連接,采用Chiplet封裝。在此之前,英偉達憑借NVlink-C2C實現內部芯片之間的高速連接,且Nvlink芯片的連接標準可與Chiplet業界的統一標準Ucle共通。而AMD2023年發布的Instinct MI300是業界首次在AI芯片上采用更底層的Chiplet架構,實現CPU和GPU這類核心之間的連接。
3)2020年以來頭部廠商加速在AI芯片的布局。AI芯片先行者是英偉達,其在2017年即發布Tesla V100芯片,此后2020以來英特爾、AMD紛紛跟進發布AI芯片,并在2022、2023年接連發布新款AI芯片,發布節奏明顯加快。
據相關論文,芯片成本變化有以下規律:
1)封裝形式越復雜,封裝成本、封裝缺陷成本占芯片成本比重越大:具體來說,SoC<MCM<InFO小于2.5D。
2)芯片面積越大,芯片缺陷成本、封裝缺陷成本占比越大;
3)制程越先進,芯片缺陷成本占比越高,而Chiplet封裝能有效降低芯片缺陷率,最終達到總成本低于SoC成本的效果。
制程越先進、芯片組面積越大、小芯片(Chips)數量越多,Chiplet封裝較SoC單芯片封裝,成本上越有優勢:
Chiplet主要封裝形式有MCM/InFO/2.5D這三種。14nm制程下,當芯片面積超過700mm2時,Chiplet封裝中的MCM成本開始較SoC低,當面積達900mm2時,MCM較SoC成本低近10%(2顆chips)、或低20%(3顆chips)、或低25%(5顆chips);
7nm制程下,芯片面積超過400mm2時,MCM成本開始低于SoC,面積超過600mm2時,InFO成本開始低于SoC,當面積達900mm2時,5顆chips情況下,MCM較SoC成本低40%、InFO較SoC成本低20%;5nm制程下,芯片面積超過300mm2時,MCM成本開始低于SoC,成本超過500mm2時,InFO成本開始低于SoC,當面積達900mm2時,5顆chips情況下,MCM較SoC成本低50%、InFO較SoC成本低40%、2.5D較SoC成本低28%。
鑒于當前AI芯片朝高算力、高集成方向演進,制程越來越先進,Chiplet在更先進制程、更復雜集成中降本優勢愈發明顯,未來有望成為AI芯片封裝的主要形式。
3.2 PCB:AI服務器基石
ChatGPT數據運算量增長快速,帶動服務器/交換機/顯卡等用量提升,布局相應領域PCB公司顯著受益。ChatGPT帶來了算力需求的激增,與之對應亦帶來相應服務器/交換機等作為算力核心載體和傳輸的硬件,帶來PCB需求大幅增長,同時隨著對算力的要求越來越高,對于大容量、高速、高性能的云計算服務器的需求將不斷增長,對PCB的設計要求也將不斷升級,提升對于高層數、大尺寸、高速材料等的應用。
以23年發布的新服務器平臺為例,Pcie5.0服務器用PCB層數、材料、設計工藝均有升級,PCB價格提升顯著,其層數從4.0的12-16層升級至16-20層,根據Prismark的數據,2021年8-16層板的價格為456美元/平米,而18層以上板的價格為1538美元/平米,PCB價值量增幅明顯;另外配套新服務器,交換機、傳輸網產品都需要同步升級,預計400G、800G交換機對PCB板子拉動巨大,進一步帶動數通板景氣度提升。
-
服務器
+關注
關注
12文章
9123瀏覽量
85328 -
AI芯片
+關注
關注
17文章
1879瀏覽量
34992 -
ChatGPT
+關注
關注
29文章
1558瀏覽量
7596 -
AIGC
+關注
關注
1文章
361瀏覽量
1539
原文標題:從ChatGPT看芯片產業機遇
文章出處:【微信號:算力基建,微信公眾號:算力基建】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論