大模型運行成本高昂,準入壁壘較高。大模型對于訓練時間和參數(shù)量都有高要求,以 OpenAICEO Altman 在推特上回復(fù)馬斯克的留言可知,ChatGPT 平均一次聊天成本為幾美分。根據(jù)Similar Web 數(shù)據(jù),2023 年1月 27 日至 2 月 3 日 ChatGPT 日活躍用戶達 2500 萬人。中性假設(shè)下,以平均單人單日對話 7 次,每次 3 美分成本進行測算,對應(yīng)一年支出對話成本約為19.2 億美元。根據(jù)英偉達官網(wǎng),A100 作為 DGX A100 系統(tǒng)的一部分進行銷售,該系統(tǒng)搭載 8個 A100 GPU,一個由 5 臺 DGX A100 系統(tǒng)組成的機架可替代一個包括 AI 訓練和推理基礎(chǔ)設(shè)施的數(shù)據(jù)中心,且功耗僅為其 1/20,成本為其 1/10,系統(tǒng)售價 19.9 萬美元。因此,在中性假設(shè)條件下,考慮到服務(wù)器約占數(shù)據(jù)中心成本的 70%(中商產(chǎn)業(yè)研究院),則 ChatGPT 運營一年將需要 6741 個 DGX A100 系統(tǒng)用于支撐訪問量。
ChatGPT帶動大模型競品發(fā)布,海內(nèi)外科技巨頭先后加碼AI布局。
1)谷歌向AI公司Anthropic投資近 4 億美元,后者正在測試生成式 AI 工具 Claude,且谷歌也推出對標 ChatGPT 的聊天機器人 Bard。
2)微軟以 100 億美元投資 ChatGPT 的開發(fā)商 OpenAI,并獲得其 49%股權(quán)。2023年 2 月,微軟發(fā)布基于 ChatGPT 的 new Bing。
3)亞馬遜云服務(wù) AWS 宣布與 AI 公司 HuggingFace 開展合作,Hugging Face 將在 AWS 上開發(fā)針對 ChatGPT 的開源競品,構(gòu)建開源語言模型的下個版本 Bloom。
4)阿里達摩院正研發(fā)類 ChatGPT 的對話機器人,目前已處于內(nèi)測階段。
5)百度開發(fā)類 ChatGPT 項目“文心一言”(ERINE Bot)。
6)京東推出產(chǎn)業(yè)版 ChatJD。
基于昆侖芯+飛槳+文心大模型 AI 底座,百度推出“文心一言”拉開國產(chǎn)生成式 AI 序幕。2023年 3 月 16 日,百度正式推出國內(nèi)首款生成式 AI 產(chǎn)品“文心一言”,可支持文學創(chuàng)作、文案創(chuàng)作、數(shù)理推算、多模態(tài)生成等功能,目前已有多家廠商宣布接入。“文心一言”基于全棧自研的 AI 基礎(chǔ)設(shè)施進行學習和訓練:
? 昆侖芯 2 代 AI 芯片:“文心一言”的芯片層核心能力,采用自研 XPU-R 架構(gòu),通用性和性能顯著提升;256 TOPS@INT8 和 128 TFLOPS@FP16 的算力水平,較一代提升 2-3 倍,保障“文心一言”算力需求;采用 7nm 先進工藝,GDDR6 高速顯存,支持虛擬化,芯片間互聯(lián)和視頻編解碼等功能。
? 飛槳深度學習平臺:“文心一言”的框架層核心能力,系業(yè)內(nèi)首個動靜統(tǒng)一的框架、首個通用異構(gòu)參數(shù)服務(wù)器架構(gòu),支持端邊云多硬件和多操作系統(tǒng),為文心大模型提供有效、快捷、完整的訓練框架。
? 文心知識增強大模型:“文心一言”的模型層核心能力,該產(chǎn)品主要采用 ERNIE 系列文心NLP 模型,擁有千億參數(shù)級別的 ERNIE 3.0 Zeus 為該系列最新模型,進一步提升了模型對于不同下游任務(wù)的建模能力,大大拓寬了“文心一言”的應(yīng)用場景。
以 GPT-3 為例測算:大算力需求驅(qū)動 AI 硬件市場空間提升
GPT-3(Generative Pre-trained Transformer 是 GPT-3.5 的上一代語言模型,目前一般所說的 GPT-3 即為擁有 1750 億參數(shù)的最大 GPT-3 模型,OpenAI 在公開發(fā)表的論文《Language Models are Few-Shot Learners》中對 GPT-3 模型進行了詳細分析。對于以 ChatGPT 為例的大模型算力需求,根據(jù)測算,我們預(yù)計用于高端 GPGPU 顯卡的訓練及推理部分市場空間合計約 145.32 億元,其中訓練市場規(guī)模為 27.84 億元,推理市場規(guī)模為 117.48 億元。
英偉達引領(lǐng)硬件端產(chǎn)品升級,國產(chǎn) GPU 靜待花開
大 GPU 優(yōu)勢在于通過并行計算實現(xiàn)大量重復(fù)性計算。GPGPU(General Purpose GPU)即通用GPU,能夠幫助 CPU 進行非圖形相關(guān)程序的運算。在類似的價格和功率范圍內(nèi),GPU 能提供比CPU 高得多的指令吞吐量和內(nèi)存帶寬。
GPT-4 模型算力需求擴增,架構(gòu)升級降本增效未來可期
根據(jù) OpenAI 官網(wǎng)顯示,目前 GPT-4 每 4 小時只能處理 100 條消息,且并沒有開放圖片識別功能。大模型升級帶來的運算需求逐漸加碼,且可推測目前算力已處于供不應(yīng)求狀態(tài)。
多模態(tài)拓展,圖片識別算力需求升級十倍以上。關(guān)于從圖片到 token 的轉(zhuǎn)換方式,OpenAI 未公布 GPT-4 的模型參數(shù),假設(shè) GPT-4 處理圖片視覺任務(wù)使用 VisionTransformer 模型(ViT),則輸入圖片尺寸必須為 224×224(ViT-B/16 版本)。根據(jù) 2021 年 ICLR 論文,模型原理大致為把一張圖片分成 nxn 個 Patch,每一個 Patch 作為一個 Token。即把一張 224×224×3 的圖片,切分為 16×16 大小的 Patch,每個 Patch 是三通道小圖片,得到 16×16×3=768 個 token并作為向量輸入。相較之下,根據(jù)前文 GPT-3 部分假設(shè),假設(shè)每個文字問題 50-100 詞,即67-133token。我們可以粗略推論,圖像識別的所需算力是文字推理部分所需算力的十倍以上級別。
審核編輯 :李倩
-
AI芯片
+關(guān)注
關(guān)注
17文章
1879瀏覽量
34993 -
聊天機器人
+關(guān)注
關(guān)注
0文章
339瀏覽量
12306 -
ChatGPT
+關(guān)注
關(guān)注
29文章
1558瀏覽量
7596
原文標題:ChatGPT大模型,引領(lǐng)海內(nèi)外巨頭競品發(fā)布
文章出處:【微信號:AI_Architect,微信公眾號:智能計算芯世界】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論