電子發(fā)燒友網(wǎng)報道(文/李彎彎)日前,不少國內(nèi)API開發(fā)者收到了來自OpenAI的郵件。郵件稱,從7月9日起采取額外措施,阻止來自非支持國家和地區(qū)列表中的地區(qū)的API流量。根據(jù)OpenAI官網(wǎng),支持訪問API服務的國家和地區(qū)列表中總計188個國家和地區(qū),不包括中國內(nèi)地與中國香港。
這意味著,OpenAI宣布終止對中國開發(fā)者提供API服務。OpenAI終止對中國提供API服務,對一些通過接入OpenAI API做大模型或應用的企業(yè)會有影響,不過這對國產(chǎn)大模型的長遠發(fā)展卻也有積極意義,它反而促進國產(chǎn)大模型的自主研發(fā),并帶來更多應用機會。
國產(chǎn)大模型紛紛推出替代方案
隨著OpenAI停止對中國提供API服務,國內(nèi)大模型公司紛紛行動,上線“遷移計劃”。如智譜,該公司第一時間在官微宣布,面向OpenAI API用戶提供特別搬家計劃,幫助用戶切換至國產(chǎn)大模型,其 GLM 大模型號稱全面對標 OpenAI 產(chǎn)品體系,且全鏈路技術自研、安全可控。
具體來看,智譜為開發(fā)者提供1.5億Token(5000萬 GLM-4 + 1億 GLM-4-Air),從OpenAI 到 GLM 的系列遷移培訓。對于高用量客戶,智譜提供與OpenAI使用規(guī)模對等的Token贈送計劃(不設上限),以及與 OpenAI 對等的并發(fā)規(guī)模,匹配高等級會員政策,專屬搬家顧問及5人天技術專家支持,備案培訓和輔助。
百度智能云千帆推出大模型普惠計劃,稱讓用戶0成本切換至國內(nèi)調(diào)用量第一的大模型平臺,場景更豐富、模型更全面、工具鏈更完整易用、更安全可靠。
具體來看,即日起為新注冊企業(yè)用戶提供0元調(diào)用服務:文心旗艦模型首次免費,贈送ERNIE3.5旗艦模型5000萬Tokens包,主力模型ERNIE Speed/ERNIE Lite和輕量模型ERNIE Tiny持續(xù)免費 ;針對OpenAI遷移用戶額外贈送與OpenAI使用規(guī)模對等的ERNIE3.5旗艦模型Tokens包。
同時,該計劃還支持0元訓練、0元遷移、0元服務。0 元訓練:免費模型精調(diào)訓練服務 0 元遷移:零成本 SDK 遷移工具;0 元服務:專家服務(遷移 & 使用指導)。
騰訊云宣布,即日起至2024年7月31日24時,將為新遷移企業(yè)用戶免費贈送1億騰訊混元大模型tokens(標記),并提供免費專屬遷移工具和服務。目前,騰訊云提供混元Pro、Standard、Lite等多個不同版本和尺寸的模型,用戶可任意選擇。
阿里云百煉宣布,將為OpenAI API用戶提供最具性價比的中國大模型替代方案,并為中國開發(fā)者提供2200萬免費tokens和專屬遷移服務。根據(jù)斯坦福最新公布的大模型測評榜單HELM MMLU,Qwen2-72B得分為0.824,與GPT-4并列全球第四。通義千問GPT4級主力模型Qwen-plus在阿里云百煉上的調(diào)用價格為0.004元/千tokens,僅為GPT-4的50分之一。
由李開復創(chuàng)立的AI大模型獨角獸公司零一萬物也發(fā)起“Yi API二折平替計劃”,面向OpenAI用戶推出平滑遷移至Yi系列大模型的服務。據(jù)介紹,目前注冊使用Yi API的新客戶,零一萬物立即贈送100元額度,幫助用戶完成平穩(wěn)過渡;平臺充值還將贈送50%到賬額度,上不封頂。此外,零一萬物API還將提供Prompt兼容調(diào)優(yōu)服務支持。
百川智能宣布特別推出OpenAI 零成本遷移計劃,將為參與用戶免費贈送1 千萬 token,同時宣布Assitants API 免費使用。據(jù)介紹,目前百川智能開放平臺接口已完全兼容OpenAI API,支持零成本遷移,功能更豐富。借助百川技術專家隨時答疑,開發(fā)者五分鐘即可完成Api遷移。
少不了算力芯片的支持
國產(chǎn)大模型紛紛推出替代方案,這背后少不了需要算力芯片的支持。目前國內(nèi)大模型訓練基本使用英偉達GPU,英偉達的GPU因其強大的并行處理能力和高效的計算性能,被廣泛應用于深度學習、機器學習等需要大量計算資源的領域。
如阿里通義千問大模型,它包含多個不同規(guī)模的版本,Qwen-1.8B、Qwen-7B、Qwen-14B和Qwen-72B等,據(jù)了解,阿里通義千問大模型主要使用英偉達Tesla A100、Tesla A800、Tesla H100等GPU芯片,這些GPU具有較大的顯存和強大的計算能力,能夠滿足大模型訓練的需求。
百度文心一言主要基于英偉達的A100 GPU完成其高效的深度學習計算任務。A100 GPU采用了NVIDIA最新的Ampere架構,被廣泛應用在各種AI模型和高性能計算場景中。A100 GPU在文心一言的構建和運行過程中,執(zhí)行大規(guī)模并行處理任務,特別是在語義理解、語境關聯(lián)及文本生成等領域內(nèi)。
除此之外,百度也兼容其他公司的GPU,在英偉達A100、H100等訓練AI用GPU遭遇進口管制的情況下,百度采用了將來自不同供應商的GPU集成到統(tǒng)一的計算集群中的策略,以訓練大語言模型。
字節(jié)跳動大模型在訓練過程中也是主要使用英偉達的GPU。據(jù)悉,字節(jié)跳動在2023年向英偉達訂購了超過10億美元的GPU產(chǎn)品,目前已經(jīng)采購了10萬塊A100與H800加速卡,這兩款GPU均屬于英偉達的高性能計算產(chǎn)品線,非常適合用于深度學習、大模型訓練等任務。
另外,像智譜、百川智能等也主要使用英偉達的GPU。智譜AI通過與優(yōu)刻得等公司的合作,利用英偉達GPU構建超千卡規(guī)模的推理集群,以滿足其大模型在文本、圖片、視頻等多場景下的大規(guī)模實時推理需求。
百川智能與鴻博股份的全資子公司英博數(shù)科合作,后者向百川智能提供的智算服務器,其單臺所提供的算力規(guī)模和性能不低于英偉達H系列8卡智算服務器所有的同等算力。這意味著百川智能大模型的訓練過程中,將直接使用到英偉達高性能的GPU資源。
除了使用英偉達GPU之外,一些國產(chǎn)大模型的訓練和運行也使用國內(nèi)的算力芯片,如華為、科大訊飛、月之暗面等。同時,海光信息、天數(shù)智芯、摩爾線程、沐曦、景嘉微等都已經(jīng)推出和搭建可以支持大模型訓練和推理的芯片、系統(tǒng)和智算集群。
寫在最后
總的來說,OpenAI停止對中國開發(fā)者提供API服務,對于目前一些調(diào)用通過接入OpenAI API做大模型和AI應用的企業(yè)來說有所影響,不過,國內(nèi)不少大模型廠商已經(jīng)紛紛推出替代方案,雖然目前國產(chǎn)大模型較OpenAI有一定差距,不過隨著更多的被使用,長遠來看國產(chǎn)大模型將會逐步實現(xiàn)突破。
-
API
+關注
關注
2文章
1499瀏覽量
61958 -
OpenAI
+關注
關注
9文章
1079瀏覽量
6480 -
大模型
+關注
關注
2文章
2423瀏覽量
2640
發(fā)布評論請先 登錄
相關推薦
評論