據路透社報道,Cerebras Systems 周四表示,已簽署一項價值約 1 億美元的協議,為阿拉伯聯合酋長國科技集團 G42 提供三臺人工智能 (AI) 超級計算機中的第一臺。
此次交易達成之際,世界各地的云計算提供商正在尋找 Nvidia 公司芯片的替代品。Nvidia 公司是人工智能計算市場的領導者,由于 ChatGPT 和其他服務的迅速普及,其產品供不應求。Cerebras 是幾家尋求挑戰 Nvidia 的初創公司之一。
總部位于硅谷的 Cerebras 表示,G42 已同意購買三套其所謂的 Condor Galaxy 系統,所有這些系統都將在美國建造,以加快部署速度。第一個將于今年上線,另外兩個將于 2024 年初上線。
總部位于阿布扎比的 G42 是一家科技集團,擁有 9 家運營公司,其中包括數據中心和云服務業務,該公司表示計劃使用 Cerebras 系統向醫療保健和能源公司出售人工智能計算服務。G42 已從美國科技投資公司 Silver Lake 籌集了 8 億美元,該公司得到了阿聯酋主權財富基金 Mudabala 的支持。
G42 Cloud 首席執行官 Talal AlKaissi 告訴路透社,“Cerebras 擁有他們所謂的‘白手套’服務,讓我們可以輕松”在其機器上構建人工智能系統。
“我們希望將一些過剩產能與 Cerebras 批發給來自世界各地的開源人工智能社區的客戶,特別是在美國的生態系統中?!?/p>
Cerebras 首席執行官安德魯·費爾德曼 (Andrew Feldman) 表示,完成周四宣布的三個系統中第一個系統的合同價值約 1 億美元。
“我們想說的是,這份價值 1 億美元的合同將帶領我們完成禿鷹銀河 1 號項目……這就是整個單元、構建模塊。”
G42 Cloud 的 AlKaissi 拒絕就交易條款發表評論。
Cerebras 對大型人工智能芯片有宏偉計劃
炒作人工智能芯片是一回事,但證明其在商業市場上的可用性是一個更大的挑戰。?
一些仍在證明其芯片可行性的人工智能芯片公司正在建立自己的人工智能計算基礎設施,以教育客戶并證明其芯片的可行性。Cerebras Systems 則締造了世界上最大的芯片,他們目前正在建立人工智能數據中心,將其實驗性人工智能巨型處理器從實驗室提供給商業客戶
Cerebras 去年因其硬件協助 Covid-19 研究而獲得了令人垂涎的戈登貝爾獎,該公司的硬件在學術界和國家實驗室中享有盛譽,但商業擴張將使其硬件與基于英偉達 GPU 構建的計算基礎設施展開競爭。主要云提供商包括谷歌、亞馬遜、微軟和甲骨文。?
這家只有幾百名員工的公司正在尋求中東云提供商 G42(一家人工智能和云計算公司)的幫助,以創建人工智能基礎設施。兩家公司正在合作,到今年年底在美國本土建立三個商業人工智能數據中心。?
Group 42 在審查了 Cerebras 的初創公司后才從該公司購買了人工智能系統。?
“我們在構建和管理大型超級計算機方面擁有豐富的經驗。我們擁有實施大規模生成式人工智能模型的經驗。我們在操作清理和管理龐大數據集方面擁有深厚的專業知識,”Cerebras 首席執行官安德魯·費爾德曼 (Andrew Feldman) 告訴 HPCwire。
但 Cerebras 在為其系統吸引商業客戶方面面臨著艱巨的道路。它很難取代英偉達,因為英偉達在人工智能市場的軟件和硬件領域占據主導地位。包括微軟和 Facebook 在內的大型商業企業都將人工智能的未來押在了 Nvidia 的 GPU 上。
Nvidia 還擁有自己的 GPU 數據中心,稱為 Launchpad,開發人員可以在這里制作人工智能應用程序的原型。英特爾還利用自己的人工智能芯片建立了云服務,供開發人員和客戶進行原型設計和運行應用程序。英特爾的開發云最近添加了數據中心 GPU Max 1100,供開發人員測試人工智能應用程序。?
Cerebras 和 G42 建造的三個數據中心將提供 12 exaflops FP-16 性能的聚合 AI 計算能力。Cerebras 在 Condor Galaxy 品牌下創建了三個新系統,每個系統都將提供 4 exaflops 的性能。
第一個系統名為 Condor Galaxy-1 (CG-1),已部署在加州數據中心,將擁有 5400 萬個核心。該公司將在明年增加更多的數據中心。
Feldman 表示,“到 2024 年底,它將擴展到……9 臺 exaflops 機器,總共 36 exaflops”。
CG-1 AI 巨型集群匯集了 64 個 CS-2 系統,這是在 Cerebras 的 AI 芯片上運行的現有服務器產品。CS-2 已在美國能源部阿貢國家實驗室和匹茲堡超級計算中心使用。
G42 被認為是中東云和人工智能領域的重量級企業,它將向想要訓練大型語言模型的公司出售計算能力。G42 的目標客戶是醫療保健、金融服務和制造等垂直行業的商業客戶。
去年年底,OpenAI 的LLM ChatGPT 證明了大模型的前景,該項目在幾個月內就獲得了 1 億用戶。從那時起,谷歌、微軟和其他公司都爭先恐后地在搜索和生產力應用程序中實現自己的大語言模型。
大公司正在構建自己的模型,但由于 Nvidia GPU 短缺,計算能力稀缺。這為 Cerebras 這樣的公司創造了機會,其人工智能芯片已被商業組織研究人員撰寫的許多學術論文使用和引用。
“我們支持多達 6000 億個參數,可擴展至 100 萬億個參數,”Feldman 說。谷歌和微軟尚未報告LLM中支持其搜索和生產力應用程序的參數數量。
G42 得到穆巴達拉的支持,穆巴達拉由阿聯酋政府資助。穆巴達拉在 2019 年大規模拋售之前還擁有 AMD 的股權。費爾德曼在他的服務器初創公司 SeaMicro 于 2014 年被該芯片制造商吸收后,曾受雇于 AMD。
考慮到半導體和人工智能在貿易和政策中的重要性,阿聯酋政府與 Cerebras-G42 伙伴關系的潛在聯系會帶來陰謀論,但費爾德曼表示,沒有任何擔憂。
“我們構建了最快的人工智能處理器,我們構建了最快的人工智能系統。當然,我們與[美國]商務部和監管機構合作。我們正在與他們合作。我們了解規則是什么,”費爾德曼說。
Cerebras 的 CG-1 執行模型依賴于一種稱為“權重流”的技術,該技術將內存、計算和網絡分解為單獨的集群。AI計算主要取決于模型的大小,系統擁有內存和計算技術可以分別擴展。所有數據處理均在 Cerebras 的主 AI 芯片 WSE-2 上完成,該芯片擁有 850,000 個內核、2.6 萬億個晶體管、40GB SRAM 內存和每秒 20 PB 的帶寬。
Feldman 表示,解耦使得 CG-1 系統能夠隨著更多系統的添加而以線性方式擴展。線性擴展是可能的,因為內存和計算元件獨立運行,這與 GPU 的大型部署不同,在 GPU 中,每個芯片都有自己的內存和緩存。稱為 MemoryX 的系統級技術單獨存儲模型參數,并將其傳送到計算核心。
“你有數千個小型 GPU,每個 GPU 都有不同的參數塊。因此,您已經獲取了 1000 億個參數,您必須跟蹤它們的位置。我們有一個集中的參數存儲,”費爾德曼說。
一種名為 SwarmX 的類似技術在集群級別協調計算和內存管理 - 它從 MemoryX 獲取參數并通過互連結構將其廣播到多個 CS-2,互連結構是芯片中的多個 100GbE 通道。
Cerebras 的 AI 芯片與 GPU 一樣,具有許多可加速傳統科學計算的理想屬性。G42 客戶使用 Cerebras 系統進行傳統 HPC 存在風險,這可能會擾亂該初創公司對人工智能市場的關注。
但費爾德曼堅稱該芯片是為人工智能計算而設計的,而不是傳統的高性能計算。
“我們為人工智能打造了這臺機器。我們不支持 64 位雙精度。我們確實做了一些 HPC 工作……而這正是人工智能和 HPC 的交叉點?!盕eldman 說道。
在美國,能源部的國家能源技術實驗室正在使用 Cerebras 系統來實施脫碳計劃,但該芯片為他們提供了在其計算堆棧中測試人工智能的借口。
“我們與他們進行了一些合作,他們正在對計算流體動力學進行大型模擬。但我認為我們確實做到了這一點,并針對人工智能進行了優化,”費爾德曼說。
Cerebras 還發布了許多開源大語言模型,試圖為其芯片構建底層軟件基礎設施。Nvidia 還擁有強大的軟件實力,許多 AI 代碼庫都轉向其專有的 CUDA 軟件堆棧,該堆??梢岳脙H在 A100 和 H100 GPU 中提供的功能。?
在硬件方面,Cerebras 還面臨來自 AMD(最近推出了用于 AI 的 MI300X GPU)和英特爾(擁有名為 Gaudi 的 AI 加速器)的挑戰。這些芯片都沒有獲得大量的商業銷售。
審核編輯:劉清
-
晶體管
+關注
關注
77文章
9682瀏覽量
138084 -
人工智能
+關注
關注
1791文章
47183瀏覽量
238266 -
英偉達
+關注
關注
22文章
3770瀏覽量
90990 -
SRAM芯片
+關注
關注
0文章
65瀏覽量
12059 -
ChatGPT
+關注
關注
29文章
1558瀏覽量
7596
原文標題:全球最大芯片締造者,艱難替代英偉達
文章出處:【微信號:wc_ysj,微信公眾號:旺材芯片】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論