色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

不再焦慮GPU供應,8芯片挑戰5萬億參數大模型

E4Life ? 來源:電子發燒友網 ? 作者:周凱揚 ? 2023-09-27 09:10 ? 次閱讀

電子發燒友網報道(文/周凱揚)隨著LLM與生成式AI熱度不減,不少AI芯片初創公司都找到了新的發力點,紛紛調整設計思路,專為這一爆款應用開發出了新款芯片。且不說這些芯片的實際性能如何,但這無疑是當下推動這些公司獲得投資,并在行業下行期存活下去的救命稻草。今天我們就來聊聊剛發布新品SN40L的AI芯片初創公司SambaNova。

SN40L背后的SambaNova

SambaNova成立于2017年,截至目前已經歷了共計6輪融資,參與融資的公司包括谷歌、英特爾和軟銀等,融資總額高達11億美元。只不過最近的D輪融資,距今已經有兩年多的時間,也難怪SambaNova急于推出SN40L這一芯片,畢竟此類初創公司的開發從來都是燒錢的。

其實在SN40L推出以前,SambaNova也并非默默無聞,比如美國阿貢國家實驗室早在第一代產品SN10推出時就在使用和測試SambaNova的系統了,只不過屆時基于SN10的SambaNova Dataflow系統還只是用于消除數據噪聲而已。

如果我們現在看阿貢國家實驗室的ALCF AI測試平臺,我們可以看到5大系統,分別是Cerebras的CS2、SambaNova的Dataflow、Graphcore的Bow Pod64、Grop系統以及Habana的Gaudi。而目前用于ALCF AI測試平臺的SambaNova Dataflow就是基于SN40L的上一代產品SN30 RDU打造的,該芯片基于臺積電的7nm工藝打造。

目前SN30用在阿貢國家實驗室的這套系統主要用于一些科學研究領域的AI計算,比如中微子物理、癌癥預測、氣候建模以及下一代汽車引擎研發等。而我們真正關注的是剛發布的SN40L,以及它在LLM這一應用上能提供何種不同的優勢。

英偉達GPU的替代方案

目前LLM的主流方案,即英偉達的A100、H100 GPU,存在一個很大的問題,那就是缺貨。對于任何互聯網廠商來說,在市面上找到足夠多的GPU都是一件費錢費力的事。而對于云服務廠商來說也是如此,他們也要考慮出租這類服務器時,GPU的算力與容量分配問題。

wKgaomUTgVGAKNovADO8XqFE2PU092.png
SN40L芯片和CEO Rodrigo Liang / SambaNova


為了解決“數量”的問題,SambaNova推出了SN40L。相較上一代的SN30,該芯片基于臺積電5nm工藝打造,每個芯片集成了1020億個晶體管和1040個核,算力高達638TFlops。更夸張的是,SambaNova稱單個SN40L系統節點(8塊SN40L芯片)就能支持到最高5萬億參數的大模型。

與其他AI芯片初創公司不一樣的是,他們并沒有選擇直接將芯片賣給其他公司這條路線,而是選擇了售賣訪問其定制AI技術棧的訪問權,包括其自研硬件和運行超大模型的軟件等。這種商業模式或許能吸引一部分互聯網公司,但在云服務廠商眼中,他們應該不會覺得這是一套可盈利的方案。

此外,SambaNova與其他競爭對手一樣,在AI芯片上引入了64GB HBM用于解決內存墻的問題,這也是SN40L與上一代芯片的差異之一。只不過SambaNova并沒有透露SN40L用的是何種HBM,以及帶寬性能如何。

寫在最后

雖然SambaNova展示了提高LLM擴展性的另一條道路,但在沒有經過實際驗證之前,市場還是會對其持觀望態度。此前也有不少AI芯片公司發表過同樣大膽的聲明,但事實證明這類芯片只適合用于運行那些預訓練完成的模型,而訓練過程仍需要靠GPU來完成。所以哪怕SambaNova的CEO Rodrigo Liang強調SN40L的訓練性能足夠優秀,但是否能在這套商業模式下闖出一片天,就得交由市場去驗證了。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • gpu
    gpu
    +關注

    關注

    28

    文章

    4752

    瀏覽量

    129056
  • SambaNova
    +關注

    關注

    0

    文章

    7

    瀏覽量

    214
  • SN40L
    +關注

    關注

    0

    文章

    2

    瀏覽量

    47
收藏 人收藏

    評論

    相關推薦

    AI大模型不再依賴英偉達GPU?蘋果揭秘自研大模型

    ? 電子發燒友網報道(文/梁浩斌)過去幾年中爆發的AI算力需求,英偉達GPU成為了最大的贏家,無論是自動駕駛還是AI大模型,比如特斯拉、小鵬、OpenAI、字節跳動等廠商都在爭相搶購英偉達GPU產品
    的頭像 發表于 08-05 06:07 ?4022次閱讀
    AI大<b class='flag-5'>模型</b><b class='flag-5'>不再</b>依賴英偉達<b class='flag-5'>GPU</b>?蘋果揭秘自研大<b class='flag-5'>模型</b>

    GPU是如何訓練AI大模型

    在AI模型的訓練過程中,大量的計算工作集中在矩陣乘法、向量加法和激活函數等運算上。這些運算正是GPU所擅長的。接下來,AI部落小編帶您了解GPU是如何訓練AI大模型的。
    的頭像 發表于 12-19 17:54 ?150次閱讀

    PyTorch GPU 加速訓練模型方法

    在深度學習領域,GPU加速訓練模型已經成為提高訓練效率和縮短訓練時間的重要手段。PyTorch作為一個流行的深度學習框架,提供了豐富的工具和方法來利用GPU進行模型訓練。 1. 了解
    的頭像 發表于 11-05 17:43 ?583次閱讀

    當前主流的大模型對于底層推理芯片提出了哪些挑戰

    隨著大模型時代的到來,AI算力逐漸變成重要的戰略資源,對現有AI芯片也提出了前所未有的挑戰:大算力的需求、高吞吐量與低延時、高效內存管理、能耗等等。
    的頭像 發表于 09-24 16:57 ?685次閱讀

    英偉達Blackwell可支持10萬億參數模型AI訓練,實時大語言模型推理

    、NVLink交換機、Spectrum以太網交換機和Quantum InfiniBand交換機。 ? 英偉達稱,Blackwell擁有6項革命性技術,可支持多達10萬億參數模型進行AI訓練
    的頭像 發表于 09-04 09:10 ?2933次閱讀

    英偉達震撼發布:全新AI模型參數規模躍升至80億量級

    8月23日,英偉達宣布,其全新AI模型面世,該模型參數規模高達80億,具有精度高、計算效益大等優勢,適用于GPU加速的數據中心、云及工作站環
    的頭像 發表于 08-23 16:08 ?752次閱讀

    暴漲預警!NVIDIA GPU供應大跳水

    gpu
    jf_02331860
    發布于 :2024年07月26日 09:41:42

    模型發展下,國產GPU的機會和挑戰

    電子發燒友網站提供《大模型發展下,國產GPU的機會和挑戰.pdf》資料免費下載
    發表于 07-18 15:44 ?10次下載
    大<b class='flag-5'>模型</b>發展下,國產<b class='flag-5'>GPU</b>的機會和<b class='flag-5'>挑戰</b>

    AI初出企業Cerebras已申請IPO!稱發布的AI芯片GPU更適合大模型訓練

    美國加州,專注于研發比GPU更適用于訓練AI模型的晶圓級芯片,為復雜的AI應用構建計算機系統,并與阿布扎比科技集團G42等機構合作構建超級計算機。基于其最新旗艦芯片構建的服務器可輕松高
    的頭像 發表于 06-26 00:09 ?2932次閱讀
    AI初出企業Cerebras已申請IPO!稱發布的AI<b class='flag-5'>芯片</b>比<b class='flag-5'>GPU</b>更適合大<b class='flag-5'>模型</b>訓練

    中國電信發布全球首個單體稠密萬億參數語義模型

    近日,中國電信人工智能研究院(TeleAI)攜手北京智源人工智能研究院,共同推出了全球首個單體稠密萬億參數語義模型——Tele-FLM-1T,這一里程碑式的成就標志著中國電信在人工智能領域取得了重大突破,并成為了國內首批發布稠密
    的頭像 發表于 06-20 10:50 ?668次閱讀

    萬卡集群解決大模型訓算力需求,建設面臨哪些挑戰

    ? 電子發燒友網報道(文/李彎彎)萬卡集群是指由一萬張及以上的加速卡(包括GPU、TPU及其他專用AI加速芯片)組成的高性能計算系統,主要用于加速人工智能模型的訓練和推理過程。這種集群的構建旨在
    的頭像 發表于 06-02 06:18 ?4774次閱讀
    萬卡集群解決大<b class='flag-5'>模型</b>訓算力需求,建設面臨哪些<b class='flag-5'>挑戰</b>

    進一步解讀英偉達 Blackwell 架構、NVlink及GB200 超級芯片

    百億億次計算和萬億參數模型提供基礎 NVIDIA推出世界首個高速GPU互連技術NVLink?,提供的速度遠超基于PCIe的解決方案,是多GPU系統擴展內存和性能的理想選擇。NVLink
    發表于 05-13 17:16

    模型時代,國產GPU面臨哪些挑戰

    ,國產GPU在不斷成長的過程中也存在諸多挑戰。 ? 在大模型訓練上存在差距 ? 大語言模型是基于深度學習的技術。這些模型通過在海量文本數據上
    的頭像 發表于 04-03 01:08 ?4681次閱讀
    大<b class='flag-5'>模型</b>時代,國產<b class='flag-5'>GPU</b>面臨哪些<b class='flag-5'>挑戰</b>

    FPGA在深度學習應用中或將取代GPU

    現場可編程門陣列 (FPGA) 解決了 GPU 在運行深度學習模型時面臨的許多問題 在過去的十年里,人工智能的再一次興起使顯卡行業受益匪淺。英偉達 (Nvidia) 和 AMD 等公司的股價也大幅
    發表于 03-21 15:19

    Groq推出大模型推理芯片 超越了傳統GPU和谷歌TPU

    Groq推出了大模型推理芯片,以每秒500tokens的速度引起轟動,超越了傳統GPU和谷歌TPU。
    的頭像 發表于 02-26 10:24 ?1066次閱讀
    Groq推出大<b class='flag-5'>模型</b>推理<b class='flag-5'>芯片</b> 超越了傳統<b class='flag-5'>GPU</b>和谷歌TPU
    主站蜘蛛池模板: 主播蜜汁丝袜精品自拍| 午夜福利合集1000在线| 日本人添下面的全过程| 中文字幕精品视频在线| 精品国产乱码久久久久久软件 | 动漫H片在线观看播放免费| 免费女性裸身照无遮挡网站| 中文字幕亚洲无线码高清不卡| 精品久久久噜噜噜久久7| 亚洲精品国产SUV| 国产精品久久久久久熟妇吹潮软件 | 先锋影音av无码第1页| 纲手裸乳被爆白浆| 欧美亚洲国产专区在线| FREE性丰满白嫩白嫩的HD| 嫩草www视频在线观看高清| 99热热在线精品久久| 欧美s00老人| 成年AV动漫| 跳蛋按摩棒玉势PLAY高H| 国产精品久久国产三级国不卡顿| 色怕怕| 国产乱码伦人偷精品视频| 小柔的性放荡羞辱日记动漫| 国内精品视频一区二区在线观看| 校草让我脱了内裤给全班看| 国产伦子沙发午休系列资源曝光 | 18亚洲男同gay1069| 裸妇厨房风流在线观看| 69久久国产精品热88人妻| 欧美牲交A欧美牲交| 抽插嫩B乳无码漫| 无羞耻肉动漫在线观看| 好湿好滑好硬好爽好深视频| 伊人无码高清| 欧美人成人亚洲专区中文字幕| 伧理片午夜伧理片| 无码国产成人午夜在线观看不卡 | 国产乱妇乱子在线播视频播放网站 | 免费被靠视频动漫| 纯肉腐文高H总受男男|