色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

刷屏的Groq芯片,速度遠超英偉達GPU!成本卻遭質疑

Carol Li ? 來源:電子發燒友 ? 作者:李彎彎 ? 2024-02-22 09:06 ? 次閱讀

電子發燒友網報道(文/李彎彎)英偉達遇到勁敵了?近日,Groq芯片計算速度超過英偉達GPU的消息刷屏。Groq是一家成立于2016年的AI創企,該公司近日開放了自家產品的免費試用,相比其他AI聊天機器人,Groq閃電般的響應速度迅速引爆朋友圈,經網友測試,Groq每秒生成速度接近500 tok/s,碾壓GPT-4的40 tok/s。

而這樣的速度背后,源于Groq自研了一種名為張量流處理器(TSP)的新型處理單元,Groq將其命名為語言處理單元,即LPU,它的工作原理與GPU截然不同。

Groq芯片跑大模型的速度有多快

Groq芯片跑大模型最突出的特點,便是快。有網友震驚地說:“它回復的速度比我眨眼還快。”在傳統生成AI中,等待是很平常的事,經常是字符一個個往外蹦,回答完需要挺長時間。而有網友稱,在Groq近日開放的云服務體驗平臺上,你可以看到,當模型收到提示后,幾乎能夠立即生成答案。

電子郵件初創企業OthersideAI的首席執行官兼聯合創始人馬特·舒默在演示中親自體驗了Groq的強大功能。他稱贊Groq快如閃電,能夠在不到一秒鐘的時間內生成數百個單詞的事實性、引用性答案。更令人驚訝的是,它超過3/4的時間用于搜索信息,而生成答案的時間卻短到只有幾分之一秒。

需要說明的是,Groq并沒有研發新模型,它只是一個模型啟動器,主頁上運行的是開源模型Mixtral 8x7B-32k和Llama 270B-4k。而驅動模型的硬件便是Groq自研的一種名為張量流處理器(TSP)的新型處理單元,Groq將其命名為語言處理單元,即LPU(Language Processing Units),它的工作原理與GPU截然不同。

各種測試結果和網友的體驗,都顯示Groq LPU的計算速度相當快。根據2024年一月的測試結果,由Groq LPU驅動Meta Llama 2模型,推理性能遙遙領先,是頂級云計算供應商的18倍。有報道稱,Groq LPU搭配Meta Llama 2 70B能在7分鐘內就能生成與莎士比亞《哈姆雷特》相同數量的單詞,比普通人的打字速度快75倍。

有網友測試同時用Gemini、GPT-4和Groq完成一個代碼調試問題,結果,Groq的輸出速度比Gemini快10倍,比GPT-4快18倍。

有從事人工智能開發的用戶稱贊,Groq是追求低延遲產品的“游戲規則改變者”。有用戶認為,Groq的LPU可能成為英偉達A100和H100芯片的“高性能硬件”的有力替代品。不過,也有AI行業的專家表示,Groq的LPU從成本上來看并不具優勢,目前并不能代替英偉達。

Groq 開發的LPU與GPU有何不同

Groq開發的LPU到底是個怎樣的產品?據其官網介紹,LPU是一種專為AI推理所設計的芯片。驅動包括GPT等主流大模型的GPU,是一種為圖形渲染而設計的并行處理器,有數百個內核。而LPU架構則與GPU使用的SIMD(單指令,多數據)不同,這種設計可以讓芯片更有效地利用每個時鐘周期,確保一致的延遲和吞吐量,也降低了復雜調度硬件的需求。

Groq的LPU推理引擎不是普通的處理單元;它是一個端到端系統,專為需要大量計算和連續處理的應用(如LLM)提供最快的推理而設計。通過消除外部內存瓶頸,LPU推理引擎的性能比傳統GPU高出幾個數量級。

根據與Groq關系密切的投資人k_zeroS分享,LPU的工作原理與GPU截然不同。它采用了時序指令集計算機(TemporalInstructionSetComputer)架構,這意味著它無需像使用高帶寬存儲器(HBM)的GPU那樣頻繁地從內存中加載數據。這一特點不僅有助于避免HBM短缺的問題,還能有效降低成本。

Groq創始人兼首席執行官Jonathan Ross此前在接受采訪的時候就談到,在大模型推理場景,Groq LPU芯片的速度比英偉達GPU快10倍,但價格和耗電量都僅為后者的十分之一。

Ross認為,對于在產品中使用人工智能的公司來說,推理成本正在成為一個問題,因為隨著使用這些產品的客戶數量增加,運行模型的成本也在迅速增加。與英偉達GPU相比,Groq LPU集群將為大模型推理提供更高的吞吐量、更低的延遲和更低的成本。

他強調,由于技術路徑不同,Groq的LPU芯片不依賴于三星或SK海力士的HBM,也不依賴于臺積電將外部HBM焊接到芯片上的CoWoS封裝技術。它在供應方面比英偉達更充足,不會被臺積電或者SK海力士等供應商卡脖子。

可以看到,Groq LPU芯片相當于是去掉了HBM,而只是依靠SRAM來計算。雖然這樣計算速度確實相當驚艷,然而其更低成本的問題卻遭到質疑。

有AI專家表示,Groq芯片的實際成本并不低,如人工智能專家賈揚清分析稱,因為Groq小的可憐的內存容量(230MB),在運行Llama-270b模型時,需要305張Groq卡才足夠,而用H100則只需要8張卡。從目前的價格來看,這意味著在同等吞吐量下,Groq的硬件成本是H100的40倍,能耗成本是10倍。

當然也有SRAM行業的專家非常看好這種架構模式,他認為,賈揚清對Groq成本的估算不是很對,因為沒有考慮到Groq的per token cost明顯低于GPGPU。

可以看到,作為一種新的架構模式,Groq LPU當前必然還面臨一些潛在問題,然而它的出現,也讓人們看到GPU之外的可能路徑。

Groq LPU芯片未來能否肩負起運行大模型的重任,或許再等等,就能看到明確答案。事實上,在去年年底的采訪中,Ross就表示,考慮到GPU的短缺和高昂的成本,他相信Groq未來的發展潛力。他說到:“在未來12個月內,我們可以部署10萬個LPU,在24個月內,我們可以部署100萬個LPU。”

寫在最后

過去一年多時間,全球眾多科技公司都在研發大模型,今年將會是大模型落地部署的重要一年,而如眾多大模型的訓練和推理卻依賴英偉達的GPU。業界亟需除英偉達GPU之外的芯片,能夠用于大模型的部署推理,Groq的LPU芯片可以說是帶來了新的探索方向。

雖然Groq公司對自己的LPU芯片在性能和成本上都自信滿滿,然而業界對于其成本問題還是有所質疑。如果今年LPU芯片能夠如規劃那樣進行較大規模的部署,或許就能一定程度證明LPU芯片在成本上也在眾多用戶所能接受的范圍之內。












聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • gpu
    gpu
    +關注

    關注

    28

    文章

    4729

    瀏覽量

    128890
  • 英偉達
    +關注

    關注

    22

    文章

    3770

    瀏覽量

    90984
  • Groq
    +關注

    關注

    0

    文章

    9

    瀏覽量

    80
收藏 人收藏

    評論

    相關推薦

    挑戰英偉:聚焦本土GPU領軍企業崛起

    在全球圖形處理單元(GPU)市場的霸主地位,特別是其關鍵硬件對訓練大型AI模型(如ChatGPT背后的OpenAI模型)的不可或缺性,中國正積極尋求突破。盡管英偉仍向中國出口部分
    的頭像 發表于 09-18 15:24 ?706次閱讀

    英偉將全面轉向開源GPU內核模塊

    英偉公司近期宣布了一項重大決策,即全面轉向開源GPU內核模塊,并計劃最終以此取代閉源驅動程序。這一戰略轉變標志著英偉在開源領域邁出了重要
    的頭像 發表于 07-19 15:26 ?558次閱讀

    英偉GPU新品規劃與HBM市場展望

    在COMPUTEX 2024主題演講中,英偉(NVIDIA)公布了其GPU產品的未來規劃。據英偉透露,B100、B200和GB200系列
    的頭像 發表于 06-13 09:44 ?800次閱讀

    進一步解讀英偉 Blackwell 架構、NVlink及GB200 超級芯片

    英偉最新機架解決方案 GB200 提升了性能,降低了 CPU:GPU 配比,有助于降低客戶的總擁有成本(TCO)。 這些應用將有助于推動數據中心的發展,為人工智能、云計算等領域提供
    發表于 05-13 17:16

    英偉、AMD、英特爾GPU產品及優勢匯總

    主導地位,其銷售額預計將達到400億美元,遠超過競爭對手AMD和英特爾。那么這三家公司都有哪些GPU產品,各自的產品有何優勢呢? ? 英偉??????????????????????
    的頭像 發表于 05-10 00:59 ?5082次閱讀

    英偉發布新一代AI芯片架構Blackwell GPU

    近日,英偉首席執行官黃仁勛在GTC 2024會議上發表主題演講,重磅推出全新AI芯片架構Blackwell GPU。這一創新技術的首款芯片
    的頭像 發表于 03-26 11:19 ?867次閱讀

    Groq聲稱碾壓英偉GPU 國產芯片如何借鑒?

    洞見分析
    電子發燒友網官方
    發布于 :2024年03月15日 09:30:26

    英偉擅用版權作品起訴 AI訓練數據和版權的矛盾凸顯

    英偉擅用版權作品起訴 AI訓練數據和版權的矛盾凸顯 據外媒路透社的報道,AI訓練數據和版權之間的矛盾日益凸顯。英偉達因為擅用版權作品訓練其NeMo人工智能平臺而
    的頭像 發表于 03-11 14:17 ?550次閱讀

    英偉要小心了!爆火的Groq芯片能翻盤嗎?AI推理速度「吊打」英偉

    隨著科技的飛速發展,人工智能公司Groq挑戰了英偉的王者地位,其AI芯片不僅展現出卓越的實力,還擁有巨大的潛力。Groq設計了一種獨特的推
    的頭像 發表于 03-08 09:44 ?909次閱讀
    <b class='flag-5'>英偉</b><b class='flag-5'>達</b>要小心了!爆火的<b class='flag-5'>Groq</b><b class='flag-5'>芯片</b>能翻盤嗎?AI推理<b class='flag-5'>速度</b>「吊打」<b class='flag-5'>英偉</b><b class='flag-5'>達</b>?

    Groq收購Definitive intelligence,提升云平臺能力

     Groq去年1月發布新型人工智能芯片LPU(語言處理單元),近來引發市場熱烈反響——眾多公開測試以及客戶實測顯示,其低延遲與高吞吐量優勢顯著,尤其是AI推理運算速度相較于英偉
    的頭像 發表于 03-04 09:49 ?516次閱讀

    英偉被控延遲出貨,阻礙競爭

    據報道,若發現客戶尋找新的商業發展機遇,英偉可能因此推遲數據中心GPU的出貨。Groq這家人工智能芯片初創企業的首席執行官羅斯(Jonat
    的頭像 發表于 02-29 09:53 ?543次閱讀

    “網紅”芯片Groq英偉蒸發5600億

    鑒于ChatGPT的廣泛應用,引發了AI算力需求的迅猛增長,使得英偉的AI芯片供不應求,出現大規模短缺。如今,英偉似乎在面對更多挑戰。
    的頭像 發表于 02-27 15:10 ?1166次閱讀
    “網紅”<b class='flag-5'>芯片</b><b class='flag-5'>Groq</b>讓<b class='flag-5'>英偉</b><b class='flag-5'>達</b>蒸發5600億

    Groq推出大模型推理芯片 超越了傳統GPU和谷歌TPU

    Groq推出了大模型推理芯片,以每秒500tokens的速度引起轟動,超越了傳統GPU和谷歌TPU。
    的頭像 發表于 02-26 10:24 ?1029次閱讀
    <b class='flag-5'>Groq</b>推出大模型推理<b class='flag-5'>芯片</b> 超越了傳統<b class='flag-5'>GPU</b>和谷歌TPU

    盤點英偉24年來最差的五款GPU

    英偉GPU也可能失敗。
    的頭像 發表于 01-04 17:06 ?1709次閱讀
    主站蜘蛛池模板: 成人在线免费| 草莓湿漉漉是好事还是恶性| 中文字幕AV亚洲精品影视| 中文字幕完整高清版| 97色伦图区97色伦综合图区 | 伊人影院综合在线| 中文人妻熟妇精品乱又伦| 99视频免费看| 国产av免费观看日本| 国产一级特黄a大片99| 久久毛片免费看一区二区三区| 蜜臀AV中文字幕熟女人妻| 日韩免费视频一区| 亚洲国产成人久久精品影视| 稚嫩挤奶h调教h| 成人免费在线观看视频| 国产在线视频一区二区不卡| 久久亚洲免费视频| 日本免费一区二区三区四区五六区| 乡土女性网动态图解| 最近日本免费观看MV免费| 成人短片迅雷下载| 精品国产成人系列| 欧美性喷潮xxxx| 亚洲国产综合人成综合网站00| 5580免费午夜福利院| 国产精品成人免费| 久色乳综合思思在线视频| 乳色吐息未增删樱花ED在线观看| 亚洲xxxx动漫| beeg日本老师| 挤奶门事件完整照片| 人妖干美女| 在线 中文字幕| 动漫美女性侵| 久久综合香蕉久久久久久久| 神马电影院午 夜理论| 真实的强视频免费网站| 国产成人女人在线视频观看| 久久亚洲A片COM人成A| 天天插天天舔|