Nvidia表示,已通過今年早些時候推出的A100 GPU芯片,擴大了在MLPerf Benchmark上進行AI推理的領先優勢。Nvidia在第二版MLPerf Inference中贏得了針對數據中心和邊緣計算系統的六個應用程序測試中的每一個。這些測試是對最初的兩個計算機視覺基準測試的擴展-AI測試現在包括推薦系統,自然語言理解,語音識別和醫學成像。
行業觀察家Moor Insights&Strategy的HPC和機器學習高級分析師Karl Freund評論說,與Nvidia的展示一樣令人印象深刻,還應該注意,某些原本有望參加MLPerf競賽的公司卻沒有參加。。
弗洛伊德說:“英偉達在競爭激烈的競爭者中表現出色。” 與(Nvidia)V100(GPU)相比,他們的A100效果驚人,證明了其增強的Tensor核心架構的價值。我贊揚MLPerf添加了新的基準,這些基準越來越代表快速增長的推理機會,例如推薦引擎。
Freund說:“話說回來,競爭要么是因為客戶項目太忙,要么是他們的芯片還沒有準備好。” “例如,SambaNova(人工智能系統平臺)宣布與LLNL建立新的合作伙伴關系,而英特爾Habana(可編程深度學習加速器)仍在醞釀中。如果我仍在芯片創業公司,我將等待運行MLPerf(一個昂貴的項目),直到我已經獲得了一些燈塔客戶。
英偉達在其結果公告中表示,其A100的AI推理速度比CPU快237倍。
Nvidia加速計算部總經理兼副總裁Ian Buck表示:“每個行業都在尋求更好的方式來應用AI提供新服務和發展業務,這是我們的轉折點。” “我們為在MLPerf上實現這些結果而進行的工作使公司的AI性能達到了新的水平,從而改善了我們的日常生活。”
Nvidia表示,該公司及其合作伙伴使用Nvidia的加速平臺(包括Nvidia數據中心GPU,Edge AI加速器和Nvidia優化的軟件)提交了MLPerf 0.7結果。Nvidia A100于今年早些時候推出,具有第三代Tensor內核和多實例GPU技術,在ResNet-50測試中的領先優勢得到了提高,比上一輪的CPU高出30倍,是6倍。該公司補充說,它的GPU在公共云中的AI推理能力首次超過了CPU,并表示Nvidia GPU上的云AI推理總能力每兩年增長約10倍。
責任編輯:lq
-
NVIDIA
+關注
關注
14文章
4981瀏覽量
103000 -
機器學習
+關注
關注
66文章
8408瀏覽量
132580 -
GPU芯片
+關注
關注
1文章
303瀏覽量
5806 -
MLPerf
+關注
關注
0文章
35瀏覽量
636
發布評論請先 登錄
相關推薦
評論