近日,DIGITIMES 報道,在新冠疫情大流行期間,數據中心對高性能計算 HPC、AI 應用需求旺盛,英偉達、AMD 服務器芯片銷量正在增加。
實際上,以服務器芯片為代表的英偉達數據中心業務,已經連續多個季度獲得快速增長。從 2019 年財年的 25%,增長到 2020 年財年(截至 2020 年 1 月 26 日)的 27.4%,再到 2021 財年第一季度(截至 4 月 26 日)的 37%。數據中心業務對英偉達整體營收的貢獻越來越重要,和英偉達「傳統」優勢領域游戲板塊業務旗鼓相當。
而就在一個多月以前的 2020 年 GTC 線上發布會上,英偉達切合時宜地順應了云市場需求激增這一市場趨勢。發布會沒有出現傳聞中的 Ampere GeForce RTX 3080 游戲顯卡,數據中心產品卻成為了「絕對主角」,賺足了閃光燈。英偉達推出了第八代 GPU 架構 Ampere 安培,新一代 A100 計算卡,不但在工藝制程上跨越至 7nm,更在多個關鍵性能參數指標上呈數倍、乃至數十倍增長。
這是英偉達時隔三年,再度向市場扔出的重磅「核彈」,英偉達的目標很明確,就是 AI 訓練兼推理芯片、高性能計算 HPC 領域。當然,英偉達占領的也不僅僅是服務器芯片為代表的硬件市場,其最大的「殺手锏」在于軟硬一體的生態布局。
「最大的對手是自己」
英偉達 CEO 黃仁勛評價 A100 GPU,「這是英偉達有史以來最好的數據中心 GPU 芯片,幾乎是當今半導體的理論極限,它是英偉達數十年以來數據中心經驗的結晶。」
的確,A100 GPU 引起了包括亞馬遜 AWS、谷歌云、微軟 Azure、阿里云、百度云、騰訊云等云巨頭,以及戴爾、浪潮、HPE、新華三、思科等系統制造商極大的采購熱情。并且,在 A100 GPU 發布之前,就已經投產,開始逐步向云廠商們交付。
用黃仁勛的話來描述就是「前所未有」。
八年以前,黃仁勛絕對想不到,英偉達能夠 C 端、B 端通吃,踩準了 AI 時代的每個關鍵節點,為深度學習提供強大算力,推動圖片、語音、自動駕駛、機器人、乃至數據中心的飛速發展。如今,相比于 21 年前剛上市時,英偉達市值已翻了千余倍。
2012 年,ImageNet 大賽上,參賽者因使用英偉達 GPU+CUDA,將深度卷積神經網絡 AlexNet 準確率提高 10% 以上,獲得冠軍,也讓英偉達名聲大噪。此后,英偉達 GPU 和 CUDA 軟件一直主導深度學習市場,幾乎所有深度學習開發者離不開英偉達 GPU+CUDA 組合。
包括 2016 年,直接引爆 AI 第三次浪潮的關鍵事件,AlphaGo 大戰李世石,以及亞馬遜 AWS、微軟,國內的互聯網廠商 BAT、美團等 AI 最新進展均有英偉達 GPU 的底層支持。多個第三方研究報告顯示,在云端 AI 芯片市場,尤其是云端訓練方面,英偉達占據絕對主導地位。
云端、企業級數據中心芯片市場,排名前四位的公有云廠商亞馬遜 AWS、微軟 Azure、谷歌云、阿里云的上萬余個實例類型中,只有很小一部分不基于英偉達 GPU 加速。
不過,這不意味著,英偉達完全沒有潛在威脅。英偉達競爭對手大致分為三種:英特爾、AMD 為代表的「老對手」;亞馬遜 AWS、谷歌、阿里巴巴、華為為代表的云巨頭,以及寒武紀、燧原科技為代表的創業型 AI 芯片公司在內的新對手。
實際上,與其說是新老之爭,不如說是 CPU、GPU、ASIC、FPGA 之間的紛爭。盡管,英特爾 Xeon CPU 已經安裝于全球 99% 的數據中心中,但深度學習、AR/VR、IoT、海量數據處理,推動著數據中心從 CPU 轉向 GPU,并成為常態化。
比如,廣告位展示、流媒體、電商平臺推薦引擎系統、智能語音現在均已采用 GPU 驅動。再如,相同時間周期內芯片性能提高的難易程度不同。2017 年,英偉達推出基于新架構 Volta 的 Tesla V100 芯片,是上一代基于 Pascal 架構的 Tesla P100 訓練速度的 12 倍。英偉達在三年之內將 AI 性能提高了 60多倍,而相同時間內,CPU 只能提高一倍。
難怪,黃仁勛自 2017 年以來,多次公開宣布摩爾定律已失效。
在云巨頭方面,無論是 AWS Inferentia、谷歌 TPU、阿里巴巴含光 800 均屬于 ASIC 芯片,側重 AI 推理。云巨頭自研云端 AI 芯片背后的邏輯有兩點,一方面,降低購置芯片的成本,更好服務于自身業務,另一方面,逐步減少對英偉達、英特爾芯片的依賴,提高自己對云生態系統的掌控能力。
一般來說,ASIC 只針對單一場景,速度很快,GPU 的性能以面積和功耗為代價,理論上 ASIC 性能優于 GPU。但 ASIC 研發較慢,有時候趕不上深度學習的發展速度。在價格方面甚至更昂貴,谷歌官網顯示,使用 TPU 價格為 8 美元/時,英偉達芯片則為 2.48 美元/小時。
「AI 訓練芯片的研發難度更高,目前還是 GPU 占據了很大的優勢。主要是英偉達圍繞自己的 GPU 已經構建了豐富的軟件生態。其他 ASIC 或 FPGA 在硬件指標上可能占據優勢,但在生態上比英偉達還落后很多,這也是為什么英偉達一家獨大的原因。 」芯謀研究徐可告訴極客公園。
黃仁勛曾說過,英偉達是一家 AI 公司,更強調英偉達是一家軟件公司,和蘋果類似,通過售賣硬件盈利的軟件公司。
2006 年,英偉達面向開發者推出 CUDA 通用并行計算平臺,通過 CUDA 平臺,開發者可以使用 C 或 C++語言編程,來加速計算應用程序,極大地簡化了軟件開發過程。英偉達投入大量資金構筑 CUDA 生態,通過開設課程、培訓,吸引開發者,滲透至各個關鍵行業用戶,這是競爭對手 AMD 所不具備的能力。
近三四年,英偉達開發者數量增長迅猛,僅 2019 年一年,CUDA 平臺的下載量就超過了 500 萬次。不僅如此,在 CUDA 平臺之上,英偉達還提供 CUDA-X 軟件加速庫集合,其中,CUDA-X AI 囊括了加速深度學習的 cuDNN、加速機器學習算法的 cuML、優化訓練模型以進行推理的 TensorRT 等 15 個庫,此外,英偉達還推出 RAPIDS 開源軟件平臺,加速企業數據分析、機器學習。
去年年底,黃仁勛在接受 GamesBeat 采訪時談到,英偉達基于 GPU 芯片構建出了非常復雜的軟件堆棧,而軟件堆棧是競爭對手不具備的「賽道」。
可見,CUDA 平臺在內的軟件能力,已經成為英偉達的「護城河」。比如,2017 年,英偉達推出面向 AI 訓練和高性能計算的 Tesla V100 芯片后,長達兩年多的時間里,沒有新的后續產品推出。軟件成為提高 AI 性能的關鍵,ResNet-50 神經網絡在軟件的幫助下,AI 訓練能力提高了 100%。
在 GPU 硬件方面,英偉達也在鞏固、增強固有優勢。2019 年,英偉達收購 Mellanox,彌補了英偉達在數據中心低延遲互連及網絡方面的欠缺,顯著增強 NVLink(GPU 與 GPU 互聯)和 NVSwitch(整合多個 NVLink)互聯的速度與可擴展性。
2016 年,英偉達面向 AI 創業公司,推出初創加速計劃,幫助 AI 創業公司加速孵化、商業落地。巨頭競爭的本質是生態上的競爭。
「生態和軟件非常關鍵。AI 芯片只是底層的工具,AI 開發者對 AI 芯片相關生態和軟件的選擇,決定了芯片的前途。」徐可說。
在經歷游戲顯卡業務想象力登頂,比特幣挖礦機行業「過山車」式的起伏后,英偉達正憑借數據中心業務進階 B 端。現在看來,英偉達押寶數據中心前景與錢景巨大,數據中心業務與英偉達強大的軟件、生態能力產生的化學反應,正驅動英偉達在芯片市場講出一個新的增長故事。
-
amd
+關注
關注
25文章
5467瀏覽量
134130 -
英偉達
+關注
關注
22文章
3773瀏覽量
91025
發布評論請先 登錄
相關推薦
評論