疫情所致,英偉達今年的GTC(GPU Technology Conference)改為線上舉辦,日期也由原來的3月下旬推遲到5月中旬。于是,就有了北京時間5月14日晚,英偉達創始人兼CEO黃仁勛人生中首次的“Kitchen Keynote”。嗯,或許這篇也可以取名為《疫情當前,GPU大佬廚房帶貨忙》。
當然,姍姍來遲的GTC并沒有讓人失望,豪橫的硬菜有:全球最大的7nm處理器 A100 GPU、可用于對抗COVID-19的最新AI系統DGX A100、收購Mellanox以來的首個成果SmartNIC,這些創新直接彰顯了這位GPU霸主對于未來數據中心的理解,以及堅決捍衛既有地位的決心。同時,還有對于邊緣市場、自動駕駛、醫療、AI機器人、對話式AI等領域的無限擴張。
第八代GPU A100成全球最大7nm處理器,堪稱英偉達史上最大性能飛躍
過去的一年內,英偉達的第八代GPU曾引發了業界的諸多猜測。也正如他早先放風出來“你不會失望的”,這款基于英偉達Ampere架構的NVIDIA A100,將AI訓練和推理性能提高20倍,可以說是英偉達GPU迄今為止最大的性能飛躍。作為一款通用型工作負載加速器,A100還被設計用于數據分析、科學計算和云圖形。云計算和AI的強大趨勢正在推動數據中心設計的結構性轉變,高效的加速計算基礎架構正在取代傳統的服務器架構。黃仁勛對A100 GPU寄予厚望,認為它“作為一個端到端的機器學習加速器,有史以來首次在一個平臺上實現橫向擴展以及縱向擴展的負載的加速。在提高吞吐量的同時,能夠降低數據中心的成本。”
A100 GPU的突破來源于五大關鍵性創新:
NVIDIA Ampere架構:這是A100的核心,該架構包含超過540億個晶體管,這使其成為全球最大的7nm處理器;
具有TF32的第三代TensorCore核心:TensorCore被英偉達廣泛采用,現在變得更加靈活且易于使用,使FP32精度下的AI性能提高多達20倍。此外,TensorCore核心現在支持FP64精度,相比前代,它為HPC應用所提供的算力提高了2.5倍。
多實例GPU: MIG,這是一種全新的技術功能,可將單個A100 GPU分割為七個獨立的GPU,為不同規模的工作提供不同的算力,將利用率和效率最大化。
第三代NVIDIA NVLink:使GPU之間的高速聯結增加至原來的兩倍,實現服務器的高效擴展。
結構化稀疏:這種全新的效率技術利用AI數學固有的稀疏性,使性能提升了一倍。
憑借這些新功能,A100可成為AI訓練和推理以及科學模擬、對話式AI、推薦系統、基因組學、高性能數據分析、地震建模和金融預測等各種高要求工作負載的理想選擇。
據了解,A100已全面投產并已向全球客戶交付。眾多全球云服務供應商和系統構建商計劃將A100 GPU集成到其產品中,其中包括:阿里云、AWS、百度智能云、思科、Dell Technologies、富士通、Google Cloud、新華三、HPE、浪潮、聯想、Microsoft Azure、甲骨文、騰訊云等等。
新系統已搭載A100,首批訂單用于對抗COVID-19
同時發布的還有NVIDIA DGX A100系統,內置8個由NVLink 互聯的A100 GPU,具有5Petaflops的AI性能。利用AI00的多實例GPU功能,每臺DGX A100能夠被分割為56個實例,用于加速多個小型工作負載的處理速度。憑借這些功能,用戶可在一個完全集成的軟件定義平臺上根據自身需求優化算力和資源,加快數據分析、訓練和推理等各種工作負載的速度。針對端到端的機器學習工作流,從數據分析到訓練再到推理構建的AI系統,DGX A100提供的性能,能夠幫助機器學習工程師應對指數級增長的AI模型和數據。
據了解,多家全球大型企業、服務供應商和政府機構以及訂購了前幾批DGX A100。首批系統已于本月早些時候交付給了美國能源部(U.S. Department of Energy, DOE)的阿貢國家實驗室(Argonne National Laboratory),該實驗室將運用該集群的AI和算力來更好地研究和應對COVID-19。
阿貢國家實驗室計算機、環境和生命科學實驗室副主任Rick Stevens表示,全新DGX A100提供的算力,將幫助研究人員探索治療方法和研發疫苗、研究病毒的傳播方式,使科學家能夠利用AI加速工作,在數月甚至數日內完成以前需要數年才能完成的工作。
英偉達還展示了由140臺DGX A100系統組成的DGX SuperPOD AI超級計算機,用于公司內部對話式AI、基因組學和自動駕駛等領域的研究。該集群是全球速度最快的AI超級計算機之一,其性能相當于此前數千臺服務器的性能,AI計算能力高達700 Petaflops。
面向新一代數據中心的安全加速智能網卡
根據市場研究機構Dell’Oro的數據顯示,預計到2024年,智能網卡(SmartNIC)市場規模將超過6億美元,占全球以太網適配器市場的23%。而整體控制器和適配器市場將以7%的年復合增長率增長,其中25Gbps和100Gbps的銷售將是主要增長驅動力。英偉達顯然早已看到這一巨大的機會,收購Mellanox以來首個發布就是25G安全智能網卡(SmartNIC)。據了解,全新發布的ConnectX-6 Lx SmartNIC就是面向新一代解耦式的、可重組的數據中心的經濟高效、可加速應用的和安全的智能網卡,是ConnectX系列網卡的第11代產品。
這款產品專為滿足現代化數據中心的需求而設計,在這個市場,25Gb/s網絡已成為各種主流應用的標準,例如企業級應用、AI和實時分析等。這款全新的SmartNIC充分利用了軟件定義和硬件加速等先進技術,將更多的安全和網絡處理工作從CPU卸載到網卡上來。
就在今年3月份,賽靈思推出了一體化SmartNIC Alveo U25,通過將SmartNIC平臺與FPGA引擎相結合,實現全可編程與一站式加速應用。賽靈思的這款產品賣點之一就是實現了網絡、存儲、計算加速能力的全集成。
而英偉達的這款ConnectX-6 Lx更強調的是安全加速功能。包括IPsec在線加密和硬件信任根(Hardware Root of Trust),可提升10倍性能的連接追蹤(Connection Tracking)功能等,實現了整個數據中心的在零信任下的安全保障(Zero Trust security)。RoCE(RDMA over converged Ethernet)技術、虛擬化和容器化技術,以及NVMe over Fabrics存儲卸載技術等,都成為高性能可擴展網絡的保障。
SmartNIC正在成為加速計算的下一個必爭之地。
云原生技術支持的EGX邊緣AI平臺
巨大的邊緣計算市場自然也是英偉達的重點。本次發布的兩款EGX邊緣AI 平臺產品分別是:適用于較大型商業通用服務器上的 EGX A100聚合加速器,和適用于微型邊緣服務器的微型EGX Jetson Xavier NX。這兩款產品能夠在邊緣提供安全、高性能的AI處理能力。
EGX A100是首個基于NVIDIA Ampere架構的邊緣AI產品,結合了NVIDIA Ampere架構所具有的突破性計算性能與ConnectX-6 Dx SmartNIC所具備的網絡加速和關鍵性安全功能,能將標準型和專用型的邊緣服務器轉變為安全的云原生AI超級計算機。隨著AI日益向邊緣發展,企業機構可將EGX A100添加到其服務器中,從而實時處理和保護來自邊緣傳感器的海量流式數據。
EGX Jetson Xavier NX則號稱是全球體積最小、性能最強大的AI超級計算機,適用于微型服務器和邊緣智能物聯網盒。目前,生態圈內的合作伙伴已提供了超過20種解決方案。該產品將NVIDIA Xavier SoC的性能整合到了一個信用卡大小的模塊中。運行EGX云原生軟件堆棧的EGX Jetson Xavier NX可以快速處理來自多個高分辨率傳感器的流式數據。
這兩款產品可滿足不同尺寸、成本和性能方面的需求。例如搭載了EGX A100的服務器可以管理機場中的數百臺攝像頭,而EGX Jetson Xavier NX則可用于管理便利店中的少量攝像頭。但是,云原生技術支持能夠確保整個EGX產品家族都可以使用同一經過優化的AI軟件構建和部署AI應用。
黃仁勛表示:“物聯網和AI的融合已開啟了“萬物智能”革命。就像手機行業通過智能手機為用戶提供智能服務一樣,大型行業現在也可以為用戶提供智能互聯的產品和服務。EGX邊緣AI平臺能夠將標準服務器轉變為一個小型的云原生、安全型AI數據中心。借助于我們的AI應用框架,企業可以構建從智能零售到機器人工廠再到自動化呼叫中心等各類AI服務。”
結語
英偉達1999年發明GPU后激發了PC游戲市場的增長,重新定義了現代計算機顯卡,并且對并行計算進行了革新。加速計算迅猛發展的25年,也是計算架構、計算系統與軟件堆棧風馳電掣般演進的25年。以GPU深度學習為代表的技術已經點燃了全新的計算時代——現代人工智能,同時也帶動了CUDA軟件生態的繁榮和開發者數量的迅猛增長。
世界總在前行中,科技也在不斷創新。但科技總是為了讓生活更美好,正如黃仁勛在今年的Keynote中首先致敬疫情期間堅守在各自工作崗位的普通人,平凡背后蘊藏的巨大能量。黃仁勛仍在挖掘GPU背后的強大潛力。
本文由電子發燒友網原創,未經授權禁止轉載。如需轉載,請添加微信號elecfans999.
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。
舉報投訴
-
gpu
+關注
關注
28文章
4729瀏覽量
128902 -
AI2020
+關注
關注
1文章
22瀏覽量
5939
發布評論請先 登錄
相關推薦
《CST Studio Suite 2024 GPU加速計算指南》
許可證模型的加速令牌或SIMULIA統一許可證模型的SimUnit令牌或積分授權。
4. GPU計算的啟用
- 交互式模擬:通過加速對話框啟用,打開求解器對話框,點擊“
發表于 12-16 14:25
英偉達與谷歌聯手加速量子計算設備設計
近日,據外媒最新報道,英偉達與谷歌兩大科技巨頭宣布攜手合作,共同加速下一代量子計算設備的設計進程。 雙方在一份聯合聲明中透露,谷歌的量子人工智能部門將充分利用
英偉達與谷歌攜手加速量子計算設備設計
英偉達近日宣布,將與谷歌量子AI團隊展開合作,共同推進量子計算軟硬件工具的研發。雙方將利用英偉達CUDA-Q平臺提供的模擬支持,加快設計谷歌
軟銀升級人工智能計算平臺,安裝4000顆英偉達Hopper GPU
軟銀公司宣布,其正在擴展的日本頂級人工智能計算平臺已安裝了約4000顆英偉達Hopper GPU。這一舉措顯著提升了平臺的計算能力。據悉,該
打破英偉達CUDA壁壘?AMD顯卡現在也能無縫適配CUDA了
電子發燒友網報道(文/梁浩斌)一直以來,圍繞CUDA打造的軟件生態,是英偉達在GPU領域最大的護城河,尤其是隨著目前AI領域的發展
英國公司實現英偉達CUDA軟件在AMD GPU上的無縫運行
7月18日最新資訊,英國創新科技企業Spectral Compute震撼發布了其革命性GPGPU編程工具包——“SCALE”,該工具包實現了英偉達CUDA軟件在AMD GPU上的無縫遷移與運行,標志著在
英偉達GPU新品規劃與HBM市場展望
在COMPUTEX 2024主題演講中,英偉達(NVIDIA)公布了其GPU產品的未來規劃。據英偉達透露,B100、B200和GB200系列
進一步解讀英偉達 Blackwell 架構、NVlink及GB200 超級芯片
計算工作負載、釋放百億億次計算能力和萬億參數人工智能模型的全部潛力提供關鍵基礎。
NVLink釋放數萬億參數AI模型的加速性能,顯著提升大型多GPU
發表于 05-13 17:16
英偉達、AMD、英特爾GPU產品及優勢匯總
電子發燒友網報道(文/李彎彎)隨著人工智能技術的快速發展,GPU的市場規模在全球范圍內持續提升。目前,GPU市場主要由英偉達、AMD和英特爾等幾家大公司主導。其中,
英偉達發布性能大幅提升的新款B200 AI GPU
英偉達宣稱,B200在性能上比以往最好的GPU快30倍不止。由它構成的服務器集群相比上一代,運算能力飛躍性提升,甚至能使大語言模型的訓練速度
評論