NVIDIA于今日發布NVIDIA A100 80GB GPU,這一創新將支持NVIDIA HGX AI超級計算平臺。該GPU內存比上一代提升一倍,能夠為研究人員和工程師們提供空前的速度和性能,助力實現新一輪AI和科學技術突破。
全新A100采用HBM2e技術,可將A100 40GB GPU的高帶寬內存增加一倍至80GB,提供每秒超過2TB的內存帶寬。這使得數據可以快速傳輸到全球最快的數據中心GPU A100上,使研究人員能夠更快地加速其應用,處理最大規模的模型和數據集。
NVIDIA應用深度學習研究副總裁Bryan Catanzaro表示:“若想獲得HPC和AI的最新研究成果,則需要構建最大的模型,而這需要比以往更大的內存容量和更高的帶寬。A100 80GB GPU所提供的內存是六個月前推出的前代產品的兩倍,突破了每秒2TB的限制,使研究人員可以應對全球科學及大數據方面最嚴峻的挑戰。”
用于NVIDIA DGXTM A100和NVIDIA DGX StationTM A100系統的NVIDIA A100 80GB GPU也于今日發布,預計將于本季度發貨。
領先的系統提供商源訊、戴爾科技、富士通、技嘉科技、慧與、浪潮、聯想、云達科技、超微預計將于2021年上半年,提供基于HGX A100集成底板的系統,該集成底板搭載4-8個A100 80GB GPU。
滿足大流量數據工作負載需求
A100 80GB版本基于A100 40GB的多樣化功能,成為需要大量數據存儲空間的各類應用的理想選擇。
DLRM等推薦系統模型為AI訓練提供了涵蓋數十億用戶和產品信息的海量表單。A100 80GB可實現高達3倍加速,使企業可以重新快速訓練這些模型,從而提供更加精確的推薦。
HGX服務器中搭載的A100 80GB還可訓練具有更多參數的最大模型,如GPT-2。GPT-2是具有超常生成文本能力的自然語言處理模型。這就消除了對數據或模型并行架構的需求,因為實現并行架構需要花費大量時間,而且跨多個節點運行緩慢。
憑借其多實例GPU(MIG)技術,A100可分割為多達7個GPU實例,每個實例具有10GB內存。該技術是一種安全的硬件隔離方法,在處理各類較小的工作負載時,可實現GPU最佳利用率。對于如RNN-T等自動語言識別模型的AI推理,單個A100 80GB MIG實例可處理更大規模的批量數據,將生產中的推理吞吐量提高1.25倍。
在TB級零售大數據分析基準上,A100 80GB將其性能提高了2倍,使其成為可對最大規模數據集進行快速分析的理想平臺。隨著數據的動態更新,企業可以實時做出關鍵決策。
對于科學應用,A100 80GB可為天氣預報和量子化學等領域提供巨大的加速。材料模擬軟件Quantum Espresso采用單節點A100 80GB實現了近2倍的吞吐量提升。
RIKEN計算科學中心負責人Satoshi Matsuoka表示:“快速、充足的內存帶寬和容量對實現高性能超級計算應用來說至關重要。具有80GB HBM2e GPU內存的NVIDIA A100提供2TB/s的全球最快帶寬,可幫助我們大幅提高應用性能。”
A100 80GB的關鍵特性
A100 80GB具備NVIDIA Ampere架構突破性特性:
·第三代Tensor Core核心:通過全新TF32,將上一代Volta架構的AI吞吐量提高多達20倍。通過FP64,將HPC性能提高多達2.5倍。通過 INT8,將AI推理性能提高多達20倍,并且支持BF16數據格式。
·更大、更快的HBM2e GPU內存:使內存容量增加一倍,在業內率先實現2TB/s以上的內存帶寬。
·MIG技術:將單個獨立實例的內存增加一倍,可最多提供七個MIG,每個實例具備10GB內存。
·結構化稀疏:將推理稀疏模型的速度提高2倍。
·第三代NVLink和NVSwitch,相較于上一代互連技術,可使GPU之間的帶寬增加至原來的兩倍,將數據密集型工作負載的GPU數據傳輸速度提高至每秒600 gigabytes。
NVIDIA HGX AI 超級計算平臺
A100 80GB GPU是NVIDIA HGX AI超級計算平臺的關鍵組件。該平臺將NVIDIA GPU、NVIDIA NVLink? 、NVIDIA InfiniBand網絡以及全面優化的NVIDIA AI和HPC軟件堆棧的全部功能整合在一起,以提供最優越的應用性能。該平臺使研究人員和科學家能夠將HPC、數據分析和深度學習計算技術結合起來,共同推動科學進步。
責任編輯:tzh
-
NVIDIA
+關注
關注
14文章
5293瀏覽量
106234 -
gpu
+關注
關注
28文章
4936瀏覽量
131100 -
AI
+關注
關注
88文章
34964瀏覽量
278501
發布評論請先 登錄
評論