Exaflop 是衡量超級計(jì)算機(jī)性能的單位,表示該計(jì)算機(jī)每秒可至少進(jìn)行百億億次浮點(diǎn)運(yùn)算。
為了解決這個(gè)時(shí)代最復(fù)雜的問題,比如如何治療像新冠肺炎和癌癥這樣的疾病、以及如何緩解氣候變化等。計(jì)算機(jī)的計(jì)算量正在不斷增加。
所有這些重大挑戰(zhàn)將計(jì)算帶入了現(xiàn)今的百億億次級時(shí)代,頂級性能通常以 exaflops 來衡量。
什么是 Exaflop?
Exaflop 是衡量超級計(jì)算機(jī)性能的單位,表示該計(jì)算機(jī)每秒可以至少進(jìn)行 10^18 或百億億次浮點(diǎn)運(yùn)算。
Exaflop 中的 exa-前綴表示“百億億”,即 10 億乘以 10 億或1的后面有 18 個(gè)零。同樣,單個(gè) exabyte 的內(nèi)存子系統(tǒng)可以儲存百億億字節(jié)的數(shù)據(jù)。
exaflop 中的“flop”是浮點(diǎn)運(yùn)算的縮寫。exaflop/s 是表示系統(tǒng)每秒浮點(diǎn)運(yùn)算次數(shù)的單位。
浮點(diǎn)是指所有數(shù)字都用小數(shù)點(diǎn)表示的計(jì)算方法。
1000 Petaflop = 1 Exaflop
前綴 peta- 表示 10^15,即 1 的后面有 15 個(gè)零。因此 1 exaflop 等于 1000 petaflop。
1 exaflop 的計(jì)算量到底有多大?相當(dāng)于十億人中的每個(gè)人都拿著十億個(gè)計(jì)算器。
如果他們同時(shí)按下等號,就是進(jìn)行了 1 個(gè) exaflop。
擁有 Big Red 200 和其他幾臺超級計(jì)算機(jī)的印第安納大學(xué)表示,exaflop 計(jì)算機(jī)的速度相當(dāng)于一個(gè)人每秒鐘進(jìn)行一次計(jì)算,并一直計(jì)算 31,688,765,000 年。
Exaflop 簡史
在超級計(jì)算發(fā)展史的大部分時(shí)間里,一次浮點(diǎn)運(yùn)算就是一次,但隨著工作負(fù)載引入 AI ,這種情況也發(fā)生了變化。
人們開始使用最高的精度格式來表示數(shù)字,這種格式被稱為雙精度,由 IEEE 浮點(diǎn)運(yùn)算標(biāo)準(zhǔn)定義。它之所以被稱為雙精度或 FP64,是因?yàn)橛?jì)算中的每個(gè)數(shù)字都需要以 64 位用 0 或 1 表示的數(shù)據(jù)塊表示,而單精度為 32 位。
雙精度使用 64 位確保每個(gè)數(shù)字都精確到很細(xì)微的部分,比如 1.0001 + 1.0001 = 2.0002,而不是 1 + 1 = 2。
這種格式非常適合當(dāng)時(shí)的大部分工作負(fù)載,比如從原子到飛機(jī)等全部需要確保模擬結(jié)果接近于真實(shí)的模擬。
因此,當(dāng) 1993 年全球最強(qiáng)大的超級計(jì)算機(jī)榜單 TOP500 首次發(fā)布時(shí),衡量 FP64 數(shù)學(xué)性能的 LINPACK 基準(zhǔn)(又稱HPL)自然成為了默認(rèn)的衡量標(biāo)準(zhǔn)。
AI 大爆炸
十年前,計(jì)算行業(yè)發(fā)生了 NVIDIA 首席執(zhí)行官黃仁勛所說的 AI 大爆炸。
這種強(qiáng)大的新計(jì)算形式開始在科學(xué)和商業(yè)應(yīng)用上展現(xiàn)出重大成果,而且它運(yùn)用了一些非常不同的數(shù)學(xué)方法。
深度學(xué)習(xí)并不是模擬真實(shí)世界中的物體,而是在堆積如山的數(shù)據(jù)中篩選,以找到能夠帶來新洞察的模式。
這種數(shù)學(xué)方法需要很高的吞吐量,所以用經(jīng)過簡化的數(shù)字(比如使用 1.01 而不是 1.0001)進(jìn)行大量計(jì)算要比用更復(fù)雜的數(shù)字進(jìn)行少量計(jì)算好得多。
因此 AI 使用 FP32、FP16 和 FP8 等低精度格式,通過 32 位、16 位和 8 位數(shù)讓用戶更快地進(jìn)行更多計(jì)算。
混合精度不斷發(fā)展
AI 使用 64 位數(shù)就如同在周末外出時(shí)帶著整個(gè)衣柜。
研究人員一直在積極地為 AI 尋找理想的低精度技術(shù)。
例如首個(gè) NVIDIA Tensor Core GPU——Volta,它使用了混合精度,并以 FP16 格式執(zhí)行矩陣乘法,然后用 FP32 累積結(jié)果以獲得更高的精度。
Hopper 通過 FP8 加速
最近,NVIDIA Hopper 架構(gòu)首次發(fā)布了速度更快的低精度 AI 訓(xùn)練方法。Hopper Transformer Engine 能夠自動分析工作負(fù)載,盡可能采用 FP8 并以 FP32 累積結(jié)果。
在進(jìn)行計(jì)算密集度較低的推理工作,比如在生產(chǎn)中運(yùn)行 AI 模型時(shí),TensorFlow 和 PyTorch 等主要框架通過支持 8 位整數(shù)實(shí)現(xiàn)快速性能,因?yàn)檫@樣就不需要使用小數(shù)點(diǎn)來完成工作。
好消息是,NVIDIA GPU 支持上述所有精度格式,因此用戶可以實(shí)現(xiàn)每個(gè)工作負(fù)載的最優(yōu)加速。
去年,IEEE P3109 委員會開始為機(jī)器學(xué)習(xí)中使用的精度格式制定行業(yè)標(biāo)準(zhǔn)。這項(xiàng)工作可能還需要一到兩年的時(shí)間才能完成。
一些模擬軟件在低精度工作中大放異彩
雖然 FP64 在模擬工作中仍然很受歡迎,但當(dāng)?shù)途葦?shù)學(xué)能夠更快提供可用結(jié)果時(shí),許多人會使用后者。
影響 HPC 應(yīng)用程序性能的因素各不相同
例如,研究人員用 FP32 運(yùn)行廣受歡迎的汽車碰撞模擬器——Ansys LS-Dyna。基因組學(xué)也傾向于使用低精度數(shù)學(xué)。
此外,許多傳統(tǒng)的模擬開始在部分工作流程中采用 AI。隨著越來越多的工作負(fù)載使用 AI,超級計(jì)算機(jī)需要支持較低的精度才能有效運(yùn)行這些新興應(yīng)用。
基準(zhǔn)與工作負(fù)載同步發(fā)展
在認(rèn)識到這些變化后,包括 Jack Dongarra(2021 年圖靈獎得主和 HPL 的貢獻(xiàn)者)在內(nèi)的研究人員在 2019 年首次發(fā)布了 HPL-AI,這項(xiàng)新基準(zhǔn)更適合測量新的工作負(fù)載。
Dongarra 在 2019 年的博客中表示:“無論是技術(shù)不斷優(yōu)化的傳統(tǒng)模擬,還是 AI 應(yīng)用,混合精度技術(shù)對于提高超級計(jì)算機(jī)的計(jì)算效率越來越重要。正如 HPL 實(shí)現(xiàn)了對雙精度能力的基準(zhǔn)測試一樣,這種基于 HPL 的新方法可以對超級計(jì)算機(jī)的混合精度能力進(jìn)行大規(guī)模基準(zhǔn)測試。”
尤利希超級計(jì)算中心主任 Thomas Lippert 同意了這一觀點(diǎn)。
他在去年發(fā)表的一篇博客中表示:“我們使用 HPL-AI 基準(zhǔn)是因?yàn)樗饶軌驕?zhǔn)確地衡量日益增加的 AI 和科學(xué)工作負(fù)載中的混合精度工作,也能反映準(zhǔn)確的 64 位浮點(diǎn)計(jì)算結(jié)果。”
現(xiàn)今的 Exaflop 系統(tǒng)
在 6 月的一份報(bào)告中,全球 20 個(gè)超級計(jì)算機(jī)中心提交了 HPL-AI 結(jié)果,其中有三個(gè)中心提供了超過 1 exaflop 的性能。
在這些系統(tǒng)中,橡樹嶺國家實(shí)驗(yàn)室的超級計(jì)算機(jī)在 HPL 上的 FP64 性能也超過了 1 exaflop。
2022 年 6 月 HPL-AI 結(jié)果的采樣器
兩年前,一非傳統(tǒng)系統(tǒng)首次達(dá)到 1 exaflop。這臺由 Folding@home 聯(lián)盟組裝的眾源超級計(jì)算機(jī)在呼吁幫助抵御新冠疫情后,達(dá)到了這一里程碑,到現(xiàn)在已有超過 100 萬臺計(jì)算機(jī)加入其中。
理論和實(shí)踐中的Exaflop
許多組織從那時(shí)起就已開始安裝理論峰值性能超過 1 exaflop 的超級計(jì)算機(jī)。需要注意的是,TOP500 榜單同時(shí)發(fā)布 Rmax(實(shí)際)和 Rpeak(理論)分?jǐn)?shù)。
Rmax 指計(jì)算機(jī)實(shí)際表現(xiàn)出的最佳性能。
Rpeak 是一切系統(tǒng)都處于高水平運(yùn)行時(shí)的最高理論性能,而這幾乎從未發(fā)生過。該數(shù)值的計(jì)算方法通常是將系統(tǒng)中的處理器數(shù)量乘以其時(shí)鐘速度,然后再將結(jié)果乘以處理器在一秒鐘內(nèi)可執(zhí)行的浮點(diǎn)運(yùn)算數(shù)。
因此,如果有人說他們的系統(tǒng)達(dá)到 1 exaflop,請?jiān)儐査f的是 Rmax(實(shí)際)還是Rpeak(理論)。
Exaflop 時(shí)代的眾多指標(biāo)
這也是新百億億次時(shí)代的眾多細(xì)微變化之一。
值得注意的是,HPL 和 HPL-AI 屬于合成基準(zhǔn),即它們衡量的是數(shù)學(xué)程序的性能,而不是真實(shí)世界的應(yīng)用。MLPerf 等其他基準(zhǔn)則基于真實(shí)世界中的工作負(fù)載。
最后,衡量系統(tǒng)性能的最佳標(biāo)準(zhǔn)當(dāng)然是它運(yùn)行用戶應(yīng)用程序的情況。該衡量標(biāo)準(zhǔn)不是基于 exaflop,而是基于投資回報(bào)率。
審核編輯:湯梓紅
-
NVIDIA
+關(guān)注
關(guān)注
14文章
5162瀏覽量
105091 -
計(jì)算機(jī)
+關(guān)注
關(guān)注
19文章
7589瀏覽量
89482 -
AI
+關(guān)注
關(guān)注
87文章
33026瀏覽量
272996
原文標(biāo)題:什么是 Exaflop?
文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
“電子皮膚”,人形機(jī)器人的柔性觸覺傳感器

TOP500第二臺E級超算出現(xiàn),AMD要在HPC上逆襲英特爾?

三年血虧12億!這家AI巨頭將靠AGI逆襲,醫(yī)療AI成新戰(zhàn)場

牽引逆變器PMIC往SBC演進(jìn)

溫濕度傳感器,智慧電器與環(huán)境監(jiān)測的重要“感知節(jié)點(diǎn)”

智能戒指爆火!Oura領(lǐng)跑,國內(nèi)產(chǎn)業(yè)鏈突破實(shí)現(xiàn)研發(fā)成本大降

運(yùn)動健康手環(huán)xBeacon-WXY
AI先鋒對話:DeepSeek爆火背后,戰(zhàn)略破局的新思考

英飛凌IGBT7系列芯片大解析

安森美(onsemi)的超聲波傳感器解決方案的未來趨勢和創(chuàng)新
名單公布!【書籍評測活動NO.50】親歷芯片產(chǎn)線,輕松圖解芯片制造,揭秘芯片工廠的秘密
【「ARM MCU嵌入式開發(fā) | 基于國產(chǎn)GD32F10x芯片」閱讀體驗(yàn)】+書籍整體概況
Perforce靜態(tài)代碼分析專家解讀MISRA C++:2023?新標(biāo)準(zhǔn):如何安全、高效地使用基于范圍的for循環(huán),防范未定義行
進(jìn)一步解讀英偉達(dá) Blackwell 架構(gòu)、NVlink及GB200 超級芯片
寬帶上網(wǎng)技術(shù)簡史(2024版)

評論