俗語說得好:海水退潮之后,才知道誰沒穿褲子。但歷史的教訓往往證明殘酷的事實:結果站在浪里的所有人,全部都沒有穿褲子。
處理器業界的年度盛事第32屆IEEE HotChips,剛剛在今年8月以全部線上活動型式結束了,連擠4年牙膏的IBM與英特爾總算換了一管全新牙膏,真是可喜可賀。
但另一方面,分別在云端服務和終端硬件執人工智能牛耳的Google與nVidia,卻也學到了“擠牙膏”的精髓,前者讓2018年就問世的第三代TPU,從2018年Google I/O講到2020 HotChips,后者在HotChips發表的內容,完全承襲GTC 2000的簡報,唯一差別只有把華為Ascend 910人工智能處理器和英特爾支援BF16格式的“新型Xeon”Cooper Lake-P拖出來狠狠打一頓。
總之,我們來瞧瞧HotChips 32 的Google 第三代TPU 與nVidiaA100。
講了三年總算勉強講完的Google TPU v3
Google 這家公司最令人稱許之處,在于恐怖的“前瞻執行力”,每當眾人還在清談“技術趨勢”之際,就突然石破天驚的昭示天下:你們還在嘴炮的東西,我們早就應用到實際產品。諸多豐功偉業的最知名案例,莫過于2013 年底,Google 爆炸性公開“規劃部署已達3 年”的B4 數據中心廣域網絡,開大規模商業化軟件定義網絡(SDN)之先河。
早在2015年就投入內部應用的Google TPU,更是近年來的經典案例,接著Google也很迅速推陳出新,2017年推出深度學習第二代TPU,第三代TPU更早在2018 Google I/O就亮相了。
但Google 也隨即“擠牙膏之神”上身,2019 年HotChips 31 教程僅提到部分資訊,到2020 年才公開細節全貌。
我們都有充分的理由相信,第四甚至第五代TPU,不是早就上線服役也該早在路上了。
2019 年比較對手是nVidia V100,結果2020 年看不到第四代TPU 較量V100,讓人感覺有點奇怪。
TPU v3 概觀可視為TPU v2 的雙倍放大版,散熱系統從氣冷改為液冷,也是主機板最顯眼的特色。
TPU v3 仍舊著重持續提升存儲器帶寬(+30%)與容量(加倍),拜液冷之賜,時鐘頻率也有成長(+30%)。
TPU v3 的指令集架構是332 位元長的超長指令集(VLIW),VLIW 指令包內總計有2 個純量指令、4 個向量指令(其中2 個是存儲器載入/回存)、 2 個矩陣(Matrix)指令、6 個立即值(Immediate)與一個雜項(Misc)應用。
強化多芯片互連總線,打造更大規模的“人工智能超級電腦”,更是TPU v3 的重頭戲,也就是上圖那個“4x Nodes”。
同樣一片系統主機板裝4 顆TPU,TPU v3 組成的“人工智能超級電腦”,擁有前代8 倍以上效能、8 倍存儲器容量、4 倍芯片數量與4 倍的最大裝置設定數,可切割成256 個獨立運算平臺分租給客戶。
順便一提,現今已知關于Google TPU 的專利多達50 份,亦不乏詳細描述第三代TPU 的內部架構細節,也是眾多有志進軍人工智能芯片的冒險者,抽絲剝繭的研究對象。
但這對使用Google Cloud AI 的用戶,甚至大多數Google 部門來說,其實并不重要,他們只要用得爽快、不需要“為了喝牛奶自己蓋一座牧場”就夠了。
靠GPU 基本盤穩扎穩打的nVidia A100
nVidia以通用GPU為基礎,站穩高效能運算市場,并將觸角逐漸延伸到人工智能和自駕車輛等新興應用領域,使2020年夏天市值連續超越英特爾和三星,證實外界多么看好“皮衣教主”昭示天下的“美好未來”。無論個人電腦與高效能運算領域,從“電競筆電非有Max-Q不可”現象到超級電腦Top500清單滿滿的nVidia GPU,優勢地位看似牢不可破。
nVidia 旗艦GPU 也隨著制程演進而持續“恐龍化”,Ampere 世代之首A100 是一顆臺積電7 納米制程、540 億晶體管的巨獸,像更多執行單元、更大存儲器子系統帶寬、一直更新的DGX 超級電腦等,是各位也都耳熟能詳,甚至早就令人哈欠連連的“標準劇情”了。
關于人工智能應用,nVidia A100 最重要的特色,莫過于自行定義的TF32(Tensor Float 32)浮點數格式。講白了就是“取長補短”,既然Google BF16 犧牲掉FP32 的精度,維持動態范圍不變,那就讓精度和FP16 一樣吧,神奇的19 位元長度TF32就這樣誕生了,兼具FP32的動態范圍和FP16 的精度。nVidia 之所以這樣大費周章創造新格式,根本目的不外乎要降低存儲器帶寬和容量需求,和Google發明BF16 如出一轍。
理所當然的,TF32 在A100 一定跑得很快,因所需帶寬僅為前代V100 一半或三分之一,更能喂飽嗷嗷待哺的龐大Tensor Core。
但這件事的背后,隱隱約約透露nVidia長期領先AMD(ATI)的根本原因與基本思維:存儲器帶寬,這件事早從2004年NV40(GeForce 6系列)存儲器控制器內建壓縮傳輸機能,相關技術持續演進并陸續申請專利,就已埋下了種子。過去十幾年來,AMD或ATI的GPU,需要更多存儲器帶寬,才能實現同等級的效能水準,絕對不是偶然。
大概整批帶槍投靠英特爾的前AMD 團隊過去吃了不少悶虧,這次替英特爾重新打造Xe 繪圖架構時,也很刻意提到“End-To-End Compression”,只是不知道會不會不小心踩到nVidia 的專利地雷。
當GPU 踏入高效能運算和人工智能,“每筆運算可平均分配到的存儲器帶寬,持續穩定的下滑中”,更讓提高運算效能這件事,絕非區區增加幾個特化指令與擴張執行單元,即可迎刃而解,更需搞定帶寬這件事,一旦帶寬不足,就發揮不出完整的運算效能。
聽說nVidia 下一代GPU“Hopper”將改弦易轍,改走多芯片Chiplet“包水餃”路線,也許nVidia 在多芯片連結架構部分,將帶來讓人感到驚奇的技術突破也說不定,讓人對明年HotChips 33 多抱持一分期待。
人工智能熱潮的消退:先講求不要餓死再求發展
話說回來,我們就不得不探究一個大哉問:為何越來越多芯片廠商開始“擠牙膏”?要么不是受摩爾第二定律詛咒,產品技術難以短期內飛躍性提升,要么就是講再多對我也沒任何實質好處,還不如少講一點悶聲發大財。
不過這幾年,難道人工智能芯片不是很火的話題嗎?2017年HotChips 29,不就是從主題演講到議程,從泛用處理器、GPU、ASIC到FGPA,統統“人工智能滿天下”?如此沉默,對公司的未來妥當嗎?
很遺憾的,人工智能芯片從2018 年起,以中國相關領域新創公司為首,熱潮急速退燒,像中國DEEPHi(深鑒科技)被FPGA 巨頭賽靈思收購,已經算是最好的退場。
即使美國企業亦不可免俗,就算公司不會倒,也不保證產品線不會收掉。像這些年來癡迷自駕車和人工智能,耗費數百億美元“生氣亂買公司”的英特爾,2018年宣布中止XeonPhi產品線,決定整個砍掉重練,由2017年底來自AMD的Raja Koduri重建貨真價實的GPU。2019年底以20億美元購并以色列HabanaLabs并在隔年2月停止NNP-T1000(代號Spring Crest,還宣稱跟百度合作),也意味著2016年用3.5億美元買下的Nervana形同棄兒,英特爾人工智能平臺事業群負責人、Nervana聯合創辦人Naveen Rao隨即離職,一點都不讓人意外。
英特爾連續公開栽了兩次(實際上應該更多),事后諸葛的后見之明與背后補刀的內幕爆料,均朝向“做出來的東西根本不能用,也無法符合軟件開發者和潛在客戶的需求”。
所以這也是當人工智能漸漸在HotChips 退燒后,為何Google 和nVidia 可站在臺上活好好的主因:Google 很清楚自身需要,快速演進三代(應該更多)的TPU 就是為了自家Google Cloud AI 和其他服務量身訂做(蘋果塞在自己芯片內的NPU 也是一樣狀況)。nVidia 則是擁有龐大GPU 市占率、累積十多年的CUDA 與高效能運算的“基本盤”足以先養活自己,日后再慢慢發展。
反觀之前那票一窩蜂狂沖“人工智能新大陸”的勇者,又有幾家有本錢和能耐,先不求餓死,再講求和客戶攜手并進的共同勝利?講更白一點,你會相信中國那些開發數字貨幣挖礦芯片的廠商,被迫轉型做出來的人工智能芯片,可以迅速得到指標性客戶的青睞?
天下任何一家求生存的企業,無不企求有所謂的“現金母牛”和忠實客戶,才為穩定營運的基礎。我們可以猜猜看,明年HotChips 33 還剩下哪些幸存者?
責任編輯:tzh
-
處理器
+關注
關注
68文章
19259瀏覽量
229652 -
芯片
+關注
關注
455文章
50714瀏覽量
423142 -
英特爾
+關注
關注
61文章
9949瀏覽量
171693 -
人工智能
+關注
關注
1791文章
47183瀏覽量
238254
發布評論請先 登錄
相關推薦
評論