由于英特爾試圖與Nvidia共同分享正處于快速增長的服務器AI芯片市場,英特爾渴望其產品能夠涵蓋幾乎所有可能的類別。
Nervana Systems是英特爾2016年收購的AI芯片創業公司,我最近有機會拜訪其位于圣地亞哥的辦事處。Nervana Systems被收購以后,完成了大部分與AI相關的芯片和軟件研發工作。在本次會面上,我見到了英特爾人工智能軟件和研究副總裁Arjun Bansal和英特爾AI研究組高級總監Casimir Wierzynski。
服務器AI芯片市場的市場地位
用于處理數據中心內部深入學習工作負荷的芯片市場可分為兩組:
強大的計算系統所使用的芯片,可以訓練人工智能模型來做一些事情,比如理解語音命令,檢測照片中的物體,或者幫助一輛汽車在城市街道上行駛。
運行經過培訓的AI模型與新數據和新內容的芯片,例如移動應用程序的請求,以幫助處理語音命令或提供個性化的新聞飼料內容。這種活動被稱為“推理”,其計算要求遠低于培訓要求,可以由服務器和最終用戶硬件(如電話、個人電腦和汽車)來處理。
雖然競爭開始有所增加,很大比例的AI培訓工作是由Nvidia的Tesla服務器GPU系列來處理。但是,在以前,這項工作通常是由英特爾的Xeon服務器CPU來完成的。然而,越來越多的推理工作正在由Nvidia GPU來完成,可編程芯片(FPGA)則采用英特爾和Xilinx的產品,定制設計的芯片(ASIC)則采用,如Alphabet / Google的Tensor Processing Units(TPU - 它們也可用于培訓)和Amazon.com的新AWS Propferentia芯片。
英特爾的服務器AI芯片戰略
鑒于Nvidia的服務器AI芯片的工作完全圍繞GPU進行,其特點是針對人工智能工作負載進行專門的處理(它們是眾所周知的AST),英特爾計劃支持一系列廣泛的芯片。其當前和計劃的服務器AI產品包括:
NNP-L1000和NNP-I,一對Nervana ASIC,分別用于訓練和推理。兩者都承諾在今年晚些時候投入生產。Facebook一直是英特爾AI ASIC的開發合作伙伴。
可用于推理的FPGA。微軟和百度使用英特爾的FPGA進行人工智能工作。
服務器GPU陣容。該公司的第一臺服務器GPU預計將在2020年推出。
DL Boost,一組旨在提高Xeon CPU推理性能的技術。英特爾最近發布的Cascade Lake Xeon CPU 引入了DL Boost的第一個版本。
當被問及NNP-L1000相對于Nvidia的Tesla GPU等產品的競爭優勢時,Bansal地指出該芯片是從頭開始設計的,用于訓練AI /深度學習模型,因此不需要關注與圖形相關的功能。他介紹道:“我們不必在與圖形相關的計算上花費任何芯片面積。”
他還指出,由于NNP-L1000獨特的處理架構(它依賴于稱為bfloat16的多種編碼格式),該芯片可以使用16位乘法器電路來提供與GPU所需的32位乘法器相當的性能。這導致更小且功率更高的乘法器,并且(因為乘法器需要一半的數據)使芯片的有效存儲器帶寬加倍。
類似地,Bansal認為,在推理領域,NNP-I相對于FPGA“從功率性能角度來看”將具有很強的競爭力,并為機器翻譯,語音識別和推薦系統等工作負載提供強大的性能。與此同時,他指出,由于能夠重新配置以處理新任務,一些客戶仍然會更喜歡FPGA。
當被問及英特爾如何看待服務器CPU被用于推斷時,因為對加速器的需求有所增長,他建議公司仍將使用空閑CPU容量進行推理工作。他指出:“人們有時會有很多休眠(服務器)容量”
軟件的重要性
除了大量的芯片研發投資外,Nvidia在AI培訓芯片市場的主導地位與其構建的開發者生態系統有很大關系。該生態系統以公司的CUDA編程模型和相關的CUDA深度神經網絡(cuDNN)軟件庫為基礎,該軟件庫支持最流行的深度學習軟件框架(以及一些不太流行的軟件框架)。
雖然它已經創建了針對其CPU優化的深度學習軟件庫,英特爾想要削減Nvidia龐大的開發者意識共享的策略,并不是圍繞著創建一個直接針對Cuda和Cuda的競爭對手,而是在推動采用一種名為nGraph的解決方案。nGraph是一個編譯器 - 一個將編程語言中的代碼轉換為可由處理器執行的機器代碼的程序 - 旨在與各種處理器類型的各種深度學習框架(Xeon CPU,Nervana ASIC和甚至是Nvidia GPU),用于培訓和推理工作。
英特爾認為,由于許多AI軟件框架已針對特定類型的處理器(在許多情況下是Nvidia的GPU)進行了優化,所以,將依賴于一種類型的處理器的AI模型移植到另一種類型的處理器上來說,這通常太困難了,而且要讓一個模型在不同的框架上運行也太難了。英特爾稱,nGraph消除了這些挑戰。
在公司僅依賴于一種處理架構的情況下,手動優化的AI軟件庫可能是有效的,但當公司使用三種或四種架構時,它們有可能失效。Bansal斷言?!皳碛腥膫€架構的優勢肯定大于只擁有一種架構?!?/p>
當然,英特爾面臨的挑戰是讓企業和云巨頭相信,在很多企業完全依賴Nvidia的GPU進行AI培訓的時候,他們應該使用多個架構。如果一家公司選擇僅僅依靠Nvidia的GPU進行培訓,它可能會堅持使用Nvidia廣泛支持的軟件工具。另一方面,如果人工智能培訓芯片市場開始崩潰,那么英特爾對nGraph的銷售推動力將變得更加強大。
另外,Wierzynski指出,英特爾還投資于解決人工智能隱私問題的軟件解決方案,例如用于處理加密AI數據的開源解決方案。他為解決方案提供了一個用例:醫院可以將加密數據發送給遠程工作的放射科醫師,無需共享患者信息,放射科醫師可以將他或她的答案的加密版本發送回醫院。
大局
Nvidia不太可能很快放棄目前在AI培訓處理器市場上的領先優勢,特別是考慮到它也在該領域投入巨資。雖然服務器推理處理器市場競爭更加激烈,但英特爾可能會成為與Nvidia和Xilinx一樣強大的玩家。
英特爾確實擁有獨特的芯片和軟件戰略來增加其AI加速器的銷售額,并且顯然將其資金投入其中。盡管他們的確切性能和耗電量還有很多需要分享的地方,但這家公司的神經網絡ASIC正從地面上建立起來,以處理AI的工作,這一事實可以幫助他們取得成功。
本文來自半導體行業觀察微信號,本文作為轉載分享。
-
FPGA
+關注
關注
1629文章
21729瀏覽量
603054 -
英特爾
+關注
關注
61文章
9953瀏覽量
171706 -
NVIDIA
+關注
關注
14文章
4981瀏覽量
103000 -
AI芯片
+關注
關注
17文章
1882瀏覽量
34996
發布評論請先 登錄
相關推薦
評論