色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

大規(guī)模推理時(shí)代深度學(xué)習(xí)加速的天花板在哪?

智能計(jì)算芯世界 ? 來源:智能計(jì)算芯世界 ? 作者:智能計(jì)算芯世界 ? 2022-12-15 10:51 ? 次閱讀

從數(shù)據(jù)分析、經(jīng)典機(jī)器學(xué)習(xí)到搜索、推薦,再到語言處理和圖像識(shí)別,每個(gè) AI 任務(wù)運(yùn)行的背后都需要海量的數(shù)學(xué)計(jì)算。可以說,AI 真的就是數(shù)學(xué),但卻是很多很多的數(shù)學(xué)。 尤其是在 AI 進(jìn)入大模型時(shí)代的當(dāng)下,模型的大規(guī)模訓(xùn)練和推理更是對(duì)計(jì)算資源有著巨大的需求。但同時(shí),算力的掣肘正在阻礙著 AI 走向大規(guī)模落地。 當(dāng)前 AI 面臨的“數(shù)學(xué)題”都是何種難度?“算珠”又該如何撥弄得更快才能追得上不斷增長(zhǎng)的計(jì)算需求呢? 讓我們從 CPU 的 AI 算力談起。

1

大規(guī)模推理時(shí)代

深度學(xué)習(xí)加速的天花板在哪?

人工智能迎來第三次浪潮后,以深度學(xué)習(xí)為代表的AI已經(jīng)進(jìn)入應(yīng)用階段。而深度學(xué)習(xí) AI 需要進(jìn)行大量矩陣乘法以訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型,并利用推理將這些模型應(yīng)用于實(shí)際任務(wù)。

也就是說,深度學(xué)習(xí)分為訓(xùn)練和推理兩個(gè)階段,而推理則是推動(dòng)AI大規(guī)模走向落地的關(guān)鍵。

訓(xùn)練深度學(xué)習(xí)模型可能需要數(shù)小時(shí)或數(shù)天的算力。而深度學(xué)習(xí)推理可能需要幾分之一秒到幾分鐘,具體取決于模型的復(fù)雜程度和對(duì)結(jié)果的準(zhǔn)確度的要求。在推理過程中,計(jì)算機(jī)將輸入數(shù)據(jù)與模型進(jìn)行比較,然后推斷數(shù)據(jù)的含義。

讓人工智能落地更多是推理層面的工作,無論是推薦引擎、圖像識(shí)別、媒體分析、語言翻譯 、自然語言處理、強(qiáng)化學(xué)習(xí)等負(fù)載中推理性能的大幅提升對(duì)落地應(yīng)用的貢獻(xiàn)都十分重要。

在此背景下,硬件架構(gòu)將成為AI落地的重中之重。

而做大規(guī)模推理,CPU平臺(tái)具有較大優(yōu)勢(shì)——用戶學(xué)習(xí)門檻低、部署速度快等,在類似推薦系統(tǒng)的應(yīng)用中,CPU也擔(dān)當(dāng)著算力支撐,那么如何提升CPU的AI算力?

CPU的算力取決于 CPU 特定加速指令集或運(yùn)算單元的持續(xù)引入及改進(jìn),那么通過強(qiáng)化算力單元和增加算力單元數(shù)量并舉,即Scale-Up與Scale-Out相結(jié)合,提升CPU的AI算力。

回望英特爾歷代至強(qiáng) 可擴(kuò)展處理器的深度學(xué)習(xí)加速技術(shù)(即DL Boost),已經(jīng)將這一提升路徑充分實(shí)踐并拉高優(yōu)化天花板:從第一代至強(qiáng)可擴(kuò)展處理器引入的AVX-512——中低端型號(hào)每核心配備1個(gè)FMA單元、高端型號(hào)每核心配備2個(gè)FMA單元,到代號(hào)Ice Lake-SP的雙路第三代至強(qiáng)可擴(kuò)展處理器將此類配置擴(kuò)展到全系列產(chǎn)品,并將最高核心數(shù)從28增加至40個(gè),CPU的向量處理能力得以大幅提升。

6ac25558-7c19-11ed-8abf-dac502259ad0.png

指令優(yōu)化方面,第二代英特爾至強(qiáng) 可擴(kuò)展處理器引入了簡(jiǎn)稱VNNI(Vector Neural Network Instruction,矢量神經(jīng)網(wǎng)絡(luò)指令)的擴(kuò)展,提高了數(shù)據(jù)格式INT8推理的效率;代號(hào)Cooper Lake的第三代英特爾至強(qiáng)可擴(kuò)展處理器又引入了數(shù)據(jù)格式bfloat16(BF16)加速功能,可以用于推理和訓(xùn)練。 目前,前三代英特爾至強(qiáng) 可擴(kuò)展處理器的加速路徑,主要依靠現(xiàn)有的計(jì)算單元,即AVX-512,配合指令集、算法和數(shù)據(jù)上的優(yōu)化,輸出AI算力。 但加速的天花板就到此為止了嗎?

還有別的思路——內(nèi)置硬件加速器,且與本就高性能的CPU內(nèi)核無縫配合,疊加buff推高天花板。

2

硬件直接“貼貼”加速

第四代至強(qiáng)內(nèi)置多種專用加速器

在今年11月,英特爾宣布將在2023年1月11日發(fā)布代號(hào)為Sapphire Rapids的全新第四代英特爾至強(qiáng) 可擴(kuò)展處理器。

Sapphire Rapids將為廣泛的標(biāo)量和并行工作負(fù)載提供跨越式的性能提升,更重要的是,它的基本架構(gòu)旨在實(shí)現(xiàn)彈性計(jì)算模型(如容器化微服務(wù))的突破性性能,以及在所有形式的以數(shù)據(jù)為中心的計(jì)算中快速擴(kuò)展 AI 的使用。

第四代英特爾至強(qiáng)可擴(kuò)展處理器的核心數(shù)量有顯著增長(zhǎng),并支持DDR5、PCIe 5.0和CXL 1.1等下一代內(nèi)存和接口標(biāo)準(zhǔn),在內(nèi)置硬件加速上,Sapphire Rapids也集成了5項(xiàng)加速器:

用于AI的高級(jí)矩陣擴(kuò)展(Advanced Matrix Extensions),簡(jiǎn)稱AMX;

用于數(shù)據(jù)分析的存內(nèi)分析加速器(In-Memory Analytics Accelerator),簡(jiǎn)稱IAA;

用于5G/網(wǎng)絡(luò)的數(shù)據(jù)流加速器(Data Streaming Accelerator),簡(jiǎn)稱DSA;

用于存儲(chǔ)的動(dòng)態(tài)負(fù)載均衡器(Dynamic Load Balancer),簡(jiǎn)稱DLB;

用于數(shù)據(jù)壓縮和加解密的QuickAssist技術(shù),英特爾數(shù)據(jù)保護(hù)與壓縮加速技術(shù),簡(jiǎn)稱QAT。

首先,內(nèi)置加速器可以消除在將數(shù)據(jù)從 CPU 移至協(xié)處理器加速器時(shí)產(chǎn)生的大部分開銷。

同時(shí),Sapphire Rapids還引入了加速器接口架構(gòu) (AIA),解決了無縫集成加速引擎和高性能核心時(shí)面臨的關(guān)鍵挑戰(zhàn)——能夠處理 CPU 內(nèi)核與內(nèi)置加速器之間的數(shù)據(jù)高效調(diào)度、同步和信令傳遞,而不是高開銷內(nèi)核模式。

內(nèi)置的硬件加速器也易獲得更出色的性能,而不必將時(shí)間浪費(fèi)在進(jìn)行片外傳輸設(shè)置上。

AMX與上述其他4個(gè)加速器的一大區(qū)別,就是它本身就集成在了CPU核心內(nèi),與AVX-512一樣,隨核心數(shù)同步增長(zhǎng),線性提升處理能力。

3

開啟全新計(jì)算單元

AMX升維加速深度學(xué)習(xí)工作負(fù)載

AMX與AVX-512又有什么區(qū)別?

AMX是全新的計(jì)算單元,有自己的存儲(chǔ)和操作電路,并行度高,以便為AI工作負(fù)載加速Tensor運(yùn)算,支持bfloat16和INT8兩種數(shù)據(jù)類型。

Tensor處理是深度學(xué)習(xí)算法的核心,AMX功能可以實(shí)現(xiàn)每個(gè)循環(huán)2000次int8運(yùn)算和1000次bfloat16運(yùn)算。

同時(shí),AMX的寄存器(名為Tile)是二維的,寄存器組是三維的,均比AVX-512高一個(gè)維度,寄存器組存儲(chǔ)的數(shù)據(jù)相當(dāng)于一個(gè)小型矩陣,這樣AMX 能夠在每個(gè)時(shí)鐘周期執(zhí)行更多矩陣乘法以每時(shí)鐘周期來看。

理論上,AMX的TMUL(矩陣乘法運(yùn)算)對(duì)AVX-512的2個(gè)FMA(融合乘加操作)單元,INT8性能高達(dá)8倍;處理浮點(diǎn)數(shù)據(jù),AMX使用動(dòng)態(tài)范圍與FP32相當(dāng)?shù)腂F16,性能可達(dá)AVX-512的16倍。

如此,有全新可擴(kuò)展二維寄存器文件和全新矩陣乘法指令,可增強(qiáng)各種深度學(xué)習(xí)工作負(fù)載中推理及訓(xùn)練性能,也就代表著計(jì)算能力的大幅提升,這些計(jì)算能力可以通過行業(yè)標(biāo)準(zhǔn)框架和運(yùn)行時(shí)無縫訪問。

據(jù)今年1月數(shù)據(jù)表明,基于TensorFlow框架,INT8 精度下每秒檢測(cè)的圖像的數(shù)量增幅以及高達(dá) 6 倍多 BF16 精度下進(jìn)行對(duì)象檢測(cè)時(shí)每秒檢測(cè)的圖像的數(shù)量增幅明顯增加:

56核的第四代英特爾 至強(qiáng)可擴(kuò)展處理器全新的AMX,對(duì)比40核的第三代英特爾 至強(qiáng)可擴(kuò)展處理器,在SSD-ResNet34上進(jìn)行實(shí)時(shí)推理時(shí),每秒處理的圖像數(shù)量增加高達(dá)4.5倍。(注:實(shí)際性能受使用情況、配置和其他因素的差異影響,且性能測(cè)試結(jié)果基于配置信息中顯示的日期進(jìn)行的測(cè)試[1])

當(dāng)然AVX-512本身就以FP32、FP64等高精度浮點(diǎn)數(shù)據(jù)的運(yùn)算見長(zhǎng),依然可以專注于如數(shù)據(jù)分析、科學(xué)計(jì)算、經(jīng)典機(jī)器學(xué)習(xí)等高精度計(jì)算。

如今第三代人工智能浪潮是以深度學(xué)習(xí)為代表,并非只有深度學(xué)習(xí),AI的范圍正在不斷擴(kuò)大,計(jì)算需求也在多元化,當(dāng)人工智能的工作負(fù)載出現(xiàn)混合精度計(jì)算需求,AMX和AVX-512就可搭配使用,發(fā)展各自長(zhǎng)處。

對(duì)于數(shù)據(jù)精度不高但要求高準(zhǔn)確度的推理場(chǎng)景,如圖像識(shí)別、推薦引擎、媒體分析、語言翻譯、自然語言處理(NLP)、強(qiáng)化學(xué)習(xí)等典型AI應(yīng)用場(chǎng)景,AMX其實(shí)屬于降維打擊,可發(fā)揮空間很大。

根據(jù)預(yù)告,英特爾第四代至強(qiáng)可擴(kuò)展處理器是處理AI等更現(xiàn)代化、更新興并行工作負(fù)載的基礎(chǔ)設(shè)施,在進(jìn)行整體設(shè)計(jì)時(shí)也考慮到了未來技術(shù)發(fā)展趨勢(shì)——絕大多數(shù)新的可擴(kuò)展服務(wù)將采用容器化微服務(wù)等彈性計(jì)算模型進(jìn)行開發(fā)。

新版Windows、Linux Kernel和虛擬化軟件也確實(shí)都具備支持AMX指令集的條件,所謂“引領(lǐng)”就是要更先一步到達(dá)未來。

1月11號(hào),讓我們期待至強(qiáng)新品的發(fā)布和更多信息吧~可以先點(diǎn)擊閱讀原文,提前了解至強(qiáng)產(chǎn)品組合~

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    10854

    瀏覽量

    211583
  • 人工智能
    +關(guān)注

    關(guān)注

    1791

    文章

    47183

    瀏覽量

    238253
  • 算力
    +關(guān)注

    關(guān)注

    1

    文章

    964

    瀏覽量

    14794

原文標(biāo)題:明年1月,推高CPU人工智能算力天花板

文章出處:【微信號(hào):AI_Architect,微信公眾號(hào):智能計(jì)算芯世界】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    NPU在深度學(xué)習(xí)中的應(yīng)用

    設(shè)計(jì)的硬件加速器,它在深度學(xué)習(xí)中的應(yīng)用日益廣泛。 1. NPU的基本概念 NPU是一種專門針對(duì)深度學(xué)習(xí)算法優(yōu)化的處理器,它與傳統(tǒng)的CPU和G
    的頭像 發(fā)表于 11-14 15:17 ?508次閱讀

    使用EMBark進(jìn)行大規(guī)模推薦系統(tǒng)訓(xùn)練Embedding加速

    推薦系統(tǒng)是互聯(lián)網(wǎng)行業(yè)的核心系統(tǒng),如何高效訓(xùn)練推薦系統(tǒng)是各公司關(guān)注的核心問題。目前,推薦系統(tǒng)基本上都是基于深度學(xué)習(xí)大規(guī)模 ID 類模型,模型包含數(shù)十億甚至數(shù)百億級(jí)別的 ID 特征,典型結(jié)構(gòu)如圖 1 所示。
    的頭像 發(fā)表于 10-31 14:46 ?182次閱讀
    使用EMBark進(jìn)行<b class='flag-5'>大規(guī)模</b>推薦系統(tǒng)訓(xùn)練Embedding<b class='flag-5'>加速</b>

    GPU深度學(xué)習(xí)應(yīng)用案例

    能力,可以顯著提高圖像識(shí)別模型的訓(xùn)練速度和準(zhǔn)確性。例如,在人臉識(shí)別、自動(dòng)駕駛等領(lǐng)域,GPU被廣泛應(yīng)用于加速深度學(xué)習(xí)模型的訓(xùn)練和推理過程。 二、自然語言處理 自然語言處理(NLP)是
    的頭像 發(fā)表于 10-27 11:13 ?382次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場(chǎng)可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的一個(gè)熱門研究方向。以下是一些FPGA加速
    的頭像 發(fā)表于 10-25 09:22 ?214次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    人類的學(xué)習(xí)過程,實(shí)現(xiàn)對(duì)復(fù)雜數(shù)據(jù)的學(xué)習(xí)和識(shí)別。AI大模型則是指模型的參數(shù)數(shù)量巨大,需要龐大的計(jì)算資源來進(jìn)行訓(xùn)練和推理深度學(xué)習(xí)算法為AI大模型
    的頭像 發(fā)表于 10-23 15:25 ?648次閱讀

    深度學(xué)習(xí)GPU加速效果如何

    圖形處理器(GPU)憑借其強(qiáng)大的并行計(jì)算能力,成為加速深度學(xué)習(xí)任務(wù)的理想選擇。
    的頭像 發(fā)表于 10-17 10:07 ?184次閱讀

    使用OpenVINO C++在哪吒開發(fā)推理Transformer模型

    OpenVINO 是一個(gè)開源工具套件,用于對(duì)深度學(xué)習(xí)模型進(jìn)行優(yōu)化并在云端、邊緣進(jìn)行部署。它能在諸如生成式人工智能、視頻、音頻以及語言等各類應(yīng)用場(chǎng)景中加快深度學(xué)習(xí)
    的頭像 發(fā)表于 10-12 09:55 ?331次閱讀
    使用OpenVINO C++<b class='flag-5'>在哪</b>吒開發(fā)<b class='flag-5'>板</b>上<b class='flag-5'>推理</b>Transformer模型

    【「大模型時(shí)代的基礎(chǔ)架構(gòu)」閱讀體驗(yàn)】+ 第一、二章學(xué)習(xí)感受

    如下圖所示。無論是CPU還是GPU,所有運(yùn)算過程的中間結(jié)果都需要被保存到內(nèi)存中,而TPU根本沒有將中間結(jié)果保存到內(nèi)存中,而是在執(zhí)行完畢后直接將中間結(jié)果傳遞給下一步驟,因此TPU是一種加速大規(guī)模矩陣運(yùn)算
    發(fā)表于 10-10 10:36

    《黑神話:悟空》8月20日發(fā)售,海信電視Mini LED電視天花板中板現(xiàn)身!

    更是摩拳擦掌、躍躍欲試。作為《黑神話:悟空》官方全球合作伙伴,海信電視在8月開啟“寵粉月”,通過社交媒體、電商平臺(tái)等線上渠道,并聯(lián)動(dòng)線下門店和體驗(yàn)活動(dòng),為玩家們解鎖游戲的酣暢體驗(yàn)與多重心動(dòng)好禮。 Mini LED電視天花板中板現(xiàn)身,神秘豪禮送不停 作
    的頭像 發(fā)表于 08-19 17:15 ?409次閱讀

    新品速遞 | TOF反射型光電,突破檢測(cè)距離天花板

    新品速遞 | TOF反射型光電,突破檢測(cè)距離天花板
    的頭像 發(fā)表于 08-13 08:24 ?338次閱讀
    新品速遞 | TOF反射型光電,突破檢測(cè)距離<b class='flag-5'>天花板</b>

    FPGA在人工智能中的應(yīng)用有哪些?

    FPGA(現(xiàn)場(chǎng)可編程門陣列)在人工智能領(lǐng)域的應(yīng)用非常廣泛,主要體現(xiàn)在以下幾個(gè)方面: 一、深度學(xué)習(xí)加速 訓(xùn)練和推理過程加速:FPGA可以用來
    發(fā)表于 07-29 17:05

    深度學(xué)習(xí)編譯器和推理引擎的區(qū)別

    深度學(xué)習(xí)編譯器和推理引擎在人工智能領(lǐng)域中都扮演著至關(guān)重要的角色,但它們各自的功能、應(yīng)用場(chǎng)景以及優(yōu)化目標(biāo)等方面存在顯著的差異。以下是對(duì)兩者區(qū)別的詳細(xì)探討。
    的頭像 發(fā)表于 07-17 18:12 ?1242次閱讀

    深度學(xué)習(xí)模型量化方法

    深度學(xué)習(xí)模型量化是一種重要的模型輕量化技術(shù),旨在通過減少網(wǎng)絡(luò)參數(shù)的比特寬度來減小模型大小和加速推理過程,同時(shí)盡量保持模型性能。從而達(dá)到把模型部署到邊緣或者低算力設(shè)備上,實(shí)現(xiàn)降本增效的目
    的頭像 發(fā)表于 07-15 11:01 ?489次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>模型量化方法

    深度學(xué)習(xí)與nlp的區(qū)別在哪

    深度學(xué)習(xí)和自然語言處理(NLP)是計(jì)算機(jī)科學(xué)領(lǐng)域中兩個(gè)非常重要的研究方向。它們之間既有聯(lián)系,也有區(qū)別。本文將介紹深度學(xué)習(xí)與NLP的區(qū)別。 深度
    的頭像 發(fā)表于 07-05 09:47 ?908次閱讀

    【大語言模型:原理與工程實(shí)踐】揭開大語言模型的面紗

    ,大語言模型還具備出色的關(guān)聯(lián)和關(guān)系理解能力,能夠捕捉數(shù)據(jù)間的隱含關(guān)系和語義聯(lián)系,進(jìn)行高級(jí)關(guān)聯(lián)推理。它還支持多步推理,能在推理過程中進(jìn)行多個(gè)步驟的演繹和分析。最后,通過學(xué)習(xí)
    發(fā)表于 05-04 23:55
    主站蜘蛛池模板: 九九久久国产精品大片| 美女pk精子4| 男人私gay挠脚心vk视频| 日日干夜夜啪蕉视频| 亚洲免费精品视频| a级成人免费毛片完整版| 国产婷婷午夜无码A片| 美女被艹网站| 性绞姿始动作动态图| 99久久婷婷国产综合精品青草 | 天堂草原天黑黑| 最新 国产 精品 精品 视频| 福利社影院| 伦理片秋霞免费影院| 午夜十八岁禁| qvod小电影| 久久香蕉国产免费天天| 色拍拍噜噜噜久久蜜桃| 姉调无修版ova国语版| 国产人人为我我为人人澡| 内射白浆一区二区在线观看| 亚洲精品AV一二三区无码| va亚洲va天堂va视频在线| 精品久久综合1区2区3区激情| 乳色吐息在线观看全集免费观看| 中文字幕亚洲无线码在线| 国产噜噜噜精品免费| 人妻中文字幕无码久久AV爆| 真人做受120分钟免费看 | 久久精品国产亚洲精品2020| 天天看高清影视在线18| FREECHINESE东北女人真爽| 久久99这里只有精品| 午夜伦理yy44008影院| 超碰在线97av视频免费| 美国ZOOM动物在线观看| 一本到道免费线观看| 国产一卡 二卡三卡四卡无卡乱码视频| 秋霞鲁丝片Av无码| 99国产精品欲AV蜜桃臀麻豆| 久久AV国产麻豆HD真实乱|