色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

GPU Microarch學習筆記

處理器與AI芯片 ? 來源:處理器與AI芯片 ? 2023-08-14 14:39 ? 次閱讀

Warp

GPU的線程從thread grid 到threadblock,一個thread block在CUDA Core上執行時,會分成warp執行,warp的顆粒度是32個線程。比如一個thread block可能有1024個線程,那么就會分成32個warp執行。

ddb374e6-390d-11ee-9e74-dac502259ad0.png

上圖的CTA(cooperative thread arrays)即為thread block。

Warp內的32個線程是以lock-step的方式鎖步執行,也就是在沒有遇到分支指令的情況下,如果執行,那么執行的都是相同的指令。通過這種方式32個線程可以共享pc,源寄存器ID和目標寄存器ID。

雖然warp是以32的顆粒度,但是具體在GPU內部執行時,也可能是以16的顆粒度,分兩次執行,比如早期的fermi架構。

dddfa098-390d-11ee-9e74-dac502259ad0.png

如上圖所示,兩個warp scheduler,每個warp每次只能在16個CUDA core上執行。

后續的Pascal GPU架構 CUDA core增加到了32個,每個周期都能執行一個warp。

de11a43a-390d-11ee-9e74-dac502259ad0.png

寄存器

GPU的寄存器數量是影響劃分CUDA thread block的數量的原因之一,如下圖所示[1]。

de51f210-390d-11ee-9e74-dac502259ad0.png

雖然內部執行是按照warp執行的,按照調度順序和ready進行調度。但是寄存器的分配是靜態的按照thread number分配的,而不是warp。在warp執行時,32個線程,每個線程讀取源寄存器,寫入目標寄存器。假設每個寄存器4B,那么每次32個線程讀取128B。

因而128B也就是GPU L1 Cache Cacheline的大小。不同于CPU,每一級的cache都要維護MOSEI的一致性,對于GPU的thread來說,私有memory不需要共享,因此對于local memory可以write back。而全局共享memory則可以write evict。

CPU的寄存器,在編譯器編譯時,會根據寄存器的live time進行優化,而且在CPU內部執行時,進行重命名,在有限的寄存器數量上盡量地解決依賴問題。

GPU只在編譯時優化,盡量減少對memory的使用,在內部執行時,如果針對每個warp都增加一個寄存器重命名單元,設計復雜。因此GPU每個線程需要的寄存器就是它編譯時需要的寄存器上限(寄存器上限也可以通過編譯器控制)。這就導致了實際GPU內部執行時對寄存器使用數量的波動。如下圖[2]所示,因此也有很多文章研究如何優化寄存器的使用。

de8424f6-390d-11ee-9e74-dac502259ad0.png

在編譯時,nvcc可以通過指定--maxrregcount指定寄存器的數量,但是過多的寄存器會因為固定的寄存器資源而導致thread數量變少,過少的寄存器也會導致需要頻繁的訪問memory,因此也需要折衷。

deadf132-390d-11ee-9e74-dac502259ad0.png

WARP Divergence

之前討論warp時說如果32個線程,沒有遇到分支,那么每個線程都執行同一條指令,但是如果存在分支呢?

GPU沒有CPU的分支預測,使用active mask和predicate register來構建token stack來處理遇到分支時的問題。

GPGPU-sim按照下圖[3]模擬的token stack,其中的

def25c8c-390d-11ee-9e74-dac502259ad0.png

另一種可能的token stack則是按照如下的方式構建,結合了指令,predicateregister和token stack。

df2592c8-390d-11ee-9e74-dac502259ad0.png

上圖[4]中的(b)即為編譯出的匯編指令,SSY 0xF0即為push stack,if else分支指令結束重聚的指令地址為0xF0。每個warp會有當前的active pc寄存器和active mask寄存器。我們假設一個warp內有8個thread,在SSY0xF0指令執行時,會將active mask 壓棧,壓棧的內容包括Fig1中的entry type SSY,active mask和re-convergence pc,也就是0xF0(從SSY 0xF0指令可以獲得).

在分支指令@PO BRA 0xB8執行時,會將DIV(divergence),activemask(0xF0,這個并非pc,而是active mask,當前warp的每個thread的predicateregister拼接而成,8bit 每個bit表示一個thread是否滿足if條件)和 0xB8(if語句塊內的第一條指令的地址)壓棧。

然后gpu會默認執行else分支(因為if需要跳轉,else直接順序執行),執行else分支時,需要對active mask取反,只執行不滿足if條件的那些thread。

Else分支的最后一條匯編指令末尾會增加.S flag用于標志popstack,此時pop指令會將active mask出棧,更新到active mask寄存器和active pc中,然后執行if 分支,直到執行完畢if內的最后一條指令,對應地址0xE8,此時再次出棧。

將當前active pc更新為0xF0,activemask更新為0xFF,此時if else分支執行完畢,回到重聚點,所有線程繼續lock-step鎖步執行。

這里只假設一個if else,但是實際上可能存在if else的嵌套,因此第一步SSY 0xF0,可以理解成上下文切換時的先保存當前的activemask 0xFF和重聚點的指令地址0xF0。

上述的方案與GPGPU-sim中的架構類似,除了在指令中顯式的增加了壓棧出棧,GPGPU-sim處理每一個分支都需要壓棧if else兩條分支,占用兩項,而方案2)中每次除了保存當前active mask外,只需壓棧一項。






審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 寄存器
    +關注

    關注

    31

    文章

    5342

    瀏覽量

    120274
  • 編譯器
    +關注

    關注

    1

    文章

    1629

    瀏覽量

    49115
  • CUDA
    +關注

    關注

    0

    文章

    121

    瀏覽量

    13620
  • cache技術
    +關注

    關注

    0

    文章

    41

    瀏覽量

    1062
  • GPU芯片
    +關注

    關注

    1

    文章

    303

    瀏覽量

    5806

原文標題:GPU Microarch 學習筆記【1】

文章出處:【微信號:處理器與AI芯片,微信公眾號:處理器與AI芯片】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    PADS應用學習筆記

    本內容提供了PADS應用學習筆記,PADS2007學習及Power PCb使用經驗
    發表于 11-24 10:42 ?1.1w次閱讀

    FPGA在深度學習應用中或將取代GPU

    筆記本電腦或機架式服務器上訓練神經網絡時,這不是什么大問題。但是,許多部署深度學習模型的環境對 GPU 并不友好,比如自動駕駛汽車、工廠、機器人和許多智慧城市環境,在這些環境中硬件必須忍受熱、灰塵、濕度
    發表于 03-21 15:19

    模擬電路學習筆記

    模擬電子的相關知識學習教材資料——模擬電路學習筆記
    發表于 09-20 16:10 ?0次下載

    PADS_2007學習筆記

    PADS_2007學習筆記
    發表于 01-16 13:54 ?18次下載

    Ansoft學習筆記

    ansoft學習筆記與常見問題
    發表于 03-23 10:24 ?0次下載

    Java設計模式學習筆記

    Java設計模式學習筆記
    發表于 09-08 10:15 ?5次下載
    Java設計模式<b class='flag-5'>學習</b><b class='flag-5'>筆記</b>

    ARM學習筆記

    ARM學習筆記
    發表于 10-13 14:28 ?3次下載
    ARM<b class='flag-5'>學習</b><b class='flag-5'>筆記</b>

    Altera FPGA CPLD學習筆記

    Altera FPGA CPLD學習筆記(肇慶理士電源技術有限)-Altera FPGA CPLD學習筆記? ? ? ? ? ? ? ? ?
    發表于 09-18 10:54 ?82次下載
    Altera FPGA CPLD<b class='flag-5'>學習</b><b class='flag-5'>筆記</b>

    學習筆記】單片機匯編學習

    學習筆記】單片機匯編學習
    發表于 11-14 18:21 ?15次下載
    【<b class='flag-5'>學習</b><b class='flag-5'>筆記</b>】單片機匯編<b class='flag-5'>學習</b>

    使用外部GPU在Linux筆記本上加速機器學習

      隨著 Intel Thunderbolt 3 在筆記本電腦中的引入,您現在可以使用外部 GPU ( e GPU )外殼來使用專用的 GPU 來進行游戲、制作和數據科學。霹靂 3e
    的頭像 發表于 04-28 14:16 ?2127次閱讀
    使用外部<b class='flag-5'>GPU</b>在Linux<b class='flag-5'>筆記</b>本上加速機器<b class='flag-5'>學習</b>

    GPU 引領的深度學習

    GPU 引領的深度學習
    的頭像 發表于 01-04 11:17 ?724次閱讀

    Sentaurus TCAD學習筆記

    半導體仿真Sentaurus TCAD 學習筆記,僅供學習
    發表于 08-07 14:54 ?4次下載

    Allegro學習筆記.zip

    Allegro學習筆記
    發表于 12-30 09:19 ?6次下載

    GPU在深度學習中的應用與優勢

    人工智能的飛速發展,深度學習作為其重要分支,正在推動著諸多領域的創新。在這個過程中,GPU扮演著不可或缺的角色。就像超級英雄電影中的主角一樣,GPU在深度學習中擁有舉足輕重的地位。那么
    的頭像 發表于 12-06 08:27 ?1326次閱讀
    <b class='flag-5'>GPU</b>在深度<b class='flag-5'>學習</b>中的應用與優勢

    GPU深度學習應用案例

    GPU在深度學習中的應用廣泛且重要,以下是一些GPU深度學習應用案例: 一、圖像識別 圖像識別是深度學習的核心應用領域之一,
    的頭像 發表于 10-27 11:13 ?383次閱讀
    主站蜘蛛池模板: 亚洲精品tv久久久久久久久久| 国产精品v片在线观看不卡| 色狠狠色狠狠综合天天| 久久成人精品免费播放| 妇少水多18P蜜泬17P亚洲乱 | silk118中文字幕无删减| 亚洲精品久久7777777| 情欲.美女高潮| 老师湿乎乎两半嫩| 男欢女爱免费视频| 含羞草在线免费观看| 抽插的日日液液H| bl(高h)文| 18禁黄无遮挡禁游戏在线下载| 亚洲1区2区3区精华液| 色噜噜2017最新综合| 欧美成人猛片aaaaaaa| 泷泽萝拉首部av| 精品无码国产自产在线观看水浒传| 国产精品高清m3u8在线播放| freehd另类xxxx喷水| 91免费网站在线看入口黄 | 俄罗斯aaaa一级毛片| 99久久亚洲精品影院| 在线中文字幕网站| 亚洲人成网站在线播放| 亚洲精品入口一区二区乱麻豆精品 | 国产色精品久久人妻无码看片软件| 别插我B嗯啊视频免费| 97免费在线视频| 97精品在线| 97caopeng| 7723日本高清完整版在线观看| 在线 国产 欧美 专区| 伊人网久久网| 与子敌伦刺激对白亂輪亂性| 夜夜澡人人爽人人喊_欧美| 亚洲精品自在在线观看| 亚洲色图激情小说| 亚洲日韩精品AV中文字幕| 夜月视频直播免费观看|