色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度解析MegEngine 4 bits量化開源實現(xiàn)

倩倩 ? 來源:AI前線 ? 作者:AI前線 ? 2022-09-23 15:08 ? 次閱讀

隨著深度學(xué)習(xí)的發(fā)展,其應(yīng)用場景也越發(fā)的廣泛與多樣。這些多樣化的場景往往會對實際的部署提出更加“定制化”的限制。例如,自動駕駛汽車對人體識別的精度要求肯定比圖像識別動物分類的精度要求更加嚴(yán)苛,因為二者的應(yīng)用場景和錯誤預(yù)測帶來的后果截然不同。這些“定制化”帶來的差異,對于實際部署的模型在精度、速度、空間占用上有更具體的要求。在很多場景中由于部署的設(shè)備算力不強、內(nèi)存較小,導(dǎo)致對于模型的速度和空間占用具有嚴(yán)格要求,而經(jīng)過量化的模型具有速度快、空間占用小的特性,恰恰能滿足這種需求。

因此量化模型被廣泛使用在推理側(cè),量化也成為了一個重要且非常活躍的研究領(lǐng)域。近期,MegEngine 開源了 4 bits 的量化的相關(guān)內(nèi)容,通過 MegEngine 4 bits 量化實現(xiàn)的 ResNet-50 模型在 ImageNet 數(shù)據(jù)集上的精度表現(xiàn)與 8 bits 量化模型相差無幾,并且速度是 TensorRT-v7 8 bits ResNet-50 模型的推理速度的 1.3 倍。這次實踐為 MegEngine 積累了 4 bits 量化的相關(guān)經(jīng)驗。同時,MegEngine 決定將 4 bits 量化的相關(guān)代碼開源,為大家提供可參考的完整方案,推動在更低比特推理領(lǐng)域的探索與發(fā)展。

背景

深度學(xué)習(xí)領(lǐng)域的模型量化是將輸入從連續(xù)或其他較大的值集約束到離散集的過程。量化具有以下兩點優(yōu)勢:

在存儲空間上,相較于 FLOAT 的 32 bits 的大小,量化值占用的空間更小。

在性能上,各類計算設(shè)備對量化值的計算能力要高于 FLOAT 的計算能力。

本文中提到的 n bits 量化,就是將 FP32 的數(shù)據(jù)約束到 n bits 表示的整型數(shù)據(jù)的過程。量化依據(jù)數(shù)據(jù)的映射特征可以分為線性量化和非線性量化,MegEngine 中采用的是線性量化,使用的量化公式和反量化公式如下:

3b41dfc2-3b02-11ed-9e49-dac502259ad0.png

其中,Q 是量化方法,r 是真實獲取的輸入 FLOAT 值,S 是 FLOAT 類型的縮放因子,Z 是 INT 類型“零點”。

3b57a5aa-3b02-11ed-9e49-dac502259ad0.png

圖1 4 bits 非對稱線性量化

3b60ed5e-3b02-11ed-9e49-dac502259ad0.png

圖2 4 bits 對稱線性量化

如圖 1 所示,MegEngine 用數(shù)據(jù)類型 UINT4 表示 4 bits 的非對稱線性量化,量化值的取值范圍為[0,15];當(dāng) Z 取 0 時即為對稱線性量化,此時 4bits 量化值的取值范圍為[-8, 7],在 MegEngine 中用數(shù)據(jù)類型 INT4 表示,如圖 2 所示。

目前 8 bits 量化模型在一些場景下被業(yè)界廣泛運用,我們想去了解 4 bits 量化模型的落地的可能性。這要解決兩個問題:一方面,4 bits 量化模型的精度要如何保證;另一方面,4 bits 量化模型的速度能提升多少。要解答這兩個問題,需要算法研究員和工程開發(fā)人員的通力協(xié)作進行驗證。整件事情投入高,收益不明確。我們想找到開源代碼,快速從原理層面對這兩個問題有個判斷,但經(jīng)過調(diào)研發(fā)現(xiàn)目前并沒有 4 bits 量化相關(guān)開源內(nèi)容可供研究參考。所以,MegEngine 決定開發(fā) 4 bits 量化并解答這兩方面的問題。

緩解精度下降

保證 4 bits 量化模型的精度是重中之重,如果模型精度無法滿足需求,則 4 bits 量化的開發(fā)將毫無意義。為了避免精度的大幅下降,MegEngine 采取的舉措是輸入和輸出采用非對稱量化 UINT4,weights 采用對稱量化 INT4,bias 采用 FP32。接下來,從計算公式的推演上,來看這樣設(shè)計的合理性:

FP32 原始計算一次卷積輸出結(jié)果的公式:

3b73cdca-3b02-11ed-9e49-dac502259ad0.png

結(jié)合公式 [1]、[2] 推導(dǎo)的 4 bits 量化的公式:

3b7f5a14-3b02-11ed-9e49-dac502259ad0.png

優(yōu)化之后的公式:

3b9080dc-3b02-11ed-9e49-dac502259ad0.png

在上述公式中,ZI、ZW 是否等于 0,表明輸入/輸出和 weights 采用 INT4 還是 UINT4。并且在該公式中,除了Q(Ii)的值需要推理時確定,其余值均可在推理前獲得。所以,依據(jù)數(shù)據(jù)的計算特性,將這個公式分為了三個部分,分別用三種顏色表示:

黑色表示無論輸入/輸出以及 weights 數(shù)據(jù)類型如何選擇,一定有的計算量。因為無法避免,所以不用考慮這部分的數(shù)據(jù)特性。

藍(lán)色表示可以在推理前計算好的數(shù)據(jù)。

紅色表示必須在推理時才能計算的數(shù)據(jù)。

推理前可以計算好的這部分?jǐn)?shù)據(jù)可以提前計算并融合進 bias 中加入后續(xù)計算,所以 bias 必須用 FP32 數(shù)據(jù)類型表示,否則精度會大大降低。

至于輸入/輸出以及 weights 的數(shù)據(jù)類型選擇,結(jié)合上述公式可以推導(dǎo)得出:

全用 INT4 時,即ZI、ZW 均等于 0, 計算量最小,只有黑色部分公式。

輸入/輸出用 UINT4,weights 用 INT4,即ZI 不等于 0,ZW 等于 0 時,會增加藍(lán)色公式部分的計算量,但是這個部分是可以提前運算好的,對整體計算時間影響不大。

weights 用 UINT4,即ZW 不等于 0 時, 會增加紅色公式部分的計算量,會對整體的計算時間帶來較大影響。

由于 ResNet-50 模型 conv_relu 算子中的 relu 操作,輸入/輸出層的數(shù)據(jù)比較符合非對稱的特性,采用非對稱量化能更好地保留數(shù)據(jù)信息減少精度損失,所以輸入/輸出應(yīng)該選擇 UINT4,排除了上面三種方案中的第一種。第三種方案計算量會大很多,但是對精度的收益并不明顯。所以,最終選擇輸入和輸出采用非對稱量化 UINT4,weights 采用對稱量化INT4的方案。

緩解精度下降

提升模型性能并非一個簡單的“因為計算設(shè)備的 4 bits 算力大于 8 bits 算力,所以易知......”的推導(dǎo),計算設(shè)備 4 bits 算力大于 8 bits 算力是已知的,但是需要一些方法將這部分的算力“兌現(xiàn)”,算力需要合適的算子釋放出來,其次,4 bits 量化所追求的也并非在某個算子的性能上超過 8 bits 量化,而是在模型層次超越 8 bits 量化。考慮到ResNet-50 模型以及卷積算子非常具有代表性,我們最終決定用 ResNet-50 模型作為基準(zhǔn)測試模型。經(jīng)過對模型的分析,發(fā)現(xiàn) ResNet-50 模型的性能瓶頸主要集中在兩個方面:

小算子比如 relu、add 較多,這些細(xì)瑣算子帶來的啟動以及帶寬上的開銷較大。

conv 計算非常多,占用了全圖 80% 以上的運算時間。

為解決這兩方面的瓶頸,MegEngine 做了以下兩個方面的優(yōu)化工作:圖層次的算子融合以及算子層次的優(yōu)化。

算子融合優(yōu)化

MegEngine 通過對計算圖進行掃描匹配,并將匹配到的圖結(jié)構(gòu)替換為優(yōu)化后的圖結(jié)構(gòu)。ResNet-50 模型所用的兩種 pass 轉(zhuǎn)換如下圖所示:

3bbf87ce-3b02-11ed-9e49-dac502259ad0.png

圖3 兩種Pass優(yōu)化方法

圖 3 中的大方塊表示圖中各種算子,小方塊表示這些算子的讀/寫數(shù)據(jù)操作以及啟動開銷。從圖中可以看到經(jīng)過算子融合的優(yōu)化可以有效減少算子的讀/寫數(shù)據(jù)的操作以及啟動開銷。

將這兩個 pass 應(yīng)用于原始的 ResNet-50 的結(jié)構(gòu),就可以得到優(yōu)化后的圖。

3bd5a70c-3b02-11ed-9e49-dac502259ad0.png

圖4 Pass優(yōu)化在ResNet-50模型中的應(yīng)用

從圖 4 可以看到,通過對 ResNet-50 模型的網(wǎng)絡(luò)結(jié)構(gòu)的優(yōu)化,add 和 relu 這些計算強度較小的算子已經(jīng)被 conv 這種計算強度大的算子所吸收,減少了小算子帶來的啟動以及讀寫上的開銷。

conv 算子優(yōu)化

經(jīng)過算子融合優(yōu)化后,可以看到 ResNet-50 模型調(diào)用的算子主要是各種 conv fuse 的算子,如 Conv_Relu、Conv_Add_Relu,這些算子的主體部分都是 conv,所以主要的優(yōu)化也都落實在了 conv 算子優(yōu)化上。

conv 采用 implicit gemm 算法并通過 mma 指令調(diào)度 tensor core 進行計算加速。顧名思義,implicit gemm就是將 conv 運算轉(zhuǎn)換為矩陣乘的一種算法,是對 img2col 的算法的改進,傳統(tǒng)的 img2col 算法如下:

3bf22ecc-3b02-11ed-9e49-dac502259ad0.png

圖5 img2col示意圖

從圖 5 中可以看到,img2col 是將輸入 shape 為(N,IC,IH,IW),卷積核 shape 為(OC,IC,FH,FW)的卷積運算變?yōu)?shape 分別為(OC,ICFHFW)和(ICFHFW,NOHOW)的兩個矩陣的乘法運算。implict geem 的整體運算邏輯與 img2col 相同,其區(qū)別在于 img2col 會“顯式”地完成圖 6 中數(shù)據(jù)的卷積排布到矩陣排布的轉(zhuǎn)換,需要額外開辟一塊矩陣大小的空間用以存儲轉(zhuǎn)換后的矩陣,implict gemm 的轉(zhuǎn)換則是“隱式”的,沒有這部分空間開銷,在 implicit gemm 算法中并沒有開辟額外的空間存儲卷積核矩陣(OCxICFHFW)和輸入矩陣(ICFHFWxNOHOW),而是在分塊后,每個 block 會按照上圖中的對應(yīng)邏輯,在 global memory 到 shared memory 的加載過程中完成從數(shù)據(jù)的原始卷積排布到 block 所需的矩陣分塊排布的轉(zhuǎn)換。

針對 4 bits 的 implict gemm 的優(yōu)化主要參照 cutlass 的優(yōu)化方案,并在此基礎(chǔ)上加入了 output 重排的優(yōu)化。由于篇幅問題,本節(jié)僅講解 output 重排的優(yōu)化,想要了解更多技術(shù)細(xì)節(jié),建議參考閱讀之前的文章以及開源代碼。

先分析 output 目前的排布情況,implict geem 的計算最終都落實在了 mma 指令上,而 mma 指令輸出的排布與 warp 中 32 個線程的關(guān)系如下:

3c0235ba-3b02-11ed-9e49-dac502259ad0.png

圖6 mma輸出排布示意圖

如圖 6 中所示,在一次 mma 指令運算中,一個 warp 的 32 個線程負(fù)責(zé) 64 個運算結(jié)果,且這些結(jié)果都存儲在寄存器上。每個線程負(fù)責(zé) 8x8 的結(jié)果矩陣同一行內(nèi)連續(xù)的兩個運算結(jié)果,每四個線程負(fù)責(zé)同一行的 8 個運算結(jié)果。

結(jié)合 implict geem 的結(jié)果矩陣 OCxNOHOW(由 OCxICFHFW 和 ICFHFWxNOHOW 乘積得到),在MegEngine 4 bits 量化的卷積算子設(shè)計中,一個 warp 的 32 個線程和輸出的排布關(guān)系如下:

3c1544f2-3b02-11ed-9e49-dac502259ad0.png

圖7 warp輸出排布示意圖

一個 warp 負(fù)責(zé) 64x64 大小的輸出矩陣,該矩陣由 8x8 個 mma 的 8x8 輸出矩陣組成,輸出和線程的排布關(guān)系如圖所示,黃色部分表示線程 0 所擁有的數(shù)據(jù)。圖 7 中的所有數(shù)據(jù)都在寄存器上,算子的最后一步操作,也就是將這些數(shù)據(jù)寫回到 global memory 上并按照 NCHW64 的方式進行排布。

一眼看上去,這些數(shù)據(jù)的排布都是間隔開的,雖然橫坐標(biāo)上的數(shù)據(jù)連續(xù),但對于寫回到 global memory 并按照 NCHW64 排布而言,并沒有什么幫助。直接的寫回方式是將這些寄存器上的數(shù)據(jù)進行壓縮,先將 8 個32 bits的數(shù)據(jù)轉(zhuǎn)換為 8 個4 bits 的數(shù)據(jù),再將這 8 個 4 bits 的數(shù)據(jù)放到一個 32 bits 大小的空間,然后寫回到 global memory,這種處理方式將面臨幾個問題:

每個線程中的數(shù)據(jù)都不連續(xù),增大了數(shù)據(jù)處理難度,這些額外的處理計算可能會導(dǎo)致性能下降。

需要在縱向的 8 個線程間交換數(shù)據(jù),會有同步的開銷。

這無疑是一個開銷比較大的處理方式,為了解決寫回數(shù)據(jù)帶來的性能問題,MegEngine 采用了以下處理方式:

注意到 NCHW64 的排布方式,每 64 個 OC 是連續(xù)的,嘗試將矩陣旋轉(zhuǎn)一下,想象這是一個 NOHOWxOC 的矩陣,那么 T0、T1、T2、T3 四個線程所負(fù)責(zé)的數(shù)據(jù)在 OC 維度上是連續(xù)的,它們對于的 OC 維度分別是

T0{0,1; 8,9;16,17;24,25;32,33;40,41;48,49;56,57}、

T1{2,3;10,11;18,19;26,27;34,35;42,43;50,51;58,59}......

可以看到,現(xiàn)在是四個線程負(fù)責(zé) 64 個連續(xù)的輸出,那么只要這四個線程交換數(shù)據(jù)再壓縮、寫回即可。相比于之前 8 個線程間數(shù)據(jù)交換和寫回,現(xiàn)在的處理方式更加簡單,內(nèi)部偏移計算與同步開銷會更少。所以實現(xiàn)output轉(zhuǎn)置是一種切實可行的優(yōu)化方法。這也體現(xiàn)了 NCHW64 的排布方式使得 4 bits 類型的數(shù)據(jù)在傳輸過程能被連續(xù)訪存,充分利用硬件資源的特點。

但是線程間交換數(shù)據(jù)的開銷在output轉(zhuǎn)置處理中依然沒有被徹底解決。如果可以得到

T0{0,1;2,3;4,5;6,7;8,9;10,11;12,13;14,15}、

T1{16,17;18,19;20,21;22,23;24,25;26,27;28,29;30,31}......

這樣的輸出OC 維度和線程對應(yīng)關(guān)系。那么就只需要在線程內(nèi)部進行數(shù)據(jù)打包和寫回,并且 16 個4 bits 的數(shù)據(jù)正好占用 2 個32 bits 大小的空間,非常規(guī)整。要實現(xiàn)這個效果也是非常簡單的:對于 AxB=C 的矩陣乘法,要實現(xiàn) C 矩陣的列順序變換,只需要對 B 矩陣進行對應(yīng)的列順序變換即可,如下圖所示:

3c2a60da-3b02-11ed-9e49-dac502259ad0.png

圖8 矩陣乘積的列變換

從圖 可以看出,將乘積矩陣 AxB=C 中的 B 矩陣的第1列和第5列進行對調(diào),結(jié)果矩陣 C 對應(yīng)的列的運算結(jié)果也會發(fā)生同步的對調(diào)。利用這一特點,可以在 conv 算子運算前,將 weights 的列進行重排序,使得最終輸出OC 維度在對應(yīng)的相同線程中保持連續(xù),T0{0,1;2,3;4,5;6,7;8,9;10,11;12,13;14,15}...

所以總結(jié)一下 output 重排的策略,其實就兩點:

將 OCxICFHFW 和 ICFHFWxNOHOW 的矩陣乘,變?yōu)?NOHOWxICFHFW 和 ICFHFWxOC 的矩陣乘,實現(xiàn)output 結(jié)果的轉(zhuǎn)置,確保在 OC 維度上的數(shù)據(jù)連續(xù),配合 NCHW64 的排布方式,便于將數(shù)據(jù)從寄存器上寫回到 global memory 上。

通過對 ICFHFWxOC 矩陣的 OC 進行重新排序,實現(xiàn) output 矩陣 NOHOWxOC 的 OC 維度和線程的對應(yīng)關(guān)系更加合理,確保線程內(nèi)部的數(shù)據(jù)連續(xù)性,避免線程間數(shù)據(jù)交換的開銷。

總結(jié) & 展望

本次開源提供了和 TensorRT(TRT) ResNet-50 8 bits 量化模型在 ImageNet 數(shù)據(jù)集上速度以及精度對比結(jié)果:

3c3b836a-3b02-11ed-9e49-dac502259ad0.png

圖9 速度對比

3c55f09c-3b02-11ed-9e49-dac502259ad0.png

圖10 精度對比

通過在 ResNet50 上的測試可以看到,MegEngine 的 INT4 方案可以比 fp32 推理速度提升 5.65 倍至多,相比于現(xiàn)在業(yè)內(nèi)較為常用的 INT8 方案也仍然可以提升 1.3 倍的速度。在速度大幅提升的同時,uint4*int4 的方案盡可能的保證了精度,精度下降能夠控制在 top1 -0.3% 左右。

在速度和精度兩方面的努力,讓 INT4 的方案能夠在實際的業(yè)務(wù)場景中帶來顯著的優(yōu)勢,而不只是停留在論文上。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    3363

    瀏覽量

    42535
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1208

    瀏覽量

    24723
  • 量化
    +關(guān)注

    關(guān)注

    0

    文章

    34

    瀏覽量

    2339

原文標(biāo)題:提速還能不掉點!深度解析 MegEngine 4 bits 量化開源實現(xiàn)

文章出處:【微信號:AI前線,微信公眾號:AI前線】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    黃鶴開源社區(qū)正式發(fā)布

    聯(lián)通多平臺的開發(fā)者、開源企業(yè)和開源項目加入,匯聚武漢市全網(wǎng)的開源數(shù)據(jù),為政策制定、人才培養(yǎng)、企業(yè)激勵和項目培養(yǎng)等提供量化、精準(zhǔn)支持,助力打造武漢開源
    的頭像 發(fā)表于 12-23 11:33 ?253次閱讀

    深度解析研華全棧式AI產(chǎn)品布局

    在人工智能邁向邊緣智能化的浪潮中,研華科技通過“Edge AI+生態(tài)協(xié)同”戰(zhàn)略推動AIoT 2.0時代的產(chǎn)業(yè)落地。本文專訪研華科技產(chǎn)品總監(jiān)邱柏儒,深度解析研華全棧式AI產(chǎn)品布局、差異化技術(shù)積累與生態(tài)共創(chuàng)實踐。
    的頭像 發(fā)表于 12-05 09:51 ?263次閱讀

    深度解析 4G模組GPIO編程技巧篇

    本文將解析4G模組GPIO編程技巧,從概述、軟硬件環(huán)境準(zhǔn)備、示例等詳細(xì)道來:
    的頭像 發(fā)表于 11-20 23:08 ?201次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>解析</b>  <b class='flag-5'>4</b>G模組GPIO編程技巧篇

    汽車智能化開源創(chuàng)新論壇精選:OS是未來新興汽車產(chǎn)業(yè)生態(tài)構(gòu)建的核心

    11月3日,在COSCon'24第九屆中國開源年會暨開源社十周年嘉年華活動中,由OpenSDV汽車軟件開源聯(lián)盟出品的汽車智能化開源創(chuàng)新論壇成功舉辦。論壇圍繞“軟件定義、
    的頭像 發(fā)表于 11-07 08:07 ?519次閱讀
    汽車智能<b class='flag-5'>化開源</b>創(chuàng)新論壇精選:OS是未來新興汽車產(chǎn)業(yè)生態(tài)構(gòu)建的核心

    論壇介紹 | RT-Thread出席汽車智能化開源創(chuàng)新論壇

    午在會議中心靜明廳舉辦汽車智能化開源創(chuàng)新論壇。論壇將以“軟件定義、AI融合、開源賦能”為主題,邀請相關(guān)領(lǐng)域產(chǎn)學(xué)研專家,核心圍繞汽車智能化相關(guān)的技術(shù)開發(fā)及產(chǎn)業(yè)應(yīng)用進行經(jīng)驗傳播
    的頭像 發(fā)表于 11-02 08:09 ?166次閱讀
    論壇介紹 | RT-Thread出席汽車智能<b class='flag-5'>化開源</b>創(chuàng)新論壇

    溫度補償振蕩器TG-3541CE的深度解析

    溫度補償振蕩器TG-3541CE的深度解析
    的頭像 發(fā)表于 07-18 17:48 ?330次閱讀

    深度神經(jīng)網(wǎng)絡(luò)模型量化的基本方法

    深度神經(jīng)網(wǎng)絡(luò)模型量化深度學(xué)習(xí)領(lǐng)域中的一種重要優(yōu)化技術(shù),旨在通過減少模型參數(shù)的精度(即從高精度浮點數(shù)如32位浮點數(shù)FP32降低到低精度整數(shù)如8位整數(shù)INT8或更低)來降低模型的計算和存儲需求,同時
    的頭像 發(fā)表于 07-15 11:26 ?700次閱讀

    深度學(xué)習(xí)模型量化方法

    深度學(xué)習(xí)模型量化是一種重要的模型輕量化技術(shù),旨在通過減少網(wǎng)絡(luò)參數(shù)的比特寬度來減小模型大小和加速推理過程,同時盡量保持模型性能。從而達到把模型部署到邊緣或者低算力設(shè)備上,實現(xiàn)降本增效的目
    的頭像 發(fā)表于 07-15 11:01 ?499次閱讀
    <b class='flag-5'>深度</b>學(xué)習(xí)模型<b class='flag-5'>量化</b>方法

    深度神經(jīng)網(wǎng)絡(luò)(DNN)架構(gòu)解析與優(yōu)化策略

    堆疊多個隱藏層,逐步提取和轉(zhuǎn)化輸入數(shù)據(jù)的特征,最終實現(xiàn)復(fù)雜的預(yù)測和分類任務(wù)。本文將對DNN的架構(gòu)進行詳細(xì)解析,并探討其優(yōu)化策略,以期為相關(guān)研究和應(yīng)用提供參考。
    的頭像 發(fā)表于 07-09 11:00 ?1922次閱讀

    I2S Master bits_per_sample != bits_per_chan情況下工作不正常是怎么回事?

    32位寬(datasheet要求SCK頻率為WS的64倍)。 現(xiàn)象: 使用邏輯分析儀抓包發(fā)現(xiàn)每個channel的sck數(shù)量始終等于代碼中定義的采樣深度(bits_per_sample),與通道深度無關(guān)
    發(fā)表于 06-19 06:14

    存內(nèi)計算技術(shù)工具鏈——量化

    本篇文章將重點講述存內(nèi)計算技術(shù)工具鏈之“量化”,我們將從面向存內(nèi)計算芯片的深度學(xué)習(xí)編譯工具鏈、神經(jīng)網(wǎng)絡(luò)中的量化(包括訓(xùn)練后量化量化感知訓(xùn)練
    的頭像 發(fā)表于 05-16 12:35 ?1256次閱讀
    存內(nèi)計算技術(shù)工具鏈——<b class='flag-5'>量化</b>篇

    深度解析:UVLED固化烘箱與傳統(tǒng)烘箱的差異

    的差異呢?本文將從多個角度進行深度解析。 一、工作原理的差異 傳統(tǒng)烘箱的工作原理主要是通過電熱管、燃?xì)饣蛘羝确绞疆a(chǎn)生熱能,再利用熱空氣或熱輻射對物料進行加熱和固化。這種方式雖然可以實現(xiàn)固化效果,但能耗高、加熱速度慢,且溫度控
    的頭像 發(fā)表于 05-09 14:41 ?589次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>解析</b>:UVLED固化烘箱與傳統(tǒng)烘箱的差異

    深度解析深度學(xué)習(xí)下的語義SLAM

    隨著深度學(xué)習(xí)技術(shù)的興起,計算機視覺的許多傳統(tǒng)領(lǐng)域都取得了突破性進展,例如目標(biāo)的檢測、識別和分類等領(lǐng)域。近年來,研究人員開始在視覺SLAM算法中引入深度學(xué)習(xí)技術(shù),使得深度學(xué)習(xí)SLAM系統(tǒng)獲得了迅速發(fā)展,并且比傳統(tǒng)算法展現(xiàn)出更高的精
    發(fā)表于 04-23 17:18 ?1305次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>解析</b><b class='flag-5'>深度</b>學(xué)習(xí)下的語義SLAM

    幻方量化發(fā)布了國內(nèi)首個開源MoE大模型—DeepSeekMoE

    幻方量化旗下組織深度求索發(fā)布了國內(nèi)首個開源 MoE 大模型 —— DeepSeekMoE,全新架構(gòu),免費商用。
    的頭像 發(fā)表于 01-23 11:28 ?1653次閱讀
    幻方<b class='flag-5'>量化</b>發(fā)布了國內(nèi)首個<b class='flag-5'>開源</b>MoE大模型—DeepSeekMoE

    超強解析!《開源態(tài)勢洞察》——開源基金會篇正式發(fā)布,趕緊收藏!

    閱讀 掃描二維碼 閱讀《開源態(tài)勢洞察》 往 期 回 顧 12 11 10 9 8 7 6 5 4 3 2 1 原文標(biāo)題:超強解析!《開源態(tài)勢洞察》——
    的頭像 發(fā)表于 01-08 19:35 ?528次閱讀
    超強<b class='flag-5'>解析</b>!《<b class='flag-5'>開源</b>態(tài)勢洞察》——<b class='flag-5'>開源</b>基金會篇正式發(fā)布,趕緊收藏!
    主站蜘蛛池模板: 小SAO货水真多把你CAO烂| 色综合伊人色综合网站| 囯产少妇BBBBBB高潮喷水一| 98久久人妻无码精品系列蜜桃| 亚洲中文字幕AV在天堂| 亚洲电影网址| 亚州天堂在线视频av| 午夜婷婷一夜七次郎| 无码国产欧美日韩精品| 少妇高潮A片特黄久久精品网| 热久久伊大人香蕉网老师| 奇米狠狠干| 日韩 国产 欧美视频二区| 三级网址在线播放| 四虎永久免费网址| 午夜欧洲亚洲AV永久无码精品| 武汉美女洗澡| 亚洲国产成人综合| 亚洲国产日韩欧美高清片a| 亚洲高清一区二区三区电影| 亚洲免费高清视频| 一天不停的插BB十几次| 永久免费精品精品永久-夜色| 欲香欲色天天综合和网| 最新亚洲人成网站在线影院| 69ZXX少妇内射无码| 99视频久久精品久久| 俺也去最新地址| 闺蜜扒开我尿口使劲揉| 国产偷国产偷亚洲高清SWAG| 果冻传媒在线观看视频| 久久视频这里只精品99热在线观看| 看免费人成va视频全| 暖暖日本免费播放| 乳欲性高清在线| 亚洲 欧美 日韩 国产 视频| 亚洲午夜精品A片久久WWW软件| 在线播放成人无码日| CHINA学生白嫩| 国产对白精品刺激一区二区| 韩国黄电影|