色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

總結FasterTransformer Encoder(BERT)的cuda相關優化技巧

jf_pmFSk4VX ? 來源:GiantPandaCV ? 2023-01-30 09:34 ? 次閱讀

FasterTransformer BERT

FasterTransformer BERT 包含優化的 BERT 模型、高效的 FasterTransformer 和 INT8 量化推理。

模型結構

標準的 BERT 和 高效的 FasterTransformer

FasterTransformer 編碼器支持以下配置。

Batch size (B1): 批量大小 <= 4096

Sequence length (S): 序列長度 <= 4096。對于 INT8 模型,當 S > 384 時 S 需要是 32 的倍數。

Size per head (N): 小于 128 的偶數。

Head number (H): 在 FP32 下滿足 H * N <= 1024 或在 FP16 下滿足 H * N <= 2048 的任何數字。

Data type: FP32, FP16, BF16, INT8 and FP8 (Experimental).

如果內存足夠,任意層數(N1)

在 FasterTransformer v1.0 中,我們提供了高度優化的 BERT 等效編碼器模型。

接下來,基于Effective Transformer的思想,我們在 FasterTransformer v2.1 中通過去除無用的 padding 來進一步優化BERT推理,并提供 Effective FasterTransformer。

在 FasterTransformer v3.0 中,我們提供了 INT8 量化推理以獲得更好的性能。

在 FasterTransformer v3.1 中,我們優化了 INT8 Kernel 以提高 INT8 推理的性能,并將 TensorRT 的多頭注意力插件集成到 FasterTransformer 中。

在 FasterTransformer v4.0 中,我們添加了多頭注意力 Kernel 支持 V100 的 FP16 模式和 T4, A100 的 INT8 模式。

下圖演示了除 INT8 外的這些優化的流程圖。在FasterTransformer v5.0中,我們重構了代碼,將 mask building 和 padding 移動到 Bert 的 forward 函數中,并在 Ampere GPU 上基于稀疏特性來加速GEMM。

在 FasterTransformer v5.1 中,我們支持對 Bert FP16 進行進行多節點多 GPU 推理。

[外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-v85Qr1r0-1674747365445)(null)]

BERT 模型是 google 在2018年提出的。FasterTransformer 的encoder 相當于 BERT 模型,但是做了很多優化。

圖 1 最左邊的流程顯示了 FasterTransformer 中的優化。經過優化后,FasterTransformer 僅使用 8 或 6 個 gemms(藍色塊)和 6 個自定義 CUDA kernel(綠色塊)來實現一個 transformer 塊。

對于 Effective FasterTransformer,主要思想是去除句子的填充以防止計算無用的標記。當一個 Batch 的平均序列長度遠小于最大序列長度時,此方法可以節省大量時間。

圖 2 顯示了我們使用的想法和偏移量(橙色)。要實現 Effective FasterTransformer,我們需要考慮兩個問題。

首先,我們需要去除 BERT 之前的 padding,離開 BERT 之后重建 padding 以保持結果的形狀。

這很簡單,帶來的開銷基本可以忽略。第二個問題是多頭注意力的計算。

一個天真的解決方案是在多頭注意力之前重建填充并在多頭注意力之后移除填充,如圖 1 的第二個流程圖所示。

因為我們可以將這些重建/移除融合到其他 kernel 中,額外的開銷也是可以忽略的。

為了進一步提高多頭注意力的性能,我們集成了 TensorRT 的多頭注意力,將整個注意力計算融合到一個 kernel 中。

源代碼在這里。該 kernel 同時支持 Effective FasterTransformer 和標準 BERT 模型。

圖 1 中的第三個和第四個流程圖顯示了工作流程。

有了這樣的 kernel ,我們就不用擔心多頭注意力的填充問題了。

這個 kernel 需要另一個偏移量,如圖 2 所示。

poYBAGPXHx2Aap-aAAB-Qx3Fq0Y821.jpg

第一個偏移量 [0, 0, 1, 3, 3, 3]比較好理解,直接和[0, 1, 2, 3, 4, 5]迭代就可以得到原始的位置了。第二個偏移量是從0位置開始,記錄連續的原始token個數,比如我們將[0, 2, 3, 6]做差分,得到[2, 1, 3]也對應了原始的數據中每行做的padding的tokn數目。

此外,我們發現 padding 會影響某些任務的準確性,盡管它們應該是無用的。因此,我們建議刪除下游任務最終輸出中的填充。

編碼器的參數、輸入和輸出:

Constructor of BERT

Classification Name Data Type Description
[0] max_batch_size int Deprecated, move to input
[1] max_seq_len int Deprecated, move to input
[2] head_num int Head number for model configuration
[3] size_per_head int Size per head for model configuration
[4] inter_size int The inter size of feed forward network. It is often set to 4 * head_num * size_per_head.
[5] num_layer int Number of transformer layers for model configuration
[6] sm int The compute capacity of GPU
[7] q_scaling float It is used to scale the query before the batch multiplication of query and key
[8] stream cudaStream_t CUDA stream
[9] cublas_wrapper cublasMMWrapper* Pointer of cuBLAS wrapper, which is declared in src/fastertransformer/utils/cublasMMWrapper.h
[10] allocator IAllocator* Pointer of memory allocator, which is declared in src/fastertransformer/utils/allocator.h
[11] is_free_buffer_after_forward bool If setting to be true, FasterTransformer will allocate buffer before forward, and free buffer after forward. When the allocator is based on memory pool, setting to true may help reducing the memory usage during inference.
[12] attention_type AttentionType Determine fusing the attention or not, remove padding or not, which is declared in src/fastertransformer/layers/attention_layers/BaseAttentionLayer.h
[13] sparse bool Is using sparsity. Experimental feature
[14] activation_type ActivationType Determine the activation in FFN, which is declared in src/fastertransformer/layers/attention_layers/FfnLayer.h
[15] layernorm_type LayerNormType Determine using pre-layernorm or post-layernorm, which is declared in src/fastertransformer/kernels/layernorm_kernels.h
[16] tensor_para NcclParam Tensor Parallel information, which is declared in src/fastertransformer/utils/nccl_utils.h
[17] pipeline_para NcclParam Pipeline Parallel information, which is declared in src/fastertransformer/utils/nccl_utils.h
[18] custom_all_reduce_comm AbstractCustomComm Custom all reduction communication for custom all reduction in model parallelism. It is only supported in 8-way tensor parallelism
[19] enable_custom_all_reduce int Flag of enabling custom all reduction or not

Input of BERT

Name Tensor/Parameter Shape Location Data Type Description
input_hidden_state [batch_size, sequence_length, head_num * size_per_head] GPU fp32/fp16/bf16 The input of transformer layer
input_lengths [batch_size] GPU int The lengths of input_hidden_state

Output of BERT

Name Tensor/Parameter Shape Location Data Type Description
output_hidden_state [batch_size, sequence_length, head_num * size_per_head] GPU fp32/fp16/bf16 The output of transformer layer

上面聲明了 Bert 模型的輸入參數,以及輸入和輸出Tensor的shape。

此外,注意到 TensorRT 的多頭注意力Kernel雖然功能很強大但是也有一些限制。首先,這個kernel需要 Turing 或者更新架構的 GPU,并且每個頭的大小必須是64。當條件不滿足時,我們使用FasterTransformer的原始多頭注意力實現。其次,它需要一個額外的序列長度偏移量,如Figure2所示,更多的細節在這里 。

當輸入有 padding 時,序列長度偏移的形狀為 。假設這里有3個序列,長度分別為 , , ,然后 padding 之后的序列長度為 。那么序列長度偏移時 。即,序列長度偏移記錄了每個句子的序列長度。當我們有 padding 時,我們將 padding 視為一些獨立的句子。

在 FasterTransformer v4.0 中,我們實現了兩條 INT8 推理的流水線,如圖 3 所示。對于 int8_mode == 1 (int8v1),我們不量化殘差連接,使用 int32 作為 int8 gemms 的輸出,并對權重采用逐通道的量化方式。

對于 int8_mode == 2 (int8v2),我們量化殘差連接,使用 int8 作為 int8 gemms 的輸出,并對權重采用逐張量的量化。一般來說,int8_mode == 1 的精度更高,而 int8_mode == 2 的性能更好。

pYYBAGPXH0eAF7UDAAGjHBWS71M025.jpg

feature int8_mode == 1 int8_mode == 2
quantize residual No Yes
int8 output gemm No Yes
per-channel quantiztion for weights Yes No

對于 INT8 推理,需要量化模型。我們提供了 TensorFlow 量化工具和示例代碼,同時還提供了帶有 TensorRT 量化工具的 PyTorch 示例代碼。

請先參考bert-quantization/bert-tf-quantization和examples/pytorch/bert/bert-quantization-sparsity中的README。

在 FasterTransformer v5.0 中,我們支持稀疏 gemm 以利用 Ampere GPU 的稀疏特性。我們還提供了一個關于 PyTorch 的示例。

在 FasterTransformer v5.1 中,我們支持 BERT 模型的多 GPU 多節點推理。

優化點解讀

優化主要是針對 Figure 1 也就是 BERT 的編碼器模塊的各個組件來講(我這里忽略了 Figure1 的和 padding 相關的組建的講解,感興趣的讀者可以自己看看 FasterTransformer)。

我么先把 BERT 的多頭注意力機制的實現貼一下,方便下面的講解:

importtorch.nnasnn

classAttention(nn.Module):
"""
Compute'ScaledDotProductAttention
"""

defforward(self,query,key,value,mask=None,dropout=None):
scores=torch.matmul(query,key.transpose(-2,-1))
/math.sqrt(query.size(-1))

ifmaskisnotNone:
scores=scores.masked_fill(mask==0,-1e9)

p_attn=F.softmax(scores,dim=-1)

ifdropoutisnotNone:
p_attn=dropout(p_attn)

returntorch.matmul(p_attn,value),


classMultiHeadedAttention(nn.Module):
"""
Takeinmodelsizeandnumberofheads.
"""

def__init__(self,h,d_model,dropout=0.1):
super().__init__()
assertd_model%h==0

#Weassumed_valwaysequalsd_k
self.d_k=d_model//h
self.h=h

self.linear_layers=nn.ModuleList([nn.Linear(d_model,d_model)for_inrange(3)])
self.output_linear=nn.Linear(d_model,d_model)
self.attention=Attention()

self.dropout=nn.Dropout(p=dropout)

defforward(self,query,key,value,mask=None):
batch_size=query.size(0)

#1)Doallthelinearprojectionsinbatchfromd_model=>hxd_k
query,key,value=[l(x).view(batch_size,-1,self.h,self.d_k).transpose(1,2)
forl,xinzip(self.linear_layers,(query,key,value))]

#2)Applyattentiononalltheprojectedvectorsinbatch.
x,attn=self.attention(query,key,value,mask=mask,dropout=self.dropout)

#3)"Concat"usingaviewandapplyafinallinear.
x=x.transpose(1,2).contiguous().view(batch_size,-1,self.h*self.d_k)

returnself.output_linear(x)

Compute Q, K, V by three GEMMs or one Batch GEMM

這里的意思就是計算 Q,K,V 的時候有兩種方式,一種是用3個單獨的gemm算子對應FasterTransformer v1.0版本的這段代碼:

另外一種就是通過一個 Batch GEMM算子同時完成對 Q, K, V 的計算,

add_QKV_bias 優化

這個是針對上面forward函數中 (1) 這部分存在的分別對 Q, K, V進行bias_add以及transpose的優化,將其融合成一個cuda kernel。這里啟動 add_QKV_bias 的參數來看。

對于FP32,FasterTransformer是啟動 batch_size * seq_len * 3 個 Block, 每個 Block 里面啟動 head_num * size_per_head 個線程只處理一個token(對應 head_num * size_per_head 次計算)的 bias_add 計算。

我們注意到這里還將輸入的shape進行了改變,也就是將原始的[batch_size, seq_length, head_num * size_per_head] -> [batch_size, seq_length, head_num, size_per_head](對應 .view(batch_size, -1, self.h, self.d_k))->[batch_size, head_num, seq_length, size_per_head](對應.transpose(1, 2)),這個過程對應了 https://github.com/NVIDIA/FasterTransformer/blob/release/v1.0_tag/fastertransformer/cuda/open_attention.cu#L149 這里的索引代碼。

而對于FP16模式,FasterTransformer是啟動 batch_size * seq_len 個 Block,,每個 Block 里面啟動 head_num * size_per_head 個線程同時處理QKV的同一個token(對應head_num * size_per_head次計算),在實際計算時會把half pack成half2進行計算:https://github.com/NVIDIA/FasterTransformer/blob/release/v1.0_tag/fastertransformer/cuda/open_attention.cu#L172 ,并使用了half2相關的數學函數。這樣不僅僅可以達到2倍于half的訪存帶寬和計算吞吐,還可以極大地減少指令的發射數量。

高效的softmax kernel

這里我沒有怎么看,因為oneflow已經有一個比FasterTransformer更好的softmax kernel實現了。

transpose kernel

這個 kernel 是對應上面 BERT 的 Encoder 部分的:

x=x.transpose(1,2).contiguous().view(batch_size,-1,self.h*self.d_k)

這里的 x 的 shape 仍然和之前的 q 的 shape 一致, 為[batch_size, head_num, seq_length, size_per_head]。

因為Attetion 層不會改變輸入的形狀,因為 Attention 的計算過程是:q * k 轉置(.transpose(2, 3)),除以 d_k ** 0.5,輸出維度是 [b, head_num , seq_length, seq_length] 即單詞和單詞直接的相似性 ,然后對最后一個維度進行 softmax 操作得到 [b, head_num, seq_length, seq_length] , 最后和 v(shape 也是 [batch_size, head_num, seq_length, size_per_head]) 做一個矩陣乘法,結果的 shape 和輸入的 shape 形狀都是:[batch_size, head_num, seq_length, size_per_head] 。因此這里的 x.transpose(1, 2) 就是把 shape 為 [batch_size, head_num, seq_length, size_per_head] 的 x 重新排列為 [batch_size, head_num, size_per_head, seq_length]。然后 x.contiguous().view(batch_size, -1, self.h * self.d_k) 進一步將 shape 重新排列為 [batch_size, seq_length, head_num * size_per_head] 。

對于 FP32 模式,啟動 batch_size * head_num * seq_length 個 Block , 然后每個 Block 啟動 size_per_head 個線程處理一個序列(一個序列對應 size_per_head 個元素)。如下:

constintseq_per_block=1;
grid.x=batch_size*head_num*seq_len/seq_per_block;
block.x=seq_per_block*size_per_head;
transpose<<>>(transpose_dst_,dst,
batch_size,seq_len,head_num,size_per_head);

而 transpose 的kernel實現也比較簡單,根據blockIdx.x計算下batch_id和seq_id以及head_id(輸入 x 的 shape 為 [batch_size, head_num, seq_length, size_per_head]):

template
__global__
voidtranspose(T*src,T*dst,constintbatch_size,constintseq_len,constinthead_num,constintsize_per_head)
{
intbatch_id=blockIdx.x/(head_num*seq_len);
intseq_id=blockIdx.x%seq_len;
inthead_id=(blockIdx.x%(head_num*seq_len))/seq_len;
dst[batch_id*(head_num*seq_len*size_per_head)+seq_id*head_num*size_per_head
+head_id*size_per_head+threadIdx.x]=src[blockIdx.x*size_per_head+threadIdx.x];
}

對于 half 來說,采用和 add_QKV_bias 一樣的優化方式,每個 block 處理 4 個sequence。具體來說,就是現在啟動 batch_size * head_num * seq_len / 4 個 Block, 每個 Block 使用 2 * size_per_head 個線程處理 4 個序列。為什么 2 * size_per_head 個線程可以處理 4 個序列(一個序列對應 size_per_head 個元素),原因是因為使用了 half2 來做數據讀取。half 類型的 kernel 實現如下:

__inline____device__
inttarget_index(intid1,intid2,intid3,intid4,intdim_1,intdim_2,intdim_3,intdim_4)
{
returnid1*(dim_2*dim_3*dim_4)+id3*(dim_2*dim_4)+id2*dim_4+id4;
}

template<>
__global__
voidtranspose(__half*src,__half*dst,
constintbatch_size,constintseq_len,constinthead_num,constintsize_per_head)
{
inttid=blockIdx.x*blockDim.x+threadIdx.x;

intbatch_id=tid/(head_num*seq_len*size_per_head);
inthead_id=(tid%(head_num*seq_len*size_per_head))/(seq_len*size_per_head);
intseq_id=(tid%(seq_len*size_per_head))/size_per_head;
intid=tid%size_per_head;

inttarget_id=target_index(batch_id,head_id,seq_id,id,batch_size,head_num,seq_len,size_per_head);
half2*src_ptr=(half2*)src;
half2*dst_ptr=(half2*)dst;

dst_ptr[target_id]=src_ptr[tid];
}

trt_add_QKV_bias 和 TensorRT fused multi-head attention kernel

實際上從 Figure1 也可以看出我們上面講到的 batch GEMM,softmax, GEMM,transpose 等操作都可以被合成一個超大的 cuda kernel,進一步進行優化,也就是這里的 TensorRT fused multi-head attention kernel。這個是將 TensorRT 的這個插件作為第三方倉庫引入到 FasterTransformer 進行加速的,具體的代碼我沒有研究過,這里就不展開了。

現在 MultiHeadAttention 部分涉及到的優化其實就講完了,我們接著看一下FasterTransformer 對 BERT Encoder 的其它部分的優化。我們這里貼一下 Transformer 的結構圖:

poYBAGPXH9aAUEkoAAR33cbysPQ491.png

在 MultiHeadAttention 的后面接了一個 Add & Norm,這里的 Add 其實就是殘差,Norm 就是 LayerNorm。所以 Encoder 部分的兩個 Add & Norm 可以總結為:

pYYBAGPXH-iAe49EAABslGoxIvI484.jpg

add_bias_input_layernorm

這里的 LayerNorm(X + MultiHeadAttention(X)) 就對應了 FasterTransformer 里面的 add_bias_input_layernorm 這個優化

實際上 layernorm 在 oneflow 也有比 Faster Transformer 更好的 kernel,

對于 softmax 和 layernorm 我還沒看 FasterTransformer 的源碼,后續研究了之后再分享。

總的來說就是 add_bias_input_layernorm 這個優化把殘差連接和LayerNorm fuse到一起了,性能更好并且降低了kernel launch的開銷。

add_bias_act

在上圖的 Feed Forward 的實現中,還有一個 bias_add 和 gelu 激活函數挨著的 pattern ,所以 FasterTransformer 實現了這個 add_bias_act kernel 將兩個操作融合起來,常規操作。

番外

除了上述優化技巧之外,我們可以為 BERT 模型在我們的GPU上試跑 GEMM,并且保存 GEMM 性能最高的超參數配置,這個對于 cublas 和 cutlass 實現的卷積應該都是成立的。

另外我觀察到在 Faster Transformer 的cuda kernel實現中,大量應用了__ldg這個指令,查了一下資料說這個是只讀緩存指令,在讀地址比較分散的情況下,這個只讀緩存比L1的表現要好,對一些帶寬受限的kernel有性能提升。后續有空繼續研究下...

poYBAGPXIBOAIflVAACvkF-Y6-I584.jpg

總結

我這邊從文檔上初步看的東西也就這么多,后續可能會繼續研究學習下Faster Transformer的softmax/layernorm實現,或者解讀一下其它Transformer架構的優化技巧。





審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 編碼器
    +關注

    關注

    45

    文章

    3638

    瀏覽量

    134426
  • J-BERT
    +關注

    關注

    0

    文章

    5

    瀏覽量

    7795
  • GEM
    GEM
    +關注

    關注

    0

    文章

    8

    瀏覽量

    6684

原文標題:【BBuf的CUDA筆記】六,總結 FasterTransformer Encoder(BERT) 的cuda相關優化技巧

文章出處:【微信號:GiantPandaCV,微信公眾號:GiantPandaCV】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    解析優化的調度邏輯和cuda實現

    /how-to-optim-algorithm-in-cuda 這個倉庫整理了一些cuda優化相關鏈接以及大模型訓練推理相關的知識鏈接(la
    的頭像 發表于 08-24 11:15 ?1337次閱讀

    Faster Transformer v2.1版本源碼解讀

    FasterTransformer v1.0 中,Nvidia 提供了一個高度優化BERT Transformer Encoder 模塊,主要應用于序列標注推理場景,筆者針對
    的頭像 發表于 09-19 11:39 ?1383次閱讀
    Faster Transformer v2.1版本源碼解讀

    BERT原理詳解

    BERT原理詳解
    發表于 07-02 16:45

    CUDA教程之Linux系統下CUDA安裝教程

    CUDA教程之1:Linux系統下CUDA安裝教程
    發表于 06-02 16:53

    什么是CUDA

    在大家開始深度學習時,幾乎所有的入門教程都會提到CUDA這個詞。那么什么是CUDA?她和我們進行深度學習的環境部署等有什么關系?通過查閱資料,我整理了這份簡潔版CUDA入門文檔,希望能幫助大家用最快
    發表于 07-26 06:28

    什么是CUDA

    什么是CUDA
    發表于 09-28 07:37

    DSP程序優化總結

    DSP程序優化總結
    發表于 10-23 14:24 ?2次下載
    DSP程序<b class='flag-5'>優化</b><b class='flag-5'>總結</b>

    基于Hadoop+CUDA平臺實現軟相關器的方法

    根據2ICMA相關器的算法特點,在對比基于CPU并行的MPI集群、MPI+CUDA異構并行集群和Hadoop+ CUDA異構并行集群的架構特點的基礎上,提出了一種基于Hadoop+ CUDA
    發表于 12-06 10:12 ?0次下載
    基于Hadoop+<b class='flag-5'>CUDA</b>平臺實現軟<b class='flag-5'>相關</b>器的方法

    BERT模型的PyTorch實現

    BertModel是一個基本的BERT Transformer模型,包含一個summed token、位置和序列嵌入層,然后是一系列相同的self-attention blocks(BERT-base是12個blocks, BERT
    的頭像 發表于 11-13 09:12 ?1.4w次閱讀

    一篇BERT用于推薦系統的文章

    今天給大家介紹一篇BERT用于推薦系統的文章,題目是《BERT4Rec: Sequential Recommendation with Bidirectional Encoder
    的頭像 發表于 11-03 17:11 ?3047次閱讀
    一篇<b class='flag-5'>BERT</b>用于推薦系統的文章

    CUDA簡介: CUDA編程模型概述

    CUDA 編程模型中,線程是進行計算或內存操作的最低抽象級別。 從基于 NVIDIA Ampere GPU 架構的設備開始,CUDA 編程模型通過異步編程模型為內存操作提供加速。 異步編程模型定義了與 CUDA 線程
    的頭像 發表于 04-20 17:16 ?2998次閱讀
    <b class='flag-5'>CUDA</b>簡介: <b class='flag-5'>CUDA</b>編程模型概述

    NVIDIA FasterTransformer庫的概述及好處

    這是討論 NVIDIA FasterTransformer 庫的兩部分系列的第一部分,該庫是用于對任意大小(多達數萬億個參數)的 Transformer 進行分布式推理的最快庫之一。它提供了 FasterTransformer 的概述,包括使用該庫的好處。
    的頭像 發表于 08-31 09:30 ?1536次閱讀

    CUDA矩陣乘法優化手段詳解

    單精度矩陣乘法(SGEMM)幾乎是每一位學習 CUDA 的同學繞不開的案例,這個經典的計算密集型案例可以很好地展示 GPU 編程中常用的優化技巧。本文將詳細介紹 CUDA SGEMM 的優化
    的頭像 發表于 09-28 09:46 ?1919次閱讀

    STM32 Encoder編碼器使用總結

    目錄 Encoder 原理 STM32 Encoder 計數原理 模型仿真 模擬Encoder 基于Encoder計算角度和速度 關于啟動的仿真 代碼生成 運行演示
    發表于 05-06 09:44 ?3次下載
    STM32 <b class='flag-5'>Encoder</b>編碼器使用<b class='flag-5'>總結</b>

    總結FasterTransformer Encoder優化技巧

    FasterTransformer BERT 包含優化BERT 模型、高效的 FasterTransformer 和 INT8 量化推理
    的頭像 發表于 05-30 15:15 ?1278次閱讀
    <b class='flag-5'>總結</b><b class='flag-5'>FasterTransformer</b> <b class='flag-5'>Encoder</b><b class='flag-5'>優化</b>技巧
    主站蜘蛛池模板: 成年私人影院网站在线看| 亚洲日本激情| 性生交片免费无码看人| 牲高潮99爽久久久久777| 少妇高潮惨叫久久久久久电影| 日本真人啪啪试看30秒| 色戒无删减流畅完整版| 武汉美女洗澡| 中文字幕在线播放| 99久久国产综合精品| 国产99RE在线观看69热| 国产亚洲视频在线播放香蕉| 久久精品热99看| 青娱乐极品视觉盛宴国产视频| 视频一区国产在线第一页| 亚洲精品网址| chinesevideoshd性舞| 国产成人无码AV麻豆| 久九九精品免费视频| 女生扒开尿口| 亚洲精品久久久久久蜜臀| 8x8x我要打机飞在线观看| 国产高清美女一级毛片久久| 黄色天堂网站| 色橹橹欧美在线观看视频高清 | 蜜芽国产在线精品欧美| 日韩欧美一区二区中文字幕 | 无码内射成人免费喷射| 在线伦理电影网| 国产精品久久久久久久久久久 | 美国特级成人毛片| 香蕉人人超人人超碰超国产| 99久久精品费精品国产| 海量激情文学| 色婷婷粉嫩AV精品综合在线| 最近中文字幕MV高清在线| 国产亚洲美女在线视频视频| 欧美亚洲日韩国码在线观看| 一品道门在线视频高清完整版| 公粗挺进了我的密道在线播放贝壳 | 色爱区综合激情五月综合激情|