色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Faster Transformer v1.0源碼詳解

jf_pmFSk4VX ? 來源:后來遇見AI ? 2023-09-08 10:20 ? 次閱讀

寫在前面:本文將對 Nvidia BERT 推理解決方案 Faster Transformer 源碼進行深度剖析,詳細分析作者的優化意圖,并對源碼中的加速技巧進行介紹,希望對讀者有所幫助。本文源碼解讀的內容僅限 Faster Transformer v1.0 版本,更高版本的源碼將在后續文章中繼續解讀。

1 Faster Transformer

Transformer 模型最早在 2017 年由谷歌在論文中提出,拋棄了以往深度學習任務里面使用到的 CNN 和 RNN,取而代之的是一種 self-Attention 的結構,將 Attention 思想發揮到了極致,一定程度上解決了 RNN 的長序列信息丟失問題,基本取代了 RNN 的地位。
Transformer 一經面世便在 NLP 領域大殺四方,近兩年一些文章開創性地將 Transformer 模型跨領域地引用到了 CV 任務中,并取得了不錯地成果。這也被許多學者認為是開創了 CV 領域的新時代,甚至可能完全取代傳統的卷積操作。
雖然 Transformer在多種場景下都有優秀的表現,但是在推理部署階段,其計算性能卻受到了巨大的挑戰:以 BERT 為原型的多層 Transformer 模型,其性能常常難以滿足在線業務對于低延遲和高吞吐的要求。以 BERT-BASE 為例,超過 90% 的計算時間消耗在 12 層 Transformer 的前向計算上。因此,一個高效的 Transformer 前向計算方案,既可以為在線業務帶來降本增效的作用,也有利于以 Transformer 結構為核心的各類網絡在更多實際工業場景中落地。
基于上述背景,NVIDIA GPU 計算專家團隊針對 Transformer 推理提出了的性能優化方案:Faster Transformer。
Faster Transformer 是一個 BERT Transformer 單層前向計算的高效實現,其代碼簡潔明了,后續可以通過簡單修改支持多種 Transformer 結構。目前優化集中在編碼器(encoder)的前向計算。底層由 CUDA 和 cuBLAS 實現,支持 FP16 和 FP32 兩種計算模式,其中 FP16 可以充分利用 Volta 和 Turing 架構 GPU 上的 Tensor Core 計算單元。

2 優化原理

在深入了解 Faster Transformer 的優化原理之前,我們先來了解一下主流深度學習框架 Tensorflow 中 Transformer 的實現情況,僅僅以一個基本的激活函數 gelu 為例,這個函數在框架中是通過 8 個類似 Pow、Add、和 Tanh 等基本 OP 來實現的。也就是說每進行一次 gelu 運算要調用 8 次基本 OP,同時底層也對應 8 次 GPU kernel 的調用,每一次調用也意味著一次顯存讀寫,先不說 kernel 計算耗時,光是顯存讀寫就已經是大量的開銷。如何降低這部分開銷?最直觀的方法就是減少調用,讓數據一直留在顯存甚至寄存器里被訪問,即 OP 融合,一次調用就實現整個計算邏輯。
出于性能最大化的考慮,在 Faster Transformer 內部,Nividia 將除矩陣乘法以外的所有 kernel 都進行了盡可能的融合,單層 Transformer 的計算流程如下圖所示:
7d9045fa-4d92-11ee-a25d-92fbcf53809c.png

如圖所示,基于 OP 融合的思想,Faster Transformer 只用了 14 個 kernel 就完成了原來將近 60 個 kernel 的計算邏輯。這其中,8 個 kernel 是通過調用 cuBLAS 接口計算矩陣乘法(黃色框),其余 6 個是自定義 kernel(藍色框)。
接下來筆者將沿調用鏈逐步介紹每個 kernel 的優化邏輯。

3 調用鏈

Faster Transformer v1.0 版本源碼地址如下,有興趣的讀者可以前往閱讀。

https://github.com/NVIDIA/FasterTransformer/tree/v1.0/fastertransformer

通讀源碼后筆者對調用關系梳理如下。

BertEncoderTransformer->forward()
    ->OpenMultiHeadAttention->forward()
        ->cublasGemmEx
        ->cublasGemmEx
        ->cublasGemmEx
        ->multiHeadAttr_nofuse_kernelLauncher
            ->add_QKV_bias  (kernel)
            ->cublasGemmStridedBatchedEx
            ->softmax_kernel    (kernel)
            ->cublasGemmStridedBatchedEx
            ->transpose (kernel)
    ->cublasGemmEx
    ->add_bias_input_layernorm_kernelLauncher   (kernel)
    ->cublasGemmEx
    ->add_bias_act_kernelLauncher   (kernel)
    ->cublasGemmEx
    ->add_bias_input_layernorm_kernelLauncher   (kernel)

從調用鏈也可以看出,總共 14 個步驟,與示意圖一一對應。核心邏輯都在兩個類中實現:BertEncoderTransformer 和 OpenMultiHeadAttention。

4 OpenMultiHeadAttention

OpenMultiHeadAttention 類中有兩個重要的成員方法:構造函數、forward 方法。其中構造函數內主要進行一些參數初始化功能,設備內存的申請和初始化也在該函數內進行。forward 方法內主要是多頭注意力機制核心邏輯的具體實現。

4.1 cublasGemmEx for Q、K、V

forward 方法中首先就是對輸入的 3 個 tensor 進行線性變換,其實就是對 3 個 tensor 分別進行 Dense 層變換,我們知道 Dense 是包含一個矩陣乘法和一個 add_bias 操作,這里只進行矩陣乘法,add_bias 操作放在后面的 kernel 進行。這里使用了 cuBLAS 接口計算矩陣乘法,具體代碼如下:

check_cuda_error(cublasGemmEx(param_.cublas_handle, 
    CUBLAS_OP_N, CUBLAS_OP_N, 
    n, m, k, 
    &alpha, 
    param_.attr_kernel_Q, AType_, n, 
    param_.from_tensor, BType_, k, 
    &beta, 
    query_buf_, CType_, n, 
    computeType_, 
    static_cast(cublasAlgo_[0])));

check_cuda_error(cublasGemmEx(param_.cublas_handle, 
    CUBLAS_OP_N, CUBLAS_OP_N,
    n, m, k, 
    &alpha, 
    param_.attr_kernel_K, AType_, n, 
    param_.to_tensor, BType_, k, 
    &beta, 
    key_buf_, CType_, n, 
    computeType_, 
    static_cast(cublasAlgo_[0])));

check_cuda_error(cublasGemmEx(param_.cublas_handle, 
    CUBLAS_OP_N, CUBLAS_OP_N, 
    n, m, k,
    &alpha,
    param_.attr_kernel_V, AType_, n, 
    param_.to_tensor, BType_, k, 
    &beta, 
    value_buf_, CType_, n, 
    computeType_, 
    static_cast(cublasAlgo_[0])));

這里僅僅是矩陣乘法 API 的調用,按文檔傳參即可,這里不展開介紹,筆者計劃另開一篇文章專門介紹這個 API 的調用方法。

4.2 multiHeadAttr_nofuse_kernelLauncher

4.2.1 add_QKV_bias

上面說過 Dense 層包含矩陣乘法和 add_bias 操作,其中 add_bias 操作在核函數 add_QKV_bias 中完成,源碼針對兩種數據類型 fp16 和 fp32 分別提供了一個 kernel,只是網絡結構有所差異。
針對 fp32,每個 block 處理一個 word,總共有 batch_size * seq_len * 3 個 block,對于 Q、K、V 3 個 tensor 而言,前 batch_size * seq_len 個 block 處理 Q,中間 batch_size * seq_len 個 block 處理 K,后 batch_size * seq_len 個 block 處理 V。示意圖如下:
7dab6a92-4d92-11ee-a25d-92fbcf53809c.png

/**
 * @brief 
 * 
 * @tparam T                          OperationType
 * @param Q                           [batch_size, seq_len, head_num, size_per_head], query
 * @param bias_Q                      [head_num * size_per_head, ] length is the same as word's embedding dim
 * @param K                           [batch_size, seq_len, head_num, size_per_head], key
 * @param bias_K                      [head_num * size_per_head, ] length is the same as word's embedding dim
 * @param V                           [batch_size, seq_len, head_num, size_per_head], value
 * @param bias_V                      [head_num * size_per_head, ] length is the same as word's embedding dim
 * @param q_buf_                      [batch_size, head_num, seq_len, size_per_head], transpose query & add bias
 * @param k_buf_                      [batch_size, head_num, seq_len, size_per_head], transpose key & add bias
 * @param v_buf_                      [batch_size, head_num, seq_len, size_per_head], transpose value & add bias
 * @param batch_size
 * @param seq_len                     
 * @param head_num 
 * @param size_per_head 
 * @param word_per_block              1
 * @return __global__ 
 */
template
__global__
void add_QKV_bias(T* Q, const T* bias_Q, T* K, const T* bias_K, T* V, const T* bias_V, T* q_buf_, T* k_buf_, T* v_buf_, 
  const int batch_size, const int seq_len, const int head_num, const int size_per_head, const int word_per_block)
{

  T* data_ptr;
  T* buf_ptr;
  const T* bias_ptr;
  // word counts per batch
  int m = batch_size * seq_len;
  // word embedding dim
  int n = head_num * size_per_head;
  // 總共有3m個block,第一部分處理q,第二部分處理k,第三部分處理v,這里使用qkv_id區分處理哪個矩陣
  int qkv_id = blockIdx.x * word_per_block / m;
  // 矩陣偏移量
  int row_offset = (blockIdx.x * word_per_block % m) * n;

  if(qkv_id == 0)
  {
    data_ptr = Q + row_offset;
    buf_ptr = q_buf_;
    bias_ptr = bias_Q;
  }
  else if(qkv_id == 1)
  {
    data_ptr = K + row_offset;
    buf_ptr = k_buf_;
    bias_ptr = bias_K;
  }
  else
  {
    data_ptr = V + row_offset;
    buf_ptr = v_buf_;
    bias_ptr = bias_V;
  }

  int batch_id = (blockIdx.x * word_per_block % m) / seq_len;
  int head_id = threadIdx.x / size_per_head;
  int id_in_head = threadIdx.x % size_per_head;
  // word_id in seq, not data_index
  int word_start_id = (blockIdx.x * word_per_block) % seq_len;

  T bias = __ldg(&bias_ptr[threadIdx.x]);

  for(int i = word_start_id; i < word_start_id + word_per_block; ++i)
  {
    // add bias
    T tmp = data_ptr[threadIdx.x] + bias;
    // buf's shape: [bacth_size, head_num, seq_len, size_per_head]
    int target_id = batch_id * (seq_len * head_num * size_per_head) + head_id * seq_len * size_per_head + 
      i * size_per_head + id_in_head;

    buf_ptr[target_id] = tmp;
    data_ptr += n;
  }
}

核函數第一部分先根據 block_id 確定當前處理的 tensor 具體是 Q、K、V 中的哪一個,從而拿到輸入輸出變量的內存地址。
第二部分求出 tensor 中對應元素的索引,首先我們知道輸入輸出 tensor 是一個四維的 array,所以應該有四個索引,按維度順序依次是 batch_id、word_start_id、head_id、id_in_head,有讀者看到這里可能會有疑問:為什么要計算這些索引,前面計算了矩陣偏移量 row_offset,完全可以在 block 內按 thread_id 索引就可以拿到對應元素。原因是在 add_QKV_bias 核函數中計算邏輯不僅僅是 add,還有 transpose,熟悉 multiHeadAttention 的讀者都知道對 Q、K、V 線性映射之后,緊接著就是一個 transpose 操作,目的是把 embedding_dim 這個維度劃分成多個獨立的 head,每個 head 后面單獨進行 attention,所以要把 head 維度移到 seq_len 維度前面。換句話說這里的 transpose 解決的是“多頭”的問題,和 attention 無關。
理解了前面的邏輯,第三部分就比較簡單了,先進行 add 操作,然后將結果按照 [bacth_size, head_num, seq_len, size_per_head] 的維度順序寫在輸出 tensor 中,這里隱含了一個 transpose,需要注意的是這個 transpose 操作是輸出的 tensor 中元素存儲順序相對于輸入 tensor 而言的,并不是對輸入 tensor 做了變換。

針對 fp16,每個 block 同時處理 Q、K、V 上的同一個 word,同一個線程先后處理 3 個 word 上對應元素的計算邏輯,實際計算中把 half 都轉成了 half2,使用標準庫中的函數 __hadd2 運算。網絡結構如下:7dce1de4-4d92-11ee-a25d-92fbcf53809c.png

從圖中可以看出,block_size 為 embedding_dim 的一半,這是因為用了 half2 這個數據結構,實際上每個線程處理了 2 個元素,所以線程數量縮減一半。核函數內部邏輯分為 2 個部分:1、求出 tensor 中對應元素的索引。2、一次對 Q、K、V 進行 add 和 transpose 操作。

template <>
__global__
void add_QKV_bias(__half* Q, const __half* bias_Q, __half* K, const __half* bias_K, __half* V, const __half* bias_V, 
  __half* q_buf_, __half* k_buf_, __half* v_buf_, 
  const int batch_size, const int seq_len, const int head_num, const int size_per_head, const int word_per_block)
{
  int tid = blockIdx.x * blockDim.x + threadIdx.x;
  int batch_id = tid / (head_num * seq_len * size_per_head);
  int seq_id = (tid % (head_num * seq_len * size_per_head)) / (head_num * size_per_head);
  int head_id = (tid % (head_num * size_per_head)) / size_per_head;
  // id in head
  int id = tid % size_per_head;
  // from [batch_size, seq_len, head_num, size_per_head] tanspose to [bacth_size, head_num, seq_len, size_per_head]
  int target_id = target_index(batch_id, seq_id, head_id, id, batch_size, seq_len, head_num, size_per_head);

  int bias_id = threadIdx.x;

  half2* src_ptr = (half2*)Q;
  half2* dst_ptr = (half2*)q_buf_;
  const half2* bias_ptr = (const half2*)bias_Q;
  dst_ptr[target_id] = __hadd2(src_ptr[tid],  __ldg(&bias_ptr[bias_id]));

  src_ptr = (half2*)K;
  dst_ptr = (half2*)k_buf_;
  bias_ptr = (const half2*)bias_K;
  dst_ptr[target_id] = __hadd2(src_ptr[tid],  __ldg(&bias_ptr[bias_id]));

  src_ptr = (half2*)V;
  dst_ptr = (half2*)v_buf_;
  bias_ptr = (const half2*)bias_V;
  dst_ptr[target_id] = __hadd2(src_ptr[tid],  __ldg(&bias_ptr[bias_id]));
}

4.2.2 計算 attention scores

先來看一下 attention 的計算公式,定義如下:

其中,,也就是說這一步要解決的是一個矩陣計算,用 tensorflow 代碼表示如下:

scores = tf.matmul(query, key, transpose_b=True)

針對矩陣運算,源碼中直接調用了 cuBLAS API,具體代碼如下:

DataType_ alpha = (DataType_)1.0f, beta = (DataType_)0.0f;
// 計算 q * k^T
check_cuda_error(cublasGemmStridedBatchedEx(cublas_handle,
    CUBLAS_OP_T, CUBLAS_OP_N,
    seq_len, seq_len, size_per_head,
    &alpha,
    k_buf_, AType_, size_per_head, seq_len * size_per_head,
    q_buf_, BType_, size_per_head, seq_len * size_per_head,
    &beta,
    qk_buf_, CType_, seq_len, seq_len * seq_len,
    batch_size * head_num,
    computeType_,
    static_cast(cublasAlgo_[1])));

不熟悉 attention 的讀者可能會問 attention scores 的具體含義是什么,筆者在早期的文章中有過介紹,其實就是兩個矩陣的詞向量兩兩相乘,向量相乘有什么含義?相似度,這個分數就代表 Q、K 的相似度。有興趣的讀者可以移步筆者之前的文章詳細了解。(https://mp.weixin.qq.com/s/0zen3ItKmDLt5rTUbF37Mg)

4.2.3 softmax_kernel

拿到 Q、K 的相似度之后,直觀上只要右乘一個 V 就可以得到 attention out,其含義就是一個加權平均的概念,既然要加權平均,必然要對權值進行歸一化處理,這里的 softmax 就是這個作用。關于 softmax 核函數的實現方法筆者在前兩篇文章也有介紹,OneFlow 官方給出了更為高效的實現方式,其高效的原因主要在訪存帶寬處理上,有興趣的讀者可以移步。【CUDA編程】OneFlow Softmax 算子源碼解讀之WarpSoftmax,【CUDA編程】OneFlow Softmax算子源碼解讀之BlockSoftmax

// 計算softmax(qk)
if(seq_len <= 32)
    block.x = 32;
else if(seq_len > 32 && seq_len <= 64)
    block.x = 64;
else if(seq_len > 64 && seq_len <= 128)
    block.x = 128;
else if(seq_len > 128 && seq_len <= 256)
    block.x = 256;
else if(seq_len > 256 && seq_len <= 512)
    block.x = 512;
else
    block.x = 1024;

if(batch_size * head_num <= 120)
{
    grid.x = batch_size * head_num * seq_len;
    softmax_kernel_v2<<>>(qk_buf_, attr_mask, batch_size, head_num, seq_len, scaler); 
}
else
{
    grid.x = batch_size * head_num;
    softmax_kernel<<>>(qk_buf_, attr_mask, batch_size, head_num, seq_len, scaler); 
}

源碼中核函數的 block_size 是根據 seq_len 確定的,取大于 seq_len 且為 32 的 的最小值。
另外在調用 softmax kernel 之前,會根據 batch_size * head_num 選擇不同的 softmax kernel,主要是為了保證在大 batch 的情況下的計算效率,這里以 120 為閾值,應該是作者的經驗數值。這里作者給出了 2 個 softmax kernel 的實現。
當 batch_size * head_num > 120 時,此時 batch 內元素較多,grid_size 取 batch_size * head_num,這時一個線程內處理一個 seq_len 的數據。
7df07434-4d92-11ee-a25d-92fbcf53809c.png

/**
 * @brief 
 * 
 * @tparam T 
 * @param qk_buf_                 [batch_size, head_num, seq_len, seq_len]
 * @param attr_mask               [batch_size, seq_len, seq_len]
 * @param batch_size 
 * @param head_num 
 * @param seq_len 
 * @param scaler                  縮放因子
 * @return __global__ 
 */
template 
__global__
void softmax_kernel(T* qk_buf_, const T* attr_mask, const int batch_size, const int head_num, const int seq_len, 
  const T scaler)
{
    // grid_size = batch_size * head_num
    int batch_id = blockIdx.x / head_num;
    // batch偏移量
    int qk_offset = blockIdx.x * seq_len * seq_len;
    int mask_offset = batch_id * seq_len * seq_len;

    __shared__ float s_sum, s_max;

    // 每次處理一個seq_len的數據
    for(int i = 0; i < seq_len; ++i)
    {
      float qk = threadIdx.x < seq_len ? (float)qk_buf_[threadIdx.x + qk_offset] : 0.0f;
      float mask_val = threadIdx.x < seq_len ? (float)attr_mask[threadIdx.x + mask_offset] : 0.0f;
      // 對于某些padded的word,給一個很小的值使其近似達到不參與運算的目的
      mask_val = (1.0f - mask_val) * -10000.0f;

      float tmp = threadIdx.x < seq_len ? (float)(qk * (float)scaler + mask_val): -1e20f;

      float max_val = blockReduceMax(tmp);

      if(threadIdx.x == 0)
        s_max = max_val;
      __syncthreads();

      qk = threadIdx.x < seq_len ? __expf(tmp - s_max) : 0.0f;

      float sum_val = blockReduceSum(qk);

      if(threadIdx.x == 0)
      {
        s_sum = sum_val + 1e-6f;
      }
      __syncthreads();

      if(threadIdx.x < seq_len)
        qk_buf_[threadIdx.x + qk_offset] = (T)(qk / s_sum);

      qk_offset += seq_len;
      mask_offset += seq_len;
    }
}

核函數內首先計算了每個元素偏移量,對于輸入 tensor 而言,每個 block 處理 seq_len * seq_len 個數據,所以 block 內元素偏移量為 blockIdx.x * seq_len * seq_len,而對于 mask 矩陣而言,其維度為 [batch_size, seq_len, seq_len],跟 head_num 無關,所以其偏移量為 batch_id * seq_len * seq_len。
接下來是一層循環,對于 seq_len * seq_len 矩陣而言,每個線程處理當前 thread_id 列的元素,每輪循環結束,處理該列下一行的元素。在每一輪循環中,所有的線程一起處理一行數據,首先拿到數據 qk 以及 mask_val。如果 mask_val 為 0,則給 mask_val 賦一個很小的值最后加在 qk 上使 qk 值很小,以致最終這個 softmax 分量趨于 0;如果 mask_val 為 1,則 mask 不干預后續計算。每個線程拿到處理后的 qk 值即 tmp 后,進行一次塊內規約,即可求出當前行的最大值 max_val,然后為了避免指數運算導致數值溢出,讓 tmp 減去 max_val 并求其指數值賦給 qk ,然后對 qk 再一次塊內規約求出當前行的和 s_sum,最后讓 qk 除以 s_sum 即可得到 softmax 值。核函數內要注意在兩次塊內規約后一定要進行一次塊內同步,否則可能計算錯誤。

當 batch_size * head_num <= 120 時,此時 batch 較小,grid_size 取 batch_size * head_num * seq_len,這時一個線程塊內處理一行數據,每個線程內只處理一個的數據。

template 
__global__
void softmax_kernel_v2(T* qk_buf_, const T* attr_mask, const int batch_size, const int head_num, 
  const int seq_len, const float scaler)
{
    int batch_id = blockIdx.x / head_num / seq_len;
    int seq_id = blockIdx.x % seq_len;
    int qk_offset = blockIdx.x * seq_len;
    int mask_offset = batch_id * seq_len * seq_len + seq_id * seq_len;

    __shared__ float s_sum, s_max;

    float qk = threadIdx.x < seq_len ? (float)qk_buf_[threadIdx.x + qk_offset] : 0.0f;
    float mask_val = threadIdx.x < seq_len ? (float)attr_mask[threadIdx.x + mask_offset] : 0.0f;
      
    mask_val = (1.0f - mask_val) * -10000.0f;

    float tmp = threadIdx.x < seq_len ? (float)(qk * (float)scaler + mask_val) : -1e20f;
    float max_val = blockReduceMax(tmp);
    if(threadIdx.x == 0)
      s_max = max_val;
    __syncthreads();

    float qk_tmp = threadIdx.x < seq_len ? __expf((float)(tmp - s_max)) : 0.0f;
    float sum_val = blockReduceSum(qk_tmp);

    if(threadIdx.x == 0)
    {
      s_sum = sum_val + 1e-6f;
    }
    __syncthreads();

    if(threadIdx.x < seq_len)
      qk_buf_[threadIdx.x + qk_offset] = (T)(qk_tmp / s_sum);
}

這種情況下不涉及循環處理,計算邏輯與前面 softmax_kernel 循環體內部計算邏輯相同,不再贅述。

4.2.4 計算多頭 attention out

這一步的意思就是使用 softmax 后的相似度矩陣右乘一個 V,得到多頭注意力輸出,注意這時候輸出 tensor 的維度為 [batch_size, head_num, seq_len, size_per_head]。源碼中直接調用了 cuBLAS API,具體代碼如下:

// 計算qk * v
check_cuda_error(cublasGemmStridedBatchedEx(cublas_handle,
    CUBLAS_OP_N, CUBLAS_OP_N,
    size_per_head, seq_len, seq_len,
    &alpha,
    v_buf_, AType_, size_per_head, seq_len * size_per_head,
    qk_buf_, BType_, seq_len, seq_len * seq_len,
    &beta,
    transpose_dst_, CType_, size_per_head, seq_len * size_per_head,
    batch_size * head_num,
    computeType_,
    static_cast(cublasAlgo_[2])));

4.2.5 transpose

前面說過,多頭 attention out 的維度為 [batch_size, head_num, seq_len, size_per_head],此時這些 head 已經完成使命了,通過獨立的 head_num 組 attention 參數計算出了 attention out,最后需要做的就是把這 head_num 組 attention out 拼接起來,體現在 tensor 上就是做一次 transpose,將維度變為 [batch_size, seq_len, head_num, size_per_head]。源碼針對 fp16 和 fp32 分別提供了一個核函數 transpose,計算邏輯和 add_QKV_bias 中 transpose 計算邏輯相同,索引按順序乘即可。具體代碼如下:

template
__global__
void transpose(T* src, T* dst, const int batch_size, const int seq_len, const int head_num, const int size_per_head)
{
  int batch_id = blockIdx.x / (head_num * seq_len);
  int seq_id = blockIdx.x % seq_len;
  int head_id = (blockIdx.x % (head_num * seq_len))/ seq_len;
  dst[batch_id * (head_num * seq_len * size_per_head) + seq_id * head_num * size_per_head
    + head_id * size_per_head + threadIdx.x] = src[blockIdx.x * size_per_head + threadIdx.x];
}

template<>
  __global__
void transpose(__half* src, __half* dst,
    const int batch_size, const int seq_len, const int head_num, const int size_per_head)
{
  int tid = blockIdx.x * blockDim.x + threadIdx.x;

  int batch_id = tid / (head_num * seq_len * size_per_head);
  int head_id = (tid % (head_num * seq_len * size_per_head)) / (seq_len * size_per_head);
  int seq_id = (tid % (seq_len * size_per_head)) / size_per_head;
  int id = tid % size_per_head;

  int target_id = target_index(batch_id, head_id, seq_id, id, batch_size, head_num, seq_len, size_per_head);
  half2* src_ptr = (half2*)src;
  half2* dst_ptr = (half2*)dst;

  dst_ptr[target_id] = src_ptr[tid];
}

5 BertEncoderTransformer

BertEncoderTransformer 類中有兩個重要的成員方法:構造函數、forward 方法。其中構造函數內主要進行一些參數初始化功能,設備內存的申請和初始化也在該函數內進行。forward 方法內主要是核心邏輯的實現。

5.1 attention forward

根據調用鏈可知,BertEncoderTransformer->forward() 中第一步就是 attention_->forward(),其中 attention_ 對象在構造函數中被定義,attention_->forward() 執行的就是第 4 節的內容。

5.2 對 attention out 做線性變換

根據流程圖和調用鏈可知,這一步是對多頭注意力的輸出 tensor 做一層線性變換,右乘一個參數矩陣,其實就是一個不加激活函數的 Dense 層,分為矩陣乘法和 add bias 兩個操作步驟,這里調用了 cuBLAS API 實現矩陣乘法。

DataType_ alpha = (DataType_)1.0f;
DataType_ beta = (DataType_)0.0f;
int m = batch_size_ * from_seq_len_;
int k = head_num_ * size_per_head_;
int n = k;

check_cuda_error(cublasGemmEx(param_.cublas_handle, 
    CUBLAS_OP_N, CUBLAS_OP_N,
    n, m, k, 
    &alpha, 
    param_.attr_output_kernel, AType_, n, 
    attr_out_buf_, BType_, k, 
    &beta, 
    attr_matmul_buf_, CType_, n, 
    computeType_, 
    static_cast(cublasAlgo_[0])));

5.3 add_bias_input_layernorm_kernel

從核函數名字可以看出,這個核函數實現了 3 個操作:add bias、add input、layernomalization。其中 add bias 是完成上一步線性變換未完成的加偏置工作,add input 是 transformer 模型中的殘差結構,layernomalization 則是層歸一化操作。綜合起來這個核函數的作用是:對線性變換后的 attention out 加偏置,然后加上原始輸入 tensor 組成一個殘差結構,最后進行一次層歸一化變換。源碼中針對 fp16 和 fp32 分別提供了一個核函數實現,計算邏輯都一樣,這里只以 fp32 為例介紹。7e1be790-4d92-11ee-a25d-92fbcf53809c.png

/**
 * @brief                       grid_size = m, block_size = n
 * 
 * @tparam T 
 * @param out                   [batch_size, sql_len, latent_dim]
 * @param input                 [batch_size, sql_len, latent_dim]
 * @param bias                  [latent_dim,]
 * @param gamma 
 * @param beta 
 * @param m                     batch_size * seq_len
 * @param n                     latent_dim
 * @return __global__ 
 */
template 
__global__ 
void add_bias_input_layernorm(T* out, const T* input, const T* bias, const T* gamma, const T* beta, int m, int n)
{
  int tid = threadIdx.x;

  __shared__ float s_mean;
  __shared__ float s_variance;
  float mean =  0.0f;
  float variance = 0.0f;

  float local_out = 0.0f;
  // add,一個block處理一行
  for(int i = tid; i < n; i += blockDim.x)
    local_out += (float)(out[blockIdx.x * n + i] + input[blockIdx.x * n + i] + __ldg(&bias[i]));
  // mean_i = sum(x_i[j] for j in range(k)) / k
  mean = blockReduceSum(local_out);
  if(threadIdx.x == 0)
    s_mean = mean / n;
  __syncthreads();
  // var_i = sum((x_i[j] - mean_i) ** 2 for j in range(k)) / k + epsilon
  variance = blockReduceSum((local_out - s_mean) * (local_out - s_mean));
  if(threadIdx.x == 0)
    s_variance = variance / n + 1e-6f;
  __syncthreads();
  // x_i_normalized = (x_i - mean_i) / sqrt(var_i)
  // output_i = x_i_normalized * gamma + beta
  for(int i = tid; i < n; i += blockDim.x)
    out[blockIdx.x * n + i] = 
    (T)(((local_out - s_mean) * rsqrtf(s_variance)) * (float)(__ldg(&gamma[i])) + (float)(__ldg(&beta[i])));
}

如示意圖所示,核函數中每個 block 處理一行數據,共 latent_dim = head_num * size_per_head 個元素,核函數中首先計算了 add bias、add input 兩個操作,并將計算結果存儲在寄存器變量 local_out 中。
接下來就是標準的 layerNormalization 操作,我們先來看一下 layerNormalization 的操作步驟,參照一下 tensorflow 框架 API 文檔。

For each sample x_i in inputs with k features, we compute the mean and variance of the sample:
mean_i = sum(x_i[j] for j in range(k)) / k
var_i = sum((x_i[j] - mean_i) ** 2 for j in range(k)) / k

and then compute a normalized x_i_normalized, including a small factor epsilon for numerical stability.
x_i_normalized = (x_i - mean_i) / sqrt(var_i + epsilon)

And finally x_i_normalized is linearly transformed by gamma and beta, which are learned parameters:
output_i = x_i_normalized * gamma + beta
gamma and beta will span the axes of inputs specified in axis, and this part of the inputs' shape must be fully defined.

具體地,第一步計算均值和方差,核函數中使用塊內規約計算出均值 s_mean 存儲在共享內存中,所有塊內線程都可以訪問。然后根據 s_mean 和線程內的 local_out 以及 epsilon 系數再進行一次塊內規約計算出方差 s_variance 存儲在共享內存中。
第二步進行歸一化和線性變換,對應 tensorflow API 的二、三步,直接計算即可,沒有其他技巧,公式如下:

5.4 FeedForward 結構

根據 Transformer 模型結構,多頭注意力之后為了增強表達能力,加了一個 FeedForward 層,該結構內部就是兩個 Dense 層,第一層 Dense 中使用了激活函數,第二層沒有激活函數。所以 FeedForward 層中包含了 5 個操作:矩陣乘法、add bias、activation、矩陣乘法、add bias。

5.4.1 attention out * inter kernel

FeedForward 層第一次線性變換會擴展 tensor 的最后一個維度的長度,源碼中將 latent_dim(也就是 n)擴展為原來的 4 倍,所以這里的 inter kernel 的形狀為 [latent_dim, 4 * latent_dim],矩陣運算后的輸出 tensor 形狀為 [batch_size, seq_len, 4 * latent_dim]。

n *= 4;
check_cuda_error(cublasGemmEx(param_.cublas_handle, 
    CUBLAS_OP_N, CUBLAS_OP_N,
    n, m, k, 
    &alpha, 
    param_.inter_kernel, AType_, n, 
    attr_matmul_buf_, BType_, k, 
    &beta, 
    inter_matmul_buf_, CType_, n, 
    computeType_, 
    static_cast(cublasAlgo_[1])));

5.4.2 add_bias_act_kernel

顧名思義,add_bias_act_kernel 核函數包含了 add bias 和 activation 兩個操作。源碼中 block_size = n / 4 實際就是 latent_dim,為什么不直接取上一次運算后的矩陣寬度 n = 4 * latent_dim 呢?這里是希望一行元素(4 * latent_dim)能在一個 block 內處理,如果 block_size 直接取 n = 4 * latent_dim,可能超過 1024,因此還取 latent_dim,線程內循環 4 次處理即可。同樣,源碼中針對 grid_size 也取了 m / 4,在線程中通過循環每次跨 m / 4 步長處理 4 行數據。

template 
__global__ 
void add_bias_act(T* out, const T* bias, int m, int n)
{
  T val, reg_bias;

  int row_id = blockIdx.x;
  int ite = n / blockDim.x;
  int tid = threadIdx.x;

  for(int i = 0; i < ite; ++i)
  {
    reg_bias = __ldg(&bias[i * blockDim.x + tid]);
    row_id = blockIdx.x;

    while(row_id < m){
      val = out[tid + i * blockDim.x + row_id * n]+ reg_bias;
      out[tid + i * blockDim.x + row_id * n] = gelu(val);
      row_id += gridDim.x;
    }
  }
}

核函數中先對列進行循環,ite = 4,從全局內存讀出當前列的 bias,然后針對行進行循環,步長為 m / 4,循環體內部對當前行當前列的元素進行 add bias 和 gelu 操作,這里gelu 操作是一個簡單的 element-wise 操作,比較簡單不再介紹。
筆者點評:這里筆者私以為沒有必要 grid_size 也取 m / 4,cuda 本身對線程塊的數量沒有限制,完全可以直接取 m,每次每個線程只處理一行數據,一方面可以增加并行程度,另一方面代碼可閱讀性也更好。筆者給出代碼如下,親測可用。

dim3 grid(m);
dim3 block(n / 4);
assert(block.x <= 1024);
add_bias_act_v2<<>>(out, bias, m, n);

template 
__global__ 
void add_bias_act_v2(T* out, const T* bias, int m, int n) {
  T val, reg_bias;

  int row_id = blockIdx.x;
  int ite = n / blockDim.x;
  int tid = threadIdx.x;

  for(int i = 0; i < ite; ++i) {
    reg_bias = __ldg(&bias[i * blockDim.x + tid]);
    val = out[tid + i * blockDim.x + row_id * n]+ reg_bias;
    out[tid + i * blockDim.x + row_id * n] = gelu(val);
  }
}

5.4.3 inter out * out kernel

FeedForward 層第二次線性變換將 tensor 的最后一個維度的長度轉換為原始大小,源碼中將 n 重新賦值為 latent_dim,所以這里的 out kernel 的形狀為 [4 * latent_dim, latent_dim],矩陣運算后的輸出 tensor 形狀為 [batch_size, seq_len, latent_dim]。

n = k;
k *= 4;
check_cuda_error(cublasGemmEx(param_.cublas_handle, 
    CUBLAS_OP_N, CUBLAS_OP_N,
    n, m, k, 
    &alpha, 
    param_.output_kernel, AType_, n, 
    inter_matmul_buf_, BType_, k, 
    &beta, 
    param_.transformer_out, CType_, n, 
    computeType_, 
    static_cast(cublasAlgo_[2])));

5.5 add_bias_input_layernorm_kernel

這個核函數的計算邏輯在 5.3 中已經介紹過了,包含加偏置項、殘差結構、層歸一化三個操作,不再贅述。

6 小結

至此,Transformer encoder 前向計算的 14 個操作優化技巧已介紹完畢。總結如下:

針對半精度 fp16 的優化方面。首先,在 kernel 的實現中,將輸入的 half 指針轉成 half2 類型,并使用了 half2 相關的數學函數。這樣不僅僅可以達到 2 倍于 half 的訪存帶寬和計算吞吐,還可以極大地減少指令的發射數量。其次,在 softmax 以及 layerNormalization 的操作中,為防止求和溢出,將數據以 half2 的形式讀入后,會轉成 float2 類型,來做求和計算,這里就非常細致了,盡可能地保障了較高精度,值得學習借鑒。

針對訪存帶寬方面,筆者以為除 fp16 以外其它數據類型也可以進一步優化,比如可以自定義 pack 類型進行合并讀寫,盡量把帶寬打滿。

針對線程網絡結構方面,源碼中基本使用一個 block 處理一行數據的模式進行設計,這里筆者私以為針對 seq_len 和 latent_dim 已知比較小的情況下(不超過1024),完全可以一個線程束處理一行數據,束內同步的開銷遠小于塊內同步。當然,這個要求確實有些苛刻了。

源碼中提供了一個塊內規約的代碼,思路非常好,值得初學 cuda 的讀者品讀。

審核編輯:湯梓紅

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    4978

    瀏覽量

    102987
  • gpu
    gpu
    +關注

    關注

    28

    文章

    4729

    瀏覽量

    128890
  • 源碼
    +關注

    關注

    8

    文章

    639

    瀏覽量

    29185
  • Transformer
    +關注

    關注

    0

    文章

    143

    瀏覽量

    5995

原文標題:【CUDA編程】Faster Transformer v1.0 源碼詳解

文章出處:【微信號:GiantPandaCV,微信公眾號:GiantPandaCV】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    Faster Transformer v2.1版本源碼解讀

    和優化技巧進行了深度剖析,有興趣的讀者可以移步——【CUDA編程】Faster Transformer v1.0 源碼詳解。 在 Faste
    的頭像 發表于 09-19 11:39 ?1383次閱讀
    <b class='flag-5'>Faster</b> <b class='flag-5'>Transformer</b> <b class='flag-5'>v</b>2.1版本<b class='flag-5'>源碼</b>解讀

    Altera viterbi compiler v1.0

    Altera viterbi compiler v1.0 下載
    發表于 03-23 09:45 ?0次下載

    LeMedia使用教程V1.0

    LeMedia使用教程V1.0,介紹LeMedia如何使用。
    發表于 02-22 17:29 ?10次下載

    ZYBO入門指導手冊(一)v1.0——Vivado

    ZYBO入門指導手冊(一)v1.0——Vivado
    發表于 09-27 17:02 ?21次下載

    FPGA II實戰演練V1.0

    FPGA II實戰演練V1.0,感興趣的小伙伴們可以瞧一瞧。
    發表于 11-17 11:43 ?7次下載

    FPGA II實戰演練V1.0

    FPGA II實戰演練V1.0,感興趣的小伙伴們可以瞧一瞧。
    發表于 11-05 14:48 ?12次下載

    PCiRCTRL使用說明V1.0

    PCiRCTRL使用說明V1.0,紅外編碼解碼YiRTX02,YiRTX03芯片調試工具。
    發表于 01-11 12:38 ?9次下載

    KT803C_數據手冊_V1.0

    KT803C_數據手冊_V1.0
    發表于 12-04 13:55 ?8次下載

    CC2530底板V1.0(含原路圖)

    CC2530底板V1.0(含原路圖)
    發表于 01-17 10:25 ?0次下載

    V1.0 ATT7021應用說明

    V1.0 ATT7021應用說明
    發表于 06-10 15:36 ?3次下載
    <b class='flag-5'>V1.0</b> ATT7021應用說明

    DIY達諾 v1.0開源分享

    電子發燒友網站提供《DIY達諾 v1.0開源分享.zip》資料免費下載
    發表于 07-04 14:48 ?0次下載
    DIY達諾 <b class='flag-5'>v1.0</b>開源分享

    TI MCU SW ICDI DRIVERS v1.0

    TI MCU SW-ICDI-DRIVERS v1.0
    發表于 10-08 09:36 ?8次下載

    v1.0開發板資料

    電子發燒友網站提供《v1.0開發板資料.zip》資料免費下載
    發表于 10-09 15:20 ?5次下載
    <b class='flag-5'>v1.0</b>開發板資料

    OK3588-C_硬件手冊_V1.0

    OK3588-C_硬件手冊_V1.0
    發表于 12-03 11:55 ?40次下載

    PCB設計工藝指導手冊(v1.0).zip

    PCB設計工藝指導手冊(v1.0)
    發表于 12-30 09:20 ?8次下載
    主站蜘蛛池模板: 9277在线观看资源| 免费女人光着全身网站| 97成人碰碰在线人妻少妇| 日韩欧美视频一区| 精品无码乱码AV| 被吊起玩弄的女性奴| 亚洲精品无码久久久久A片空| 麻豆狠色伊人亚洲综合网站| 国产高清亚洲日韩字幕一区| 伊人亚洲AV久久无码精品| 欧美精品AV一区二区无码| 精品国产乱码久久久久久下载| xxx暴力xxx| 4399亚洲AV无码V无码网站| 校花在公车上被内射好舒服| 欧美三级aaa| 久久国产精品萌白酱免费| 俄罗斯性xxxx| 69国产精品成人无码视频| 亚洲欧美日韩国产精品26u| 少妇无码吹潮久久精品AV| 欧美精品一卡二卡| 久久精品一本到东京热| 果冻传媒在线播放| 国产h视频在线观看免费| a视频在线看| 最近的2019中文字幕HD| 亚洲中文字幕永久在线| 香蕉久久一区二区三区啪啪| 三级黃60分钟| 日本特殊精油按摩| 男人J进女人P| 美女也烦恼主题曲| 久久久伊人影院| 精品一区二区三区免费观看| 国产午夜视频在线| 国产精品一区二区亚瑟不卡| 国产99久久亚洲综合精品西瓜tv| 超h高h肉h文教室生理课| av亚洲2017色天堂| good神马电影伦理午夜|