一個程序首先要保證正確性,在保證正確性的基礎上,性能也是一個重要的考量。要編寫高性能的程序,第一,必須選擇合適的算法和數據結構;第二,應該編寫編譯器能夠有效優化以轉換成高效可執行代碼的源代碼,要做到這一點,需要了解編譯器的能力和限制;第三,要了解硬件的運行方式,針對硬件特性進行優化。本文著重展開第二點和第三點。
簡單認識編譯器
要寫出高性能的代碼,首先需要對編譯器有基礎的了解,原因在于現代編譯器有很強的優化能力,但有些代碼編譯器不能進行優化。對編譯器有了基礎的了解,才能寫出編譯器友好型高性能代碼。
編譯器的優化選項
以 GCC
為例,GCC 支持以下優化級別:
- -O,其中 number 為 0/1/2/3,數字越大,優化級別越高。默認為 -O0。
- -Ofast,除了開啟 -O3 的所有優化選項外,會額外打開 -ffast-math 和 -fallow-store-data-races。注意這兩個選項可能會引起程序運行錯誤。
-ffast-math: Sets the options -fno-math-errno, -funsafe-math-optimizations, -ffinite-math-only, -fno-rounding-math, -fno-signaling-nans, -fcx-limited-range and -fexcess-precision=fast. It can result in incorrect output for programs that depend on an exact implementation of IEEE or ISO rules/specifications for math functions. It may, however, yield faster code for programs that do not require the guarantees of these specifications.
-fallow-store-data-races: Allow the compiler to perform optimizations that may introduce new data races on stores, without proving that the variable cannot be concurrently accessed by other threads. Does not affect optimization of local data. It is safe to use this option if it is known that global data will not be accessed by multiple threads.
- -Og,調試代碼時推薦使用的優化級別。
gcc -Q --help=optimizer -Ox 可查看各優化級別開啟的優化選項。
參考鏈接:https://gcc.gnu.org/onlinedocs/gcc/Optimize-Options.html
編譯器的限制
為了保證程序運行的正確性,編譯器不會對代碼的使用場景做任何假設,所以有些代碼編譯器不會進行優化。下面舉兩個比較隱晦的例子。
1、memory aliasing
void twiddle1(long *xp, long *yp) {
*xp += *yp;
*xp += *yp;
}
void twiddle2(long *xp, long *yp) {
*xp += 2 * *yp;
}
當 xp
和 yp
指向同樣的內存(memory aliasing)時,twiddle1
和 twiddle2
是兩個完全不同的函數,所以編譯器不會嘗試將 twiddle1
優化為 twiddle2
。如果本意是希望實現 twiddle2
的功能,應該寫成 twiddle2
而非 twwidle1
的形式,twiddle2
只需要 2 次讀 1 次寫,而 twiddle1
需要 4 次讀 2 次寫。
可以顯式使用 __restrict
修飾指針,表明不存在和被修飾的指針指向同一塊內存的指針,此時編譯器會將 twiddle3
優化為和 twiddle2
等效??勺孕型ㄟ^反匯編的方式觀察匯編碼進一步理解。
void twiddle3(long *__restrict xp, long *__restrict yp) {
*xp += *yp;
*xp += *yp;
}
2、side effect
long f();
long func1() {
return f() + f() + f() + f();
}
long func2() {
return 4 * f();
}
由于函數 f
的實現可能如下,存在 side effect
,所以編譯器不會將 func1
優化為 func2
。如果本意希望實現 func2
版本,則應該直接寫成 func2
的形式,可減少 3 次函數調用。
long counter = 0;
long f() {
return counter++;
}
程序性能優化
在介紹之前,我們先引入一個程序性能度量標準每元素的周期數(Cycles Per Element, CPE)
,即每處理一個元素需要花費的周期數,可以表示程序性能并指導性能優化。
下面通過一個例子介紹幾個優化程序性能的手段。首先定義一個數據結構 vector 以及一些輔助函數,vector 使用一個連續存儲的數組實現,可通過 typedef
來指定元素的數據類型 data_t
。
typedef struct {
long len;
data_t *data;
} vec_rec, *vec_ptr;
/* 創建vector */
vec_ptr new_vec(long len) {
vec_ptr result = (vec_ptr)malloc(sizeof(vec_rec));
if (!result)
return NULL;
data_t *data = NULL;
result- >len = len;
if (len > 0) {
data = (data_t*)calloc(len, sizeof(data_t));
if (!data) {
free(result);
return NULL;
}
}
result- >data = data;
return result;
}
/* 根據index獲取vector元素 */
int get_vec_element(vec_ptr v, long index, data_t *dest) {
if (index < 0 || index >= v- >len)
return 0;
*dest = v- >data[index];
return 1;
}
/* 獲取vector元素個數 */
long vec_length(vec_ptr v) {
return v- >len;
}
下面的函數的功能是使用某種運算,將一個向量中所有的元素合并為一個元素。下面的 IDENT
和 OP
是宏定義,#define IDENT 0
和 #define OP +
進行累加運算,#define IDENT 1
和 #define OP *
則進行累乘運算。
void combine1(vec_ptr v, data_t *dest) {
long i;
*dest = IDENT;
for (i = 0; i < vec_length(v); i++) {
data_t val;
get_vec_element(v, i, &val);
*dest = *dest OP val;
}
}
對于上面的 combine1
,可以進行下面三個基礎的優化。
1、對于多次執行返回同樣結果的函數,使用臨時變量保存
combine1
的實現在循環測試條件中反復調用了函數 vec_length
,在此場景下,多次調用 vec_length
會返回同樣的結果,所以可以改寫為 combine2
的實現進行優化。在極端情況下,注意避免反復調用返回同樣結果的函數是更有效的。例如,若在循環結束條件中調用測試一個字符串長度的函數,該函數時間復雜度通常是 O(n)
,若明確字符串長度不會變化,反復調用會有很大的額外開銷。
void combine2(vec_ptr v, data_t *dest) {
long i;
long length = vec_length(v);
*dest = IDENT;
for (i = 0; i < length; i++) {
data_t val;
get_vec_element(v, i, &val);
*dest = *dest OP val;
}
}
2、減少過程調用
過程(函數)調用會產生一定的開銷,例如參數傳遞、clobber 寄存器保存恢復和轉移控制等。所以可以新增一個函數 get_vec_start
返回指向數組的開頭的指針,在循環中避免調用函數 get_vec_element
。這個優化存在一個 trade off,一方面可以一定程序提升程序性能,另一方面這個優化需要知道 vector 數據結構的實現細節,會破壞程序的抽象,一旦 vector 修改為不使用數組的方式存儲數據,則同時需要修改 combine3
的實現。
data_t *get_vec_start(vec_ptr v) {
return v- >data;
}
void combine3(vec_ptr v, data_t *dest) {
long i;
long length = vec_length(v);
data_t *data = get_vec_start(v);
*dest = IDENT;
for (i = 0; i < length; i++) {
*dest = *dest OP data[i];
}
}
3、消除不必要的內存引用
在上面的實現中,循環中每次都會去讀一次寫一次 dest
,由于可能存在 memory aliasing
,編譯器會謹慎地進行優化。下面分別是 -O1
和 -O2
優化級別時,combine3
中 for
循環部分的匯編代碼??梢钥吹剑_啟 -O2 優化時,編譯器幫我們把中間結果存到了臨時變量中(寄存器 % xmm0),而不是像 -O1 優化時每次從內存中讀??;但是考慮到 memory aliasing
的情況,即使 -O2 優化,依然需要每次循環將中間結果保存到內存。
// combine3 -O1
.L1:
vmovsd (%rbx), %xmm0
vmulsd (%rdx), %xmm0, %xmm0
vmovsd %xmm0, (%rbx)
addq $8, %rdx
cmpq %rax, %rdx
jne .L1
// combine3 -O2
.L1
vmulsd (%rdx), %xmm0, %xmm0
addq $8, %rdx
cmpq %rax, %rdx
vmovsd %xmm0, (%rbx)
jne .L1
為了避免頻繁進行內存讀寫,可以人為地使用一個臨時變量保存中間結果,如 combine4
所示。
void combine4(vec_ptr v, data_t *dest) {
long i;
long length = vec_length(v);
data_t *data = get_vec_start(v);
data_t acc = IDENT;
for (i = 0; i < length; i++) {
acc = acc OP data[i];
}
*dest = acc;
}
// combine4 -O1
.L1
vmulsd (%rdx), %xmm0, %xmm0
addq $8, %rdx
cmpq %rax, %rdx
jne .L1
以上優化方法的效果可以通過 CPE 來度量,在 Intel Core i7 Haswell 的測試結果如下。從測試結果來看:
- combine1 版本不同編譯優化級別,-O1 的性能是 -O0 的兩倍,表明開啟適當地編譯優化級別是很有必要的。
- combine2 將 vec_length 移出循環后,在同樣的優化級別編譯,相較 combine1 的性能有微小的提升。
- 但是 combine3 相比 combine2 并沒有性能提升,原因是由于循環中的其它操作的耗時可以掩蓋調用 get_vec_element 的耗時,之所以可以掩蓋,得益于 CPU 支持
分支預測
和亂序執行
,本文的后面會簡單介紹這兩個概念。 - 同樣地,combine3 的 -O2 版本比 -O1 版本性能好很多,從匯編碼可以看到,-O2 時比 -O1 每次循環減少了一次對 (% rbx) 的讀,更重要的是消除了對 (% rbx) 寫后讀的訪存依賴。
- 經過 combine4 將中間結果暫存到臨時變量的優化,可以看到即使使用 -O1 的編譯優化,也比 combine3 -O2 的編譯優化性能更好,表明即使編譯器有強大的優化能力,但是注意細節來編寫高性能代碼也是非常有必要的。
以下測試數據引用自《深入理解計算機系統》第五章。
函數 | 優化方法 | int + | int * | float + | float * |
---|---|---|---|---|---|
combine1 | -O0 | 22.68 | 20.02 | 19.98 | 20.18 |
combine1 | -O1 | 10.12 | 10.12 | 10.17 | 11.14 |
combine2 | 移動 vec_length -O1 | 7.02 | 9.03 | 9.02 | 11.03 |
combine3 | 減少過程調用 -O1 | 7.17 | 9.02 | 9.02 | 11.03 |
combine3 | 減少過程調用 -O2 | 1.60 | 3.01 | 3.01 | 5.01 |
combine4 | 累積到臨時變量 -O1 | 1.27 | 3.01 | 3.01 | 5.01 |
指令級并行
以上優化不依賴于目標機器的任何特性,只是簡單地降低了過程調用的開銷,以及消除一些 “妨礙優化的因素”,這些因素會給編譯器優化帶來困難。要進行進一步優化,需要了解一些硬件特性。下圖是 Intel Core i7 Haswell 的硬件結構的后端部分:
完整的 Intel Core i7 Haswell 的硬件結構見:https://en.wikichip.org/w/images/c/c7/haswell_block_diagram.svg
硬件性能
該 CPU 支持以下特性:
- 指令級并行:即通過指令流水線技術,支持同時對多條指令求值。
- 亂序執行:指令的執行順序未必和其書寫的順序一致,可以使硬件達到更好的指令級并行度。主要是通過亂序執行、順序提交的機制,使得能夠獲得和順序執行一致的結果。
- 分支預測:當遇到分支時,硬件會預測分支的走向,如果預測成功則能夠加快程序的運行,但是預測失敗的話則需要把提前執行的結果丟棄,重新 load 正確指令執行,會帶來比較大的預測錯誤懲罰。
上圖中,主要關注執行單元 (EUs),執行單元由多個功能單元組成。功能單元的性能可以由延遲
、發射時間
和容量
來度量。
- 延遲:執行完一條指令需要的時鐘周期數。
- 發射時間:兩個連續的同類型的運算之間需要的最小時鐘周期數。
- 容量:某種執行單元的數量。從上圖可以看出,在
EUs
中,有 4 個整數加法單元 (INT ALU)、1 個整數乘法單元 (INT MUL)、1 個浮點數加法單元 (FP ADD) 和 2 個浮點數乘法單元 (FP MUL)。
Intel Core i7 Haswell 的功能單元性能數據(單位為周期數)如下,引自《深入理解計算機系統》第五章:
運算 | 延遲 (int) | 發射時間 (int) | 容量 (int) | 延遲 (float) | 發射時間 (float) | 容量 (float) |
---|---|---|---|---|---|---|
加法 | 1 | 1 | 4 | 3 | 1 | 1 |
乘法 | 3 | 1 | 1 | 5 | 1 | 2 |
這些算術運算的延遲、發射時間和容量會影響上述 combine
函數的性能,我們用 CPE 的兩個界限來描述這種影響。吞吐界限是理論上的最優性能。
- 延遲界限:任何必須按照嚴格順序完成
combine
運算的函數所需要的最小 CPE,等于功能單元的延遲。 - 吞吐界限:功能單元產生結果的最大速率,由
容量/發射時間
決定。若使用 CPE 度量,則等于容量/發射時間
的倒數。
由于 combine
函數需要 load 數據,故要同時受到加載單元的限制。由于只有兩個加載單元且其發射時間為 1 個周期,所以整數加法的吞吐界限在本例中只有 0.5 而非 0.25。
界限 | int + | int * | float + | float * |
---|---|---|---|---|
延遲 | 1.0 | 3.0 | 3.0 | 5.0 |
吞吐 | 0.5 | 1.0 | 1.0 | 0.5 |
處理器操作的抽象模型
為了分析在現代處理器上執行的機器級程序的性能,我們引入數據流圖
,這是一種圖形化表示方法,展現了不同操作之間的數據相關是如何限制它們的執行順序的。這些限制形成了圖中的關鍵路徑
,這是執行一組機器指令所需時鐘周期的一個下界。
通常 for 循環會占據程序執行的大部分時間,下圖是 combine4
的 for 循環對應的數據流圖。其中箭頭指示了數據的流向??梢詫⒓拇嫫鞣譃樗念悾?/p>
- 只讀:這些寄存器只用作源值,在循環中不被修改,本例中的
%rax
。 - 只寫:作為數據傳送的目的。本例沒有這樣的寄存器。
- 局部:在循環內部被修改和使用,迭代與迭代之間不相關,比例中的條件碼寄存器。
- 循環:這些寄存器既作為源值,又作為目的,一次迭代中產生的值會被下一次迭代用到,本例中的
%rdx
和%xmm0
。由于兩次迭代之間有數據依賴,所以對此類寄存器的操作通常是程序性能的限制因素。
將上圖重排,并只留下循環寄存器相關的路徑,可得到簡化的數據流圖。
將簡化完的數據流圖進行簡單地重復,可以得到關鍵路徑,如下圖。如果 combine4
中計算的是浮點數乘法,由于支持指令級并行,浮點數乘法的的延遲能夠掩蓋整數加法 (指針移動,圖中右半邊的路徑) 的延遲,所以 combine4
CPE 的理論下界就是浮點乘法的延遲 5.0,與上面給出的測試數據 5.01 基本一致。
循環展開
目前為止,我們程序的性能只達到了延遲界限,這是因為下一次浮點乘法必須等上一次乘法結束后才開始,不能充分利用硬件的指令級并行。使用循環展開的技術,可以提高關鍵路徑的指令并行度。
void combine5(vec_ptr v, data_t *dest) {
long i;
long length = vec_length(v);
long limit = length - 1;
data_t *data = get_vec_start(v);
data_t acc0 = IDENT;
data_t acc1 = IDENT;
for (i = 0; i < limit; i += 2) {
acc0 = acc0 OP data[i];
acc1 = acc1 OP data[i + 1];
}
for (; i < length; ++i) {
acc0 = acc0 OP data[i];
}
*dest = acc0 OP acc1;
}
combine5
的關鍵路徑的數據流圖如下,圖中有兩條關鍵路徑,但兩條關鍵路徑是可以指令級并行的,每條關鍵路徑只包含 n/2
個操作,因此性能可以突破延遲界限,理論上浮點乘法的 CPE 約為 5.0/2=2.5
。
假如增加臨時變量的個數進一步增加循環展開次數,理論上可以提高指令并行度,最終達到吞吐界限。但是不能無限制地增加循環展開次數,一是由于硬件的功能單元有限,CPE 的下界由吞吐界限限制,達到一定程度后繼續增加也不能提高指令并行度;二是由于寄存器資源有限,增加循環展開次數會增加寄存器的使用,使用的寄存器個數超過硬件提供的寄存器資源之后,則會發生寄存器溢出,可能會需要將寄存器的內存臨時保存到內存,使用時再從內存恢復到寄存器,反而導致性能的下降,如下表中循環展開 20 次相較展開 10 次性能反而略有下降。幸運的是,大多數硬件在寄存器溢出之前已經達到了吞吐界限。
函數 | 展開次數 | int + | int * | float + | float * |
---|---|---|---|---|---|
combine5 | 2 | 0.81 | 1.51 | 1.51 | 2.51 |
combine5 | 10 | 0.55 | 1.00 | 1.01 | 0.52 |
combine5 | 20 | 0.83 | 1.03 | 1.02 | 0.68 |
延遲界限 | / | 1.00 | 3.00 | 3.00 | 5.00 |
吞吐界限 | / | 0.50 | 1.00 | 1.00 | 0.50 |
SIMD(single instruction multi data)
SIMD
是另外一種行之有效的性能優化手段,不同于指令級并行,其采用數據級并行
。SIMD 即單指令多數據,一條指令操作一批向量數據,需要硬件提供支持。X86 架構的 CPU 支持 AVX 指令集,ARM CPU 支持 NEON 指令集。在我們開發的一款深度學習編譯器 MegCC 中,就廣泛使用了 SIMD 技術。MegCC 是曠視天元團隊開發的深度學習編譯器,其接受 MegEngine 格式的模型為輸入,輸出運行該模型所需的所有 kernel,方便模型部署,具有高性能和輕量化的特點。為了方便用戶將其它格式的模型轉換為 MegEngine 格式模型,曠視天元團隊同時提供了模型轉換工具 MgeConvert,您可以將模型轉換為 onnx
,然后使用 MgeConvert 轉換為 MegEngine 格式模型。同時如果您想測試您設備上某條指令的吞吐和延遲,以指導您的優化,可以使用 MegPeak。
MegCC 中實現了許多高性能的深度學習算子,卷積和矩陣乘法是典型的計算密集型的算子,同時卷積也可以借助矩陣乘法來實現 (im2col/winograd 算法等)。
MegCC 在 ARM 平臺支持了 NEON DOT 和 I8MM 指令實現的矩陣乘和卷積。一條 DOT
指令可完成 32 次乘加運算 (16 次乘法和 16 次加法運算);一條 I8MM
指令可完成 64 次乘加運算 (32 次乘法和 32 次加法運算)。這就是 SIMD 技術能夠加速計算的原理。
-
硬件
+關注
關注
11文章
3312瀏覽量
66200 -
程序
+關注
關注
117文章
3785瀏覽量
81004 -
源代碼
+關注
關注
96文章
2945瀏覽量
66730 -
編譯器
+關注
關注
1文章
1623瀏覽量
49108
發布評論請先 登錄
相關推薦
評論