MLPerf競賽由圖靈獎得主大衛(wèi)·帕特森(David?Patterson)聯(lián)合谷歌、斯坦福、哈佛大學(xué)等單位共同成立,是國際上最有影響力的人工智能基準(zhǔn)測試之一。
在MLPerf V0.7推理競賽開放賽道中,浪潮信息通過模型壓縮優(yōu)化算法取得性能大幅提升,將ResNet50的計算量壓縮至原模型的37.5%,壓縮優(yōu)化后的ResNet50推理速度相比優(yōu)化前單GPU提升83%,8GPU提升81%,基于浪潮NF5488A5服務(wù)器,每秒最多可以處理549782張圖片,排名世界第一。
本文將重點介紹浪潮在比賽中使用的模型壓縮算法的設(shè)計思路、實現(xiàn)方式及效果。
什么是模型壓縮
為了提高識別準(zhǔn)確率,當(dāng)前深度學(xué)習(xí)模型的規(guī)模越來越大。ResNet50參數(shù)量超過2500萬,計算量超40億,而Bert參數(shù)量達到了3億。不管是訓(xùn)練還是推理部署,這對平臺的計算能力和存儲能力都提出了非常高的要求。當(dāng)前深度學(xué)習(xí)已經(jīng)發(fā)展到部署應(yīng)用普及階段,在移動端/嵌入式端設(shè)備,計算/存儲資源是有限的,大模型難以適用。
很多深度神經(jīng)網(wǎng)絡(luò)中存在顯著的冗余,僅僅訓(xùn)練一小部分原來的權(quán)值參數(shù)就有可能達到和原網(wǎng)絡(luò)相近的性能,甚至超過原網(wǎng)絡(luò)的性能[1]。這給模型壓縮帶來了啟發(fā)。
模型壓縮是通過特定策略降低模型參數(shù)量/計算量,使其運行時占用更少的計算資源/內(nèi)存資源,同時保證模型精度,滿足用戶對模型計算空間、存儲空間的需求,從而能夠?qū)⒛P透玫夭渴鹪谝苿佣恕⑶度胧蕉嗽O(shè)備,讓模型跑得更快、識別得更準(zhǔn)。
常用模型壓縮方法
模型壓縮有多種實現(xiàn)方法,目前可分為5大類:
?模型裁剪
實現(xiàn)方式:對網(wǎng)絡(luò)中不重要的權(quán)重進行修剪,降低參數(shù)量/計算量。
使用方式:分為非結(jié)構(gòu)化裁剪與結(jié)構(gòu)化裁剪,非結(jié)構(gòu)化裁剪需結(jié)合定制化軟硬件庫,結(jié)構(gòu)化裁剪無軟硬件限制。
?模型量化
實現(xiàn)方式:以低比特位數(shù)表示網(wǎng)絡(luò)權(quán)重,(如fp16/8bit/4bit/2bit),降低模型的占用空間,進行推理加速。
使用方式:需要定制化軟硬件支持,如TensorRT、TVM。
?知識蒸餾
實現(xiàn)方式:遷移學(xué)習(xí)的一種,用訓(xùn)練好的“教師”網(wǎng)絡(luò)去指導(dǎo)另一個“學(xué)生”網(wǎng)絡(luò)訓(xùn)練。
使用方式:大模型輔助小模型訓(xùn)練來幫助小模型提升。
?精度緊湊網(wǎng)絡(luò)
實現(xiàn)方式:設(shè)計新的小模型結(jié)構(gòu),如MobileNet、ShuffleNet。
?低秩分解
實現(xiàn)方式:將原來大的權(quán)重矩陣分解成多個小的矩陣。
使用方式:現(xiàn)在模型多以1x1為主,低秩分解難以壓縮,目前已不太適用。
上述幾種模型壓縮技術(shù)中,模型量化對推理部署軟硬件的要求較高,知識蒸餾一般用來輔助提高精度,緊湊網(wǎng)絡(luò)模型結(jié)構(gòu)相對固定,低秩分解不適用目前主流模型結(jié)構(gòu)。而模型裁剪可以對模型結(jié)構(gòu)靈活壓縮,滿足用戶對計算量/參數(shù)量的需求,且壓縮后的模型仍可保持較高精度,本文將重點介紹模型裁剪方法。
模型裁剪相關(guān)技術(shù)
如前所述,模型裁剪分為非結(jié)構(gòu)化裁剪與結(jié)構(gòu)化裁剪。非結(jié)構(gòu)化裁剪是一種細(xì)粒度裁剪,通過裁剪掉某些不重要的神經(jīng)元實現(xiàn),優(yōu)點是裁剪力度較大,可將模型壓縮幾十倍,缺點是裁剪后的模型部署需要定制化的軟硬件支持,部署成本較高。而結(jié)構(gòu)化裁剪是一種粗粒度裁剪,一般有channel、filter和shape級別的裁剪,這種方法裁剪力度雖然不像非結(jié)構(gòu)化裁剪力度那么大,但好處是裁剪后的模型不受軟硬件的限制,可以靈活部署,是近幾年模型壓縮領(lǐng)域研究者/公司的研究熱點。本文我們重點研究結(jié)構(gòu)化裁剪。
結(jié)構(gòu)化模型裁剪近幾年涌現(xiàn)很多優(yōu)秀論文,壓縮成績不斷被刷新,壓縮技術(shù)從手動化結(jié)構(gòu)裁剪進化到基于AutoML的自動化結(jié)構(gòu)化裁剪。以下是幾種代表性的方法:
將訓(xùn)練好的模型進行通道剪枝(channel pruning)[2]。通過迭代兩步操作進行:第一步是channel selection,采用LASSO regression來做;第二步是reconstruction,基于linear least squares來約束剪枝后輸出的feature map盡可能和減枝前的輸出feature map相等。
麻省理工學(xué)院韓松團隊提出了一種模型壓縮方法[3],其核心思想是使用強化學(xué)習(xí)技術(shù)來實現(xiàn)自動化壓縮模型。它不是對網(wǎng)絡(luò)結(jié)構(gòu)的路徑搜索,而是采用強化學(xué)習(xí)中的DDPG(深度確定性策略梯度法)來產(chǎn)生連續(xù)空間上的具體壓縮比率。
基于元學(xué)習(xí)的自動化裁剪方法[4],分三步實現(xiàn):首先生成元網(wǎng)絡(luò)進行權(quán)重預(yù)測;然后基于元網(wǎng)絡(luò)利用遺傳進化算法進行裁剪模型結(jié)構(gòu)搜索;最后篩選出符合要求的裁剪模型結(jié)構(gòu),對候選模型進行訓(xùn)練。
對ResNet50模型的壓縮優(yōu)化
我們選擇Resnet50進行模型壓縮。從MLPerf競賽開始至2022年,而Resnet50始終是圖像分類任務(wù)的基準(zhǔn)模型,是計算機視覺領(lǐng)域模型的典型代表。
在裁剪方法的選擇上,我們采用基于AutoML的自動化裁剪方法。該方法的優(yōu)勢是可以靈活定義搜索空間,從而靈活裁剪出所需要的任何模型結(jié)構(gòu)。
Resnet50的裁剪要求可概括為“快且準(zhǔn)”,實現(xiàn)方法分以下三步:
? 第一,與MetaPruning類似,首先生成一個“超網(wǎng)絡(luò)”,為后續(xù)搜索出的裁剪模型生成權(quán)重及預(yù)測精度。
?第二,優(yōu)化搜索空間。自動化模型裁剪方法會基于特定方法對裁剪模型進行搜索,搜索方法與搜索效率直接影響到目標(biāo)模型的質(zhì)量,我們對模型裁剪的搜索空間與搜索方法進行了深度優(yōu)化。這一步是搜索出符合預(yù)期的最優(yōu)裁剪模型結(jié)構(gòu)的關(guān)鍵,也是對Resnet50模型裁剪優(yōu)化的關(guān)鍵技術(shù)點。
傳統(tǒng)方法在裁剪時一般以模型的計算量/參數(shù)量為裁剪指標(biāo),比如需要將參數(shù)量/計算量裁剪掉多少,但是我們對裁剪的終極目標(biāo)之一是在推理部署時降低延遲,也就是快且準(zhǔn)中的“快”。而單純降低模型參數(shù)量/計算量并不代表一定能帶來模型性能提升,需要考慮裁剪后模型計算強度與平臺計算強度的關(guān)系,參考roofline model理論。
圖1 Roofline model示意圖▲
圖1為roofline model示意圖,roofline model展示了模型在計算平臺的限制下能達到多快的計算速度,使用計算強度進行定量分析。當(dāng)模型計算強度小于平臺計算強度(紅色區(qū)域),模型處于內(nèi)存受限狀態(tài),模型性能<計算平臺理論性能,性能提升<計算量減少;當(dāng)模型計算強度大于平臺計算強度(綠色區(qū)域),模型處于計算受限狀態(tài),模型性能約等于計算平臺理論性能,性能提升接近計算量減少。
同時我們研究發(fā)現(xiàn),某些情況下,單純減少channel不一定會帶來模型性能提升甚至可能會降低模型性能,另外,裁剪后模型的推理性能因目標(biāo)運行設(shè)備不同存在差異。也就是說單純裁剪channel不一定會帶來性能提升,甚至有可能會適得其反,裁剪后模型的實際性能與部署的目標(biāo)設(shè)備相關(guān),平臺計算特性和模型結(jié)構(gòu)特點緊密相關(guān)。
基于以上研究,我們對裁剪模型的搜索空間做了重點優(yōu)化,提出了基于性能感知的模型裁剪優(yōu)化方法。在對裁剪模型結(jié)構(gòu)進行搜索時,除了考慮裁剪后模型的規(guī)模如計算量/參數(shù)量(FLOPS/Params),同時考慮不同模型結(jié)構(gòu)(channel/shape/layers)基于設(shè)備平臺的真實性能表現(xiàn),也就是裁剪模型在推理部署平臺上的的推理延遲時間(latency)。具體做法如下:
由于單純的計算量/參數(shù)量并不能反映模型在計算平臺上的真實性能,我們首先將不同的模型結(jié)構(gòu)在計算平臺進行性能測試,決定模型的哪些層的channel需要多裁,哪些層的channel需要少裁,裁掉哪些層對實際性能提升效果最好。我們對resnet50的模型結(jié)構(gòu)特點進行了研究。圖2為resnet50模型[5]結(jié)構(gòu)圖,該模型結(jié)構(gòu)分為5個conv模塊,conv1是一個7x7卷積,conv2-conv5都是由bottleneck組成,分別包含3/4/6/3個bottleneck。
圖2 resnet50模型結(jié)構(gòu)▲
以bottleneck為基本測試單位,模型推理測試平臺選擇tensorrt,對于每一個bottleneck,改變他們的輸入輸出channel個數(shù),測試其在tensorrt上的推理性能表現(xiàn),得到了每一個bottleneck在不同的輸入輸出channel下的實際性能表現(xiàn)。圖3展示了實驗中resnet50第三個stage的第6個bottleneck在不同的輸出channel個數(shù)下,在tensorrt上測試的推理性能。
圖3 resnet50conv3_bottleneck6基于tensorrt的推理延遲▲
由圖3結(jié)果可以看出,該模型結(jié)構(gòu)下測得的推理延遲時間并不會隨著channel個數(shù)的增加而線性增長,推理時間與channel個數(shù)呈現(xiàn)出階梯狀關(guān)系(如當(dāng)32<channel個數(shù)≤64時,推理性能持平)。該實驗結(jié)果帶來的啟發(fā)是,在對模型進行裁剪時,我們選擇保留階梯線右側(cè)邊緣的channel個數(shù),這樣既能保證推理性能又能盡可能保證模型本身的channel個數(shù);
在對裁剪模型進行自動化搜索時,除了基于計算量/參數(shù)量參考指標(biāo),提出了以延遲為優(yōu)化目標(biāo)的自動化模型裁剪方法。將基于性能感知的約束條件添加到裁剪模型搜索空間,在對裁剪模型進行搜索時,可同時滿足對計算量/參數(shù)量/延遲的多重要求,盡可能保證裁剪后的模型在推理部署階段最大限度地降低延遲。在裁剪模型搜索階段,我們的優(yōu)化代碼第一階段首先會指定裁剪模型的計算量/參數(shù)量,通過計算量/參數(shù)量的設(shè)定去搜索符合條件的裁剪模型。在裁剪模型的搜索空間中,每一層channel個數(shù)的設(shè)定會參考(1)中的測試結(jié)果。第二階段在搜索出的候選裁剪模型中,計算每個候選裁剪模型在目標(biāo)推理平臺上的推理耗時,篩選出推理耗時最小的模型為我們的目標(biāo)裁剪模型,從而保證裁剪模型是在計算量/參數(shù)量/延遲三個層面搜索出的最優(yōu)結(jié)果。
第三步,裁剪后模型精度恢復(fù)。對于模型裁剪,大家最關(guān)注的問題是裁剪后的模型是否能恢復(fù)到與裁剪前相近的精度,也就是快且準(zhǔn)中的“準(zhǔn)”。一般的模型裁剪方法是將模型裁剪之后進行finetune或者一邊裁剪一邊訓(xùn)練,而通過我們的實驗發(fā)現(xiàn)通過裁剪算法得到的壓縮模型,直接隨機初始化訓(xùn)練(Training from scratch)得到的模型精度,反而比基于原模型權(quán)重finetune效果更好,Training from scratch可以更多去探索稀疏化模型的表達空間,所以我們對于裁剪后的模型采用Training from scratch的訓(xùn)練方式。同時,為了盡可能恢復(fù)裁剪后模型的精度,我們結(jié)合蒸餾訓(xùn)練,用大模型去指導(dǎo)裁剪后的小模型訓(xùn)練,在精度保持上取得了非常好的效果。
表1是我們裁剪并訓(xùn)練出的一些模型,將Resnet50計算量裁剪到原來的50%、37.5%時,仍然可以保持76%以上的TOP1精度:
表1模型規(guī)模與對應(yīng)精度▲
基于浪潮NF5488A5平臺,未經(jīng)過壓縮優(yōu)化的Resnet50推理性能如表2:
表2 壓縮前的Resnet50基于NF5488A5的性能▲
而經(jīng)過壓縮優(yōu)化后,Resnet50在開放賽道的性能如表3:
表3 壓縮后的Resnet50基于NF5488A5的性能▲
綜上,在MLPerf推理V0.7競賽開放賽道中,基于壓縮優(yōu)化算法,我們將ResNet50計算量壓縮到原來的37.5%,壓縮優(yōu)化后的ResNet50模型單GPU推理速度相比壓縮優(yōu)化前提升83%,8GPU推理速度相比壓縮優(yōu)化前提升81%。基于浪潮NF5488A5服務(wù)器,單卡每秒可處理68994張圖片,8卡每秒可以處理549782張圖片,這個成績在當(dāng)時參賽結(jié)果中排名第一。
-
嵌入式
+關(guān)注
關(guān)注
5085文章
19138瀏覽量
305692 -
服務(wù)器
+關(guān)注
關(guān)注
12文章
9203瀏覽量
85527
原文標(biāo)題:MLPerf世界紀(jì)錄技術(shù)分享:通過模型壓縮優(yōu)化取得最佳性能
文章出處:【微信號:浪潮AIHPC,微信公眾號:浪潮AIHPC】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論