編者按:幾個月前,Tensorflow發(fā)布了一份名為《Quantizing deep convolutional networks for efficient inference》的白皮書,主要介紹團隊關(guān)于模型量化的相關(guān)工作,所謂量化,簡單來說就是將32浮點數(shù)近似地用8位整數(shù)存儲和計算,量化后,模型占用存儲空間減小75%,能起到壓縮模型的效果。而現(xiàn)在,這項技術(shù)就快和大家見面了。
今天凌晨,TensorFlow官方發(fā)布消息稱將引入一個新的優(yōu)化工具包,方便機器學(xué)習(xí)初學(xué)者和高級開發(fā)人員進行優(yōu)化,方便模型的部署和執(zhí)行。
它的名字是訓(xùn)練后量化(post-training quantization),這是模型量化的一類,主要優(yōu)點有:
模型占用存儲空間縮小75%
如果是主要由卷積層組成的模型,執(zhí)行速度提高10–50%
如果是基于RNN的模型,執(zhí)行速度提高3倍
內(nèi)存、算力要求的降低也意味著大多數(shù)模型的功耗會大幅降低
內(nèi)存、算力、功耗,這是模型量化的主要優(yōu)化對象,而在實踐中,最能從中收益的自然是在各種移動端設(shè)備上使用機器學(xué)習(xí)模型的開發(fā)人員,尤其是TensorFlow Lite的用戶。
下圖展示了使用這個優(yōu)化工具包后,幾種典型模型在存儲空間占用上的變化(單核Android Pixel 2手機):
模型尺寸比較:經(jīng)優(yōu)化的模型幾乎為原來的1/4
下圖是訓(xùn)練后量化對模型執(zhí)行的加速效果(單核Android Pixel 2手機):
延遲比較:經(jīng)優(yōu)化的模型執(zhí)行速度提高了1.2到1.4倍
通常情況下,模型壓縮會對原有準(zhǔn)確率造成不同程度的影響,但訓(xùn)練后量化的影響幾乎等同于無,它能在縮小尺寸、提高速度的前提下保持模型精度,如下圖所示(單核Android Pixel 2手機):
啟用模型量化
現(xiàn)在訓(xùn)練后量化已被集成到TensorFlow Lite中,它的使用方法很簡單:首先構(gòu)建一個TensorFlow模型,其次在conversion tool中找到模型量化的標(biāo)志“posttrainingquantize”。假設(shè)模型存儲在savedmodeldir中,那么具體命令就是:
converter=tf.contrib.lite.TocoConverter.from_saved_model(saved_model_dir)
converter.post_training_quantize=True
tflite_quantized_model=converter.convert()
open(“quantized_model.tflite”, “wb”).write(tflite_quantized_model)
具體操作可見github:github.com/tensorflow/tensorflow/blob/master/tensorflow/contrib/lite/tutorials/posttrainingquant.ipynb
雖然目前開發(fā)者們只能在TensorFlow Lite中用到這個技術(shù),但官方也稱將盡快把它整合到一般的TensorFlow工具中。
小結(jié)
除了訓(xùn)練后量化,在之前提到的白皮書中,Tensorflow還提到了訓(xùn)練時量化,它能使模型的準(zhǔn)確率更高。而綜合來看,它們都是基于量化設(shè)計的技術(shù),依靠把32浮點數(shù)近似地用8位整數(shù)存儲和計算來達到內(nèi)存占用更少、計算更少和功耗更少的目的。
隨著深層神經(jīng)網(wǎng)絡(luò)不斷在現(xiàn)實中落地,這種技術(shù)將適應(yīng)現(xiàn)代科技設(shè)備的發(fā)展步伐,為開發(fā)者和產(chǎn)品用戶帶來便利。
-
機器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8422瀏覽量
132714 -
tensorflow
+關(guān)注
關(guān)注
13文章
329瀏覽量
60537
原文標(biāo)題:模型大小縮小75%,TensorFlow推出模型優(yōu)化工具包
文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論