隨著消費、生物醫學和 IoT/IIoT 市場中始終監聽設備的爆炸式增長,似乎每個人都在嘗試使用模擬來節省設計中的功耗。借助使用“模擬內存計算”來降低處理器功率的新型機器學習 (ML) 數字芯片,半導體供應商正在發明新方法來利用模擬計算的固有功率和計算效率。那么,有什么問題呢?事實是,盡管這些芯片利用模擬電路的固有優勢來節省芯片內用于神經網絡處理的功率,但它們最終是在數字域中對數字數據進行操作的數字處理芯片——這意味著它們只為系統提供有限的節能。幸運的是,模擬ML ) 內核——現在可以在系統級實現更高的功率效率。
雖然模擬內存計算和模擬ML 有時都被標記為“模擬計算”,但它們絕不是一回事。設計人員需要了解模擬內存計算和模擬ML 內核之間的差異,以便他們能夠創建更節能的終端設備?
內存模擬計算的芯片級效率
模擬內存計算通常是指在其他數字機器學習處理器的神經網絡中使用模擬電路,以便以較低的功率執行乘法累加 (MAC) 功能。但是利用這種方法的芯片仍然是在標準數字處理范式內運行的時鐘處理器,需要立即對所有模擬傳感器數據進行數字化,無論是否相關。事實上,使用模擬內存計算的芯片實際上需要三個單獨的數據轉換才能確定數據的重要性。傳感器數據立即轉換為數字進行初始處理(數字化優先架構),然后將它們轉換為芯片內的模擬數據以實現 MAC 功能,最后,它們在芯片內被轉換回數字,以進行推理、分類和其他功能所需的額外數字處理。因此,大量的數據轉換,但沒有太多的實際模擬處理。
雖然模擬內存計算可能會降低單個推理芯片的功率,但它僅以非常有限的方式使用模擬,因此它只能為整個系統提供同樣有限的功率降低。
AnalogML 的系統級效率
相比之下,analogML 內核完全在模擬域內運行,不需要時鐘,并且在對任何數據進行數字化之前使用原始模擬傳感器數據進行推理和分類。集成到始終監聽的設備中,analogML 內核在花費任何精力進行單個數據轉換之前確定數據的重要性。我們稱其為“先分析”,因為analogML 核心保持數字系統關閉,除非檢測到相關數據。
與包含模擬內存計算的 ML 芯片相比,analogML 內核處理模擬傳感器數據的更簡化方法對系統級效率產生重大影響。(見圖 1。)
圖 1:使用具有模擬內存計算的 ML 芯片的數字化優先系統架構(頂部模塊)與使用模擬ML 內核的分析優先系統架構(底部模塊)的比較
例如,在典型的語音優先系統中,analogML 內核 100% 的時間都處于開啟狀態,在始終偵聽模式下消耗低至 10μA 的電流以確定哪些數據是重要的(分析優先架構),然后再消耗任何功率關于數字化。這會使系統的其余部分保持休眠狀態,直到檢測到相關數據。與在數字域中 100% 的時間(數字化優先架構)運行并消耗高達 3000-4000μA 的更傳統的 ML 芯片相比,使用模擬ML 的分析優先方法可將電池壽命延長多達 10 倍。這就是持續數天而不是數小時的智能耳塞與一次充電即可持續數年而不是數月的聲控電視遙控器之間的區別。
AnalogML Core 中有什么?
深入analogML 核心的底層揭示了模擬內存計算(模擬計算僅用于神經網絡)與analogML 核心(由多個軟件控制的模擬處理塊組成,我們可以啟用、重新配置)之間的區別,并針對各種分析優先應用程序進行調整。這些模塊——可以在需要時獨立供電——實現了一系列功能。(見圖 2)。
圖 2:analogML 內核的框圖
傳感器接口——可以為特定傳感器類型(麥克風、加速度計等)合成接口電路
模擬特征提取——從原始的模擬傳感器數據中挑選出顯著特征,大大減少進入神經網絡的數據量
模擬數據壓縮——模擬傳感器數據的連續收集和壓縮支持低功耗數據緩沖
模擬范式轉變
AnalogML 遠遠超出了在整個 ML 芯片計算的一小部分中使用一點點模擬計算來節省功耗。這是一個完整的模擬前端解決方案,它使用接近零的功率來確定信號鏈中最早點的數據的重要性——而數據仍然是模擬的——以最大限度地減少通過系統運行的數據量和數字系統 (ADC/MCU/DSP) 開啟的時間量。在某些應用中,例如玻璃破碎檢測,事件可能每十年發生一次(或從不發生),使用模擬ML 內核使數字系統在 99% 以上的時間內保持關閉可以將電池壽命延長數年。這開辟了新類別的持久遠程應用程序,如果所有相關或不相關的數據在處理之前都被數字化,這些應用程序將無法實現。
底線是所有模擬計算都不相等。無論芯片中包含多少模擬處理來降低其功耗,除非該芯片在模擬域中運行,在模擬數據上,它并沒有做我們所知道的最能節省系統功耗的一件事——減少數字處理數據。
審核編輯:郭婷
-
芯片
+關注
關注
455文章
50725瀏覽量
423173 -
mcu
+關注
關注
146文章
17128瀏覽量
351005 -
adc
+關注
關注
98文章
6496瀏覽量
544476
發布評論請先 登錄
相關推薦
評論