數據處理當然不是一個新概念,算法也不是。然而,訓練和運行算法的地方正在迅速發展。近年來,由于能夠利用臨時計算資源來執行這些數據密集型任務,機器學習 (ML) 算法的訓練大體上已在云環境中進行。
如今,人們大力推動盡可能靠近源頭處理數據。這是由于物聯網 (IoT) 的出現以及現在正在生成大量數據的各種技術。所有這些數據都讓組織爭先恐后地以具有成本效益的方式充分利用它。組織需要考慮數據從源頭傳輸到處理位置的成本,以及存儲和處理數據的成本,這通常也是在資源密集型服務器/云環境中。
人工智能 (AI) 技術開始出現,可以在 ESP32 和基于 Cortex M4 的微控制器單元 (MCU) 等低計算功率設備上而非更大的微處理器單元 (MPU) 上進行 ML 模型訓練和執行。這允許數據保持在本地,并且僅在必要時才在云中傳輸已處理的數據。
通過將訓練和運行 ML 模型的總體占用空間要求降至 100kb 以下,嵌入式計算中的 AI 正在進入一個新領域。例如,冒泡排序算法可能比合并排序算法更受嵌入式算法工程師的歡迎,因為前者使用了現有的內存。盡管已經存在許多算法,但正在開發新的基于 AI 的時間序列預測算法并針對嵌入式環境進行優化。通過這種新方法,AI/ML 模型在嵌入式板上進行訓練。然后,這些模型用于在執行期間進行多變量統計推斷。
這些新的基于 AI 的時間序列預測算法具有三個優勢:
該解決方案與網絡延遲無關,因為計算是在本地板上進行的,因此性能得到了提高。
由于原始信號/數據僅在本地出現,因此保證了原始數據的安全/隱私。
對于每個嵌入式板,都會訓練一個新的 ML/AI 模型。這可能是這種方法的核心優勢,因為在典型的工業案例中,由于環境變體、傳感器的缺陷和機器變體,不可能使用單個 ML/AI 模型來覆蓋一組機器的特征。使用云服務器為每個嵌入式板訓練模型也不是負擔得起的。
技術突破
算法在嵌入式計算中發揮著重要作用。通常,嵌入式設備執行的算法任務包括傳感器數據清理/過濾、數據編碼/解碼和控制信號生成。由于有限的內存容量、CPU 能力和不同的架構,嵌入式計算環境中“最佳算法”的定義可能與 PC 和云服務器中的大不相同。
在過去的幾年里,人工智能/機器學習算法取得了突破性的進展和非常迅速的進展。許多努力都集中在將 AI/ML 模型(這些模型在其他地方訓練過)應用于嵌入式上下文。換句話說,要成功部署 AI/ML 模型,需要優化內存/CPU 使用率和算法的功耗。
人工智能正在縮小,可以運行這些高級算法。技術進步現在允許人工智能和預測性維護從基于 MPU 的設備轉移到基于 MCU 的設備,占用空間小,價格顯著降低。基于 MCU 的設備現在可以在網絡邊緣執行任務——例如預測性維護——以前只能在 MPU 上使用。這一新功能使芯片制造商、原始設備制造商 (OEM) 和智能設備制造商能夠降低成本并提供差異化??的產品。
審核編輯:郭婷
-
mcu
+關注
關注
146文章
17174瀏覽量
351659 -
人工智能
+關注
關注
1792文章
47410瀏覽量
238925 -
機器學習
+關注
關注
66文章
8424瀏覽量
132766
發布評論請先 登錄
相關推薦
評論