據企業管理協會稱,未來幾年預計將有超過600億臺智能設備上線。更令人興奮的是智能物聯網設備中實現的處理能力和智能水平。工廠和樓宇控制系統、醫療設備、自動駕駛汽車和機器以及家庭解決方案等系統將以前所未有的數量在邊緣應用機器學習(ML)和人工智能(AI)。事實上,Gartner預測,邊緣計算將處理所有生成的數據的75%。使我們的工業世界更智能、更安全、更高效的能力正在呈指數級增長。
雖然這一發展令人興奮,但它突顯了網絡邊緣安全性的重要性與日俱增。執行關鍵任務的互聯物聯網設備的日益激增意味著存在比以往更容易受到攻擊的接入點。為了享受“智能”設備(尤其是在其應用中實現 ML 和 AI 的設備)提供的優勢,保護代表解決方案價值很大一部分(如果不是全部)的關鍵知識產權變得至關重要。本質上,產品中還必須內置更多的互連性,需要訪問互聯網才能接收AI模型,固件或文件系統的關鍵更新。雖然數據中心可能被認為是安全的,免受外部入侵,但物聯網設備的風險要大得多,這使得它們成為那些尋求更簡單的利用系統的方法的人的理想切入點。
物聯網設備開發人員需要確保其產品免受攻擊,在整個制造過程中安全可靠,并能夠在產品的整個生命周期內得到安全管理。如果沒有適當實施物聯網安全,供應商可能會損害其產品,信譽和品牌,以及關鍵知識產權的損失。這種關鍵方法的最前沿是邊緣的保護AI模型。
在智能設備上保護AI模型(驗證模型是否真實并將其隱藏起來免受威脅)的方法可能會有所不同,具體取決于硬件的性質及其應用。要考慮的因素包括:
可用于存儲和加密模型或應用程序的內存
周圍環境中的風險級別(例如,模型是否會與同一設備上其他不太受信任的應用程序共存?
用于執行應用程序的硬件(例如,運行 AI 模型和提供推理是否涉及 GPU?
在了解了環境之后,開發人員可以使用針對需求進行優化的方法在邊緣保護 AI。下面是一些最佳做法示例。
加密靜態應用程序
此方法在設備未主動使用模型時保護模型。此方法涉及將模型的加密版本存儲在非易失性內存中。每當需要模型時,都會對其進行身份驗證和解密。推理完成后,任何未加密的數據都將從易失性存儲器中刪除。這大大減少了模型公開的時間以及相關的攻擊面。
使用 ARM? 信任區?隔離模型
在 ARM 信任區體系結構中,可以將模型的敏感部分存放在安全的內存分區或安全隔區中。使用這種方法,模型永遠不會暴露在不安全的應用程序環境(例如Linux)中。此方法需要在安全區域中分配內存和一些開發時間,以根據安全隔區規范構建應用程序,但這是保護AI模型的最安全方法。
使模型能夠使用虛擬化訪問多個硬件塊和運行時環境
如果使用專用硬件(例如GPU)來運行模型,則模型可以位于一個虛擬環境(例如Linux)中,并由另一個可以訪問硬件(GPU)進行訪問的環境進行訪問,以進行處理和生成推理。使用虛擬化,可以對應用程序進行身份驗證、解密,然后在隔離虛擬機中的專用環境中運行。運行模型只能由隔離環境訪問,該環境可以訪問 GPU 并將推理安全地發送到包含加密模型的運行時環境。
由于端點設備面臨大量潛在的物聯網安全威脅,制造商和集成商必須繼續專注于尋找能夠鎖定其產品和其中包含的IP的一流安全策略和產品,因為它根本無法受到損害。像這樣的AI模型保護方法為智能設備帶來了安全性,并實現了邊緣智能的新時代。
審核編輯:郭婷
-
gpu
+關注
關注
28文章
4752瀏覽量
129057 -
物聯網
+關注
關注
2909文章
44741瀏覽量
374510
發布評論請先 登錄
相關推薦
評論