隨著人工智能領域的發展,這些設備的計算量和功耗都在增加。隨后,邊緣設備上的處理負載隨著系統架構的性能和復雜性而顯著增長。因此,更高分辨率的圖像和更復雜的算法被灌輸到系統中,隨著對人工智能處理的需求不斷增加,需要進一步優化以實現高 TOPS 性能。
Synopsys 發布了神經處理單元 (NPU)、知識產權 (IP) 內核和工具鏈,以滿足 AI 片上系統 (SoC) 中日益復雜的神經網絡模型的性能需求。其新的 DesignWare ARC NPX6 和 NPX6FS NPU IP 可處理實時計算的需求,同時為 AI 應用消耗超低功耗。此外,該公司的新 MetaWare MX 開發工具提供了一個完整的編譯環境和自動神經網絡算法分區,以最大限度地提高最新 NPU 上應用軟件開發的資源效率。
使用新的 DesignWare ARC NPX6 和 NPX6FS NPU IP 以及 MetaWare MX 開發工具包,設計人員可以利用最新的神經網絡模型,滿足不斷升級的性能預期,并加快其下一代智能 SoC 的上市時間。ARC NPX6 NPU IP 系列包括眾多處理深度學習算法覆蓋的產品,包括對象識別、圖像質量增強和場景分割等計算機視覺任務,以及音頻和自然語言處理等更大的人工智能應用。設計中的單個內核可以從 4K MAC 擴展到 96K MAC,以實現超過 250 TOPS 的單個 AI 引擎性能和超過 440 TOPS 的稀疏性。
NPX6 NPU IP 包含對多達 8 個 NPU 的多 NPU 集群的硬件和軟件支持,稀疏度為 3500 TOPS。由于硬件和軟件中的高級帶寬功能以及內存層次結構(每個內核中包含 L1 內存和訪問通用 L2 內存的高性能、低延遲連接),因此可以擴展到大量 MAC 數量。對于受益于神經網絡內的 BF16 或 FP16 的應用,提供了一個可選的張量浮點單元。
圖片來源:新思科技
MetaWare MX 開發工具包為應用軟件開發提供軟件編程環境,包括神經網絡軟件開發工具包 (NN SDK) 和虛擬模型支持。NN SDK 自動將使用 Pytorch、Tensorflow 或 ONNX 等流行框架訓練的神經網絡轉換為 NPX 優化的可執行代碼。
其概念是,NPX6 NPU 處理器 IP 可隨后用于制造各種產品,從幾 TOPS 到數千 TOPS,所有這些都可以使用單個工具鏈編寫。
NPX6 NPU IP 的主要特點:
可擴展的實時 AI/神經處理器 IP,性能高達 3,500 TOPS,支持 CNN、RNN/LSTM、轉換器、推薦網絡和其他神經網絡。
電源效率(高達 30 TOPS/W)在業界是無與倫比的。
1-24核卷積加速器,增加4K MAC/核
支持張量算子集架構并允許變量激活 (TOSA) 的張量加速器
軟件開發套件
自動混合模式量化工具
降低帶寬的架構和軟件工具特性
通過并行處理各個層來減少延遲。
DesignWare ARC VPX 矢量 DSP 無縫集成。
生產力很高。MetaWare MX Development Toolkit 支持 Tensorflow 和 Pytorch 框架以及 ONNX 交換標準。
此外,ARC NPX6FS NPU IP 符合 ISO 26262 ASIL D 標準,用于隨機硬件故障檢測和系統功能安全開發流程。這些處理器具有符合 ISO 26262 的特定安全機制,可處理下一代區域設計的混合關鍵性和虛擬化需求,以及完整的安全文檔。
ARC MetaWare MX 開發工具包包括神經網絡軟件開發工具包 (SDK)、編譯器和調試器、虛擬平臺 SDK、運行時和庫以及高級仿真模型。它提供了一個統一的工具鏈環境來加速應用程序開發,并在 MAC 資源之間智能地劃分算法以進行優化處理。MetaWare MX 安全開發工具包包含安全手冊和安全指南,可幫助開發人員滿足 ISO 26262 標準并為安全關鍵型汽車應用的 ISO 26262 合規性測試做準備。
使用 NPU 集群加速邊緣 AI 應用程序
為了滿足 AI 應用日益增長的性能和復雜需求,NXP NPU IP 內核提供了高性能、可擴展的實時 AI 和神經處理 IP,高達 3500 TOPS 支持各種神經網絡,如 CNN、RNN/LSTM、變壓器、和推薦網絡。
此外,它通過并行處理各個層來減少延遲。此外,高效的 MetaWare MX 開發工具包支持 Tensorflow 和 Pytorch 框架以及 ONNX 交換格式。
審核編輯:郭婷
-
變壓器
+關注
關注
159文章
7470瀏覽量
135217 -
神經網絡
+關注
關注
42文章
4771瀏覽量
100747 -
AI
+關注
關注
87文章
30830瀏覽量
268996
發布評論請先 登錄
相關推薦
評論