色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

三行代碼完成AI模型的部署!

CVer ? 來源:CVer ? 作者:CVer ? 2022-11-10 10:18 ? 次閱讀
人工智能產業應用發展的越來越快,開發者需要面對的適配部署工作也越來越復雜。層出不窮的算法模型、各種架構的AI硬件、不同場景的部署需求(服務器、服務化、嵌入式、移動端等)、不同操作系統和開發語言,為AI開發者項目落地帶來不小的挑戰。44eb51b4-609d-11ed-8abf-dac502259ad0.png

為了解決AI部署落地難題,我們發起了FastDeploy項目。FastDeploy針對產業落地場景中的重要AI模型,將模型API標準化,提供下載即可運行的Demo示例。相比傳統推理引擎,做到端到端的推理性能優化。FastDeploy還支持在線(服務化部署)和離線部署形態,滿足不同開發者的部署需求。

經過為期一年的高密度打磨,FastDeploy目前具備三類特色能力:

全場景:支持GPUCPU、Jetson、ARM CPU、瑞芯微NPU、晶晨NPU、恩智浦NPU等多類硬件,支持本地部署、服務化部署、Web端部署、移動端部署等,支持CV、NLP、Speech三大領域,支持圖像分類、圖像分割、語義分割、物體檢測、字符識別(OCR)、人臉檢測識別、人像扣圖、姿態估計、文本分類、信息抽取、行人跟蹤、語音合成等16大主流算法場景。

易用靈活:三行代碼完成AI模型的部署,一行API完成模型替換,無縫切換至其他模型部署,提供了150+熱門AI模型的部署Demo。

極致高效:相比傳統深度學習推理引擎只關注模型的推理時間,FastDeploy則關注模型任務的端到端部署性能。通過高性能前后處理、整合高性能推理引擎、一鍵自動壓縮等技術,實現了AI模型推理部署的極致性能優化。

項目傳送門:

https://github.com/PaddlePaddle/FastDeploy

以下將對該3大特性做進一步技術解讀,全文大約2100字,預計閱讀時長3分鐘。

1

3大特性篇

2

3步部署實戰篇,搶先看

CPU/GPU部署實戰

Jetson部署實戰

RK3588部署實戰(RV1126、晶晨A311D等NPU類似)

1

3大特性解讀

全場景:一套代碼云邊端多平臺多硬件一網打盡,覆蓋CV、NLP、Speech

支持PaddleInference、TensorRT、OpenVINO、ONNXRuntime、PaddleLite、RKNN等后端,覆蓋常見的NVIDIAGPU、x86CPU、Jetson Nano、Jetson TX2、ARMCPU(移動端、ARM開發板)、Jetson Xavier、瑞芯微NPU(RK3588、RK3568、RV1126、RV1109、RK1808)、晶晨NPU(A311D、S905D)等云邊端場景的多類幾十款AI硬件部署。同時支持服務化部署、離線CPU/GPU部署、端側和移動端部署方式。針對不同硬件,統一API保證一套代碼在數據中心、邊緣部署和端側部署無縫切換。45072542-609d-11ed-8abf-dac502259ad0.jpgFastDeploy支持CV、NLP、Speech三大AI領域,覆蓋16大類算法(圖像分類、圖像分割、語義分割、物體檢測、字符識別(OCR) 、人臉檢測、人臉關鍵點檢測、人臉識別、人像扣圖、視頻扣圖、姿態估計、文本分類 信息抽取 文圖生成、行人跟蹤、語音合成)。支持飛槳PaddleClas、PaddleDetection、PaddleSeg、PaddleOCR、PaddleNLP、PaddleSpeech 6大熱門AI套件的主流模型,同時也支持生態(如PyTorch、ONNX等)熱門模型的部署。4517dd88-609d-11ed-8abf-dac502259ad0.gif ?

易用靈活,三行代碼完成模型部署,一行命令快速體驗150+熱門模型部署

FastDeploy三行代碼可完成AI模型在不同硬件上的部署,極大降低了AI模型部署難度和工作量。一行命令切換TensorRT、OpenVINO、Paddle Inference、Paddle Lite、ONNX Runtime、RKNN等不同推理后端和對應硬件。低門檻的推理引擎后端集成方案,平均一周時間即可完成任意硬件推理引擎的接入使用,解耦前后端架構設計,簡單編譯測試即可體驗FastDeploy支持的AI模型。開發者可以根據模型API實現相應模型部署,也可以選擇git clone一鍵獲取150+熱門AI模型的部署示例Demo,快速體驗不同模型的推理部署。

			# PP-YOLOE的部署 import fastdeploy as fd import cv2 model = fd.vision.detection.PPYOLOE("model.pdmodel", "model.pdiparams", "infer_cfg.yml") im = cv2.imread("test.jpg") result = model.predict(im) # YOLOv7的部署 import fastdeploy as fd import cv2 model = fd.vision.detection.YOLOv7("model.onnx") im = cv2.imread("test.jpg") result = model.predict(im)

FastDeploy部署不同模型


			# PP-YOLOE的部署 import fastdeploy as fd import cv2 option = fd.RuntimeOption() option.use_cpu() option.use_openvino_backend() # 一行命令切換使用 OpenVINO部署 model = fd.vision.detection.PPYOLOE("model.pdmodel", "model.pdiparams", "infer_cfg.yml", runtime_option=option) im = cv2.imread("test.jpg") result = model.predict(im)FastDeploy切換后端和硬件
						

極致高效:一鍵壓縮提速,預處理加速,端到端性能優化,提升AI算法產業落地

FastDeploy在吸收TensorRT、OpenVINO、Paddle Inference、Paddle Lite、ONNX Runtime、RKNN等高性能推理優勢的同時,通過端到端的推理優化解決了傳統推理引擎僅關心模型推理速度的問題,提升整體推理速度和性能。集成自動壓縮工具,在參數量大大減小的同時(精度幾乎無損),推理速度大幅提升。使用CUDA加速優化預處理和后處理模塊,將YOLO系列的模型推理加速整體從41ms優化到25ms。端到端的優化策略,徹底解決AI部署落地中的性能難題。更多性能優化,歡迎關注GitHub了解詳情。https://github.com/PaddlePaddle/FastDeploy45fb784a-609d-11ed-8abf-dac502259ad0.png ? ?

2

3步部署實戰篇,搶先看

1

CPU/GPU部署實戰(以YOLOv7為例)

安裝FastDeploy部署包,下載部署示例(可選,也可以三行API實現部署代碼)


			pip install fastdeploy-gpu-python -f https://www.paddlepaddle.org.cn/whl/fastdeploy.html git clone https://github.com/PaddlePaddle/FastDeploy.git cd examples/vision/detection/yolov7/python/
						

準備模型文件和測試圖片


			wget https://bj.bcebos.com/paddlehub/fastdeploy/yolov7.onnx wget https://gitee.com/paddlepaddle/PaddleDetection/raw/release/2.4/demo/000000014439.jpg
						

CPU/GPU推理模型


			# CPU推理 python infer.py --model yolov7.onnx --image 000000014439.jpg --device cpu # GPU推理 python infer.py --model yolov7.onnx --image 000000014439.jpg --device gpu # GPU上使用TensorRT推理 python infer.py --model yolov7.onnx --image 000000014439.jpg --device gpu --use_trt True

推理結果示例:

462f6b6e-609d-11ed-8abf-dac502259ad0.png

2

Jetson部署實戰(以YOLOv7為例)

安裝FastDeploy部署包,配置環境變量


			git clone https://github.com/PaddlePaddle/FastDeploy cd FastDeploy mkdir build && cd build cmake .. -DBUILD_ON_JETSON=ON -DENABLE_VISION=ON -DCMAKE_INSTALL_PREFIX=${PWD}/install make -j8 make install cd FastDeploy/build/install source fastdeploy_init.sh
						

準備模型文件和測試圖片


			wget https://bj.bcebos.com/paddlehub/fastdeploy/yolov7.onnx wget https://gitee.com/paddlepaddle/PaddleDetection/raw/release/2.4/demo/000000014439.jpg
						

編譯推理模型


			cd examples/vision/detection/yolov7/cpp cmake .. -DFASTDEPLOY_INSTALL_DIR=${FASTDEPOLY_DIR} mkdir build && cd build make -j # 使用TensorRT推理(當模型不支持TensorRT時會自動轉成使用CPU推理) ./infer_demo yolov7s.onnx 000000014439.jpg 27s.onnx 000000014439.jpg 2

推理結果示例:

4645f58c-609d-11ed-8abf-dac502259ad0.png

3

RK3588部署實戰以輕量化檢測網絡PicoDet為例)

安裝FastDeploy部署包,下載部署示例(可選,也可以三行API實現部署代碼)


			# 參考編譯文檔,完成FastDeploy編譯安裝 # 參考文檔鏈接:https://github.com/PaddlePaddle/FastDeploy/blob/develop/docs/cn/build_and_install/rknpu2.md # 下載部署示例代碼 git clone https://github.com/PaddlePaddle/FastDeploy.git cd examples/vision/detection/paddledetection/rknpu2/python
						

準備模型文件和測試圖片


			wget https://bj.bcebos.com/fastdeploy/models/rknn2/picodet_s_416_coco_npu.zip unzip -qo picodet_s_416_coco_npu.zip ## 下載Paddle靜態圖模型并解壓 wget https://bj.bcebos.com/fastdeploy/models/rknn2/picodet_s_416_coco_npu.zip unzip -qo picodet_s_416_coco_npu.zip # 靜態圖轉ONNX模型,注意,這里的save_file請和壓縮包名對齊 paddle2onnx --model_dir picodet_s_416_coco_npu --model_filename model.pdmodel --params_filename model.pdiparams --save_file picodet_s_416_coco_npu/picodet_s_416_coco_npu.onnx --enable_dev_version True python -m paddle2onnx.optimize --input_model picodet_s_416_coco_npu/picodet_s_416_coco_npu.onnx --output_model picodet_s_416_coco_npu/picodet_s_416_coco_npu.onnx --input_shape_dict "{'image':[1,3,416,416]}" # ONNX模型轉RKNN模型 # 轉換模型,模型將生成在picodet_s_320_coco_lcnet_non_postprocess目錄下 python tools/rknpu2/export.py --config_path tools/rknpu2/config/RK3588/picodet_s_416_coco_npu.yaml # 下載圖片 wget https://gitee.com/paddlepaddle/PaddleDetection/raw/release/2.4/demo/000000014439.jpg
						

推理模型


		python3 infer.py --model_file ./picodet _3588/picodet_3588.rknn --config_file ./picodet_3588/deploy.yaml --image images/000000014439.jpg
		


審核編輯 :李倩


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    30728

    瀏覽量

    268887
  • 人工智能
    +關注

    關注

    1791

    文章

    47183

    瀏覽量

    238258
  • 深度學習
    +關注

    關注

    73

    文章

    5500

    瀏覽量

    121111

原文標題:炸裂!三行代碼完成AI模型的部署!

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    AI模型部署邊緣設備的奇妙之旅:目標檢測模型

    智視覺模塊上部署 PaddleDetection 模型如果說有自己制作數據的話,需要將數據上傳,然后在修改全局配置項,修改數據集地址以及對應的類別數。 按照廠家提供的配置直接進行訓練轉換。 訓練完成后,會自動生成一個rknn
    發表于 12-19 14:33

    AI模型部署邊緣設備的奇妙之旅:如何實現手寫數字識別

    更適合生產環境的框架來部署。此外,許多推理引擎和硬件加速器也支持ONNX格式,從而進一步加快了模型部署的速度。 在凌智視覺模塊中模型轉換就比較簡單,我們只需要點擊運行即可,下面是具體的
    發表于 12-06 17:20

    AI模型部署和管理的關系

    AI模型部署與管理是AI項目成功的兩大支柱,它們之間既相互獨立又緊密相連,共同推動著AI技術從實驗室走向實際應用。
    的頭像 發表于 11-21 10:02 ?146次閱讀

    如何在STM32f4系列開發板上部署STM32Cube.AI

    已下載STM32Cube.AI擴展包,但是無法使用,感覺像是沒有部署AI模型,我是想要通過攝像頭拍照,上傳圖像后,經過開發板處理器進行AI
    發表于 11-18 09:39

    AI模型托管原理分析

    AI模型托管是指將訓練好的AI模型部署在云端或邊緣服務器上,由第方平臺提供
    的頭像 發表于 11-07 09:33 ?157次閱讀

    企業AI模型部署怎么做

    AI模型部署作為這一轉型過程中的關鍵環節,其成功實施對于企業的長遠發展至關重要。在此,AI部落小編為您介紹企業AI
    的頭像 發表于 11-04 10:15 ?150次閱讀

    三行代碼完成生成式AI部署

    LLM加載與推理部署能力,實現了OpenVINO對CNN網絡、生成式模型、LLM網絡主流模型的全面推理支持。
    的頭像 發表于 08-30 16:49 ?413次閱讀
    <b class='flag-5'>三行</b><b class='flag-5'>代碼</b><b class='flag-5'>完成</b>生成式<b class='flag-5'>AI</b><b class='flag-5'>部署</b>

    利用恩智浦云實驗室部署AI模型

    如今,人工智能(AI)非常火爆,這個風口該如何把握?作為一個電子工程師,和AI最主要的交集應該就是邊緣計算了,具體來講,就是在一些性能、功耗以及價格相對較低的嵌入式平臺上部署和運行AI
    的頭像 發表于 08-02 11:46 ?2739次閱讀
    利用恩智浦云實驗室<b class='flag-5'>部署</b><b class='flag-5'>AI</b><b class='flag-5'>模型</b>

    摩爾線程攜手東華軟件完成AI模型推理測試與適配

    近日,摩爾線程與東華軟件云筑AI創新中心宣布,雙方已完成模型推理測試與適配。依托摩爾線程的全功能GPU國產算力,東華軟件打造安全可信的基于私有化大模型的“智多型(A.I.Cognif
    的頭像 發表于 07-31 10:51 ?733次閱讀

    英偉達推出Flextron AI框架:賦能靈活高效的AI模型部署

    在人工智能與機器學習領域,隨著技術的不斷演進,模型的高效部署與適應性成為研究的新熱點。近日,英偉達與德克薩斯大學奧斯汀分校攜手宣布了一項重大突破——推出了一種名為FLEXTRON的新型靈活模型架構及訓練后優化框架,這一創新成果為
    的頭像 發表于 07-18 15:22 ?2742次閱讀

    CubeIDE生成的代碼框架會卡在MX_X_CUBE_AI_Process()函數中是怎么回事?

    當我將網絡模型部署到STM32F407VGT6中時,CubeIDE生成的代碼框架會卡在MX_X_CUBE_AI_Process()函數中是怎么回事?CUbeAI庫的版本是9.0。期待您
    發表于 05-30 06:11

    愛芯通元NPU完成Llama 3和Phi-3大模型適配,推動AI模型技術普及

    AI模型技術的持續進步正在推動千百業智能化升級。
    的頭像 發表于 04-26 16:57 ?856次閱讀
    愛芯通元NPU<b class='flag-5'>完成</b>Llama 3和Phi-3大<b class='flag-5'>模型</b>適配,推動<b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>技術普及

    AI模型將如何推動中國產業升級?華為盤古大模型深耕千萬業

    AI模型將如何推動中國產業升級?日前,華為混合云副總裁胡玉海在做客央視網《中國神氣局》時,暢談AI模型發展趨勢以及如何助力產業創新。胡玉海表示,盤古大
    的頭像 發表于 03-22 10:40 ?586次閱讀

    防止AI模型被黑客病毒入侵控制(原創)聆思大模型AI開發套件評測4

    風險。 以下是我編寫的一個簡單的Python代碼,用于防止AI模型被黑客病毒入侵控制: import os# 這是咱的“大管家”,專門負責家里(系統)的各種瑣事,比如找個文件、開個窗戶什么的
    發表于 03-19 11:18

    使用CUBEAI部署tflite模型到STM32F0中,模型創建失敗怎么解決?

    CRC IP,用MX生成工程時已經啟用了CRC,代碼中也有。 但是依舊無法生成模型。 想問問該如何解決,還是說F0還是無法部署AI模型
    發表于 03-15 08:10
    主站蜘蛛池模板: 欧美高清vivoesosexo18| 息与子在线交尾中文字幕| 亚洲精品免费在线视频| SM双性精跪趴灌憋尿调教H| 狠狠婷婷综合久久久久久| 欧美乱妇15p图| 一个人免费视频在线观看| 光溜溜的美女直播软件| 蜜芽手机在线观看| 野花日本手机观看大全免费3 | 国产精品18久久久久久欧美 | 国产 欧美 亚洲 日韩视频| 蓝男色gay| 亚洲精品AV一二三区无码| 大胆国模一区二区三区伊人| 美女坐脸vk| 伊人影院久久| 国产在线观看的| 四虎影院2022| 扒开老师大腿猛进AAA片邪恶| 久久这里只有精品2| 野花韩国高清完整版在线| 国产亚洲精品久久精品录音| 色综合99久久久国产AV| 把极品白丝老师啪到腿软| 免费看片A级毛片免费看| 又黄又爽又无遮挡在线观看免费| 国产在线视频分类精品| 午夜爱情动作片P| 国产99视频在线观看| 日本高清不卡码无码v亚洲| 99热精品一区| 蜜桃成人在线| 2020国产成人精品视频人| 久久99国产精品一区二区| 亚洲精品午夜VA久久成人| 国产乱人精品视频AV麻豆| 视频成人永久免费看| 岛国片在线看| 三级黄色片免费观看| 成人中文字幕在线|