色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

使用FastDeploy在英特爾CPU和獨立顯卡上端到端高效部署AI模型

英特爾物聯網 ? 來源:英特爾物聯網 ? 作者:王一凡 ? 2022-12-20 11:27 ? 次閱讀

作者:英特爾物聯網創新大使王一凡

1.1產業實踐中部署 AI 模型的痛點

1.1.1部署 AI 模型的典型流程

對于來自于千行百業,打算將 AI 模型集成到自己的主線產品中,解決本行痛點的 AI 開發者來說,部署 AI 模型,或者說將 AI 模型集成到自己產品中去的典型步驟(以計算機視覺應用為例)有:

采集圖像&圖像解碼

數據預處理

執行 AI 推理計算

推理結果后處理

將后處理結果集成到業務流程

22441786-7f88-11ed-8abf-dac502259ad0.png

1.1.2端到端的 AI 性能

當 AI 開發者將 AI 模型集成到業務流程后,不太關心 AI 模型在 AI 推理硬件上單純的推理速度,而是關心包含圖像解碼、數據預處理和后處理的端到端的 AI 性能。

227580b4-7f88-11ed-8abf-dac502259ad0.png

在產業實踐中,我們發現不僅 AI 推理硬件和對應推理引擎(例如:OpenVINO Runtime)對于端到端的性能影響大,數據預處理和后處理代碼是否高效對于端到端的性能影響也大。

CPU 上預處理操作融合優化為例,經過優化后的前處理代碼,可以使得 AI 端到端性能得到較大提升。

22965212-7f88-11ed-8abf-dac502259ad0.png

數據來源:感謝 FastDeploy 團隊完成測試并提供數據

結論:優秀且高效的前后處理代碼,可以明顯提高端到端的 AI 性能!

1.1.3部署 AI 模型的難點和痛點

在產業實踐中,在某個任務上當前最優的 SOTA 模型的很有可能與部署相關的文檔和范例代碼不完整,AI 開發者需要通過閱讀 SOTA 模型源代碼來手動編寫模型的前后處理代碼,這導致:

01耗時耗力

閱讀 SOTA 模型源代碼來理解模型的前后處理,提高了部署模型的技術門檻。另外,手動編寫前后處理代碼,也需要更多的測試工作來消除 bug。

02精度隱患

手動或借助網上開源但未經過實踐驗證過的前后處理代碼,會有精度隱患,即當前對于某些圖片精度很好,但對于另外的圖片精度就下降。筆者就遇到過類似問題,原因在于調用了一個 GitHub 上下載的 NMS()函數,這個函數對代碼倉提供的范例模型有效,但對于筆者使用的模型恰恰就出現丟失檢測對象的問題。

03優化困難

解決了精度問題后,下一步就是通過多線程、模型壓縮、Batch 優化等軟件技術進一步提升端到端的 AI 性能,節約硬件采購成本。這些軟件技術對于計算機專業的工程師不算挑戰,但對于千行百業中非計算機專業的工程師,卻無形中建立起了一道極高的門檻。

為了賦能千行百業的工程師,高效便捷的將 AI 模型集成到自己的產品中去,急需一個專門面向 AI 模型部署的軟件工具。

1.2FastDeploy 簡介

FastDeploy是一款全場景、易用靈活、極致高效的 AI 推理部署工具。提供開箱即用云邊端部署體驗, 支持超過150+Text,Vision,Speech 和跨模態模型,并實現端到端的推理性能優化。包括圖像分類、物體檢測、圖像分割、人臉檢測、人臉識別、關鍵點檢測、摳圖、OCR、NLP、TTS 等任務,滿足開發者多場景、多硬件、多平臺的產業部署需求。

22d4f40e-7f88-11ed-8abf-dac502259ad0.png

FastDeploy 項目鏈接:

https://github.com/PaddlePaddle/FastDeploy

1.3英特爾獨立顯卡簡介

英特爾在2021年的構架日上發布了獨立顯卡產品路線圖,OpenVINO 從2022.2版本開始支持 AI 模型在英特爾獨立顯卡上做 AI 推理計算。

23000f9a-7f88-11ed-8abf-dac502259ad0.png

當前已經可以購買的消費類獨立顯卡是英特爾銳炫獨立顯卡A7系列,并已發布在獨立顯卡上做 AI 推理計算的范例程序。

23a2b9fc-7f88-11ed-8abf-dac502259ad0.png

1.4使用 FastDeploy

在英特爾 CPU 和獨立顯卡上

部署模型的步驟

1.4.1搭建 FastDeploy 開發環境

當前 FastDeploy 最新的 Release 版本是1.0.1,一行命令即可完成 FastDeploy 的安裝:

 pip install fastdeploy-python –f https://www.paddlepaddle.org.cn/whl/fastdeploy.html

向右滑動查看完整代碼

1.4.2下載模型和測試圖片

FastDeploy 支持的 PaddleSeg 預訓練模型下載地址:

https://github.com/PaddlePaddle/FastDeploy/tree/develop/examples/vision/segmentation/paddleseg

測試圖片下載地址:

https://paddleseg.bj.bcebos.com/dygraph/demo/cityscapes_demo.png

使用命令,下載模型和測試圖片:

圖片:
wget https://paddleseg.bj.bcebos.com/dygraph/demo/cityscapes_demo.png
模型:
wget https://github.com/PaddlePaddle/FastDeploy/tree/develop/examples/vision/segmentation/paddleseg

向右滑動查看完整代碼

1.4.3三行代碼完成在英特爾 CPU 上的模型部署

基于 FastDeploy,只需三行代碼即可完成在英特爾 CPU上的模型部署,并獲得經過后處理的推理結果。

import fastdeploy as fd
import cv2
# 讀取圖片
im = cv2.imread("cityscapes_demo.png")
# 加載飛槳PaddleSeg模型
model = fd.vision.segmentation.PaddleSegModel(“model.pdmodel”, “model.pdiparams”,“deploy.yaml”)
# 預測結果
result = model.predict(im)
print(result)

向右滑動查看完整代碼

將推理結果 print 出來,如下圖所示,經過 FastDeploy 完成的 AI 推理計算,拿到的是經過后處理的結果,可以直接將該結果傳給業務處理流程

23c82e94-7f88-11ed-8abf-dac502259ad0.png

1.4.4

使用 RuntimeOption 將 AI 推理硬件

切換英特爾獨立顯卡

在上述三行代碼的基礎上,只需要使用RuntimeOption將AI推理硬件切換為英特爾獨立顯卡,完成代碼如下所示:

import fastdeploy as fd
import cv2
# 讀取圖片
im = cv2.imread("cityscapes_demo.png")
h, w, c = im.shape
# 通過RuntimeOption配置后端
option = fd.RuntimeOption()
option.use_openvino_backend()
option.set_openvino_device("GPU.1")
# 固定模型的輸入形狀
option.set_openvino_shape_info({"x": [1,c,h,w]})
# 加載飛槳PaddleSeg模型
model = fd.vision.segmentation.PaddleSegModel(“model.pdmodel”, “model.pdiparams”,“deploy.yaml”, 
                       runtime_option=option)               
# 預測結果
result = model.predict(im)

向右滑動查看完整代碼

set_openvino_device()中字符串填寫“GPU.1”是根據英特爾獨立顯卡在操作系統的中設備名稱,如下圖所示:

23f432aa-7f88-11ed-8abf-dac502259ad0.png

當前,在英特爾獨立顯卡上做 AI 推理,需要注意的問題有:

需要固定模型輸入節點的形狀(Shape)

英特爾 GPU 上支持的算子數量與 CPU 并不一致,在部署 PPYOLE 時,如若全采用 GPU 執行,會出現如下提示

241047c4-7f88-11ed-8abf-dac502259ad0.png

這是需要將推理硬件設置為異構方式

option.set_openvino_device("HETERO:GPU.1,CPU")

向右滑動查看完整代碼

到此,使用 FastDeploy 在英特爾 CPU 和獨立顯卡上部署AI模型的工作全部完成。

1.5總結

面對千行百業中部署 AI 模型的挑戰,FastDeploy 工具很好的保證了部署 AI 模型的精度,以及端到端 AI 性能問題,也提高了部署端工作的效率。通過 RuntimeOption,將 FastDeploy 的推理后端設置為 OpenVINO,可以非常便捷將 AI 模型部署在英特爾 CPU、集成顯卡和獨立顯卡上。

審核編輯:湯梓紅
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 英特爾
    +關注

    關注

    61

    文章

    9949

    瀏覽量

    171693
  • cpu
    cpu
    +關注

    關注

    68

    文章

    10854

    瀏覽量

    211578
  • 顯卡
    +關注

    關注

    16

    文章

    2431

    瀏覽量

    67574
  • AI
    AI
    +關注

    關注

    87

    文章

    30728

    瀏覽量

    268886

原文標題:使用FastDeploy在英特爾CPU和獨立顯卡上端到端高效部署AI模型 | 開發者實戰

文章出處:【微信號:英特爾物聯網,微信公眾號:英特爾物聯網】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    基于C#和OpenVINO?英特爾獨立顯卡部署PP-TinyPose模型

    和 OpenVINO,將 PP-TinyPose 模型部署英特爾獨立顯卡上。 1.1 PP-
    的頭像 發表于 11-18 18:27 ?2518次閱讀

    英特爾CPU部署Qwen 1.8B模型的過程

    本文介紹了英特爾 13 代酷睿 CPU i5 - 13490F 設備上部署 Qwen 1.8B 模型的過程,你需要至少 16GB 內存的機
    的頭像 發表于 01-12 10:28 ?2601次閱讀

    英特爾高清顯卡4600幫助

    和NVIDIA GTX 960M。顯示器的色溫配置為R-75,G-75,B-75(每個的最大設置為100)。英特爾高清顯卡4600可以選擇“默認RGB”,“限制RGB”或“全RGB”。此外,還有一個啟用或禁用
    發表于 10-26 14:53

    介紹英特爾?分布式OpenVINO?工具包

    性能。 英特爾?OpenlandOpen?管理軟件包包括英特爾?深度學習部署工具包(英特爾?DLDT)。適用于Linux *的OpenVINO?工具包的
    發表于 07-26 06:45

    英特爾進軍顯卡市場,預計2020年推出獨立GPU

    英特爾CPU的地位已經難以撼動,尤其是電腦,可以說是稱霸已久,但是GPU方面卻沒有占據領
    的頭像 發表于 06-13 11:05 ?3486次閱讀

    英特爾推出了英特爾銳炬Xe MAX獨立顯卡

    英特爾推出了英特爾銳炬 Xe MAX 獨立顯卡,該顯卡專為輕薄型筆記本電腦設計,現已通過合作伙伴問世。
    的頭像 發表于 11-01 12:15 ?8772次閱讀

    英特爾宣布首款獨立顯卡 意味著英特爾加入 GPU 戰局

    據中國臺灣經濟日報報道,芯片大廠英特爾的獨顯芯片上市,該公司宣布了首款 Iris Xe Max 獨立顯卡,用于超便攜式筆記本電腦和筆記本電腦。 原本 AMD 處理器(
    的頭像 發表于 11-03 11:58 ?2622次閱讀

    英特爾推出面向OEM市場的入門級Xe獨立顯卡

    磨蹭了一年之后,英特爾終于出貨了新一代的獨立顯卡也就是DG1,型號為Iris Xe MAX,當時英特爾表示這款
    的頭像 發表于 01-27 10:39 ?1930次閱讀

    英特爾推出銳炫A系列獨立顯卡 微星推出GeForce RTX 3090 Ti系列顯卡

    英特爾宣布推出面向筆記本電腦的英特爾銳炫獨立顯卡系列,這是其銳炫A系列顯卡產品組合中率先發布的獨立
    的頭像 發表于 03-31 14:19 ?3033次閱讀

    低門檻AI部署工具FastDeploy開源!

    為了解決AI部署落地難題,我們發起了FastDeploy項目。FastDeploy針對產業落地場景中的重要AI
    的頭像 發表于 11-08 14:28 ?1975次閱讀

    NGC 上玩轉新一代推理部署工具 FastDeploy,幾行代碼搞定 AI 部署

    模型,并提供開箱即用的云邊部署體驗,實現 AI 模型
    的頭像 發表于 12-13 19:50 ?1218次閱讀

    英特爾獨立顯卡部署YOLOv5 v7.0版實時實例分割模型

    本文將介紹基于 OpenVINO 英特爾獨立顯卡部署 YOLOv5 實時實例分割
    的頭像 發表于 12-20 11:32 ?4057次閱讀

    英特爾聚焦AI座艙

    Weast表示,30 TOPS、60TOPS可能也有AI語音功能,但模型并非部署側,而是部署
    的頭像 發表于 10-30 16:26 ?199次閱讀

    使用PyTorch英特爾獨立顯卡上訓練模型

    《PyTorch 2.5重磅更新:性能優化+新特性》中的一個新特性就是:正式支持英特爾獨立顯卡上訓練模型
    的頭像 發表于 11-01 14:21 ?364次閱讀
    使用PyTorch<b class='flag-5'>在</b><b class='flag-5'>英特爾</b><b class='flag-5'>獨立</b><b class='flag-5'>顯卡</b>上訓練<b class='flag-5'>模型</b>

    使用英特爾AI PC為YOLO模型訓練加速

    之后,情況有了新的變化,PyTorch2.5正式開始支持英特爾顯卡,也就是說,此后我們能夠借助英特爾 銳炫 顯卡來進行模型訓練了。
    的頭像 發表于 12-09 16:14 ?236次閱讀
    使用<b class='flag-5'>英特爾</b><b class='flag-5'>AI</b> PC為YOLO<b class='flag-5'>模型</b>訓練加速
    主站蜘蛛池模板: 99久热精品免费观看| 韩国伦理三级| 美女被艹网站| 亚欧成人毛片一区二区三区四区| 99视频在线免费看| 久久久久九九| 亚洲国产精品高清在线 | 国产高清视频免费在线观看| 美国特级成人毛片| 亚洲欧美激情精品一区二区| 纲手胸被爆羞羞免费| 免费在线观看a视频| 野花日本韩国视频免费高清观看| 国产高清美女一级a毛片久久w | 日本人六九视频| 佐山爱巨大肥臀在线| 狠狠色狠狠色综合日日92| 少妇无套内谢久久久久| jazzjazzjazz欧美| 美女扒开腿让男生桶爽免费APP| 亚洲免费视频日本一区二区| 国产精品国产三级国产专区53| 年轻老师毛茸茸自由性| 伊人网综合网| 精品国产乱码久久久久久免费流畅 | 国产欧美一区二区精品性色tv | 亚洲精品久久99蜜芽尤物TV| 国产不卡视频在线| 日本学生VIDEOVIDEOS更新| bt天堂午夜国产精品| 麻豆第一区MV免费观看网站| 孕交videosgratis乌克兰| 精品无码日本蜜桃麻豆| 亚洲精品无码一区二区三区四虎 | 亚洲H成年动漫在线观看不卡| 国产福利不卡在线视频| 少妇被躁爽到高潮无码久久| 丰满少妇67194视频| 日韩午夜中文字幕电影| 成人无码精品一区二区在线观看| 欧美日韩另类在线观看视频|