色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

如何使用FIL后端部署XGBOOST模型

星星科技指導員 ? 來源:NVIDIA ? 作者:William Hicks ? 2022-04-11 14:35 ? 次閱讀

深度神經網絡在多個領域的成功促使人們對如何有效地部署這些模型以用于實際應用進行了大量思考和努力。然而,盡管基于樹的模型(包括隨機森林和梯度增強模型)在表格數據分析中 continued dominance 非常重要,而且對于解釋性非常重要的用例非常重要,但加速部署基于樹的模型(包括隨機森林和梯度增強模型)的努力卻沒有受到太多關注。

隨著 DoorDash 和 CapitalOne 等組織轉向基于樹的模型來分析大量關鍵任務數據,提供工具以幫助部署此類模型變得簡單、高效和高效變得越來越重要。

NVIDIA Triton 推理服務器 提供在 CPUGPU 上部署深度學習模型的完整解決方案,支持多種框架和模型執行后端,包括 PyTorch 、 TensorFlow 、 ONNX 、 TensorRT 等。從 21.06.1 版開始,為了補充 NVIDIA Triton 推理服務器現有的深度學習功能,新的 林推理庫( FIL )后端 提供了對樹模型的支持,例如 XGBoost 、 LightGBM 、 Scikit-Learn RandomForest , RAPIDS 卡米爾森林 ,以及 Treelite 支持的任何其他型號。

基于 RAPIDS 森林推理庫 (NVIDIA ),NVIDIA Triton 推理服務器 FIL 后端允許用戶利用 NVIDIA Triton 推理服務器的相同特性,以達到 deep learning 模型的最優吞吐量/延遲,以在相同的系統上部署基于樹的模型。

在本文中,我們將簡要介紹NVIDIA Triton 推理服務器本身,然后深入介紹如何使用 FIL 后端部署 XGBOOST 模型的示例。使用 NVIDIA GPU ,我們將看到,我們不必總是在部署更精確的模型或保持延遲可控之間做出選擇。

在示例筆記本中,通過利用 FIL 后端的 GPU 加速推理,在一臺配備八臺 V100 GPU 的 NVIDIA DGX-1 服務器上,我們將能夠部署比 CPU 更復雜的欺詐檢測模型,同時將 p99 延遲保持在 2ms 以下, still 每秒提供超過 400K 的推斷( 630MB / s ),或者比 CPU 上的吞吐量高 20 倍。

NVIDIA Triton 推理服務器

NVIDIA Triton 推理服務器為 machine learning 模型的實時服務提供了完整的開源解決方案。 NVIDIA Triton 推理服務器旨在使性能模型部署過程盡可能簡單,它為在實際應用中嘗試部署 ML 算法時遇到的許多最常見問題提供了解決方案,包括:

多框架 支持 : 支持所有最常見的深度學習框架和序列化格式,包括 PyTorch 、 TensorFlow 、 ONNX 、 TensorRT 、 OpenVINO 等。隨著 FIL 后端的引入, NVIDIA Triton 推理服務器還提供對 XGBoost 、 LightGBM 、 Scikit Learn / cuML RandomForest 和任何框架中的 Treelite 序列化模型的支持。

Dynamic Batching : 允許用戶指定一個批處理窗口,并將在該窗口中收到的任何請求整理成更大的批處理,以優化吞吐量。

多種查詢類型 :優化多種查詢類型的推理:實時、批處理、流式,還支持模型集成。

使用 NVIDIA 管道和集合 推理服務器部署的 管道和集合 Triton 型號可以通過復雜的管道或集成進行連接,以避免客戶端和服務器之間,甚至主機和設備之間不必要的數據傳輸。

CPU 模型執行 : 雖然大多數用戶希望利用 GPU 執行帶來的巨大性能提升,但 NVIDIA Triton 推理服務器允許您在 CPU 或 GPU 上運行模型,以滿足您的特定部署需求和資源可用性。

Dynamic Batching [VZX337 ]如果NVIDIA Triton 推理服務器不提供對部分管道的支持,或者如果需要專門的邏輯將各種模型鏈接在一起,則可以使用自定義 PythonC++后端精確地添加所需的邏輯。

Run anywhere :在擴展的云或數據中心、企業邊緣,甚至在嵌入式設備上。它支持用于人工智能推理的裸機和虛擬化環境(如 VMware vSphere )。

Kubernetes 和 AI 平臺支持 :

作為 Docker 容器提供,并可輕松與 Kubernetes 平臺集成,如 AWS EKS 、谷歌 GKE 、 Azure AKS 、阿里巴巴 ACK 、騰訊 TKE 或紅帽 OpenShift 。

可在 Amazon SageMaker 、 Azure ML 、 Google Vertex AI 、阿里巴巴 AI 彈性算法服務平臺和騰訊 TI-EMS 等托管 CloudAI 工作流平臺上使用。

Enterprise support : NVIDIA AI 企業軟件套件包括對 NVIDIA Triton 推理服務器的全面支持,例如訪問 NVIDIA AI 專家以獲得部署和管理指導、安全修復和維護發布的優先通知、長期支持( LTS )選項和指定的支持代理。

圖 1:NVIDIA Triton 推理服務器架構圖。

為了更好地了解如何利用 FIL 后端的這些特性來部署樹模型,我們來看一個特定的用例。

示例: FIL 后端的欺詐檢測

為了在 NVIDIA Triton 推理服務器中部署模型,我們需要一個配置文件,指定有關部署選項和序列化模型本身的一些細節。模型當前可以按以下任意格式序列化:

XGBoost 二進制格式

XGBoost JSON

LightGBM 文本格式

Treelite 二進制檢查點文件

在下面的筆記本中,我們將介紹部署欺詐檢測模型過程的每個步驟,從培訓模型到編寫配置文件以及優化部署參數。在此過程中,我們將演示 GPU 部署如何在保持最小延遲的同時顯著提高吞吐量。此外,由于 FIL 可以輕松地擴展到非常大和復雜的模型,而不會大幅增加延遲,因此我們將看到,對于任何給定的延遲預算,在 GPU 上部署比 CPU 上更復雜和準確的模型是可能的。

筆記本:

抱歉,出了點問題。 Reload

抱歉,我們無法顯示此文件。

抱歉,此文件無效,無法顯示。

查看器需要 iframe 。

view raw正如我們在本筆記本中所看到的, NVIDIA Triton 推理服務器的 FIL 后端允許我們使用序列化的模型文件和簡單的配置文件輕松地為樹模型提供服務。如果沒有 NVIDIA Triton 推理服務器,那些希望服務于其他框架中的 XGBoost 、 LightGBM 或隨機林模型的人通常會求助于吞吐量延遲性能差且不支持多個框架的手動搖瓶服務器。 NVIDIA Triton 推理服務器的動態批處理和并發模型執行自動最大化吞吐量,模型分析器有助于選擇最佳部署配置。手動選擇可能需要數百種組合,并且可能會延遲模型的展開。有了 FIL 后端,我們可以為來自所有這些框架的模型提供服務,而無需定制代碼和高度優化的性能。

結論

使用 FIL 后端,NVIDIA Triton 推理服務器現在提供了一個高度優化的實時服務的森林模型,無論是在他們自己或旁邊的深度學習模型。雖然支持 CPU 和 GPU 執行,但我們可以利用 GPU 加速來保持低延遲和高吞吐量,即使對于復雜的模型也是如此。正如我們在示例筆記本中看到的,這意味著即使延遲預算很緊,也不需要通過退回到更簡單的模型來降低模型的準確性。

如果您想嘗試部署自己的 XGBOST 、 LITGBM 、 SKEXCEL 或 CUML 森林模型進行實時推理,那么您可以很容易地從 Docker container 、NVIDIA 的 GPU 優化的 AI 軟件目錄中拉取 NVIDIA NVIDIA AI 企業套件 推理服務器 Docker container 。您可以在 FIL 后端文檔 中找到入門所需的一切。如果準備部署到 Kubernetes 集群, NVIDIA Triton 還提供了 Helm charts 示例。對于希望在實際工作負載下試用 Triton 推理服務器的企業, NVIDIA LaunchPad 計劃提供了一組在 Triton 中使用 Triton 的精心策劃的實驗室。

Krieger 說:“ STAR 的獨特之處在于,它是第一個在軟組織中規劃、調整和執行手術計劃的機器人系統,只需極少的人工干預。”。

關于作者

William Hicks 是NVIDIA RAPIDS 團隊的高級軟件工程師。希克斯擁有布蘭代斯大學物理學碩士學位和布朗大學文學藝術碩士學位。

審核編輯:郭婷

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    4999

    瀏覽量

    103227
  • gpu
    gpu
    +關注

    關注

    28

    文章

    4747

    瀏覽量

    129021
  • 服務器
    +關注

    關注

    12

    文章

    9221

    瀏覽量

    85599
收藏 人收藏

    評論

    相關推薦

    企業AI模型部署攻略

    當下,越來越多的企業開始探索和實施AI模型,以提升業務效率和競爭力。然而,AI模型部署并非易事,需要企業在多個層面進行細致的規劃和準備。下面,AI部落小編為企業提供一份AI模型
    的頭像 發表于 12-23 10:31 ?132次閱讀

    AI模型部署邊緣設備的奇妙之旅:目標檢測模型

    以及邊緣計算能力的增強,越來越多的目標檢測應用開始直接在靠近數據源的邊緣設備上運行。這不僅減少了數據傳輸延遲,保護了用戶隱私,同時也減輕了云端服務器的壓力。然而,在邊緣端部署高效且準確的目標檢測模型
    發表于 12-19 14:33

    如何開啟Stable Diffusion WebUI模型推理部署

    如何開啟Stable Diffusion WebUI模型推理部署
    的頭像 發表于 12-11 20:13 ?119次閱讀
    如何開啟Stable Diffusion WebUI<b class='flag-5'>模型</b>推理<b class='flag-5'>部署</b>

    AI模型部署邊緣設備的奇妙之旅:如何實現手寫數字識別

    新的數據樣本,另一個是判別器用來判斷這些樣本的真實性。兩者相互競爭,共同進化,最終實現高質量的數據合成。 2.4 模型優化技術 在將深度學習模型部署到資源受限的環境中時,模型優化技術扮
    發表于 12-06 17:20

    AI模型部署和管理的關系

    AI模型部署與管理是AI項目成功的兩大支柱,它們之間既相互獨立又緊密相連,共同推動著AI技術從實驗室走向實際應用。
    的頭像 發表于 11-21 10:02 ?165次閱讀

    企業AI模型部署怎么做

    AI模型部署作為這一轉型過程中的關鍵環節,其成功實施對于企業的長遠發展至關重要。在此,AI部落小編為您介紹企業AI模型部署的步驟以及注意事項。
    的頭像 發表于 11-04 10:15 ?160次閱讀

    NVIDIA NIM助力企業高效部署生成式AI模型

    Canonical、Nutanix 和 Red Hat 等廠商的開源 Kubernetes 平臺集成了 NVIDIA NIM,將允許用戶通過 API 調用來大規模地部署大語言模型
    的頭像 發表于 10-10 09:49 ?403次閱讀

    llm模型本地部署有用嗎

    ,將這些模型部署到本地環境可能會帶來一些挑戰和優勢。 1. LLM模型概述 大型語言模型(LLM)通常是基于深度學習的神經網絡模型,它們能夠
    的頭像 發表于 07-09 10:14 ?523次閱讀

    PerfXCloud大模型開發與部署平臺開放注冊

    PerfXCloud?介紹 PerfXCloud是澎峰科技為開發者和企業量身打造的AI開發和部署平臺。它專注于滿足大模型的微調和推理需求,為用戶提供極致便捷的一鍵部署體驗。 PerfXCloud為算
    的頭像 發表于 07-02 10:27 ?391次閱讀
    PerfXCloud大<b class='flag-5'>模型</b>開發與<b class='flag-5'>部署</b>平臺開放注冊

    使用TVM量化部署模型報錯NameError: name \'GenerateESPConstants\' is not defined如何解決?

    各位好,我在使用TVM部署模型時,遇到一下錯誤,請問如何解決?我進esp.py文件看,有如下兩個函數是找不到定義的: GenerateESPConstants(), ExtractConstantsFromPartitionedFunction(),
    發表于 06-28 10:50

    模型端側部署加速,都有哪些芯片可支持?

    電子發燒友網報道(文/李彎彎)大模型在端側部署是指將大型神經網絡模型部署在移動終端設備上,使這些設備能夠直接運行這些模型,從而執行各種人工智
    的頭像 發表于 05-24 00:14 ?4209次閱讀

    基于stm32h743IIK在cubeai上部署keras模型模型輸出結果都是同一組概率數組,為什么?

    基于stm32h743IIK,在cubeai上部署keras模型模型輸出結果都是同一組概率數組,一點也搞不明白,看社區也有相同的問題,但沒有解決方案
    發表于 05-20 08:18

    模擬后端是什么意思

    模擬后端,在軟件開發和測試領域,通常是指使用工具或技術來模擬實際后端服務的行為。這樣做的主要目的是在項目開發過程中,當后端服務還未就緒或暫時無法訪問時,前端或其他依賴后端的系統能夠繼續
    的頭像 發表于 03-15 15:58 ?693次閱讀

    使用CUBEAI部署tflite模型到STM32F0中,模型創建失敗怎么解決?

    看到CUBE_AI已經支持到STM32F0系列芯片,就想拿來入門嵌入式AI。 生成的模型很小,是可以部署到F0上的,但是一直無法創建成功。 查閱CUBE AI文檔說在調用create函數前,要啟用
    發表于 03-15 08:10

    源2.0適配FastChat框架,企業快速本地化部署模型對話平臺

    北京2024年2月28日?/美通社/ -- 近日,浪潮信息Yuan2.0大模型與FastChat框架完成全面適配,推出"企業快速本地化部署模型對話平臺"方案。該方案主要面向金融、法律、教育等領域
    的頭像 發表于 02-29 09:57 ?819次閱讀
    源2.0適配FastChat框架,企業快速本地化<b class='flag-5'>部署</b>大<b class='flag-5'>模型</b>對話平臺
    主站蜘蛛池模板: 黄桃AV无码免费一区二区三区| 久久成人亚洲| 小黄文污到你湿| 萝莉御姐被吸奶| 国产亚洲精品成人a在线| asmr淫语| 一边喂奶一边做边爱| 午夜免费福利片| 青青涩射射| 伦理片在线线手机版韩国免费6| 国产精品麻豆a啊在线观看| 95国产精品人妻无码久| 亚洲人成人毛片无遮挡| 四房播播开心五月| 秋霞伦理电影在2017韩国在线伦| 久久精品国产免费中文| 国产一区二区内射最近更新| 芳草地在线观看免费视频| 99视频在线国产| 2019久久视频这里有精品15| 欧美末成年videos在线| 久久橹| 国产在线午夜| 国产精品免费观看视频| 成人免费无毒在线观看网站| 亚洲天堂av2017| 婷婷六月激情综合一区| 久青草国产97香蕉在线视频| 99热久久视频只有精品6| 色婷婷国产麻豆AV| 青青视频 在线 在线播放| 老太婆性BBWBBW| 久久精品无码一区二区日韩av| 国模孕妇模特季玥之粉红| 国产乱码免费卡1卡二卡3卡四卡| 风车动漫(p)_在线观看官网| 被老总按在办公桌吸奶头| 99在线免费视频| 爆操大胸美女| 动漫人物差差差30分钟免费看| 啊…嗯啊好深男男小黄文|