色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
电子发烧友
开通电子发烧友VIP会员 尊享10大特权
海量资料免费下载
精品直播免费看
优质内容免费畅学
课程9折专享价
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

在Azure機(jī)器學(xué)習(xí)上提高人工智能模型推理性能

星星科技指導(dǎo)員 ? 來(lái)源:NVIDIA ? 作者:NVIDIA ? 2022-10-11 09:49 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

每個(gè) AI 應(yīng)用程序都需要強(qiáng)大的推理引擎。無(wú)論您是部署圖像識(shí)別服務(wù)、智能虛擬助理還是欺詐檢測(cè)應(yīng)用程序,可靠的推理服務(wù)器都能提供快速、準(zhǔn)確和可擴(kuò)展的預(yù)測(cè),具有低延遲(對(duì)單個(gè)查詢的響應(yīng)時(shí)間較短)和高吞吐量(在給定時(shí)間間隔內(nèi)處理大量查詢)。然而,檢查所有這些方框可能很難實(shí)現(xiàn),而且成本高昂。

團(tuán)隊(duì)需要考慮部署可以利用以下功能的應(yīng)用程序:

具有獨(dú)立執(zhí)行后端的多種框架( ONNX 運(yùn)行時(shí)、 TensorFlow 、 PyTorch )

不同的推理類型(實(shí)時(shí)、批量、流式)

用于混合基礎(chǔ)設(shè)施( CPUGPU )的不同推理服務(wù)解決方案

可以顯著影響推理性能的不同模型配置設(shè)置(動(dòng)態(tài)批處理、模型并發(fā))

這些要求使人工智能推理成為一項(xiàng)極具挑戰(zhàn)性的任務(wù),可以通過(guò) NVIDIA Triton 推理服務(wù)器 。

這篇文章提供了一個(gè)逐步提高 AI 推理性能的教程 Azure 機(jī)器學(xué)習(xí) 使用 NVIDIA Triton 模型分析儀和 ONNX 運(yùn)行時(shí)橄欖 ,如圖 1 所示。

pYYBAGNEy6OASFXXAAE2yB9_A1A913.png

圖 1.使用 ONNX 運(yùn)行時(shí)、 OLive 、 Triton 模型分析器和 Azure 機(jī)器學(xué)習(xí)優(yōu)化 PyTorch 模型的工作流

工作流優(yōu)化的機(jī)器學(xué)習(xí)模型

為了提高 AI 推理性能, ONNX Runtime OLive 和 Triton 模型分析器在模型部署之前自動(dòng)執(zhí)行參數(shù)優(yōu)化步驟。這些參數(shù)定義了底層推理引擎將如何執(zhí)行。您可以使用這些工具來(lái)優(yōu)化 ONNX 運(yùn)行時(shí)參數(shù) (執(zhí)行提供程序、會(huì)話選項(xiàng)和精度參數(shù)),以及 Triton 參數(shù) (動(dòng)態(tài)批處理和模型并發(fā)參數(shù))。

階段 1 : ONNX 運(yùn)行時(shí)橄欖優(yōu)化

如果 Azure 機(jī)器學(xué)習(xí)是您部署 AI 應(yīng)用程序的地方,那么您可能熟悉 ONNX 運(yùn)行時(shí)。 ONNX Runtime 是微軟的高性能推理引擎,用于跨平臺(tái)運(yùn)行 AI 模型。它可以跨多種配置設(shè)置部署模型,目前 Triton ?聲波風(fēng)廓線儀支持。微調(diào)這些配置設(shè)置需要專門的時(shí)間和領(lǐng)域?qū)I(yè)知識(shí)。

OLive ( ONNX Runtime Go Live )是一個(gè) Python 包,通過(guò)使用 ONNX 運(yùn)行時(shí)自動(dòng)化加速模型的工作來(lái)加速此過(guò)程。它提供了兩種功能:將模型轉(zhuǎn)換為 ONNX 格式和自動(dòng)調(diào)整 ONNX 運(yùn)行時(shí)參數(shù),以最大化推理性能。運(yùn)行 OLive 將隔離并推薦 ONNX 運(yùn)行時(shí)配置設(shè)置,以獲得最佳核心 AI 推理結(jié)果。

您可以使用以下 ONNX 運(yùn)行時(shí)參數(shù)使用 OLive 優(yōu)化 ONNX Runtime BERT 小隊(duì)模型:

執(zhí)行提供程序:ONNX Runtime 通過(guò)其可擴(kuò)展執(zhí)行提供程序( EP )框架與不同的硬件加速庫(kù)協(xié)作,以在硬件平臺(tái)上優(yōu)化運(yùn)行 ONNX 模型,該框架可以利用平臺(tái)的計(jì)算能力優(yōu)化執(zhí)行。 OLive 探索了以下執(zhí)行提供程序的優(yōu)化:針對(duì) CPU 的 MLA (默認(rèn) CPU EP )、英特爾 DNNL 和 OpenVino 、針對(duì) GPU 的 NVIDIA CUDA 和 TensorRT 。

會(huì)話選項(xiàng):OLive 瀏覽 ONNX 運(yùn)行時(shí)會(huì)話選項(xiàng),以找到線程控制的最佳配置,包括 inter_op_num_threads、intra_op_num_threads、execution_mode和graph_optimization_level。

精度:OLive 以不同的精度級(jí)別評(píng)估性能,包括float32和float16,并返回最佳精度配置。

在運(yùn)行了優(yōu)化之后,您仍然可能會(huì)在應(yīng)用程序級(jí)別上留下一些性能。使用 Triton 模型分析器可以進(jìn)一步提高端到端吞吐量和延遲,該分析器能夠支持優(yōu)化的 ONNX 運(yùn)行時(shí)模型。

第 2 階段: Triton 模型分析器優(yōu)化

NVIDIA Triton 推理服務(wù)器 是一款開(kāi)源推理服務(wù)軟件,有助于標(biāo)準(zhǔn)化模型部署和執(zhí)行,并在生產(chǎn)中提供快速、可擴(kuò)展的人工智能推理。圖 2 顯示了 Triton 推理服務(wù)器在與客戶端應(yīng)用程序和多個(gè) AI 模型集成時(shí)如何管理客戶端請(qǐng)求。

poYBAGNEy6WAEZ8dAAI2mW4HXaE682.png

圖 2. Triton 推理服務(wù)器如何管理客戶端請(qǐng)求

這篇文章將著重于使用 Triton 模型分析器優(yōu)化兩個(gè)主要的 Parabricks 特性:

動(dòng)態(tài)配料:Triton 允許服務(wù)器組合推理請(qǐng)求,以便動(dòng)態(tài)創(chuàng)建批處理。這導(dǎo)致在固定延遲預(yù)算內(nèi)增加吞吐量。

并發(fā)模型:Triton 允許同一模型的多個(gè)模型或?qū)嵗谕幌到y(tǒng)上并行執(zhí)行。這導(dǎo)致吞吐量增加。

當(dāng)以最佳級(jí)別部署時(shí),這些功能非常強(qiáng)大。當(dāng)以次優(yōu)配置部署時(shí),性能會(huì)受到影響,使終端應(yīng)用程序容易受到當(dāng)前苛刻的服務(wù)質(zhì)量標(biāo)準(zhǔn)(延遲、吞吐量和內(nèi)存要求)的影響。

因此,基于預(yù)期用戶流量?jī)?yōu)化批量大小和模型并發(fā)級(jí)別對(duì)于充分挖掘 Triton 的潛力至關(guān)重要。這些優(yōu)化 模型配置設(shè)置 將在嚴(yán)格的延遲約束下提高吞吐量,在部署應(yīng)用程序時(shí)提高 GPU 利用率。該過(guò)程可以使用 Triton 模型分析儀實(shí)現(xiàn)自動(dòng)化。

給定一組約束,包括延遲、吞吐量目標(biāo)或內(nèi)存占用, Triton 模型分析器根據(jù)批量大小、模型并發(fā)性或其他[ZGK22]模型配置設(shè)置的不同級(jí)別,搜索并選擇最大化推理性能的最佳模型配置。部署和優(yōu)化這些功能后,您將看到令人難以置信的結(jié)果。

教程:開(kāi)始優(yōu)化推理性能

在 Azure 機(jī)器學(xué)習(xí)上使用 ONNX Runtime OLive 和 Triton 模型分析器部署優(yōu)化的機(jī)器學(xué)習(xí)模型需要四個(gè)步驟:

發(fā)射 Azure 虛擬機(jī) 使用 NVIDIA GPU 優(yōu)化的虛擬機(jī)映像( VMI )

在模型上執(zhí)行 ONNX 、 Runtime 、 OLive 和 Triton 模型分析器參數(shù)優(yōu)化

分析和自定義結(jié)果

將優(yōu)化的 Triton ONNX 運(yùn)行時(shí)模型部署到 Azure 機(jī)器學(xué)習(xí)端點(diǎn)上

要完成本教程,請(qǐng)確保您有一個(gè) Azure 帳戶,可以訪問(wèn) NVIDIA GPU 支持的虛擬機(jī)。例如,使用 Azure ND A100 v4 系列 虛擬機(jī) NVIDIA A100 GPU , NCasT4 v3 系列 對(duì)于 NVIDIA T4 GPU 或 NCv3 系列 適用于 NVIDIA V100 GPU 。雖然建議使用 ND A100 v4 系列以獲得最大規(guī)模的性能,但本教程使用標(biāo)準(zhǔn)的 NC6s _ v3 虛擬機(jī),使用單個(gè) NVIDIA V100 GPU 。

步驟 1 :使用 NVIDIA 的 GPU 優(yōu)化 VMI 啟動(dòng) Azure 虛擬機(jī)

本教程使用 NVIDIA GPU 優(yōu)化 VMI 在 Azure 市場(chǎng)上可用。它預(yù)先配置了 NVIDIA GPU 驅(qū)動(dòng)程序、 CUDA 、 Docker 工具包、運(yùn)行時(shí)和其他依賴項(xiàng)。此外,它還為開(kāi)發(fā)人員構(gòu)建 AI 應(yīng)用程序提供了一個(gè)標(biāo)準(zhǔn)化堆棧。

為了最大限度地提高性能, NVIDIA 每季度對(duì)該 VMI 進(jìn)行驗(yàn)證和更新,并提供最新的驅(qū)動(dòng)程序、安全補(bǔ)丁和對(duì)最新 GPU 的支持。

有關(guān)如何在 Azure VM 上啟動(dòng)和連接 NVIDIA GPU 優(yōu)化 VMI 的詳細(xì)信息,請(qǐng)參閱 Azure 虛擬機(jī)上的 NGC 文檔 。

第 2 步:執(zhí)行 ONNX Runtime OLive 和 Triton 模型分析器優(yōu)化

使用 SSH 連接到 Azure 虛擬機(jī)并加載 NVIDIA GPU 優(yōu)化的 VMI 后,即可開(kāi)始執(zhí)行 ONNX Runtime OLive 和 Triton 模型分析器優(yōu)化。

首先,克隆 GitHub 存儲(chǔ)庫(kù)并通過(guò)運(yùn)行以下命令導(dǎo)航到內(nèi)容根目錄:git clone https://github.com/microsoft/OLive.git

接下來(lái),加載Triton 服務(wù)器容器請(qǐng)注意,本教程使用版本號(hào) 22.06 。

docker run --gpus=1 --rm -it -v “$(pwd)”:/models nvcr.io/nvidia/tritonserver:22.06-py3 /bin/bash

加載后,導(dǎo)航到安裝 GitHub 材料的/models文件夾:

cd /models 

下載 OLive 和 ONNX 運(yùn)行時(shí)包,以及要優(yōu)化的模型。然后,通過(guò)設(shè)置以下環(huán)境變量,指定要優(yōu)化的模型的位置:

導(dǎo)出模型_位置= https://olivewheels.blob.core.windows.net/models/bert-base-cased-squad.pth

導(dǎo)出模型_文件名= bert-base-cased-squad.pth

您可以使用您選擇的模型調(diào)整上面提供的位置和文件名。為了獲得最佳性能,請(qǐng)直接從 NGC 目錄 這些模型被訓(xùn)練到高精度,并且具有高級(jí)證書和代碼樣本。

接下來(lái),運(yùn)行以下腳本:

bash download.sh $model_location $export model_filename

腳本將下載三個(gè)文件到您的機(jī)器上:

  • 橄欖包裝:onnxruntime_olive-0.3.0-py3-none-any.whl
  • ONNX 運(yùn)行時(shí)包:onnxruntime_gpu_tensorrt-1.9.0-cp38-cp38-linux_x86_64.whl
  • PyTorch Model:bert-base-cased-squad.pth

在運(yùn)行圖 1 中的管道之前,首先通過(guò)設(shè)置環(huán)境變量指定其輸入?yún)?shù):

  • 出口model_name=bertsquad
  • 出口model_type=pytorch
  • 出口in_names=input_names,input_mask,segment_ids
  • 出口in_shapes=[[-1,256],[-1,256],[-1,256]]
  • 出口in_types=int64,int64,int64
  • 出口out_names=start,end

參數(shù)in_namesin_shapesin_types指模型預(yù)期輸入的名稱、形狀和類型。在這種情況下,輸入是長(zhǎng)度為 256 的序列,但它們被指定為[-1256],以允許對(duì)輸入進(jìn)行批處理。您可以更改與模型及其預(yù)期輸入和輸出相對(duì)應(yīng)的參數(shù)值。

現(xiàn)在,您可以通過(guò)執(zhí)行以下命令來(lái)運(yùn)行管道:

bash optimize.sh $model_filename $model_name $model_type  $in_names $in_shapes $in_types $out_names

該命令首先安裝所有必要的庫(kù)和依賴項(xiàng),并調(diào)用 OLive 將原始模型轉(zhuǎn)換為 ONNX 格式。

接下來(lái),調(diào)用 Triton 模型分析器,自動(dòng)生成帶有模型元數(shù)據(jù)的模型配置文件。然后將配置文件傳遞回 OLive ,以通過(guò)前面討論的 ONNX 運(yùn)行時(shí)參數(shù)(執(zhí)行提供程序、會(huì)話選項(xiàng)和精度)進(jìn)行優(yōu)化。

為了進(jìn)一步提高吞吐量和延遲,然后將 ONNX 運(yùn)行時(shí)優(yōu)化的模型配置文件傳遞到 Triton 模型庫(kù)中,供 Parabricks 模型分析器工具使用。 Triton 模型分析器然后運(yùn)行profile命令,它設(shè)置優(yōu)化搜索空間,并使用.yaml配置文件指定 Triton 模型存儲(chǔ)庫(kù)的位置(見(jiàn)圖 3 )。

pYYBAGNEy6aAPLgwAAOzttjqeE4000.png

圖 3.概要配置文件概述了 Triton 模型分析器搜索空間,以優(yōu)化推理性能

上述配置文件可用于以多種方式自定義 Triton 模型分析器的搜索空間。該文件需要模型存儲(chǔ)庫(kù)的位置、要優(yōu)化的參數(shù)及其范圍,以創(chuàng)建 Triton 模型分析器用于查找最佳配置設(shè)置的搜索空間。

第 1-5 行指定了重要的路徑,例如優(yōu)化模型所在的輸出模型存儲(chǔ)庫(kù)的位置。

第 10 行指定了參數(shù) concurrency ,該參數(shù)指定了要由性能分析器,它模擬用戶流量。

第 15 行指定了bert_default 模型,其對(duì)應(yīng)于從 PyTorch 到 ONNX 轉(zhuǎn)換獲得的默認(rèn)模型。該模型是基線模型,因此使用了動(dòng)態(tài)批處理(第 17 行)和模型并發(fā)(第 20 行)的非優(yōu)化值

第 19 行和第 32 行顯示了在優(yōu)化過(guò)程中必須滿足的 30ms 延遲約束。

第 28 行指定了bertsquad 模型,其對(duì)應(yīng)于橄欖優(yōu)化模型。此模型與bert_default模型不同,因?yàn)榇颂幍膭?dòng)態(tài)批處理參數(shù)搜索空間設(shè)置為 1 、 2 、 4 、 8 和 16 ,模型并發(fā)參數(shù)搜索空間設(shè)為 1 、 3 、 4 和 5 。

profile命令記錄每個(gè)并發(fā)推理請(qǐng)求級(jí)別的結(jié)果,并且對(duì)于每個(gè)并行推理請(qǐng)求級(jí)別,記錄 25 個(gè)不同參數(shù)的結(jié)果,因?yàn)閯?dòng)態(tài)批處理和模型并發(fā)參數(shù)的搜索空間分別具有五個(gè)唯一值,總計(jì)等于 25 個(gè)不同的參數(shù)。請(qǐng)注意,運(yùn)行此操作所需的時(shí)間將隨著圖 3 中概要文件配置文件中搜索空間中提供的配置數(shù)量的增加而增加。

腳本然后運(yùn)行Triton 模型分析儀分析命令使用圖 4 所示的附加配置文件來(lái)處理結(jié)果。該文件指定了輸出模型存儲(chǔ)庫(kù)的位置,其中通過(guò)profile命令生成結(jié)果,以及將記錄性能結(jié)果的 CSV 文件的名稱。

poYBAGNEy6iAOQKTAAMRxzYOlAE914.png

圖 4.分析用于運(yùn)行analyze命令的配置文件,并處理profile命令的結(jié)果

雖然profile和analyze命令可能需要幾個(gè)小時(shí)才能運(yùn)行,但優(yōu)化的模型配置設(shè)置將確保部署的模型具有強(qiáng)大的長(zhǎng)期推理性能。對(duì)于較短的運(yùn)行時(shí)間,調(diào)整模型配置文件(圖 3 ),在希望優(yōu)化的參數(shù)上使用較小的搜索空間。

演示運(yùn)行完成后,將生成兩個(gè)文件: optim _ Results 。 png ,如圖 5 所示,以及 Optimal _ ConfigFile _ Location 。 txt ,表示要部署在 Azure 機(jī)器學(xué)習(xí)上的最佳配置文件的位置。建立非優(yōu)化基線(藍(lán)線)。通過(guò) OLive 優(yōu)化實(shí)現(xiàn)的性能提升如圖所示(淺綠線),以及 OLive + Triton 模型分析器優(yōu)化(深綠線)。

步驟 3 :分析性能結(jié)果

pYYBAGNEy6mAfeZfAAJ1kqBNxcI981.png

圖 5.在使用單個(gè) V100 NVIDIA GPU 的 Azure 虛擬機(jī)( Standard _ NC6s _ v3 )上應(yīng)用 OLive plus Triton Model Analyzer 優(yōu)化配置設(shè)置時(shí),推理吞吐量提高了 10 倍。(注意:這不是官方基準(zhǔn)。)

基線對(duì)應(yīng)于具有非優(yōu)化 ONNX 運(yùn)行時(shí)參數(shù)( CUDA 后端,具有全精度)和非優(yōu)化 Triton 參數(shù)(無(wú)動(dòng)態(tài)批處理和模型并發(fā))的模型。隨著基線的建立,很明顯,從 OLive 和 Triton 模型分析器在各種推理請(qǐng)求并發(fā)級(jí)別( x 軸)上的優(yōu)化中獲得的推理吞吐量性能( y 軸)有了很大提升,仿真結(jié)果如下:Triton 性能分析儀,一種通過(guò)生成推理請(qǐng)求來(lái)模擬用戶流量的工具。

OLive 優(yōu)化通過(guò)以混合精度將執(zhí)行提供程序調(diào)整為 TensorRT 以及其他 ONNX 運(yùn)行時(shí)參數(shù),提高了模型性能(淺綠線)。然而,這顯示了沒(méi)有 Triton 動(dòng)態(tài)批處理或模型并發(fā)的性能。因此,可以使用 Triton 模型分析器進(jìn)一步優(yōu)化該模型。

Triton 模型分析器在優(yōu)化模型并發(fā)性和動(dòng)態(tài)批處理后,進(jìn)一步將推理性能提高了 20% (深綠線)。 Triton 模型分析器選擇的最終最佳值是兩個(gè)模型并發(fā)性(兩個(gè) BERT 模型副本將保存在 GPU 上)和 16 個(gè)最大動(dòng)態(tài)批處理級(jí)別(一次最多 16 個(gè)推理請(qǐng)求將一起批處理)。

總體而言,使用優(yōu)化參數(shù)的推理性能增益超過(guò) 10 倍。

此外,如果您希望應(yīng)用程序具有特定級(jí)別的推理請(qǐng)求,則可以通過(guò)配置Triton perf_analyzer.您還可以調(diào)整模型配置文件,以包括:要優(yōu)化的其他參數(shù)例如延遲分批。

您現(xiàn)在可以使用 Azure 機(jī)器學(xué)習(xí)部署優(yōu)化模型了。

步驟 4 :將優(yōu)化模型部署到 Azure 機(jī)器學(xué)習(xí)端點(diǎn)

部署優(yōu)化的人工智能模型,以便在使用 Triton 的 Azure 機(jī)器學(xué)習(xí)涉及使用托管在線端點(diǎn)和Azure 機(jī)器學(xué)習(xí)工作室沒(méi)有代碼接口

托管在線端點(diǎn)幫助您以交鑰匙方式部署 ML 模型。它負(fù)責(zé)服務(wù)、擴(kuò)展、保護(hù)和監(jiān)控您的模型,將您從設(shè)置和管理底層基礎(chǔ)設(shè)施的開(kāi)銷中解放出來(lái)。

要繼續(xù),請(qǐng)確保已下載Azure CLI,并且手頭有圖 6 所示的 YAML 文件。

poYBAGNEy6qAFNHuAADPaW8kTbY982.png

圖 6.優(yōu)化 BERT 模型的 YAML 文件

第一注冊(cè)您的模型使用上述 YAML 文件以 Triton 格式。您注冊(cè)的模型應(yīng)該類似于圖 7 ,如模型所示 Azure 機(jī)器學(xué)習(xí)工作室的頁(yè)面。

poYBAGNEy6yAGLSaAAKW2BSDK4A745.png

圖 7.Azure 機(jī)器學(xué)習(xí)工作室注冊(cè)的優(yōu)化模型

接下來(lái),選擇 Triton 模型,選擇“部署”,然后選擇“部署到實(shí)時(shí)端點(diǎn)”繼續(xù)通過(guò)向?qū)?ONNX 運(yùn)行時(shí)和 Triton 優(yōu)化模型部署到端點(diǎn)。請(qǐng)注意,將 Triton 模型部署到 Azure 機(jī)器學(xué)習(xí)管理端點(diǎn)時(shí),不需要評(píng)分腳本。

祝賀現(xiàn)在,您已經(jīng)在 Azure 機(jī)器學(xué)習(xí)上部署了一個(gè) BERT 小隊(duì)模型,該模型使用 ONNX 運(yùn)行時(shí)和 Triton 參數(shù)優(yōu)化了推理性能。通過(guò)優(yōu)化這些參數(shù),相對(duì)于未優(yōu)化的基線 BERT 小隊(duì)模型,您的性能提高了 10 倍。

關(guān)于作者

Manuel J.Reyes Gomez 是一位經(jīng)驗(yàn)豐富的數(shù)據(jù)科學(xué)和機(jī)器學(xué)習(xí)實(shí)踐者。他還是微軟公司的 NVIDIA 開(kāi)發(fā)者關(guān)系經(jīng)理,負(fù)責(zé)監(jiān)督兩家公司之間的協(xié)作 AI 和 ML 項(xiàng)目。

Emma Ning 是微軟人工智能框架團(tuán)隊(duì)的主要項(xiàng)目經(jīng)理,專注于人工智能模型的操作和加速,以及開(kāi)放和可互操作人工智能的 ONNX / ONNX 運(yùn)行時(shí)。她在利用機(jī)器學(xué)習(xí)技術(shù)的搜索引擎領(lǐng)域擁有超過(guò)五年的產(chǎn)品經(jīng)驗(yàn),并花了六年多的時(shí)間探索人工智能在各種企業(yè)中的應(yīng)用。她熱衷于引入人工智能解決方案來(lái)解決業(yè)務(wù)問(wèn)題,并提高產(chǎn)品體驗(yàn)。

Lei Qiao 是微軟人工智能框架團(tuán)隊(duì)的軟件工程師,專注于深度學(xué)習(xí)模型推理加速。她在將這些加速技術(shù)集成到不同的機(jī)器學(xué)習(xí)平臺(tái)方面也很有經(jīng)驗(yàn)。

Rohil Bhargava 是 NVIDIA 的產(chǎn)品營(yíng)銷經(jīng)理,專注于在特定 CSP 平臺(tái)上部署 NVIDIA 應(yīng)用程序框架和 SDK 。在加入 NVIDIA 之前,羅希爾曾擔(dān)任金融服務(wù)行業(yè)的顧問(wèn)和產(chǎn)品經(jīng)理。他的工作加速了人工智能在銀行遺留決策過(guò)程中的采用和分析工作流。他目前在卡內(nèi)基梅隆大學(xué)攻讀技術(shù)戰(zhàn)略 MBA ,并擁有西北大學(xué)工業(yè)工程和經(jīng)濟(jì)學(xué)學(xué)士學(xué)位。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 服務(wù)器
    +關(guān)注

    關(guān)注

    13

    文章

    9753

    瀏覽量

    87582
  • 人工智能
    +關(guān)注

    關(guān)注

    1805

    文章

    48899

    瀏覽量

    247998
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8499

    瀏覽量

    134333
收藏 0人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    C#集成OpenVINO?:簡(jiǎn)化AI模型部署

    什么是OpenVINO 工具套件? OpenVINO 工具套件是一個(gè)用于優(yōu)化和部署人工智能(AI)模型,提升AI推理性能的開(kāi)源工具集合,不僅支持以卷積神經(jīng)網(wǎng)
    的頭像 發(fā)表于 02-17 10:03 ?1907次閱讀
    C#集成OpenVINO?:簡(jiǎn)化AI<b class='flag-5'>模型</b>部署

    使用NVIDIA推理平臺(tái)提高AI推理性能

    NVIDIA推理平臺(tái)提高了 AI 推理性能,為零售、電信等行業(yè)節(jié)省了數(shù)百萬(wàn)美元。
    的頭像 發(fā)表于 02-08 09:59 ?661次閱讀
    使用NVIDIA<b class='flag-5'>推理</b>平臺(tái)<b class='flag-5'>提高</b>AI<b class='flag-5'>推理性能</b>

    人工智能機(jī)器學(xué)習(xí)以及Edge AI的概念與應(yīng)用

    人工智能相關(guān)各種技術(shù)的概念介紹,以及先進(jìn)的Edge AI(邊緣人工智能)的最新發(fā)展與相關(guān)應(yīng)用。 人工智能機(jī)器學(xué)習(xí)是現(xiàn)代科技的核心技術(shù)
    的頭像 發(fā)表于 01-25 17:37 ?884次閱讀
    <b class='flag-5'>人工智能</b>和<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>以及Edge AI的概念與應(yīng)用

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】2.具身智能機(jī)器人大模型

    近年來(lái),人工智能領(lǐng)域的大模型技術(shù)多個(gè)方向上取得了突破性的進(jìn)展,特別是機(jī)器人控制領(lǐng)域展現(xiàn)出了巨大的潛力。
    發(fā)表于 12-29 23:04

    《具身智能機(jī)器人系統(tǒng)》第7-9章閱讀心得之具身智能機(jī)器人與大模型

    共同挑戰(zhàn):如何從高維噪聲數(shù)據(jù)中提取有效特征?如何平衡模型復(fù)雜度和計(jì)算效率?如何保證系統(tǒng)真實(shí)環(huán)境中的穩(wěn)定性?書中提出的技術(shù)方案對(duì)我的工作很有啟發(fā)。多模態(tài)融合策略可用于處理異構(gòu)數(shù)據(jù)源,元學(xué)習(xí)思想可指導(dǎo)增量
    發(fā)表于 12-24 15:03

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】+數(shù)據(jù)具身人工智能中的價(jià)值

    嵌入式人工智能(EAI)將人工智能集成到機(jī)器人等物理實(shí)體中,使它們能夠感知、學(xué)習(xí)環(huán)境并與之動(dòng)態(tài)交互。這種能力使此類機(jī)器人能夠
    發(fā)表于 12-24 00:33

    Arm KleidiAI助力提升PyTorchLLM推理性能

    生成式人工智能 (AI) 正在科技領(lǐng)域發(fā)揮關(guān)鍵作用,許多企業(yè)已經(jīng)開(kāi)始將大語(yǔ)言模型 (LLM) 集成到云端和邊緣側(cè)的應(yīng)用中。生成式 AI 的引入也使得許多框架和庫(kù)得以發(fā)展。其中,PyTorch 作為
    的頭像 發(fā)表于 12-03 17:05 ?1442次閱讀
    Arm KleidiAI助力提升PyTorch<b class='flag-5'>上</b>LLM<b class='flag-5'>推理性能</b>

    Arm成功將Arm KleidiAI軟件庫(kù)集成到騰訊自研的Angel 機(jī)器學(xué)習(xí)框架

    KleidiAI 技術(shù)融入騰訊混元自研的 Angel 機(jī)器學(xué)習(xí)框架。這一合作旨在提高移動(dòng)端人工智能 (AI) 服務(wù)的推理性能和效率,為用戶
    的頭像 發(fā)表于 11-24 15:33 ?1229次閱讀

    嵌入式和人工智能究竟是什么關(guān)系?

    領(lǐng)域,如工業(yè)控制、智能家居、醫(yī)療設(shè)備等。 人工智能是計(jì)算機(jī)科學(xué)的一個(gè)分支,它研究如何使計(jì)算機(jī)具備像人類一樣思考、學(xué)習(xí)推理和決策的能力。人工智能
    發(fā)表于 11-14 16:39

    《AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》第二章AI for Science的技術(shù)支撐學(xué)習(xí)心得

    人工智能在科學(xué)研究中的核心技術(shù),包括機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)等。這些技術(shù)構(gòu)成了AI for Science的基石,使得AI能夠處理和分析復(fù)雜的數(shù)據(jù)集,從而發(fā)現(xiàn)隱藏在數(shù)據(jù)中的模式和規(guī)
    發(fā)表于 10-14 09:16

    《AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》第一章人工智能驅(qū)動(dòng)的科學(xué)創(chuàng)新學(xué)習(xí)心得

    人工智能:科學(xué)研究的加速器 第一章清晰地闡述了人工智能作為科學(xué)研究工具的強(qiáng)大功能。通過(guò)機(jī)器學(xué)習(xí)、深度學(xué)習(xí)等先進(jìn)技術(shù),AI能夠處理和分析海量
    發(fā)表于 10-14 09:12

    risc-v人工智能圖像處理應(yīng)用前景分析

    人工智能推薦系統(tǒng)中強(qiáng)大的圖形處理器(GPU)一爭(zhēng)高下。其獨(dú)特的設(shè)計(jì)使得該處理器功耗受限的條件下仍能實(shí)現(xiàn)高性能的圖像處理任務(wù)。 Ceremorphic公司 :該公司開(kāi)發(fā)的分層學(xué)習(xí)處理
    發(fā)表于 09-28 11:00

    開(kāi)箱即用,AISBench測(cè)試展示英特爾至強(qiáng)處理器的卓越推理性能

    。 中國(guó)電子技術(shù)標(biāo)準(zhǔn)化研究院賽西實(shí)驗(yàn)室依據(jù)國(guó)家標(biāo)準(zhǔn)《人工智能服務(wù)器系統(tǒng)性能測(cè)試規(guī)范》(征求意見(jiàn)稿)相關(guān)要求,使用AISBench?2.0測(cè)試工具,完成了第五代英特爾至強(qiáng)可擴(kuò)展處理器的AI大模型
    的頭像 發(fā)表于 09-06 15:33 ?740次閱讀
    開(kāi)箱即用,AISBench測(cè)試展示英特爾至強(qiáng)處理器的卓越<b class='flag-5'>推理性能</b>

    帶阻濾波器人工智能領(lǐng)域的應(yīng)用

    帶阻濾波器人工智能領(lǐng)域的應(yīng)用廣泛且深入,其作為信號(hào)處理技術(shù)的重要組成部分,對(duì)于提高人工智能系統(tǒng)的性能、準(zhǔn)確性和魯棒性具有重要意義。以下將詳細(xì)介紹帶阻濾波器
    的頭像 發(fā)表于 08-08 18:09 ?1389次閱讀

    FPGA人工智能中的應(yīng)用有哪些?

    FPGA(現(xiàn)場(chǎng)可編程門陣列)人工智能領(lǐng)域的應(yīng)用非常廣泛,主要體現(xiàn)在以下幾個(gè)方面: 一、深度學(xué)習(xí)加速 訓(xùn)練和推理過(guò)程加速:FPGA可以用來(lái)加速深度學(xué)
    發(fā)表于 07-29 17:05
    主站蜘蛛池模板: 欧美疯狂做受xxxxx喷水 | 国产亚洲精品看片在线观看 | 日本在线免费播放 | 哒哒哒高清视频在线观看 | 青柠在线电影高清免费观看 | 亚洲另类国产综合在线 | 色怕怕 | 国产三级在线观看免费 | 亚洲免费精品视频 | 国产在线高清视频无码 | 久久久久激情免费观看 | 大陆午夜伦理 | 伸到同桌奶罩里捏她胸h | 99久久免费热在线精品 | 精品一二三区久久AAA片 | 三级黄视频 | 空姐被黑人 苏晓曼 | 欧美日韩中文字幕综合图区 | 国产成人无码精品久久久影院 | 色拍拍噜噜噜啦啦新网站 | 日韩欧美亚洲精品综合在线 | 午夜看片a福利在线观看 | 一个吃奶两个添下面H | 2021久久99国产熟女人妻 | 国产精品国产三级国产an | 色综合伊人色综合网站下载 | 亚洲人成网站7777视频 | 99热精品在线av播放 | 四虎永久在线精品免费A | 东北老妇人70OLDMAN | ppypp午夜限制不卡影院私人 | 亚洲 日韩 国产 制服 在线 | 日韩av无码在线直播 | 紧致肉肉高h| 美女脱得只剩皮肤 | 欧美日韩精品久久久免费观看 | 熟女人妻-蜜臀AV-首页 | 人妻夜夜爽天天爽三区麻豆AV网站 | 亚洲国产精品免费线观看视频 | 日韩欧无码一区二区三区免费不卡 | 久久AV喷吹AV高潮欧美 |

    電子發(fā)燒友

    中國(guó)電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會(huì)員交流學(xué)習(xí)
    • 獲取您個(gè)性化的科技前沿技術(shù)信息
    • 參加活動(dòng)獲取豐厚的禮品