色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

NVIDIA T4 GPU和TensorRT加速微信搜索速度

星星科技指導員 ? 來源:NVIDIA ? 作者:NVIDIA ? 2022-04-21 10:53 ? 次閱讀

案例簡介

騰訊公司利用NVIDIA TensorRT推理引擎的INT8推理能力和基于知識蒸餾的QAT訓練,大大加速了微信中的搜索動能,節省了約70%的計算資源。本案例主要應用到NVIDIA T4 GPU和TensorRT。

客戶簡介及應用背景

隨著騰訊微信的發展,微信搜索也成為其越來越重要的功能,這個功能可以用來搜索微信內部的賬號、信息,以及搜索互聯網上的內容。微信搜索月活躍用戶數量達到五億以上。搜索業務當中使用了大量的神經網絡模型,包括自然語言理解、匹配排序等等,這些模型的訓練和推理都大量依賴于NVIDIA GPU,尤其在推理方面,NVIDIA GPU及相應的解決方案都滿足了業務所需的延遲和吞吐要求。

客戶挑戰

微信搜索業務由多個子模塊構成,包括查詢理解、匹配、搜索排序等等。由于搜索的業務特點,這些任務對線上服務的延遲和吞吐都十分敏感。然而在最近幾年,隨著算力的提升以及算法的創新,很多大型復雜的神經網絡模型開始應用在這些任務上,比如BERT/Transformer等模型。

這些大模型需要的計算資源和業務上的高要求對推理端的軟硬件都是很大的挑戰,必須針對具體的硬件做極致的優化。而且對于大模型的推理,很多技術被探索、應用在這些場景上以便實現性能加速、節約資源,比如模型壓縮、剪枝、低精度計算等。這些技術可能會帶來精度下降等負面影響,限制了這些技術的廣泛應用。因此,如何在保證精度效果以及服務吞吐延遲需求的情況下,高效地對這些模型進行推理成為了業務上的巨大挑戰。NVIDIA GPU以及NVIDIA TensorRT給這一場景提供了解決方案。

應用方案

為了滿足線上服務的需求,并且盡可能地節約成本,微信搜索選擇使用NVIDIA T4 GPU以及TensorRT推理引擎來進行線上大模型的推理。

線上服務對于吞吐和延遲有很高的要求,微信搜索選擇使用NVIDIA T4 GPU以及TensorRT推理引擎來做線上推理服務,利用NVIDIA基于TensorRT開源的BERT實現,可以很方便地在FP16精度下實現滿足需求的線上推理功能。這個方案在線上取得了很好的效果。

在此基礎上,微信搜索希望進一步加快推理速度,節約計算資源,以便更好地服務用戶,節約成本。低精度推理成為了很好的選擇。NVIDIA GPU從圖靈(Turing)架構開始就有了INT8 Tensor Core,其計算吞吐量最高可達FP16精度的2倍。同時低精度推理跟其他的優化方法也是正交的,可以同時使用其他技術比如剪枝、蒸餾等做進一步提升。微信搜索線上大量使用NVIDIA T4 GPU,非常適合使用INT8推理。而且TensorRT對INT8推理也有良好的支持。利用TensorRT的“校準”(Calibration)功能,能夠方便地將Float精度模型轉換為INT8低精度模型,實現低精度推理。通過低精度推理,模型的單次推理時間大大縮短。

通過“校準”來做模型轉換已經在很多計算機視覺模型上被驗證是十分有效的,并且其精度和推理性能都十分優秀。然而對于像BERT一類的模型, “校準” 無法使得精度和性能都完全令人滿意。因此,騰訊搜索使用了NVIDIA開發的基于PyTorch/TensorFlow的量化工具進行基于知識蒸餾的量化感知訓練(Quantization Aware Training)克服精度下降的問題。TensorRT對于導入量化感知訓練好的模型進行INT8低精度推理有著很好的支持。導入這樣的模型,不僅得到了最佳性能,而且精度沒有損失,線上服務只需更換TensorRT構建好的引擎即可,極大地簡化了部署的流程。

通過這樣的方案,微信搜索中的一些關鍵任務,比如查詢理解等自然語言理解任務,可以在精度沒有損失的情況下,達到2-10倍的加速效果,平均單句推理時間達到了0.1ms。任務相應的計算資源節省了約70%。這個方案大大優化了微信搜索業務的性能,降低了部署成本。

使用效果及影響

使用NVIDIA T4 GPU以及TensorRT推理引擎進行INT8低精度推理,極大提升了微信搜索的速度,進一步提升了用戶體驗,節約了公司成本。

微信搜索的Hui Liu、Raccoon Liu和Dick Zhu表示:”我們已經實現了基于TensorRT和INT8 QAT的模型推理加速,以加速微信搜索的核心任務,包括Query理解和查詢結果排序等。我們用GPU+TensorRT的解決方案突破了NLP模型復雜性的限制,BERT/Transformer可以完全集成到我們的解決方案中。此外,我們利用卓越的性能優化方法,節省了70%的計算資源。”

審核編輯:郭婷

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    4985

    瀏覽量

    103032
  • gpu
    gpu
    +關注

    關注

    28

    文章

    4736

    瀏覽量

    128930
  • 計算機
    +關注

    關注

    19

    文章

    7493

    瀏覽量

    87926
收藏 人收藏

    評論

    相關推薦

    NVIDIA TensorRT-LLM中啟用ReDrafter的一些變化

    Recurrent Drafting (簡稱 ReDrafter) 是蘋果公司為大語言模型 (LLM) 推理開發并開源的一種新型推測解碼技術,該技術現在可與 NVIDIA TensorRT-LLM 一起使用。
    的頭像 發表于 12-25 17:31 ?97次閱讀
    在<b class='flag-5'>NVIDIA</b> <b class='flag-5'>TensorRT</b>-LLM中啟用ReDrafter的一些變化

    解鎖NVIDIA TensorRT-LLM的卓越性能

    Batching、Paged KV Caching、量化技術 (FP8、INT4 AWQ、INT8 SmoothQuant 等) 以及更多功能,確保您的 NVIDIA GPU 能發揮出卓越的推理性能。
    的頭像 發表于 12-17 17:47 ?147次閱讀

    《CST Studio Suite 2024 GPU加速計算指南》

    許可證模型的加速令牌或SIMULIA統一許可證模型的SimUnit令牌或積分授權。 4. GPU計算的啟用 - 交互式模擬:通過加速對話框啟用,打開求解器對話框,點擊“
    發表于 12-16 14:25

    NVIDIA TensorRT-LLM Roadmap現已在GitHub上公開發布

    感謝眾多用戶及合作伙伴一直以來對NVIDIA TensorRT-LLM的支持。TensorRT-LLM 的 Roadmap 現已在 GitHub 上公開發布!
    的頭像 發表于 11-28 10:43 ?269次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>TensorRT</b>-LLM Roadmap現已在GitHub上公開發布

    《算力芯片 高性能 CPUGPUNPU 架構分析》第3篇閱讀心得:GPU革命:從圖形引擎到AI加速器的蛻變

    對卷積核優化的思考。 GPU的存儲體系采用了獨特的倒金字塔結構,在我看來這是其計算性能的關鍵。大容量寄存器設計破解了傳統馮諾依曼架構的內存瓶頸,合并訪存機制巧妙解決了內存帶寬限制。NVIDIA GPU
    發表于 11-24 17:12

    NVIDIA加速計算引入Polars

    Polars 近日發布了一款由 RAPIDS cuDF 驅動的全新 GPU 引擎,該引擎可將 NVIDIA GPU 上的 Polars 工作流速度最高提速 13 倍,使數據科學家僅在一
    的頭像 發表于 11-20 10:03 ?200次閱讀
    將<b class='flag-5'>NVIDIA</b><b class='flag-5'>加速</b>計算引入Polars

    TensorRT-LLM低精度推理優化

    本文將分享 TensorRT-LLM 中低精度量化內容,并從精度和速度角度對比 FP8 與 INT8。首先介紹性能,包括速度和精度。其次,介紹量化工具 NVIDIA
    的頭像 發表于 11-19 14:29 ?296次閱讀
    <b class='flag-5'>TensorRT</b>-LLM低精度推理優化

    AMD與NVIDIA GPU優缺點

    NVIDIA的RTX系列顯卡以其強大的光線追蹤和DLSS技術領先于市場。例如,NVIDIA的RTX 3080在4K分辨率下提供了卓越的游戲體驗,而AMD的Radeon RX 6800 XT雖然在某些游戲中表現接近,但在光線追蹤
    的頭像 發表于 10-27 11:15 ?673次閱讀

    GPU加速計算平臺是什么

    GPU加速計算平臺,簡而言之,是利用圖形處理器(GPU)的強大并行計算能力來加速科學計算、數據分析、機器學習等復雜計算任務的軟硬件結合系統。
    的頭像 發表于 10-25 09:23 ?251次閱讀

    NVIDIA Nemotron-4 340B模型幫助開發者生成合成訓練數據

    Nemotron-4 340B 是針對 NVIDIA NeMo 和 NVIDIA TensorRT-LLM 優化的模型系列,該系列包含最先進的指導和獎勵模型,以及一個用于生成式 AI
    的頭像 發表于 09-06 14:59 ?311次閱讀
    <b class='flag-5'>NVIDIA</b> Nemotron-<b class='flag-5'>4</b> 340B模型幫助開發者生成合成訓練數據

    進一步解讀英偉達 Blackwell 架構、NVlink及GB200 超級芯片

    Blackwell GPU,標志著 AI 超級計算的一次重大進步。這種獨特的配置顯著減少傳統網絡擴展時 的通信開銷,使得對 1.8T 參數的模型進行實時推理成為可能,同時將模型訓練速度提升4
    發表于 05-13 17:16

    NVIDIA加速微軟最新的Phi-3 Mini開源語言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微軟最新的 Phi-3 Mini 開源語言模型。TensorRT-LLM
    的頭像 發表于 04-28 10:36 ?559次閱讀

    利用NVIDIA組件提升GPU推理的吞吐

    本實踐中,唯品會 AI 平臺與 NVIDIA 團隊合作,結合 NVIDIA TensorRTNVIDIA Merlin HierarchicalKV(HKV)將推理的稠密網絡和熱
    的頭像 發表于 04-20 09:39 ?723次閱讀

    如何選擇NVIDIA GPU和虛擬化軟件的組合方案呢?

    NVIDIA vGPU 解決方案能夠將 NVIDIA GPU 的強大功能帶入虛擬桌面、應用程序和工作站,加速圖形和計算,使在家辦公或在任何地方工作的創意和技術專業人員能夠訪問虛擬化工作
    的頭像 發表于 01-12 09:26 ?1123次閱讀
    如何選擇<b class='flag-5'>NVIDIA</b> <b class='flag-5'>GPU</b>和虛擬化軟件的組合方案呢?

    gpu服務器評測

    GPU服務器進行評測。 一、超GPU服務器概述 超GPU服務器是一種基于超微服務器平臺與
    的頭像 發表于 01-10 10:37 ?1382次閱讀
    主站蜘蛛池模板: 99国产在线精品视频| 父亲猜女儿在线观看| 善良的小峓子2在钱中文版女主角| 好大快用力深一点h视频| japanesen女同| 亚洲欧洲日韩国产一区二区三区| 千禧金瓶梅 快播| 考好老师让你做一次H| 国产网红主播精品福利大秀专区| 99视频国产热精品视频| 伊人影院香蕉久在线26| 亚瑟天堂久久一区二区影院| 麒麟色欧美影院在线播放| 毛片在线网址| 精品国产乱码久久久久久免费流畅| 国产超嫩一线天在线播放| youjizz护士| 9420高清免费观看在线大全| 一区三区在线专区在线| 亚洲成在人线视频| 天龙八部慕容属性加点| 日日射日日操| 强奷漂亮女老板在线播放 | 色欲人妻无码AV专区| 嫩草亚洲国产精品| 乱码午夜-极品国产内射| 久久精品视频在线看| 果冻传媒完整免费网站在线观看 | 久久精品国产欧美成人| 国内精品日本久久久久影院 | 日韩精品在线看| 欧美精品熟妇乱| 嫩草AV久久伊人妇女| 男人叼女人| 免费观看国产视频| 蜜芽无码亚洲资源网站| 母狗黄淑珍| 欧美激情视频在线观看一区二区三区 | 国产精品久久久久久久人人看| 动漫女生的逼| 调教美丽的白丝袜麻麻视频|