色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

NVIDIA技術助力線上大模型推理

NVIDIA英偉達企業解決方案 ? 來源:NVIDIA英偉達企業解決方案 ? 作者:NVIDIA英偉達 ? 2021-10-28 15:28 ? 次閱讀

隨著騰訊微信的發展,微信搜索也成為其越來越重要的功能,這個功能可以用來搜索微信內部的賬號、信息,以及搜索互聯網上的內容。微信搜索月活躍用戶數量達到五億以上。搜索業務當中使用了大量的神經網絡模型,包括自然語言理解、匹配排序等等,這些模型的訓練和推理都大量依賴于NVIDIA GPU,尤其在推理方面,NVIDIA GPU及相應的解決方案都滿足了業務所需的延遲和吞吐要求。

微信搜索業務需要更高效平臺

微信搜索業務由多個子模塊構成,包括查詢理解、匹配、搜索排序等等。由于搜索的業務特點,這些任務對線上服務的延遲和吞吐都十分敏感。然而在最近幾年,隨著算力的提升以及算法的創新,很多大型復雜的神經網絡模型開始應用在這些任務上,比如BERT/Transformer等模型。

這些大模型需要的計算資源和業務上的高要求對推理端的軟硬件都是很大的挑戰,必須針對具體的硬件做極致的優化。而且對于大模型的推理,很多技術被探索、應用在這些場景上以便實現性能加速、節約資源,比如模型壓縮、剪枝、低精度計算等。這些技術可能會帶來精度下降等負面影響,限制了這些技術的廣泛應用。因此,如何在保證精度效果以及服務吞吐延遲需求的情況下,高效地對這些模型進行推理成為了業務上的巨大挑戰。NVIDIA GPU以及NVIDIA TensorRT給這一場景提供了解決方案。

NVIDIA技術助力線上大模型推理

為了滿足線上服務的需求,并且盡可能地節約成本,微信搜索選擇使用NVIDIA T4 GPU以及TensorRT推理引擎來進行線上大模型的推理。

線上服務對于吞吐和延遲有很高的要求,微信搜索選擇使用NVIDIA T4 GPU以及TensorRT推理引擎來做線上推理服務,利用NVIDIA基于TensorRT開源的BERT實現,可以很方便地在FP16精度下實現滿足需求的線上推理功能。這個方案在線上取得了很好的效果。

在此基礎上,微信搜索希望進一步加快推理速度,節約計算資源,以便更好地服務用戶,節約成本。低精度推理成為了很好的選擇。NVIDIA GPU從圖靈(Turing)架構開始就有了INT8 Tensor Core,其計算吞吐量最高可達FP16精度的2倍。同時低精度推理跟其他的優化方法也是正交的,可以同時使用其他技術比如剪枝、蒸餾等做進一步提升。微信搜索線上大量使用NVIDIA T4 GPU,非常適合使用INT8推理。而且TensorRT對INT8推理也有良好的支持。利用TensorRT的“校準”(Calibration)功能,能夠方便地將Float精度模型轉換為INT8低精度模型,實現低精度推理。通過低精度推理,模型的單次推理時間大大縮短。

通過“校準”來做模型轉換已經在很多計算機視覺模型上被驗證是十分有效的,并且其精度和推理性能都十分優秀。然而對于像BERT一類的模型, “校準” 無法使得精度和性能都完全令人滿意。因此,騰訊搜索使用了NVIDIA開發的基于PyTorch/TensorFlow的量化工具進行基于知識蒸餾的量化感知訓練(Quantization Aware Training)克服精度下降的問題。TensorRT對于導入量化感知訓練好的模型進行INT8低精度推理有著很好的支持。導入這樣的模型,不僅得到了最佳性能,而且精度沒有損失,線上服務只需更換TensorRT構建好的引擎即可,極大地簡化了部署的流程。

通過這樣的方案,微信搜索中的一些關鍵任務,比如查詢理解等自然語言理解任務,可以在精度沒有損失的情況下,達到2-10倍的加速效果,平均單句推理時間達到了0.1ms。任務相應的計算資源節省了約70%。這個方案大大優化了微信搜索業務的性能,降低了部署成本。

使用NVIDIA T4 GPU以及TensorRT推理引擎進行INT8低精度推理,極大提升了微信搜索的速度,進一步提升了用戶體驗,節約了公司成本。

微信搜索的Hui Liu、Raccoon Liu和Dick Zhu表示:“我們已經實現了基于TensorRT和INT8 QAT的模型推理加速,以加速微信搜索的核心任務,包括Query理解和查詢結果排序等。我們用GPU+TensorRT的解決方案突破了NLP模型復雜性的限制,BERT/Transformer可以完全集成到我們的解決方案中。此外,我們利用卓越的性能優化方法,節省了70%的計算資源。”

責任編輯:haq

隨著騰訊微信的發展,微信搜索也成為其越來越重要的功能,這個功能可以用來搜索微信內部的賬號、信息,以及搜索互聯網上的內容。微信搜索月活躍用戶數量達到五億以上。搜索業務當中使用了大量的神經網絡模型,包括自然語言理解、匹配排序等等,這些模型的訓練和推理都大量依賴于NVIDIA GPU,尤其在推理方面,NVIDIA GPU及相應的解決方案都滿足了業務所需的延遲和吞吐要求。

微信搜索業務需要更高效平臺

微信搜索業務由多個子模塊構成,包括查詢理解、匹配、搜索排序等等。由于搜索的業務特點,這些任務對線上服務的延遲和吞吐都十分敏感。然而在最近幾年,隨著算力的提升以及算法的創新,很多大型復雜的神經網絡模型開始應用在這些任務上,比如BERT/Transformer等模型。 這些大模型需要的計算資源和業務上的高要求對推理端的軟硬件都是很大的挑戰,必須針對具體的硬件做極致的優化。而且對于大模型的推理,很多技術被探索、應用在這些場景上以便實現性能加速、節約資源,比如模型壓縮、剪枝、低精度計算等。這些技術可能會帶來精度下降等負面影響,限制了這些技術的廣泛應用。因此,如何在保證精度效果以及服務吞吐延遲需求的情況下,高效地對這些模型進行推理成為了業務上的巨大挑戰。NVIDIA GPU以及NVIDIATensorRT給這一場景提供了解決方案。

NVIDIA技術助力線上大模型推理

為了滿足線上服務的需求,并且盡可能地節約成本,微信搜索選擇使用NVIDIA T4 GPU以及TensorRT推理引擎來進行線上大模型的推理。

線上服務對于吞吐和延遲有很高的要求,微信搜索選擇使用NVIDIA T4 GPU以及TensorRT推理引擎來做線上推理服務,利用NVIDIA基于TensorRT開源的BERT實現,可以很方便地在FP16精度下實現滿足需求的線上推理功能。這個方案在線上取得了很好的效果。

在此基礎上,微信搜索希望進一步加快推理速度,節約計算資源,以便更好地服務用戶,節約成本。低精度推理成為了很好的選擇。NVIDIA GPU從圖靈(Turing)架構開始就有了INT8 Tensor Core,其計算吞吐量最高可達FP16精度的2倍。同時低精度推理跟其他的優化方法也是正交的,可以同時使用其他技術比如剪枝、蒸餾等做進一步提升。微信搜索線上大量使用NVIDIA T4 GPU,非常適合使用INT8推理。而且TensorRT對INT8推理也有良好的支持。利用TensorRT的“校準”(Calibration)功能,能夠方便地將Float精度模型轉換為INT8低精度模型,實現低精度推理。通過低精度推理,模型的單次推理時間大大縮短。

通過“校準”來做模型轉換已經在很多計算機視覺模型上被驗證是十分有效的,并且其精度和推理性能都十分優秀。然而對于像BERT一類的模型, “校準” 無法使得精度和性能都完全令人滿意。因此,騰訊搜索使用了NVIDIA開發的基于PyTorch/TensorFlow的量化工具進行基于知識蒸餾的量化感知訓練(Quantization Aware Training)克服精度下降的問題。TensorRT對于導入量化感知訓練好的模型進行INT8低精度推理有著很好的支持。導入這樣的模型,不僅得到了最佳性能,而且精度沒有損失,線上服務只需更換TensorRT構建好的引擎即可,極大地簡化了部署的流程。

通過這樣的方案,微信搜索中的一些關鍵任務,比如查詢理解等自然語言理解任務,可以在精度沒有損失的情況下,達到2-10倍的加速效果,平均單句推理時間達到了0.1ms。任務相應的計算資源節省了約70%。這個方案大大優化了微信搜索業務的性能,降低了部署成本。 使用NVIDIA T4 GPU以及TensorRT推理引擎進行INT8低精度推理,極大提升了微信搜索的速度,進一步提升了用戶體驗,節約了公司成本。 微信搜索的Hui Liu、Raccoon Liu和Dick Zhu表示:"我們已經實現了基于TensorRT和INT8 QAT的模型推理加速,以加速微信搜索的核心任務,包括Query理解和查詢結果排序等。我們用GPU+TensorRT的解決方案突破了NLP模型復雜性的限制,BERT/Transformer可以完全集成到我們的解決方案中。此外,我們利用卓越的性能優化方法,節省了70%的計算資源。"

責任編輯:haq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4772

    瀏覽量

    100836
  • NVIDIA
    +關注

    關注

    14

    文章

    4994

    瀏覽量

    103151
  • 模型
    +關注

    關注

    1

    文章

    3254

    瀏覽量

    48876

原文標題:NVIDIA TensorRT助力騰訊加速微信搜索

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業解決方案】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    如何開啟Stable Diffusion WebUI模型推理部署

    如何開啟Stable Diffusion WebUI模型推理部署
    的頭像 發表于 12-11 20:13 ?111次閱讀
    如何開啟Stable Diffusion WebUI<b class='flag-5'>模型</b><b class='flag-5'>推理</b>部署

    阿里云開源推理模型QwQ

    近日,阿里云通義團隊宣布推出全新AI推理模型QwQ-32B-Preview,并同步實現了開源。這一舉措標志著阿里云在AI推理領域邁出了重要一步。 據評測數據顯示,QwQ預覽版本已具備研究生水平的科學
    的頭像 發表于 11-29 11:30 ?567次閱讀

    使用vLLM+OpenVINO加速大語言模型推理

    隨著大語言模型的廣泛應用,模型的計算需求大幅提升,帶來推理時延高、資源消耗大等挑戰。
    的頭像 發表于 11-15 14:20 ?413次閱讀
    使用vLLM+OpenVINO加速大語言<b class='flag-5'>模型</b><b class='flag-5'>推理</b>

    高效大模型推理綜述

    模型由于其在各種任務中的出色表現而引起了廣泛的關注。然而,大模型推理的大量計算和內存需求對其在資源受限場景的部署提出了挑戰。業內一直在努力開發旨在提高大模型
    的頭像 發表于 11-15 11:45 ?408次閱讀
    高效大<b class='flag-5'>模型</b>的<b class='flag-5'>推理</b>綜述

    NVIDIA助力提供多樣、靈活的模型選擇

    在本案例中,Dify 以模型中立以及開源生態的優勢,為廣大 AI 創新者提供豐富的模型選擇。其集成的 NVIDIAAPI Catalog、NVIDIA NIM和Triton 推理服務器
    的頭像 發表于 09-09 09:19 ?482次閱讀

    魔搭社區借助NVIDIA TensorRT-LLM提升LLM推理效率

    “魔搭社區是中國最具影響力的模型開源社區,致力給開發者提供模型即服務的體驗。魔搭社區利用NVIDIA TensorRT-LLM,大大提高了大語言模型
    的頭像 發表于 08-23 15:48 ?459次閱讀

    英偉達推出全新NVIDIA AI Foundry服務和NVIDIA NIM推理微服務

    NVIDIA 宣布推出全新 NVIDIA AI Foundry 服務和 NVIDIA NIM 推理微服務,與同樣剛推出的 Llama 3.1 系列開源
    的頭像 發表于 07-25 09:48 ?715次閱讀

    LLM大模型推理加速的關鍵技術

    LLM(大型語言模型)大模型推理加速是當前人工智能領域的一個研究熱點,旨在提高模型在處理復雜任務時的效率和響應速度。以下是對LLM大模型
    的頭像 發表于 07-24 11:38 ?904次閱讀

    如何加速大語言模型推理

    隨著人工智能技術的飛速發展,大語言模型(LLM)已成為自然語言處理領域的核心工具,廣泛應用于智能客服、文本生成、機器翻譯等多個場景。然而,大語言模型的高計算復雜度和資源消耗成為其在實際應用中面臨
    的頭像 發表于 07-04 17:32 ?549次閱讀

    英偉達推出AI模型推理服務NVIDIA NIM

    英偉達近日宣布推出一項革命性的AI模型推理服務——NVIDIA NIM。這項服務將極大地簡化AI模型部署過程,為全球的2800萬英偉達開發者提供前所未有的便利。
    的頭像 發表于 06-04 09:15 ?684次閱讀

    英特爾助力京東云用CPU加速AI推理,以大模型構建數智化供應鏈

    英特爾助力京東云用CPU加速AI推理,以大模型構建數智化供應鏈
    的頭像 發表于 05-27 11:50 ?548次閱讀
    英特爾<b class='flag-5'>助力</b>京東云用CPU加速AI<b class='flag-5'>推理</b>,以大<b class='flag-5'>模型</b>構建數智化供應鏈

    NVIDIA與Google DeepMind合作推動大語言模型創新

    支持 NVIDIA NIM 推理微服務的谷歌最新開源模型 PaliGemma 首次亮相。
    的頭像 發表于 05-16 09:44 ?456次閱讀

    NVIDIA加速微軟最新的Phi-3 Mini開源語言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微軟最新的 Phi-3 Mini 開源語言模型。TensorRT-LLM 是一個開源庫,用于優化從 PC 到云端的 NVID
    的頭像 發表于 04-28 10:36 ?582次閱讀

    NVIDIA全面加快Meta Llama 3的推理速度

    Meta 最新開源大語言模型采用 NVIDIA 技術構建,其經過優化后可在云、數據中心、邊緣和 PC 的 NVIDIA GPU 上運行。
    的頭像 發表于 04-23 09:52 ?470次閱讀

    利用NVIDIA組件提升GPU推理的吞吐

    本實踐中,唯品會 AI 平臺與 NVIDIA 團隊合作,結合 NVIDIA TensorRT 和 NVIDIA Merlin HierarchicalKV(HKV)將推理的稠密網絡和熱
    的頭像 發表于 04-20 09:39 ?739次閱讀
    主站蜘蛛池模板: 曰本xxⅹ孕妇性xxx| 一个人日本的视频免费完整版| 婷婷激情综合色五月久久竹菊影视| 在线精品视频免费观看| 国产制服丝袜91在线| 少妇一夜未归暴露妓女身份| www.av色| 青青草伊人网| 扒开女人下面使劲桶动态图| 欧美牲交视频免费观看K8经典| 99久久精品国产高清一区二区 | 日韩亚射吧| 成人动漫百度影音| 三级黄色在线看| 国产国拍亚洲精品永久软件| 无码丰满人妻熟妇区| 国产人在线成免费视频| 亚洲国产精品热久久| 狠狠色狠狠色综合日日32| 亚洲欧美综合乱码精品成人网| 精品四虎国产在免费观看| 中文字幕一区二区三区在线播放 | 四虎影视库永久免费| 国产人妻人伦精品9| 亚洲欧美一区二区三区蜜芽| 精品久久久久久久国产潘金莲| 一级做a爰片久久毛片潮喷动漫| 龙泽罗拉av| 纯肉高H放荡受BL文库| 我要干av| 久久理论片| 超大号黑吊magnet| 亚洲AV无码专区国产乱码网站 | 日韩性xxx| 国产偷国产偷亚洲高清app| 一本道亚洲区免费观看| 免费看男人J放进女人J无遮掩| 超嫩校花被灌醉在线观看| 玩高中女同桌肉色短丝袜脚文| 后入内射国产一区二区| 99re28久久热在线观看|