色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

使用NVIDIA開源模型實現更快的訓練和推理

星星科技指導員 ? 來源:NVIDIA ? 作者:Alexandre Milesi ? 2022-04-20 15:58 ? 次閱讀

SE(3)-Transformers 是在NeurIPS 2020上推出的多功能圖形神經網絡。 NVIDIA 剛剛發布了一款開源優化實現,它使用的內存比基線正式實施少9倍,速度比基線正式實施快21倍。

SE(3)-Transformer 在處理幾何對稱性問題時非常有用,如小分子處理、蛋白質精制或點云應用。它們可以是更大的藥物發現模型的一部分,如RoseTTAFold和此 AlphaFold2 的復制。它們也可以用作點云分類和分子性質預測的獨立網絡(圖 1 )。

pYYBAGJfvUKAcxmPAAE4jmo8Pmc186.png

圖 1 用于分子性質預測的典型 SE ( 3 ) – transformer 的結構。

在/PyTorch/DrugDiscovery/SE3Transformer存儲庫中, NVIDIA 提供了在QM9 數據集上為分子性質預測任務訓練優化模型的方法。 QM9 數據集包含超過 10 萬個有機小分子和相關的量子化學性質。

訓練吞吐量提高 21 倍

與基線實施相比, NVIDIA 實現提供了更快的訓練和推理。該實現對 SE(3)-Transformers 的核心組件,即張量場網絡( TFN )以及圖形中的自我注意機制進行了優化。

考慮到注意力層超參數的某些條件得到滿足,這些優化大多采取操作融合的形式。

由于這些,與基線實施相比,訓練吞吐量增加了 21 倍,利用了最近 GPU NVIDIA 上的張量核。

poYBAGJfvUSAGrvvAAA_pAADmac256.png

圖 2 A100 GPU 上的訓練吞吐量。批次大小為 100 的 QM9 數據集。

此外, NVIDIA 實現允許使用多個 GPU 以數據并行方式訓練模型,充分利用 DGX A100 ( 8x A100 80GB )的計算能力。

把所有東西放在一起,在 NVIDIA DGX A100 上, SE(3)-Transformer現在可以在 QM9 數據集上在 27 分鐘內進行訓練。作為比較,原始論文的作者指出,培訓在硬件上花費了 2 。 5 天( NVIDIA GeForce GTX 1080 Ti )。

更快的培訓使您能夠在搜索最佳體系結構的過程中快速迭代。隨著內存使用率的降低,您現在可以訓練具有更多注意層或隱藏通道的更大模型,并向模型提供更大的輸入。

內存占用率降低 9 倍

SE(3)-Transformer 是已知的記憶重模型,這意味著喂養大輸入,如大蛋白質或許多分批小分子是一項挑戰。對于 GPU 內存有限的用戶來說,這是一個瓶頸。

這一點在DeepLearningExamples上的 NVIDIA 實現中已經改變。圖 3 顯示,由于 NVIDIA 優化和對混合精度的支持,與基線實現相比,訓練內存使用減少了 9 倍。

pYYBAGJfvUSAJlq7AAAyUas0Vkk109.png

圖 3 SE ( 3 ) – transformer s 的基線實現和 NVIDIA 實現之間的訓練峰值內存消耗比較。在 QM9 數據集上每批使用 100 個分子。 V100 32-GB GPU 。

除了對單精度和混合精度進行改進外,還提供了低內存模式。啟用此標志后,模型在 TF32 ( NVIDIA 安培體系結構)或 FP16 ( NVIDIA 安培體系結構、 NVIDIA 圖靈體系結構和 NVIDIA 伏特體系結構)精度上運行,模型將切換到以吞吐量換取額外內存節省的模式。

實際上,在具有 V100 32-GB GPU 的 QM9 數據集上,基線實現可以在內存耗盡之前擴展到 100 的批大小。 NVIDIA 實現每批最多可容納 1000 個分子(混合精度,低內存模式)。

對于處理以氨基酸殘基為節點的蛋白質的研究人員來說,這意味著你可以輸入更長的序列并增加每個殘基的感受野。

SE(3)-Transformers 優化

與基線相比, NVIDIA 實現提供了一些優化。

融合鍵與值計算

在“自我注意”層中,將計算關鍵幀、查詢和值張量。查詢是圖形節點特征,是輸入特征的線性投影。另一方面,鍵和值是圖形邊緣特征。它們是使用 TFN 層計算的。這是 SE(3)-Transformer 中大多數計算發生的地方,也是大多數參數存在的地方。

基線實現使用兩個獨立的 TFN 層來計算鍵和值。在 NVIDIA 實現中,這些被融合在一個 TFN 中,通道數量增加了一倍。這將啟動的小型 CUDA 內核數量減少一半,并更好地利用 GPU 并行性。徑向輪廓是 TFN 內部完全連接的網絡,也與此優化融合。概覽如圖 4 所示。

poYBAGJfvUWAMrW0AABoHVJXxEs672.png

圖 4 NVIDIA 實現中的鍵、查詢和值計算。鍵和值一起計算,然后沿通道維度分塊。

TFN 合并

SE(3)-Transformer 內部的功能除了其通道數量外,還有一個degreed,它是一個正整數。程度特征d有維度2d+1. TFN 接受不同程度的特征,使用張量積組合它們,并輸出不同程度的特征。

對于輸入為 4 度、輸出為 4 度的圖層,將考慮所有度的組合:理論上,必須計算 4 × 4 = 16 個子圖層。

這些子層稱為成對 TFN 卷積。圖 5 顯示了所涉及的子層的概述,以及每個子層的輸入和輸出維度。對給定輸出度(列)的貢獻相加,以獲得最終特征。

pYYBAGJfvUaARF2GAAFMcAG5jOI476.png

圖 5 TFN 層中涉及的成對卷積,輸入為 4 度,輸出為 4 度。

NVIDIA 在滿足 TFN 層上的某些條件時,提供多級融合以加速這些卷積。通過創建尺寸為 16 倍的形狀,熔合層可以更有效地使用張量核。以下是應用熔合卷積的三種情況:

輸出功能具有相同數量的通道

輸入功能具有相同數量的通道

這兩種情況都是正確的

第一種情況是,所有輸出特征具有相同數量的通道,并且輸出度數的范圍從 0 到最大度數。在這種情況下,使用輸出融合特征的融合卷積。該融合層用于 SE(3)-Transformers 的第一個 TFN 層。

pYYBAGJfvUeAILrMAAC_JHUK2b0720.png

圖 6 每個輸出度的部分熔融 TFN 。

第二種情況是,所有輸入特征具有相同數量的通道,并且輸入度數的范圍從 0 到最大度數。在這種情況下,使用對融合輸入特征進行操作的融合卷積。該融合層用于 SE(3)-Transformers 的最后一層 TFN 。

poYBAGJfvUiAZ-WtAADEV4igJyM069.png

圖 7 每個輸入度的部分熔融 TFN 。

在最后一種情況下,當兩個條件都滿足時,使用完全融合的卷積。這些卷積作為輸入融合特征,輸出融合特征。這意味著每個 TFN 層只需要一個子層。內部 TFN 層使用此融合級別。

pYYBAGJfvUiAY4E7AAB8ctJYwlM494.png

圖 8 全熔合 TFN

基預計算

除了輸入節點特性外, TFN 還需要基矩陣作為輸入。每個圖邊都有一組矩陣,這些矩陣取決于目標節點和源節點之間的相對位置。

在基線實現中,這些矩陣在前向傳遞開始時計算,并在所有 TFN 層中共享。它們依賴于球形 h ARM ,計算起來可能很昂貴。由于輸入圖不會隨著 QM9 數據集而改變(沒有數據擴充,沒有迭代位置細化),這就引入了跨時代的冗余計算。

NVIDIA 實現提供了在培訓開始時預計算這些基礎的選項。整個數據集迭代一次,基緩存在 RAM 中。前向傳遞開始時的計算基數過程被更快的 CPU 到 GPU 內存拷貝所取代。

關于作者

Alexandre Milesi 是 NVIDIA 的深度學習算法工程師。他擁有法國 UTC 的機器學習碩士學位,以及法國索邦大學的機器人和多智能體系統碩士學位。在加入 NVIDIA 之前, Alexandre 是伯克利實驗室的附屬研究員,使用深度強化學習解決電子 CTR ical 網格問題。在 NVIDIA ,他的工作集中于藥物發現和計算機視覺的 DL 算法,包括等變圖神經網絡。

審核編輯:郭婷

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    4981

    瀏覽量

    102997
  • 機器學習
    +關注

    關注

    66

    文章

    8408

    瀏覽量

    132575
  • 深度學習
    +關注

    關注

    73

    文章

    5500

    瀏覽量

    121117
收藏 人收藏

    評論

    相關推薦

    阿里云開源推理模型QwQ

    近日,阿里云通義團隊宣布推出全新AI推理模型QwQ-32B-Preview,并同步實現開源。這一舉措標志著阿里云在AI推理領域邁出了重要一步。 據評測數據顯示,QwQ預覽版本已具備研
    的頭像 發表于 11-29 11:30 ?540次閱讀

    NVIDIA助力麗蟾科技打造AI訓練推理加速解決方案

    麗蟾科技通過 Leaper 資源管理平臺集成 NVIDIA AI Enterprise,為企業和科研機構提供了一套高效、靈活的 AI 訓練推理加速解決方案。無論是在復雜的 AI 開發任務中,還是在高并發
    的頭像 發表于 10-27 10:03 ?211次閱讀
    <b class='flag-5'>NVIDIA</b>助力麗蟾科技打造AI<b class='flag-5'>訓練</b>與<b class='flag-5'>推理</b>加速解決方案

    NVIDIA助力提供多樣、靈活的模型選擇

    在本案例中,Dify 以模型中立以及開源生態的優勢,為廣大 AI 創新者提供豐富的模型選擇。其集成的 NVIDIAAPI Catalog、NVIDIA NIM和Triton
    的頭像 發表于 09-09 09:19 ?461次閱讀

    NVIDIA Nemotron-4 340B模型幫助開發者生成合成訓練數據

    Nemotron-4 340B 是針對 NVIDIA NeMo 和 NVIDIA TensorRT-LLM 優化的模型系列,該系列包含最先進的指導和獎勵模型,以及一個用于生成式 AI
    的頭像 發表于 09-06 14:59 ?303次閱讀
    <b class='flag-5'>NVIDIA</b> Nemotron-4 340B<b class='flag-5'>模型</b>幫助開發者生成合成<b class='flag-5'>訓練</b>數據

    魔搭社區借助NVIDIA TensorRT-LLM提升LLM推理效率

    “魔搭社區是中國最具影響力的模型開源社區,致力給開發者提供模型即服務的體驗。魔搭社區利用NVIDIA TensorRT-LLM,大大提高了大語言模型
    的頭像 發表于 08-23 15:48 ?439次閱讀

    英偉達推出全新NVIDIA AI Foundry服務和NVIDIA NIM推理微服務

    NVIDIA 宣布推出全新 NVIDIA AI Foundry 服務和 NVIDIA NIM 推理微服務,與同樣剛推出的 Llama 3.1 系列
    的頭像 發表于 07-25 09:48 ?701次閱讀

    英偉達推出AI模型推理服務NVIDIA NIM

    英偉達近日宣布推出一項革命性的AI模型推理服務——NVIDIA NIM。這項服務將極大地簡化AI模型部署過程,為全球的2800萬英偉達開發者提供前所未有的便利。
    的頭像 發表于 06-04 09:15 ?674次閱讀

    摩爾線程和滴普科技完成大模型訓練推理適配

    近日,摩爾線程與滴普科技宣布了一項重要合作成果。摩爾線程的夸娥(KUAE)千卡智算集群與滴普科技的企業大模型Deepexi已完成訓練推理適配,共同實現了700億參數LLaMA2大語言
    的頭像 發表于 05-30 10:14 ?542次閱讀

    NVIDIA與Google DeepMind合作推動大語言模型創新

    支持 NVIDIA NIM 推理微服務的谷歌最新開源模型 PaliGemma 首次亮相。
    的頭像 發表于 05-16 09:44 ?445次閱讀

    進一步解讀英偉達 Blackwell 架構、NVlink及GB200 超級芯片

    NVIDIA NVLink,支持 FP4 AI 精度。 GB200 NVL72是一款性能卓越的計算平臺,采用更快的第二代Transformer引擎和FP8精度,可將大型語言模型訓練
    發表于 05-13 17:16

    NVIDIA加速微軟最新的Phi-3 Mini開源語言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微軟最新的 Phi-3 Mini 開源語言模型。TensorRT-LLM 是一個
    的頭像 發表于 04-28 10:36 ?555次閱讀

    李彥宏:開源模型將逐漸滯后,文心大模型提升訓練推理效率

    李彥宏解釋道,百度自研的基礎模型——文心 4.0,能夠根據需求塑造出適應各類場景的微型版模型,并支持精細調整以及后預訓練。相較于直接使用開源模型
    的頭像 發表于 04-16 14:37 ?440次閱讀

    基于NVIDIA Megatron Core的MOE LLM實現訓練優化

    本文將分享阿里云人工智能平臺 PAI 團隊與 NVIDIA Megatron-Core 團隊在 MoE (Mixture of Experts) 大語言模型(LLM)實現訓練優化上的
    的頭像 發表于 03-22 09:50 ?766次閱讀
    基于<b class='flag-5'>NVIDIA</b> Megatron Core的MOE LLM<b class='flag-5'>實現</b>和<b class='flag-5'>訓練</b>優化

    混合專家模型 (MoE)核心組件和訓練方法介紹

    ) 的 Transformer 模型開源人工智能社區引起了廣泛關注。在本篇博文中,我們將深入探討 MoEs 的核心組件、訓練方法,以及在推理過程中需要考量的各種因素。 讓我們開始吧!
    的頭像 發表于 01-13 09:37 ?1240次閱讀
    混合專家<b class='flag-5'>模型</b> (MoE)核心組件和<b class='flag-5'>訓練</b>方法介紹

    基于YOLOv8實現自定義姿態評估模型訓練

    Hello大家好,今天給大家分享一下如何基于YOLOv8姿態評估模型實現在自定義數據集上,完成自定義姿態評估模型訓練推理。
    的頭像 發表于 12-25 11:29 ?2838次閱讀
    基于YOLOv8<b class='flag-5'>實現</b>自定義姿態評估<b class='flag-5'>模型</b><b class='flag-5'>訓練</b>
    主站蜘蛛池模板: 姉调无修版ova国语版| 国产色婷婷精品人妻蜜桃成熟时 | 观看免费做视频| 久久亚洲AV成人无码国产漫画 | 久久国产精品无码视欧美| 日本无翼恶漫画大全优优漫画| 伊人国产在线观看| 国产精品永久免费视频观看| 欧美亚洲日韩一道免费观看| 尤物久久99国产综合精品| 国产蜜臀AV在线一区视频| 秋霞成人午夜鲁丝一区二区三区| 中文字幕亚洲欧美日韩2019 | 久久伊人久久| 亚洲高清毛片一区二区 | 国语92电影网午夜福利| 色www精品视频在线观看| AV天堂午夜精品一区| 久久婷婷五月综合色情| 亚洲午夜久久久精品电影院| 国产日韩欧美综合久久| 色欲AV亚洲永久无码精品麻豆| a免费在线观看视频| 麻豆精选2021| 诱人的秘书BD在线观看| 精品国产乱码久久久久久夜深人妻 | 精彩国产萝视频在线| 小寡妇水真多好紧| 国产精品玖玖玖影院| 四虎影视库永久免费| 父亲猜女儿在线观看| 日本乱子人伦在线视频| jijzzizz中国版| 欧美巨大xxxx做受高清| 99久久国产露脸精品国产吴梦梦| 玖玖热视频一区二区人妻| 在线免费看a| 久久亚洲午夜牛牛影视| 在线观看视频中文字幕| 久久久WWW免费人成精品| 欲插爽乱浪伦骨|