色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

英偉達耗費64個A100訓練StyleGAN-T!

CVer ? 來源:機器之心 ? 2023-02-07 11:50 ? 次閱讀

擴散模型在文本到圖像生成方面是最好的嗎?不見得,英偉達等機構推出的新款 StyleGAN-T,結果表明 GAN 仍具有競爭力。

文本合成圖像任務是指,基于文本內容生成圖像內容。當下這項任務取得的巨大進展得益于兩項重要的突破:其一,使用大的預訓練語言模型作為文本的編碼器,讓使用通用語言理解實現生成模型成為可能。其二,使用由數億的圖像 - 文本對組成的大規模訓練數據,只要你想到的,模型都可以合成。

訓練數據集的大小和覆蓋范圍持續飛速擴大。因此,文本生成圖像任務的模型必須擴展成為大容量模型,以適應訓練數據的增加。最近在大規模文本到圖像生成方面,擴散模型(DM)和自回歸模型(ARM)催生出了巨大的進展,這些模型似乎內置了處理大規模數據的屬性,同時還能處理高度多模態數據的能力。

有趣的是,2014 年,由 Goodfellow 等人提出的生成對抗網絡(GAN),在生成任務中并沒有大放異彩,正當大家以為 GAN 在生成方面已經不行的時候,來自英偉達等機構的研究者卻試圖表明 GAN 仍然具有競爭力,提出 StyleGAN-T 模型。

9b55561a-a49c-11ed-bfe3-dac502259ad0.png

StyleGAN-T: Unlocking the Power of GANs for Fast Large-Scale Text-to-Image Synthesis

論文地址:https://arxiv.org/abs/2301.09515

論文主頁:https://sites.google.com/view/stylegan-t/

StyleGAN-T 只需 0.1 秒即可生成 512×512 分辨率圖像:

?

9b7cb174-a49c-11ed-bfe3-dac502259ad0.gif

?

StyleGAN-T 生成宇航員圖像:

9c24c314-a49c-11ed-bfe3-dac502259ad0.gif

?

值得一提的是,谷歌大腦研究科學家 Ben Poole 表示:StyleGAN-T 在低分辨率 (64x64) 時生成的樣本比擴散模型更快更好,但在高分辨率 (256x256) 時表現不佳。

9d04c626-a49c-11ed-bfe3-dac502259ad0.png

研究者們表示,他們在 64 臺 NVIDIA A100 上進行了 4 周的訓練。有人給這項研究算了一筆賬,表示:StyleGAN-T 在 64 塊 A100 GPU 上訓練 28 天,根據定價約為 473000 美元,這大約是典型擴散模型成本的四分之一……

9d254dc4-a49c-11ed-bfe3-dac502259ad0.png

GAN 提供的主要好處在于推理速度以及可以通過隱空間控制合成的結果。StyleGAN 的特別之處在于,其具有一個精心設計的隱空間,能從根本上把控生成的圖像結果。而對于擴散模型來說,盡管有些工作在其加速方面取得了顯著進展,但速度仍然遠遠落后于僅需要一次前向傳播的 GAN。

本文從觀察到 GAN 在 ImageNet 合成中同樣落后于擴散模型中得到啟發,接著受益于 StyleGAN-XL 對判別器的架構進行了重構,使得 GAN 和擴散模型的差距逐漸縮小。在原文的第 3 節中,考慮到大規模文本生成圖像任務的特定要求:數量多、類別多的數據集、強大的文本對齊以及需要在變化與文本對齊間進行權衡,研究者以 StyleGAN-XL 作為開始,重新審視了生成器和判別器的架構。

在 MS COCO 上的零樣本任務中,StyleGAN-T 以 64×64 的分辨率實現了比當前 SOTA 擴散模型更高的 FID 分數。在 256×256 分辨率下,StyleGAN-T 更是達到之前由 GAN 實現的零樣本 FID 分數的一半,不過還是落后于 SOTA 的擴散模型。StyleGAN-T 的主要優點包括其快速的推理速度和在文本合成圖像任務的上下文中進行隱空間平滑插值,分別如圖 1 和圖 2 所示。

9da7e4b4-a49c-11ed-bfe3-dac502259ad0.png

9dc244c6-a49c-11ed-bfe3-dac502259ad0.png

StyleGAN-T 架構概覽

該研究選擇 StyleGAN-XL 作為基線架構,因為 StyleGAN-XL 在以類別為條件的 ImageNet 合成任務中表現出色。然后該研究依次從生成器、判別器和變長與文本對齊的權衡機制的角度修改 StyleGAN-XL。

9e563154-a49c-11ed-bfe3-dac502259ad0.png

在整個重新設計過程中,作者使用零樣本 MS COCO 來衡量改動的效果。出于實際原因,與原文第 4 節中的大規模實驗相比,測試步驟的計算資源預算有限,該研究使用了更小模型和更小的數據集;詳見原文附錄 A。除此以外,該研究使用 FID 分數來量化樣本質量,并使用 CLIP 評分來量化文本對齊質量。

為了在基線模型中將以類別為引導條件更改為以文本為引導條件,作者使用預訓練的 CLIP ViT-L/14 文本編碼器來嵌入文本提示,以此來代替類別嵌入。接著,作者刪除了用于引導生成的分類器。這種簡單的引導機制與早期的文本到圖像模型相匹配。如表 1 所示,該基線方法在輕量級訓練配置中達到了 51.88 的零樣本 FID 和 5.58 的 CLIP 分數。值得注意的是,作者使用不同的 CLIP 模型來調節生成器和計算 CLIP 分數,這降低了人為夸大結果的風險。

9e85ad12-a49c-11ed-bfe3-dac502259ad0.png

實驗結果

該研究使用零樣本 MS COCO 在表 2 中的 64×64 像素輸出分辨率和表 3 中的 256×256 像素輸出分辨率下定量比較 StyleGAN-T 的性能與 SOTA 方法的性能。

9ebda05a-a49c-11ed-bfe3-dac502259ad0.png

9eceddac-a49c-11ed-bfe3-dac502259ad0.png

圖 5 展示了 FID-CLIP 評分曲線:

9ee3cfb4-a49c-11ed-bfe3-dac502259ad0.png

為了隔離文本編碼器訓練過程產生的影響,該研究評估了圖 6 中的 FID–CLIP 得分曲線。

9eff64f4-a49c-11ed-bfe3-dac502259ad0.png

圖 2 顯示了 StyleGAN-T 生成的示例圖像,以及它們之間的插值。

在不同的文本提示之間進行插值非常簡單。對于由中間變量 w_0 = [f (z), c_text0] 生成的圖像,該研究用新的文本條件 c_text1 替換文本條件 c_text0。然后將 w_0 插入到新的隱變量 w_1 = [f (z), c_text1] 中,如圖 7 所示。

9f1ae6ac-a49c-11ed-bfe3-dac502259ad0.png

通過向文本提示附加不同的樣式,StyleGAN-T 可以生成多種樣式,如圖 8 所示。

a00a3e64-a49c-11ed-bfe3-dac502259ad0.png

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 編碼器
    +關注

    關注

    45

    文章

    3648

    瀏覽量

    134731
  • 語言模型
    +關注

    關注

    0

    文章

    528

    瀏覽量

    10292
  • 英偉達
    +關注

    關注

    22

    文章

    3788

    瀏覽量

    91290

原文標題:GAN強勢歸來?英偉達耗費64個A100訓練StyleGAN-T!僅為擴散模型成本的四分之一

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    英偉a100和h100哪個強?英偉A100和H100的區別

    基于Ampere架構的GPU計算加速器,專為高性能計算、人工智能和機器學習等領域而設計。它擁有高達6912CUDA核心(在32GB版本中),是目前最強大的數據中心GPU之一。A100支持更快的訓練速度和更大的模型容量,適用于需
    的頭像 發表于 08-09 17:31 ?4.7w次閱讀

    英偉a100和h100哪個強?

    版本制程(4N)打造,單塊芯片包含 800 億晶體管。 A100都是非常強大的GPU,A100配備高達6,912CUDA核心,A100英偉
    的頭像 發表于 08-07 17:32 ?1.5w次閱讀

    英偉a100a800的區別

    英偉a100a800的區別 英偉A100
    的頭像 發表于 08-07 17:57 ?4.5w次閱讀

    英偉a100顯卡算力介紹

    英偉a100顯卡算力介紹 英偉A100顯卡是一款專為數據中心設計的顯卡,采用了全新的Ampe
    的頭像 發表于 08-07 17:59 ?8744次閱讀

    英偉A100和H100的區別

    英偉A100和H100的區別 英偉A100和H
    的頭像 發表于 08-07 18:06 ?3w次閱讀

    英偉A100和3090的區別

    地實現深度學習訓練和推理操作,具有更高的計算精度和更大的內存容量。 英偉A100是一款基于英偉
    的頭像 發表于 08-07 18:54 ?4384次閱讀

    英偉A100和V100參數對比

    英偉A100這個AI芯片怎么樣?英偉A100是一款基于
    的頭像 發表于 08-08 11:54 ?1.4w次閱讀
    <b class='flag-5'>英偉</b><b class='flag-5'>達</b><b class='flag-5'>A100</b>和V<b class='flag-5'>100</b>參數對比

    英偉A100和4090的區別

    。 2. 核心數量:英偉A100的核心數量是6912,在4090中是4608。 3. 性能:英偉
    的頭像 發表于 08-08 11:59 ?3w次閱讀

    英偉A100A40的對比

    英偉A100A40的對比 A100英偉推出的
    的頭像 發表于 08-08 15:08 ?1.9w次閱讀

    英偉A100是什么系列?

    英偉A100是什么系列? 全球都在關注生成式人工智能;特別是OpenAI發布ChatGPT以來,生成式人工智能技術一下就被拔高。在大模型訓練中,A
    的頭像 發表于 08-08 15:13 ?3131次閱讀

    英偉A100的簡介

    英偉A100的簡介 A100都是非常強大的GPU。英偉A
    的頭像 發表于 08-08 15:17 ?9311次閱讀

    英偉A100的優勢分析

    英偉A100的優勢分析 在大模型訓練中,A100是非常強大的GPU。A100
    的頭像 發表于 08-08 15:25 ?3306次閱讀

    英偉A100的算力是多少?

    英偉A100的算力是多少? 英偉A100的算力為19.5 TFLOPS(浮點運算每秒19.5
    的頭像 發表于 08-08 15:28 ?3.8w次閱讀

    英偉v100A100的差距有哪些?

    英偉v100A100的差距有哪些? 在當今人工智能和深度學習技術日益發展的時代,高性能計算機顯卡已成為支持這些技術發展的關鍵。英偉
    的頭像 發表于 08-22 16:46 ?2.3w次閱讀

    英偉H200和A100的差異

    英偉H200和A100在多個方面存在差異。
    的頭像 發表于 03-07 16:18 ?2604次閱讀
    主站蜘蛛池模板: 国产叼嘿久久精品久久| 色窝窝777欧美午夜精品影院| 97久久超碰中文字幕| 色橹橹欧美在线观看视频高清 | 毛片网站在线观看| 国产欧美精品一区二区色综合| 91久久精品国产亚洲| 亚洲精品久久久无码一区二区| 日日射日日操| 嫩草成人国产精品| 久久国产精品永久免费网站| 国产精品高清在线观看地址| 爱啪国产精品视频在线| 最懂男人心论坛| 亚洲视频在线免费| 午夜AV国产欧美亚洲高清在线| 青青青久久久| 男人边吃奶边摸边做刺激情话| 精品一品国产午夜福利视频| 国产精品看高国产精品不卡| 成 人 动漫3d 在线看| 67194成在线观看免费| 一边亲着一面膜下奶韩剧免费| 王晶经典三级| 日本性xxx| 青柠在线观看视频在线| 末成年美女黄网站色大片连接| 久久人妻无码毛片A片麻豆| 好男人好资源在线观看| 国产免费人成在线视频有码| 纲手胸被爆羞羞免费| 成人在线免费视频观看| BLACKED太粗太长| 99久视频只有精品2019| 99精品国产高清自在线看超| 最近韩国日本免费观看mv免费版 | 把她带到密室调教性奴| 99久久精品一区二区三区| 97免费在线视频| 91夫妻交友论坛| 91亚洲精品福利在线播放|