色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

生成式 AI 研究通過引導(dǎo)式圖像結(jié)構(gòu)控制為創(chuàng)作者賦能

NVIDIA英偉達(dá) ? 來源:未知 ? 2023-07-24 19:30 ? 次閱讀

新的研究正在通過一個(gè)文本引導(dǎo)的圖像編輯工具來提升生成式 AI 的創(chuàng)造性潛能。這項(xiàng)創(chuàng)新性的研究提出了一個(gè)使用即插即用擴(kuò)散特征(PnP DFs)的框架,可引導(dǎo)實(shí)現(xiàn)逼真而精確的圖像生成。通過這項(xiàng)研究,視覺內(nèi)容創(chuàng)作者只需一張?zhí)崾緢D片和幾個(gè)描述性詞語,就能將圖像轉(zhuǎn)化為視覺內(nèi)容。

可靠輕松編輯并生成內(nèi)容的能力有助于藝術(shù)家、設(shè)計(jì)師和創(chuàng)作者不斷擴(kuò)展創(chuàng)意的可能性。這也將為那些依賴動(dòng)畫、視覺設(shè)計(jì)和圖像編輯的行業(yè)賦能。

這項(xiàng)研究的首席作者、魏茲曼科學(xué)研究院博士研究生 Narek Tumanyan 表示:“最新的文本到圖像生成模型標(biāo)志著數(shù)字內(nèi)容創(chuàng)作進(jìn)入了一個(gè)新時(shí)代。然而,將它們應(yīng)用于現(xiàn)實(shí)世界的主要挑戰(zhàn)在于缺乏用戶可控性,這在很大程度上局限于‘僅通過輸入文本來引導(dǎo)圖像生成’。我們的工作是最早為用戶提供圖像布局控制權(quán)的方法之一。”

生成式 AI 的最新突破為開發(fā)強(qiáng)大的文本到圖像模型提供了新方法。然而,復(fù)雜性、模糊性以及對(duì)定制內(nèi)容的需求限制了當(dāng)前渲染技術(shù)的發(fā)展。

這項(xiàng)研究引入了一種新方法,使用 PnP DFs 來改進(jìn)圖像編輯和生成過程,使創(chuàng)作者對(duì)最終產(chǎn)物有更大的控制權(quán)。

研究人員從一個(gè)簡單的問題入手:擴(kuò)散模型如何表現(xiàn)并捕捉圖像的形狀或輪廓?研究探索了圖像在生成過程中不斷演變的內(nèi)部表征,并研究了這些表征如何對(duì)形狀和語義信息進(jìn)行編碼。

這種新方法通過理解如何在預(yù)訓(xùn)練的文本到圖像模型中編碼空間信息來控制生成的圖像布局,而無需訓(xùn)練新的擴(kuò)散模型或?qū)ζ溥M(jìn)行微調(diào)。在生成過程中,模型從引導(dǎo)圖像中提取擴(kuò)散特征,并將其注入到整個(gè)過程中的每一個(gè)步驟,從而對(duì)新圖像的結(jié)構(gòu)進(jìn)行精細(xì)控制。

通過融合這些空間特征,擴(kuò)散模型可以完善新圖像,使其與引導(dǎo)結(jié)構(gòu)相匹配。它會(huì)反復(fù)進(jìn)行此過程,更新圖像特征,直到生成一張既保留引導(dǎo)圖像布局、又與文本提示相匹配的最終圖像。

作者寫道:“這就產(chǎn)生了一種簡單而有效的方法,即從引導(dǎo)圖像中提取的特征直接注入到轉(zhuǎn)化圖像的生成過程中,無需進(jìn)行訓(xùn)練或微調(diào)。”

這種方法為更先進(jìn)的可控生成和操作方法鋪平了道路。

視頻. 在 2023 年國際計(jì)算機(jī)視覺與模式識(shí)別會(huì)議(CVPR)上展示的“文本驅(qū)動(dòng)的圖像到圖像翻譯的即插即用擴(kuò)散特征”研究概述

研究人員使用 cuDNN 加速的 PyTorch 框架在單個(gè) NVIDIA A100 GPU 上開發(fā)并測(cè)試了這個(gè) PNP 模型。該團(tuán)隊(duì)表示,GPU 的大容量使他們能夠?qū)W⒂陂_發(fā)方法。作為 NVIDIA 應(yīng)用研究加速器計(jì)劃的參與者,這些研究人員獲得了一塊 A100 GPU。

該框架部署在 A100 上,能夠在大約 50 秒內(nèi)從引導(dǎo)圖像和文本轉(zhuǎn)換為一個(gè)新圖像。

該過程不僅有高效,而且可靠,能準(zhǔn)確地生成令人驚嘆的圖像。除圖像外,它還適用于轉(zhuǎn)化草圖、繪圖和動(dòng)畫,并能修改照明、色彩和背景。

圖 1.該方法的示例結(jié)果,保留了引導(dǎo)折紙圖像的結(jié)構(gòu),同時(shí)與目標(biāo)提示的描述相匹配(來源:Tumanyan, Narek 等人/CVPR 2023)

他們的方法還優(yōu)于現(xiàn)有的文本到圖像模型,在保留引導(dǎo)布局和偏離其外觀之間實(shí)現(xiàn)了卓越的平衡。

圖 2.示例結(jié)果,將該模型與 P2P、DiffuseIT、SDedit 和 VQ+CLIP 模型進(jìn)行三種不同噪聲水平的比較(來源:Tumanyan, Narek 等人/CVPR 2023)

然而,該模型確實(shí)存在一些局限性。當(dāng)編輯任意顏色的圖像區(qū)域時(shí),它的表現(xiàn)并不理想,因?yàn)樵撃P蜔o法從輸入圖像中提取語義信息。

目前,研究人員正在致力于將這種方法擴(kuò)展到文本引導(dǎo)的視頻編輯中。同時(shí),該研究還證明對(duì)于其他利用擴(kuò)散模型分析圖像內(nèi)部表征的研究也具有重要價(jià)值。

例如,有一項(xiàng)研究正在利用該團(tuán)隊(duì)的研究成果來改進(jìn)計(jì)算機(jī)視覺任務(wù),例如語義點(diǎn)對(duì)應(yīng)。另一項(xiàng)研究則專注于擴(kuò)展文本到圖像生成的控制,包括物體的形狀、位置和外觀。

這項(xiàng)研究已在 GitHub 上開源。

點(diǎn)擊“閱讀原文”,或掃描下方海報(bào)二維碼,在 8 月 8日聆聽NVIDIA 創(chuàng)始人兼 CEO 黃仁勛在 SIGGRAPH 現(xiàn)場(chǎng)發(fā)表的 NVIDIA 主題演講,了解 NVIDIA 的新技術(shù),包括屢獲殊榮的研究,OpenUSD 開發(fā),以及最新的 AI 內(nèi)容創(chuàng)作解決方案。


原文標(biāo)題:生成式 AI 研究通過引導(dǎo)式圖像結(jié)構(gòu)控制為創(chuàng)作者賦能

文章出處:【微信公眾號(hào):NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    22

    文章

    3771

    瀏覽量

    90991

原文標(biāo)題:生成式 AI 研究通過引導(dǎo)式圖像結(jié)構(gòu)控制為創(chuàng)作者賦能

文章出處:【微信號(hào):NVIDIA_China,微信公眾號(hào):NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    生成AI工具作用

    生成AI工具是指那些能夠自動(dòng)生成文本、圖像、音頻、視頻等多種類型數(shù)據(jù)的人工智能技術(shù)。在此,petacloud.
    的頭像 發(fā)表于 10-28 11:19 ?225次閱讀

    商湯日日新大模型體系持續(xù)升級(jí),為全行業(yè)創(chuàng)作者提供新質(zhì)生產(chǎn)力

    AIGC帶來的可能性不僅為創(chuàng)作者提供了廣闊的創(chuàng)作空間,也帶來了嶄新的藝術(shù)形式和語言。
    的頭像 發(fā)表于 09-26 10:18 ?447次閱讀

    Freepik攜手Magnific AI推出AI圖像生成

    近日,設(shè)計(jì)資源巨頭Freepik攜手Magnific AI,共同推出了革命性的AI圖像生成器——Freepik Mystic,這一里程碑
    的頭像 發(fā)表于 08-30 16:23 ?1129次閱讀

    索尼電影攝影機(jī)助力創(chuàng)作者實(shí)現(xiàn)影像夢(mèng)想

    索尼一直致力于通過創(chuàng)新技術(shù),忠實(shí)還原創(chuàng)作者的意圖,憑借在廣播電視及專業(yè)影像業(yè)務(wù)中深厚的技術(shù)積累,助力創(chuàng)作者實(shí)現(xiàn)影像夢(mèng)想,用創(chuàng)意和科技的力量感動(dòng)世界。
    的頭像 發(fā)表于 08-16 10:54 ?689次閱讀

    如何用C++創(chuàng)建簡單的生成AI模型

    生成AI(Generative AI)是一種人工智能技術(shù),它通過機(jī)器學(xué)習(xí)模型和深度學(xué)習(xí)技術(shù),從大量歷史數(shù)據(jù)中學(xué)習(xí)對(duì)象的特征和規(guī)律,從而能夠
    的頭像 發(fā)表于 07-05 17:53 ?848次閱讀

    商湯發(fā)布《2024生成AI教育未來》白皮書

    生成AI正在各個(gè)行業(yè)中展現(xiàn)出巨大的應(yīng)用前景。在關(guān)系國計(jì)民生的教育行業(yè),生成AI能夠催生哪些創(chuàng)
    的頭像 發(fā)表于 06-29 09:48 ?838次閱讀

    Runway發(fā)布Gen-3 Alpha視頻生成模型

    專為電影和圖像內(nèi)容創(chuàng)作者提供生成AI工具的Runway公司近日宣布,其最新的Gen-3 Alpha視頻
    的頭像 發(fā)表于 06-19 09:25 ?569次閱讀

    創(chuàng)作者變身知識(shí)智能體,AI時(shí)代的“超級(jí)個(gè)體”

    無Agent不創(chuàng)作:為什么知識(shí)智能體是創(chuàng)作者的人生杠桿?
    的頭像 發(fā)表于 04-23 09:26 ?1337次閱讀
    <b class='flag-5'>創(chuàng)作者</b>變身知識(shí)智能體,<b class='flag-5'>AI</b>時(shí)代的“超級(jí)個(gè)體”

    生成AI手機(jī)出貨量或?qū)w速增長,市場(chǎng)份額提升顯著

    同時(shí),反轉(zhuǎn)點(diǎn)還預(yù)期,至2027年,生成AI智慧型手機(jī)的市場(chǎng)保有量將超過10億部。按照其定義,生成AI
    的頭像 發(fā)表于 04-16 16:55 ?617次閱讀

    京東十億現(xiàn)金及十億流量鼓勵(lì)原創(chuàng)作者和優(yōu)質(zhì)內(nèi)容機(jī)構(gòu)入駐

    首先,針對(duì)涵蓋數(shù)碼3C、家電家居、母嬰、寵物、時(shí)尚、運(yùn)動(dòng)、美妝個(gè)護(hù)、健康、車品等20余個(gè)創(chuàng)作領(lǐng)域的達(dá)人們,京東將給予現(xiàn)金補(bǔ)貼。達(dá)到招募標(biāo)準(zhǔn)的創(chuàng)作者,單個(gè)周期內(nèi)單個(gè)賬戶最高可領(lǐng)取3萬元現(xiàn)金創(chuàng)作補(bǔ)貼,且同時(shí)享受視頻播放補(bǔ)貼和帶貨傭金
    的頭像 發(fā)表于 04-10 14:19 ?481次閱讀

    NVIDIA Edify多模態(tài)架構(gòu)升級(jí),引領(lǐng)視覺生成AI新紀(jì)元

    NVIDIA近日宣布,其用于視覺生成AI的多模態(tài)架構(gòu)Edify迎來重大更新,為開發(fā)者和視覺內(nèi)容提供商帶來前所未有的新功能。其中,3D資產(chǎn)生成功能的引入,極大地提升了
    的頭像 發(fā)表于 03-27 10:22 ?453次閱讀

    微軟收購Inflection AI,將其技術(shù)授給創(chuàng)作者

    Inflection AI 隨后發(fā)表聲明,稱他們將在 Microsoft Azure 上部署 Inflection-2.5 工具套件,這將助力廣大創(chuàng)作者使用這項(xiàng)技術(shù)。同時(shí),他們也承諾在可預(yù)見的未來,將在其他各大云計(jì)算平臺(tái)上推廣其模型及服務(wù)。
    的頭像 發(fā)表于 03-21 10:13 ?518次閱讀

    亞馬遜云科技助力沐瞳應(yīng)用生成AI技術(shù)打造卓越游戲體驗(yàn) 業(yè)務(wù)決策

    北京 ——2024 年 2 月 21 日 ? 亞馬遜云科技宣布,上海沐瞳科技有限公司(以下簡稱“沐瞳”)應(yīng)用亞馬遜云科技Amazon Bedrock等生成AI服務(wù),為玩家打造卓越的游戲體驗(yàn)并
    發(fā)表于 02-22 11:20 ?224次閱讀
    亞馬遜云科技助力沐瞳應(yīng)用<b class='flag-5'>生成</b><b class='flag-5'>式</b><b class='flag-5'>AI</b>技術(shù)打造卓越游戲體驗(yàn) <b class='flag-5'>賦</b><b class='flag-5'>能</b>業(yè)務(wù)決策

    亞馬遜云科技助力沐瞳應(yīng)用生成AI技術(shù)打造卓越游戲體驗(yàn) 業(yè)務(wù)決策

    北京2024年2月21日?/美通社/ -- 亞馬遜云科技宣布,上海沐瞳科技有限公司(以下簡稱"沐瞳")應(yīng)用亞馬遜云科技Amazon Bedrock等生成AI服務(wù),為玩家打造卓越的游戲體驗(yàn)并
    的頭像 發(fā)表于 02-22 09:25 ?419次閱讀

    NVIDIA 在 CES 2024 上展示游戲、創(chuàng)作生成 AI 和機(jī)器人領(lǐng)域的創(chuàng)新成果

    席卷 CES,為游戲玩家和內(nèi)容創(chuàng)作者帶來各種性能強(qiáng)大的新工具。 ? 在 CES 展會(huì)開始之前,NVIDIA 發(fā)表了一場(chǎng)重磅演講,重點(diǎn)介紹了將為游戲和應(yīng)用帶來逼真角色的生成 AI 模型
    發(fā)表于 01-09 09:17 ?390次閱讀
    NVIDIA 在 CES 2024 上展示游戲、<b class='flag-5'>創(chuàng)作</b>、<b class='flag-5'>生成</b><b class='flag-5'>式</b> <b class='flag-5'>AI</b> 和機(jī)器人領(lǐng)域的創(chuàng)新成果
    主站蜘蛛池模板: 最近高清日本免费| 熟女人妻水多爽中文字幕| 国产色偷偷男人的天堂| 中文字幕亚洲视频| 小777论坛| 日韩欧美高清一区| 毛片网站在线观看| 果冻传媒在线播放 免费观看| mm625亚洲人成电影网| 一区三区在线专区在线| 亚洲高清国产拍精品5g| 欧洲内射VIDEOXXX3D| 久久亚洲网站| 黑人巨大交牲老太| 国产精品久久久久精品A片软件| 99久热精品免费观看| 战狼4在线观看完免费完整版 | 成人伊人青草久久综合网| 97视频免费观看| 最新无码国产在线视频9299| 亚洲三级在线视频| 亚洲精品在线不卡| 亚洲国产成人爱AV在线播放丿 | 久久精品国产96精品亚洲| 国产午夜精品一区理论片飘花| 国产成年网站v片在线观看| 成 人 片 免费播放| yellow免费观看直播| www.av天堂网.com| gogogo免费视频观看| 99国产精品久久人妻无码| 4虎影院午夜在线观看| 0951影音在线| 99久久人妻无码精品系列性欧美| 98久久人妻少妇激情啪啪| 99久久久精品免费观看国产| 99国产福利| 俄罗斯女人Z0ZOZO| 国产精品JK白丝AV网站| 国产色精品久久人妻无码| 国产专区青青在线视频|