色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌大腦打造“以一當(dāng)十”的GAN:僅用10%標(biāo)記數(shù)據(jù),生成圖像卻更逼真

DPVg_AI_era ? 來(lái)源:YXQ ? 2019-03-22 08:53 ? 次閱讀

近日,谷歌大腦研究人員提出了一種基于自監(jiān)督和半監(jiān)督學(xué)習(xí)的“條件GAN”,使用的標(biāo)記數(shù)據(jù)量大降90%,生成圖像的質(zhì)量比現(xiàn)有全監(jiān)督最優(yōu)模型BigGAN高出20%(以FID得分計(jì)),有望緩解圖像生成和識(shí)別領(lǐng)域標(biāo)記數(shù)據(jù)量嚴(yán)重不足的問(wèn)題。

生成對(duì)抗網(wǎng)絡(luò)(GAN)是一類強(qiáng)大的深度生成模型。GAN背后的主要思想是訓(xùn)練兩個(gè)神經(jīng)網(wǎng)絡(luò):生成器負(fù)責(zé)學(xué)習(xí)如何合成數(shù)據(jù),而判別器負(fù)責(zé)學(xué)習(xí)如何區(qū)分真實(shí)數(shù)據(jù)與生成器合成的虛假數(shù)據(jù)。目前,GAN已成功用于高保真自然圖像合成,改善學(xué)習(xí)圖像壓縮質(zhì)量,以及數(shù)據(jù)增強(qiáng)等任務(wù)。

對(duì)于自然圖像合成任務(wù)來(lái)說(shuō),現(xiàn)有的最優(yōu)結(jié)果是通過(guò)條件GAN實(shí)現(xiàn)的。與無(wú)條件GAN不同,條件GAN在訓(xùn)練期間要使用標(biāo)簽(比如汽車,狗等)。雖然數(shù)據(jù)標(biāo)記讓圖像合成任務(wù)變得更容易實(shí)現(xiàn),在性能上獲得了顯著提升,但是這種方法需要大量標(biāo)記數(shù)據(jù),而在實(shí)際任務(wù)中很少有大量標(biāo)記數(shù)據(jù)可用。

隨著ImageNet上訓(xùn)練過(guò)程的持續(xù),生成的圖像逼真度進(jìn)步明顯

谷歌大腦的研究人員在最近的《用更少的數(shù)據(jù)標(biāo)簽生成高保真圖像》中,提出了一種新方法來(lái)減少訓(xùn)練最先進(jìn)條件GAN所需的標(biāo)記數(shù)據(jù)量。文章提出結(jié)合大規(guī)模GAN的最新進(jìn)展,將高保真自然圖像合成技術(shù)與最先進(jìn)技術(shù)相結(jié)合,使數(shù)據(jù)標(biāo)記數(shù)量減少到原來(lái)的10%。

在此基礎(chǔ)上,研究人員還發(fā)布了Compare GAN庫(kù)的重大更新,其中包含了訓(xùn)練和評(píng)估現(xiàn)代GAN所需的所有組件。

利用半監(jiān)督和自監(jiān)督方式提升預(yù)測(cè)性能

條件GAN與基線BigGAN的FID分?jǐn)?shù)對(duì)比,圖中黑色豎線為BigGAN基線模型(使用全部標(biāo)記數(shù)據(jù))得分。S3GAN在僅使用10%標(biāo)記數(shù)據(jù)的情況下,得分比基線模型最優(yōu)得分高20%

在條件GAN中,生成器和判別器通常都以分類標(biāo)簽為應(yīng)用條件。現(xiàn)在,研究人員建議使用推斷得出的數(shù)據(jù)標(biāo)簽,來(lái)替換手工標(biāo)記的真實(shí)標(biāo)簽。

上行:BigGAN全監(jiān)督式學(xué)習(xí)生成的128×128像素最優(yōu)圖像樣本。下行為S3GAN生成的圖像樣本,標(biāo)記數(shù)據(jù)量降低了90%,F(xiàn)ID得分與BigGAN表現(xiàn)相當(dāng)

為了推斷大型數(shù)據(jù)集中多數(shù)未標(biāo)記數(shù)據(jù)的高質(zhì)量標(biāo)簽,可以采取兩步方法:首先,僅使用數(shù)據(jù)集的未標(biāo)記部分來(lái)學(xué)習(xí)特征表示。

為了學(xué)習(xí)特征表示,需要利用新方法,以不同的方法利用自我監(jiān)督機(jī)制:將未標(biāo)記的圖像進(jìn)行隨機(jī)旋轉(zhuǎn),由深度卷積神經(jīng)網(wǎng)絡(luò)負(fù)責(zé)預(yù)測(cè)旋轉(zhuǎn)角度。這背后的思路是,模型需要能夠識(shí)別主要對(duì)象及其形狀,才能在此類任務(wù)中獲得成功。

對(duì)一幅未標(biāo)記的圖像進(jìn)行隨機(jī)旋轉(zhuǎn),網(wǎng)絡(luò)的任務(wù)是預(yù)測(cè)旋轉(zhuǎn)角度。成功的模型需要捕捉有意義的語(yǔ)義圖像特征,這些特征可用于完成其他視覺任務(wù)

研究人員將訓(xùn)練網(wǎng)絡(luò)的一個(gè)中間層的激活模式視為輸入的新特征表示,并訓(xùn)練分類器,以使用原始數(shù)據(jù)集的標(biāo)記部分識(shí)別該輸入的標(biāo)簽。由于網(wǎng)絡(luò)經(jīng)過(guò)預(yù)訓(xùn)練,可以從數(shù)據(jù)中提取具有語(yǔ)義意義的特征,因此,訓(xùn)練此分類器比從頭開始訓(xùn)練整個(gè)網(wǎng)絡(luò)更具樣本效率。最后使用分類器對(duì)未標(biāo)記的數(shù)據(jù)進(jìn)行標(biāo)記。

為了進(jìn)一步提高模型質(zhì)量和訓(xùn)練的穩(wěn)定性,最好讓判別器網(wǎng)絡(luò)學(xué)習(xí)有意義的特征表示。通過(guò)這些改進(jìn)手段,在加上大規(guī)模的訓(xùn)練,使得新的條件GAN在ImageNet圖像合成任務(wù)上達(dá)到了最優(yōu)性能。

給定潛在向量,由生成器網(wǎng)絡(luò)生成圖像。在每行中,最左側(cè)和最右側(cè)圖像的潛在代碼之間的線性插值導(dǎo)致圖像空間中的語(yǔ)義插值

CompareGAN:用于訓(xùn)練和評(píng)估GAN的庫(kù)

對(duì)GAN的前沿研究在很大程度上依賴于經(jīng)過(guò)精心設(shè)計(jì)和測(cè)試的代碼庫(kù),即使只是復(fù)制或再現(xiàn)先前的結(jié)果和技術(shù),也需要付出巨大努力。

為了促進(jìn)開放科學(xué)并讓研究界從最近的進(jìn)步中獲益,研究人員發(fā)布了Compare GAN庫(kù)的重大更新。該庫(kù)包括現(xiàn)代GAN中常用的損失函數(shù),正則化和歸一化方案,神經(jīng)架構(gòu)和量化指標(biāo),現(xiàn)已支持:

GPU和TPU訓(xùn)練

通過(guò)Gin進(jìn)行輕量級(jí)配置(含實(shí)例)

通過(guò)TensorFlow數(shù)據(jù)集庫(kù)提供大量數(shù)據(jù)集

未來(lái)方向:自監(jiān)督學(xué)習(xí)會(huì)讓GAN更強(qiáng)大

由于標(biāo)記數(shù)據(jù)源和未標(biāo)記數(shù)據(jù)源之間的差距越來(lái)越大,讓模型具備從部分標(biāo)記的數(shù)據(jù)中學(xué)習(xí)的能力變得越來(lái)越重要。

目前來(lái)看,自監(jiān)督學(xué)習(xí)和半監(jiān)督學(xué)習(xí)的簡(jiǎn)單而有力的結(jié)合,有助于縮小GAN的這一現(xiàn)實(shí)差距。自監(jiān)督是一個(gè)值得研究的領(lǐng)域,值得在該領(lǐng)域開展面向其他生成建模任務(wù)的研究。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6182

    瀏覽量

    105784
  • GaN
    GaN
    +關(guān)注

    關(guān)注

    19

    文章

    1956

    瀏覽量

    73919

原文標(biāo)題:谷歌大腦打造“以一當(dāng)十”的GAN:僅用10%標(biāo)記數(shù)據(jù),生成圖像卻更逼真

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    借助谷歌Gemini和Imagen模型生成高質(zhì)量圖像

    在快速發(fā)展的生成式 AI 領(lǐng)域,結(jié)合不同模型的優(yōu)勢(shì)可以帶來(lái)顯著的成果。通過(guò)利用谷歌的 Gemini 模型來(lái)制作詳細(xì)且富有創(chuàng)意的提示,然后使用 Imagen 3 模型根據(jù)這些提示生成高質(zhì)量的圖像
    的頭像 發(fā)表于 01-03 10:38 ?381次閱讀
    借助<b class='flag-5'>谷歌</b>Gemini和Imagen模型<b class='flag-5'>生成</b>高質(zhì)量<b class='flag-5'>圖像</b>

    沃達(dá)豐與谷歌深化年戰(zhàn)略合作

    沃達(dá)豐近日宣布,其與全球科技巨頭谷歌的戰(zhàn)略合作伙伴關(guān)系得到了進(jìn)步深化。這為期年的協(xié)議,總價(jià)值超過(guò)10億美元,旨在將
    的頭像 發(fā)表于 10-09 16:22 ?287次閱讀

    Freepik攜手Magnific AI推出AI圖像生成

    近日,設(shè)計(jì)資源巨頭Freepik攜手Magnific AI,共同推出了革命性的AI圖像生成器——Freepik Mystic,這里程碑式的發(fā)布標(biāo)志著AI圖像創(chuàng)作領(lǐng)域邁入了
    的頭像 發(fā)表于 08-30 16:23 ?1183次閱讀

    深入理解渲染引擎:打造逼真圖像的關(guān)鍵

    在數(shù)字世界中,圖像渲染是創(chuàng)造逼真視覺效果的核心技術(shù)。渲染引擎,作為這過(guò)程中的關(guān)鍵組件,負(fù)責(zé)將二維或三維的模型、紋理、光照等數(shù)據(jù)轉(zhuǎn)化為人們?nèi)庋劭梢姷亩S
    的頭像 發(fā)表于 06-29 08:28 ?361次閱讀
    深入理解渲染引擎:<b class='flag-5'>打造</b><b class='flag-5'>逼真</b><b class='flag-5'>圖像</b>的關(guān)鍵

    谷歌發(fā)布AI文生圖大模型Imagen

    近日,谷歌在人工智能領(lǐng)域取得新突破,正式推出了Imagen文生圖模型。這款模型以其卓越的細(xì)節(jié)調(diào)整功能、逼真的光線效果以及從草圖快速生成高分辨率圖像的能力,引起了業(yè)界的廣泛關(guān)注。
    的頭像 發(fā)表于 05-16 09:30 ?569次閱讀

    谷歌發(fā)布Imagen 3,提升圖像文本生成技術(shù)

    已為谷歌人工智能研究所DeepMind掌門人的德米斯·哈薩比斯指出,相比于前款I(lǐng)magen 2,Image 3能夠更加精準(zhǔn)地解碼文字提示信息,并據(jù)此創(chuàng)建出更有創(chuàng)造力、細(xì)節(jié)豐富且出錯(cuò)率較低的圖像
    的頭像 發(fā)表于 05-15 11:24 ?719次閱讀

    OpenAI發(fā)布圖像檢測(cè)分類器,可區(qū)分AI生成圖像與實(shí)拍照片

    據(jù)OpenAI介紹,初步測(cè)試結(jié)果表明,該分類器在辨別非AI生成圖像與DALL·E 3生成圖像時(shí),成功率高達(dá)近98%,僅有不到0.5%的非AI圖像
    的頭像 發(fā)表于 05-09 09:57 ?500次閱讀

    深度學(xué)習(xí)生成對(duì)抗網(wǎng)絡(luò)(GAN)全解析

    GANs真正的能力來(lái)源于它們遵循的對(duì)抗訓(xùn)練模式。生成器的權(quán)重是基于判別器的損失所學(xué)習(xí)到的。因此,生成器被它生成圖像所推動(dòng)著進(jìn)行訓(xùn)練,很難知道生成
    發(fā)表于 03-29 14:42 ?4710次閱讀
    深度學(xué)習(xí)<b class='flag-5'>生成</b>對(duì)抗網(wǎng)絡(luò)(<b class='flag-5'>GAN</b>)全解析

    麻省理工與Adobe新技術(shù)DMD提升圖像生成速度

    2023年3月27日,據(jù)傳,新型文生圖算法雖然使得圖像生成無(wú)比逼真,但奈何運(yùn)行速度較慢。近期,美國(guó)麻省理工學(xué)院聯(lián)合Adobe推出新型DMD方法,僅略微犧牲圖像質(zhì)量就大幅度提高
    的頭像 發(fā)表于 03-27 14:17 ?549次閱讀

    谷歌模型怎么PS打開文件格式不變

    要將谷歌模型與Photoshop結(jié)合使用,并保持文件格式不變,這通常涉及將谷歌模型生成圖像或圖形導(dǎo)入到Photoshop中進(jìn)行進(jìn)步編輯或
    的頭像 發(fā)表于 02-29 18:09 ?919次閱讀

    谷歌計(jì)劃重新推出改進(jìn)后的Gemini AI模型人像生成功能

    谷歌DeepMind的首席執(zhí)行官德米斯·哈薩比斯在2月26日透露,公司計(jì)劃在接下來(lái)的幾周內(nèi)重新發(fā)布其備受關(guān)注的Gemini AI模型人像生成功能。此前,由于在某些歷史圖像生成描述中出現(xiàn)
    的頭像 發(fā)表于 02-28 10:17 ?639次閱讀

    谷歌暫停Gemini人像生成服務(wù)

    盡管谷歌團(tuán)隊(duì)于今年初就推介了這個(gè)GPU加速的人臉生成項(xiàng)目,但仍有部分用戶反映出生成的歷史名人形象存在著錯(cuò)誤,因此決定實(shí)行技術(shù)停擺,并謀劃對(duì)這功能進(jìn)行調(diào)整和優(yōu)化。
    的頭像 發(fā)表于 02-27 14:16 ?534次閱讀

    谷歌Gemini AI模型因人物圖像生成問(wèn)題暫停運(yùn)行

    據(jù)報(bào)道,部分用戶發(fā)現(xiàn)Gemini生成的圖片存在明顯錯(cuò)誤,如特斯拉創(chuàng)始人和其他名人變成了黑人模樣。谷歌已決定暫停該模型的人物圖像生成功能以待改善。
    的頭像 發(fā)表于 02-25 09:59 ?624次閱讀

    谷歌地圖引入生成式AI功能

    谷歌近日宣布,在其廣受歡迎的谷歌地圖應(yīng)用中引入了全新的生成式AI功能。這創(chuàng)新功能利用大型模型,深入分析了地圖上超過(guò)2.5億個(gè)地點(diǎn)的詳細(xì)信息,并結(jié)合了超過(guò)3億貢獻(xiàn)者的社區(qū)意見,為用戶提
    的頭像 發(fā)表于 02-06 16:42 ?5123次閱讀

    谷歌推出圖像生成新工具ImageFX,提升圖像質(zhì)量

    作為實(shí)驗(yàn)室的新興工具,ImageFX 允許用戶借助簡(jiǎn)潔的文字指令來(lái)創(chuàng)作圖像。經(jīng)過(guò)前期試驗(yàn),該團(tuán)隊(duì)認(rèn)為對(duì)生成型人工智能工具來(lái)說(shuō)最關(guān)鍵的是如何啟發(fā)并鼓勵(lì)用戶挖掘和實(shí)踐創(chuàng)意想法。
    的頭像 發(fā)表于 02-02 14:18 ?722次閱讀
    主站蜘蛛池模板: 麻豆精品传媒一二三区| 4388成人| 青草久久伊人| 末成年美女黄网站色大片连接| 超碰久久国产vs| 亚洲中文无码AV在线观看| 特黄特色大片免费播放器试看| 翘臀少妇被扒开屁股日出水爆乳| 男女生爽爽爽视频免费观看| 久久精品熟女亚洲AV国产| 黄色小说男男| 打开双腿狠狠蹂躏蜜桃臀| MMM日本兽交| TUBE69CHINESE学生| qvod 艺术片| TUBE8最新日本护士| yellow在线观看免费直播| xxx日本hd| 国产AV亚洲一区精午夜麻豆| 嘟嘟嘟影院免费观看视频| 调教玩弄奶头乳夹开乳震动器| 高H辣肉办公室| 国产精品久久精品| 国产精品私人玩物在线观看 | 成人精品在线视频| 成人手机在线观看| 高清观看ZSHH96的视频素材| 国产精品第1页| 好大好硬好湿再深一点网站| 高H黄暴NP辣H一女多男| 国产AV亚洲精品久久久久| 国产视频a在线观看v| 精品久久久久亚洲| 理论片午午伦夜理片久久| 欧美国产在线一区| 涩涩视频在线看| 亚洲精品无码葡京AV天堂| 在线不卡日本v二区| 亚洲成a人不卡在线观看| 亚洲中文字幕在线第六区| 中文字幕在线视频观看|