色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

DeepMind用強(qiáng)化對(duì)抗學(xué)習(xí)生成編寫(xiě)圖像的程序

zhKF_jqr_AI ? 來(lái)源:未知 ? 作者:李倩 ? 2018-03-31 10:30 ? 次閱讀

近幾年,深度生成網(wǎng)絡(luò)取得了令人印象深刻的成果,盡管如此,這些模型通常會(huì)在數(shù)據(jù)集的細(xì)節(jié)上浪費(fèi)很多資源,這也許是由于解碼器中弱感應(yīng)偏差造成的。于是這時(shí),圖形引擎就派上了用場(chǎng),因?yàn)樗鼈兡軐⒌退降募?xì)節(jié)變得抽象,然后用高水平的程序表示圖像。目前將深度學(xué)習(xí)和渲染器結(jié)合的方法受限于似然性或距離函數(shù),需要大量的監(jiān)督,或難于將其推理算法擴(kuò)展到更豐富的數(shù)據(jù)集中。于是,DeepMind的研究人員推出了SPIRAL,該智能體經(jīng)過(guò)訓(xùn)練后能生成一個(gè)程序,它能通過(guò)圖像引擎解釋并采樣圖像。以下是對(duì)原文的編譯。

人類的眼睛所看到的,并不僅僅是角膜反射的圖像。例如當(dāng)我們看到一幢建筑,沉迷于它精妙的設(shè)計(jì)時(shí),我們會(huì)感嘆工匠的高超技藝。這種通過(guò)思考創(chuàng)造它們的工具來(lái)欣賞物體的能力,使我們對(duì)世界有了更加豐富的理解,這也是人類智慧的一個(gè)重要方面。

我們希望系統(tǒng)可以創(chuàng)造出相似的對(duì)世界豐富的知覺(jué)。例如,在觀察一幅油畫(huà)作品時(shí),我們想讓它們了解繪畫(huà)的筆觸,而不僅僅是屏幕上單純的像素。

在這項(xiàng)研究中,我們給智能體配備了與人類繪畫(huà)相同的工具,可以讓它們明白數(shù)位、字符和人像是如何繪制出來(lái)的。重要的是,它們完成的這一切都靠自我學(xué)習(xí),無(wú)需人類標(biāo)記過(guò)的數(shù)據(jù)集。這與最近一個(gè)需要人類數(shù)據(jù)集的研究不同,這一過(guò)程可能非常耗時(shí)。

我們?cè)O(shè)計(jì)了一款深度強(qiáng)化學(xué)習(xí)智能體SPIRAL,它可以和計(jì)算機(jī)的繪畫(huà)程序交互,可以在電子畫(huà)布上繪畫(huà),也可以改變筆刷的大小、按壓強(qiáng)度和顏色。未經(jīng)訓(xùn)練的智能體最初會(huì)漫無(wú)目的地在畫(huà)布上涂鴉,于是我們必須創(chuàng)造出一種獎(jiǎng)勵(lì)智能體的方法,促使它畫(huà)出有意義的作品。

為了這一目的,我們訓(xùn)練了另一個(gè)神經(jīng)網(wǎng)絡(luò),稱為判別器(discriminator),它的作用是判斷該作品是否是智能體生成的,或者僅僅是從真實(shí)照片中采樣的一張圖片。繪畫(huà)智能體是通過(guò)欺騙判別器認(rèn)為繪畫(huà)是真實(shí)與否的程度來(lái)獲得獎(jiǎng)勵(lì)的。換句話說(shuō),智能體的獎(jiǎng)勵(lì)信號(hào)本身就是學(xué)習(xí)來(lái)的。雖然這很像生成對(duì)抗網(wǎng)絡(luò)(GAN),但是二者的不同之處在于GAN中的生成器通常是直接輸出像素的神經(jīng)網(wǎng)絡(luò),而我們的智能體通過(guò)編寫(xiě)圖形程序生成圖像,從而在繪圖環(huán)境中進(jìn)行交互。

在實(shí)驗(yàn)的第一個(gè)裝置中,智能體用于訓(xùn)練生成類似MNIST數(shù)字一樣的圖像:最后發(fā)現(xiàn)這些數(shù)字看上去很像MNIST,但畫(huà)的方式不一樣。為了生成能夠欺騙過(guò)判別器的圖像,智能體學(xué)著控制筆刷,然后讓其適應(yīng)不同數(shù)字的風(fēng)格,這種技術(shù)成為視覺(jué)程序合成。

我們同樣訓(xùn)練它重現(xiàn)具體的圖像。在這里,判別器的目的是判斷重新生成的圖像是否是目標(biāo)圖像的復(fù)制品,還是真的由智能體生成的。判別器判斷得越困難,智能體得到的獎(jiǎng)勵(lì)就越多。

重要的是,該框架也是可解釋的,因?yàn)樗苌梢淮畡?dòng)作用來(lái)控制模擬筆刷。這意味著模型可以將其所學(xué)應(yīng)用到模擬繪畫(huà)軟件上,在其他相似的環(huán)境中重新創(chuàng)造作品,例如在機(jī)械臂上。

該框架也可以擴(kuò)展到真實(shí)數(shù)據(jù)集上。當(dāng)我們訓(xùn)練智能體畫(huà)出名人的臉時(shí),它能夠捕捉到臉部主要的特征,比如臉型、膚色和發(fā)型,有點(diǎn)街頭藝人用僅有的畫(huà)筆為人畫(huà)肖像的感覺(jué):

從原始感知中復(fù)原結(jié)構(gòu)表示是人類能夠輕易獲得并經(jīng)常使用的能力。在這項(xiàng)工作中,我們證明可以通過(guò)給智能體配備與人類相同的感知工具生成相似的表示。在這一過(guò)程中,它們學(xué)會(huì)制作可視化程序,這些程序能簡(jiǎn)潔地表達(dá)產(chǎn)生這種觀察的因果關(guān)系。

盡管我們的工作僅是邁向靈活程序合成的一小步,但我們希望未來(lái)能有更多的技術(shù),讓人工智能體具備人類的感知、概括和交流能力。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4771

    瀏覽量

    100714
  • DeepMind
    +關(guān)注

    關(guān)注

    0

    文章

    130

    瀏覽量

    10846

原文標(biāo)題:DeepMind用強(qiáng)化對(duì)抗學(xué)習(xí)生成編寫(xiě)圖像的程序

文章出處:【微信號(hào):jqr_AI,微信公眾號(hào):論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    未來(lái)的AI 深挖谷歌 DeepMind 和它背后的技術(shù)

    學(xué)習(xí)從非結(jié)構(gòu)化數(shù)據(jù)中學(xué)習(xí)來(lái)編寫(xiě)分析報(bào)告或執(zhí)行無(wú)人監(jiān)督的任務(wù)。所有這些發(fā)展都為不同的公司發(fā)揮作用并證明他們的價(jià)值奠定了基礎(chǔ)。因此,很多像DeepMind這樣的公司成立了,來(lái)繼續(xù)發(fā)展這一領(lǐng)
    發(fā)表于 08-26 12:04

    深度強(qiáng)化學(xué)習(xí)實(shí)戰(zhàn)

    內(nèi)容2:課程一: TensoRFlow入門(mén)到熟練:課程二:圖像分類:課程三:物體檢測(cè):課程四:人臉識(shí)別:課程五:算法實(shí)現(xiàn):1、卷積神經(jīng)網(wǎng)絡(luò)CNN2、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN3、強(qiáng)化學(xué)習(xí)DRL4、對(duì)抗
    發(fā)表于 01-10 13:42

    圖像生成對(duì)抗生成網(wǎng)絡(luò)gan_GAN生成汽車圖像 精選資料推薦

    圖像生成對(duì)抗生成網(wǎng)絡(luò)ganHello there! This is my story of making a GAN that would generate images of cars
    發(fā)表于 08-31 06:48

    圖像生成對(duì)抗生成網(wǎng)絡(luò)

    圖像生成對(duì)抗生成網(wǎng)絡(luò)ganby Thalles Silva 由Thalles Silva暖身 (Warm up)Let’s say there’s a very cool party going
    發(fā)表于 09-15 09:29

    matlab編寫(xiě)的采用遺傳算法進(jìn)行圖像分割程序

    matlab編寫(xiě)的采用遺傳算法進(jìn)行圖像分割程序:matlab編寫(xiě)的采用遺傳算法進(jìn)行圖像分割的一
    發(fā)表于 02-10 10:19 ?195次下載

    將深度學(xué)習(xí)強(qiáng)化學(xué)習(xí)相結(jié)合的深度強(qiáng)化學(xué)習(xí)DRL

    深度強(qiáng)化學(xué)習(xí)DRL自提出以來(lái), 已在理論和應(yīng)用方面均取得了顯著的成果。尤其是谷歌DeepMind團(tuán)隊(duì)基于深度強(qiáng)化學(xué)習(xí)DRL研發(fā)的AlphaGo,將深度強(qiáng)化學(xué)習(xí)DRL成推上新的熱點(diǎn)和高度
    發(fā)表于 06-29 18:36 ?2.8w次閱讀

    谷歌、DeepMind重磅推出PlaNet 強(qiáng)化學(xué)習(xí)新突破

    Google AI 與 DeepMind 合作推出深度規(guī)劃網(wǎng)絡(luò) (PlaNet),這是一個(gè)純粹基于模型的智能體,能從圖像輸入中學(xué)習(xí)世界模型,完成多項(xiàng)規(guī)劃任務(wù),數(shù)據(jù)效率平均提升50倍,強(qiáng)化學(xué)習(xí)
    的頭像 發(fā)表于 02-17 09:30 ?3332次閱讀
    谷歌、<b class='flag-5'>DeepMind</b>重磅推出PlaNet <b class='flag-5'>強(qiáng)化學(xué)習(xí)</b>新突破

    基于生成器的圖像分類對(duì)抗樣本生成模型

    ,并保證攻擊成功率。模型將對(duì)抗樣本生成的過(guò)程視為對(duì)原圖進(jìn)行圖像増強(qiáng)的操作引入生成對(duì)抗網(wǎng)絡(luò),并改進(jìn)感知損失函數(shù)以增加對(duì)抗樣本與原圖在內(nèi)容與特征
    發(fā)表于 04-07 14:56 ?2次下載
    基于<b class='flag-5'>生成</b>器的<b class='flag-5'>圖像</b>分類<b class='flag-5'>對(duì)抗</b>樣本<b class='flag-5'>生成</b>模型

    基于生成對(duì)抗網(wǎng)絡(luò)的端到端圖像去霧模型

    針對(duì)現(xiàn)有圖像去霧算法嚴(yán)重依賴中間量準(zhǔn)確估計(jì)的問(wèn)題,提出了一種基于 Wasserstein生成對(duì)抗網(wǎng)絡(luò)(wGAN)的端到端圖像去霧模型。首先,使用全卷積密集塊網(wǎng)絡(luò)(FC- Dense Net充分
    發(fā)表于 04-12 15:03 ?20次下載
    基于<b class='flag-5'>生成</b>式<b class='flag-5'>對(duì)抗</b>網(wǎng)絡(luò)的端到端<b class='flag-5'>圖像</b>去霧模型

    基于密集卷積生成對(duì)抗網(wǎng)絡(luò)的圖像修復(fù)方法

    差等問(wèn)題。針對(duì)上述問(wèn)題,文中提出了一種基于密集卷積生成對(duì)抗網(wǎng)絡(luò)的圖像修復(fù)算法。該算法采用生成對(duì)抗網(wǎng)絡(luò)作為圖像修復(fù)的基本框架。首先,利用密集卷積塊構(gòu)建具有編解碼結(jié)枃的
    發(fā)表于 05-13 14:39 ?15次下載

    基于生成對(duì)抗網(wǎng)絡(luò)的圖像補(bǔ)全方法

    圖像補(bǔ)全是數(shù)字圖像處理領(lǐng)域的重要研究方向,具有廣闊的應(yīng)用前景。提出了一種基于生成對(duì)抗網(wǎng)絡(luò)(GAN)的圖像補(bǔ)全方法。
    發(fā)表于 05-19 14:38 ?14次下載

    基于結(jié)構(gòu)保持生成對(duì)抗網(wǎng)絡(luò)的圖像去噪

    基于循環(huán)生成對(duì)抗網(wǎng)絡(luò)結(jié)構(gòu)學(xué)習(xí)無(wú)配對(duì) SD-OCT和EDI-oCT圖像之間的域映射關(guān)系。為了克服循環(huán)生成對(duì)抗網(wǎng)絡(luò)生成
    發(fā)表于 06-07 14:21 ?3次下載

    基于像素級(jí)生成對(duì)抗網(wǎng)絡(luò)的圖像彩色化模型

    基于像素級(jí)生成對(duì)抗網(wǎng)絡(luò)的圖像彩色化模型
    發(fā)表于 06-27 11:02 ?4次下載

    語(yǔ)言模型做先驗(yàn),統(tǒng)一強(qiáng)化學(xué)習(xí)智能體,DeepMind選擇走這條通用AI之路

    在智能體的開(kāi)發(fā)中,強(qiáng)化學(xué)習(xí)與大語(yǔ)言模型、視覺(jué)語(yǔ)言模型等基礎(chǔ)模型的進(jìn)一步融合究竟能擦出怎樣的火花?谷歌 DeepMind 給了我們新的答案。 一直以來(lái),DeepMind 引領(lǐng)了強(qiáng)化學(xué)習(xí)
    的頭像 發(fā)表于 07-24 16:55 ?528次閱讀
    語(yǔ)言模型做先驗(yàn),統(tǒng)一<b class='flag-5'>強(qiáng)化學(xué)習(xí)</b>智能體,<b class='flag-5'>DeepMind</b>選擇走這條通用AI之路

    深度學(xué)習(xí)生成對(duì)抗網(wǎng)絡(luò)(GAN)全解析

    GANs真正的能力來(lái)源于它們遵循的對(duì)抗訓(xùn)練模式。生成器的權(quán)重是基于判別器的損失所學(xué)習(xí)到的。因此,生成器被它生成
    發(fā)表于 03-29 14:42 ?4520次閱讀
    深度<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>生成對(duì)抗</b>網(wǎng)絡(luò)(GAN)全解析
    主站蜘蛛池模板: 国产精品一区二区人妻无码| 视频专区亚洲欧美日韩| 一级毛片美国| 果冻传媒最新视频在线观看| 爽爽窝窝午夜精品一区二区| WWW亚洲精品久久久乳| 欧美末成年videos在线| 2012中文字幕手机在线| 久久精品国产亚洲AV忘忧草蜜臀 | 国精品产露脸偷拍视频| 手机看片国产日韩欧美| 达达兔午夜一级毛片| 日本久久频这里精品99| 波多久久亚洲精品AV无码| 欧美视频 亚洲视频| CHINA中国东北GURMA| 欧美xxxx性喷潮| FREE另类老女人| 热中文热国产热综合| ZZoo兽2皇| 日本久久精品视频| 电影日本妻子| 乳液全集电影在线观看| 大学生第一次破苞疼哭了| 日韩精品在线观看免费| 俄罗斯aaaaa一级毛片| 色哟哟tv| 国产精品嫩草影院| 亚洲AV一宅男色影视| 国产一区二区内射最近更新| 亚洲a免费| 久久ZYZ资源站无码中文动漫| 在线看片韩国免费人成视频| 老师掀开短裙让我挺进动态| 97超碰射射射| 人人做人人干| 国产二级一片内射视频播放| 午夜一区二区三区| 精品高清国产a毛片| 伊人成色综合人网| 美美哒免费影视8|