色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

一種新的GAN(對抗網絡生成)訓練方法

zhKF_jqr_AI ? 來源:未知 ? 作者:李倩 ? 2018-05-15 18:22 ? 次閱讀

微軟研究人員在ICLR 2018發表了一種新的GAN(對抗網絡生成)訓練方法,boundary-seeking GAN(BGAN),可基于離散值訓練GAN,并提高了GAN訓練的穩定性。

對抗生成網絡

首先,讓我們溫習一下GAN(對抗生成網絡)的概念。簡單來說,GAN是要生成“以假亂真”的樣本。這個“以假亂真”,用形式化的語言來說,就是假定我們有一個模型G(生成網絡),該模型的參數為θ,我們要找到最優的參數θ,使得模型G生成的樣本的概率分布Qθ與真實數據的概率分布P盡可能接近。即:

其中,D(P, Qθ)為P與Qθ差異的測度。

GAN的主要思路,是通過引入另一個模型D(判別網絡),該模型的參數為φ,然后定義一個價值函數(value function),找到最優的參數φ,最大化這一價值函數。比如,最初的GAN(由Goodfellow等人在2014年提出),定義的價值函數為:

其中,Dφ為一個使用sigmoid激活輸出的神經網絡,也就是一個二元分類器。價值函數的第一項對應真實樣本,第二項對應生成樣本。根據公式,D將越多的真實樣本歸類為真(1),同時將越多的生成樣本歸類為假(0),D的價值函數的值就越高。

GAN的精髓就在于讓生成網絡G和判別網絡D彼此對抗,在對抗中提升各自的水平。形式化地說,GAN求解以下優化問題:

如果你熟悉Jensen-Shannon散度的話,你也許已經發現了,之前提到的最初的GAN的價值函數就是一個經過拉伸和平移的Jensen-Shannon散度:2 * DJSD(P||Qθ) - log 4. 除了這一Jensen-Shannon散度的變形外,我們還可以使用其他測度衡量分布間的距離,Nowozin等人在2016年提出的f-GAN,就將GAN的概念推廣至所有f-散度,例如:

Jensen-Shannon

Kullback–Leibler

Pearson χ2

平方Hellinger

當然,實際訓練GAN時,由于直接計算這些f-散度比較困難,往往采用近似的方法計算。

GAN的缺陷

GAN有兩大著名的缺陷:難以處理離散數據,難以訓練。

GAN難以處理離散數據

為了基于反向傳播和隨機梯度下降之類的方法訓練網絡,GAN要求價值函數在生成網絡的參數θ上完全可微。這使得GAN難以生成離散數據。

假設一下,我們給生成網絡加上一個階躍函數(step function),使其輸出離散值。這個階躍函數的梯度幾乎處處為0,這就使GAN無法訓練了。

GAN難以訓練

從直覺上說,訓練判別網絡比訓練生成網絡要容易得多,因為識別真假樣本通常比偽造真實樣本容易。所以,一旦判別網絡訓練過頭了,能力過強,生成網絡再怎么努力,也無法提高,換句話說,梯度消失了。

另一方面,如果判別網絡能力太差,胡亂分辨真假,甚至把真的誤認為假的,假的誤認為真的,那生成網絡就會很不穩定,會努力學習讓生成的樣本更假——因為弱智的判別網絡會把某些假樣本當成真樣本,卻把另一些真樣本當成假樣本。

還有一個問題,如果生成網絡湊巧在生成某類真樣本上特別得心應手,或者,判別網絡對某類樣本的辨別能力相對較差,那么生成網絡會揚長避短,盡量多生成這類樣本,以增大騙過判別網絡的概率,這就導致了生成樣本的多樣性不足。

所以,判別網絡需要訓練得恰到好處才可以,這個火候非常難以控制。

強化學習和BGAN

那么,該如何避免GAN的缺陷呢?

我們先考慮離散值的情況。之所以GAN不支持生成離散值,是因為生成離散值導致價值函數(也就是GAN優化的目標)不再處處可微了。那么,如果我們能對GAN的目標做一些手腳,使得它既處處可微,又能衡量離散生成值的質量,是不是可以讓GAN支持離散值呢?

關鍵在于,我們應該做什么樣的改動?關于這個問題,可以從強化學習中得到靈感。實際上,GAN和強化學習很像,生成網絡類似強化學習中的智能體,而騙過判別網絡類似強化學習中的獎勵,價值函數則是強化學習中也有的概念。而強化學習除了可以根據價值函數進行外,還可以根據策略梯度(policy gradient)進行。根據價值函數進行學習時,基于價值函數的值調整策略,迭代計算價值函數,價值函數最優,意味著當前策略是最優的。而根據策略梯度進行時,直接學習策略,通過迭代計算策略梯度,調整策略,取得最大期望回報。

咦?這個策略梯度看起來很不錯呀。引入策略梯度解決了離散值導致價值函數不是處處可微的問題。更妙的是,在強化學習中,基于策略梯度學習,有時能取得比基于值函數學習更穩定、更好的效果。類似地,引入策略梯度后GAN不再直接根據是否騙過判別網絡調整生成網絡,而是間接基于判別網絡的評價計算目標,可以提高訓練的穩定度。

BGAN(boundary-seeking GAN)的思路正是如此。

BGAN論文的作者首先證明了目標密度函數p(x)等于(?f/?T)(T(x))qθ(x)。其中,f為生成f-散度的函數,f*為f的凸共軛函數。

令w(x) = (?f/?T)(T*(x)),則上式可以改寫為:

p(x) = (w*(x))qθ(x)

這樣改寫后,很明顯了,這可以看成一個重要性采樣(importance sampling)問題。(重要性采樣是強化學習中推導策略梯度的常用方法。)相應地,w*(x)為最優重要性權重(importance weight)。

類似地,令w(x) = (?f*/?T)(T(x)),我們可以得到f-散度的重要性權重估計:

其中,β為分區函數:

使用重要性權重作為獎勵信號,可以得到基于KL散度的策略梯度:

然而,由于這一策略梯度需要估計分區函數β(比如,使用蒙特卡洛法),因此,方差通常會比較大。因此,論文作者基于歸一化的重要性權重降低了方差。

其中,gθ(x | z): Z -> [0, 1]d為條件密度,h(z)為z的先驗。

令分區函數

則歸一化的條件權重可定義為

由此,可以得到期望條件KL散度:

令x(m)~ gθ(x | z)為取自先驗的樣本,又令

為使用蒙特卡洛估計的歸一化重要性權重,則期望條件KL散度的梯度為:

如此,論文作者成功降低了梯度的方差。

此外,如果考慮逆KL散度的梯度,則我們有:

上式中,靜態網絡的輸出Fφ(x)可以視為獎勵(reward),b可以視為基線(baseline)。因此,論文作者將其稱為基于強化的BGAN。

試驗

離散

為了驗證BGAN在離散設定下的表現,論文作者首先試驗了在CIFAR-10上訓練一個分類器。結果表明,搭配不同f-散度的基于重要性取樣、強化的BGAN均取得了接近基線(交叉熵)的表現,大大超越了WGAN(權重裁剪)的表現。

在MNIST上的試驗表明,BGAN可以生成穩定、逼真的手寫數字:

在MNIST上與WGAN-GP(梯度懲罰)的比較顯示,采用多種距離衡量,包括Wasserstein距離,BGAN都取得了更優的表現:

在quantized版本的CelebA數據集上的表現:

左為降采樣至32x32的原圖,右為BGAN生成的圖片

下為隨機選取的在1-billion word數據集上訓練的BGAN上生成的文本的3個樣本:

雖然這個效果還比不上當前最先進的基于RNN的模型,但此前尚無基于GAN訓練離散值的模型能實現如此效果。

連續

論文作者試驗了BGAN在CelebA、ImageNet、LSUN數據集上的表現,均能生成逼真的圖像:

在CIFAR-10與原始GAN、使用代理損失(proxy loss)的DCGAN的比較表明,BGAN的表現和訓練穩定性都是最優的:

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 網絡
    +關注

    關注

    14

    文章

    7553

    瀏覽量

    88729
  • GaN
    GaN
    +關注

    關注

    19

    文章

    1933

    瀏覽量

    73286
  • 函數
    +關注

    關注

    3

    文章

    4327

    瀏覽量

    62571

原文標題:BGAN:支持離散值、提升訓練穩定性的新GAN訓練方法

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    圖像生成對抗生成網絡gan_GAN生成汽車圖像 精選資料推薦

    圖像生成對抗生成網絡ganHello there! This is my story of making a GAN that would generate images of cars
    發表于 08-31 06:48

    一種基于機器學習的建筑物分割掩模自動正則化和多邊形化方法

    摘要我們提出了一種基于機器學習的建筑物分割掩模自動正則化和多邊形化方法。以圖像為輸入,首先使用通用完全卷積網絡( FCN )預測建筑物分割圖,然后使用生成對抗
    發表于 09-01 07:19

    優化神經網絡訓練方法有哪些?

    優化神經網絡訓練方法有哪些?
    發表于 09-06 09:52

    研究人員提出一種基于哈希的二值網絡訓練方法 比當前方法的精度提高了3%

    程健研究員團隊最近提出了一種基于哈希的二值網絡訓練方法,揭示了保持內積哈希和二值權重網絡之間的緊密關系。
    的頭像 發表于 02-08 15:38 ?5173次閱讀

    如何使用雙鑒別網絡進行生成對抗網絡圖像修復方法的說明

    針對現有神經網絡圖像修復方法的修復結果在視覺連通性上存在結構扭曲、訓練過程中易陷入過度學習等問題,提出了一種基于雙鑒別網絡
    發表于 12-24 15:20 ?12次下載
    如何使用雙鑒別<b class='flag-5'>網絡</b>進行<b class='flag-5'>生成對抗</b><b class='flag-5'>網絡</b>圖像修復<b class='flag-5'>方法</b>的說明

    必讀!生成對抗網絡GAN論文TOP 10

    這篇 GAN 論文來自 NVIDIA Research,提出以一種漸進增大(progressive growing)的方式訓練 GAN,通過使用逐漸增大的
    的頭像 發表于 03-20 09:02 ?6546次閱讀
    必讀!<b class='flag-5'>生成對抗</b><b class='flag-5'>網絡</b><b class='flag-5'>GAN</b>論文TOP 10

    生成對抗網絡GAN論文TOP 10,幫助你理解最先進技術的基礎

    這篇 GAN 論文來自 NVIDIA Research,提出以一種漸進增大(progressive growing)的方式訓練 GAN,通過使用逐漸增大的
    的頭像 發表于 03-20 15:16 ?8829次閱讀
    <b class='flag-5'>生成對抗</b><b class='flag-5'>網絡</b><b class='flag-5'>GAN</b>論文TOP 10,幫助你理解最先進技術的基礎

    一種利用生成對抗網絡的超分辨率重建算法

    針對傳統圖像超分辨率重建算法存在網絡訓練困難與生成圖像存在偽影的冋題,提岀一種利用生成對抗
    發表于 03-22 15:40 ?4次下載
    <b class='flag-5'>一種</b>利用<b class='flag-5'>生成</b>式<b class='flag-5'>對抗</b><b class='flag-5'>網絡</b>的超分辨率重建算法

    一種側重于學習情感特征的預訓練方法

    transformers編碼表示)的基礎上,提岀了一種側重學習情感特征的預訓練方法。在目標領域的預練階段,利用情感詞典改進了BERT的預訓練任務。同時,使用基于上下文的詞粒度情感預測任務對掩蓋詞情感極性進行分類,獲取偏向情感特
    發表于 04-13 11:40 ?4次下載
    <b class='flag-5'>一種</b>側重于學習情感特征的預<b class='flag-5'>訓練方法</b>

    GAN圖像對抗樣本生成方法研究綜述

    為了提高生成對抗網絡模型對抗樣本的多樣性和攻擊成功率,提出了一種GAN圖像對抗樣本
    發表于 04-28 16:39 ?72次下載
    <b class='flag-5'>GAN</b>圖像<b class='flag-5'>對抗</b>樣本<b class='flag-5'>生成方法</b>研究綜述

    基于生成對抗網絡的圖像補全方法

    圖像補全是數字圖像處理領域的重要研究方向,具有廣闊的應用前景。提出了一種基于生成對抗網絡GAN)的圖像補全
    發表于 05-19 14:38 ?14次下載

    生成對抗網絡應用及研究綜述

    基于零和博弈思想的生成對抗網絡GAN)可通過無監督學習獲得數據的分布,并生成較逼真的數據。基于GAN
    發表于 06-09 11:16 ?13次下載

    一種基于生成對抗網絡的無人機圖像去霧算法

    摘要: 無人機所采集的圖像容易受到霧霾、霧氣等陰霾天氣干擾,造成圖像質量下降。針對陰霾天氣下無人機采集圖像的質量下降問題,提出了一種新穎的基于生成對抗網絡的圖像去霧方法。本
    發表于 03-10 10:30 ?1685次閱讀

    一種基于生成對抗網絡的無人機圖像去霧算法

    摘要: 無人機所采集的圖像容易受到霧霾、霧氣等陰霾天氣干擾,造成圖像質量下降。針對陰霾天氣下無人機采集圖像的質量下降問題,提出了一種新穎的基于生成對抗網絡的圖像去霧方法。本
    發表于 03-20 12:24 ?825次閱讀

    「自行科技」文了解生成對抗網絡GAN

    生成對抗網絡(Generative adversarial network, GAN)是一種深度學習模型,是近年來復雜分布上無監督學習最具
    的頭像 發表于 09-16 09:25 ?4110次閱讀
    主站蜘蛛池模板: 精品一区二区三区免费观看| 91久久偷偷看嫩草影院无费| 日韩一区二区三区精品 | 亚洲乱码高清午夜理论电影| 乳液全集电影在线观看| 年轻漂亮的妺妺中文字幕版| 久久热精品18国产| 九九热国产视频| 精品AV无码一二三区视频| 国产午夜人成在线视频麻豆| 国产成人综合95精品视频免费 | 亚洲 欧美 国产 综合久久| 色老头色老太aaabbb| 日韩欧美精品有码在线播放免费| 欧美Av无码高清在线| 欧美xxxav| 内射一区二区精品视频在线观看| 麻豆一区二区免费播放网站| 老太婆性BBWBBW| 免费成人小视频| 青柠高清在线观看完整版| 青青青草免费| 色偷偷7777www| 午夜福利体检| 亚洲欧美中文字幕高清在线| 亚洲精品第一综合99久久| 一本色道久久综合亚洲精品| 在线观看中文字幕国产| 中文有码中文字幕免费视频| 97在线视频免费播放| bbw videos 欧美老妇| 草莓AV福利网站导航| 芳草地在线观看免费视频| 国产日韩欧美三级| 激情男女高潮射精AV免费| 旧里番6080在线观看| 欧美AAAAAA级午夜福利视频| 深夜释放自己污在线看| 亚洲国产综合另类视频| 又长又大又粗又硬3p免费视频 | 日本一本免费线观看视频|