色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

DeepMind的最新研究結合了神經網絡和隨機過程的優點提出神經過程模型

DPVg_AI_era ? 來源:未知 ? 作者:李倩 ? 2018-07-09 09:04 ? 次閱讀

函數逼近是機器學習中許多問題的核心,DeepMind的最新研究結合了神經網絡和隨機過程的優點,提出神經過程模型,在多任務上實現了很好的性能和高計算效率。

函數逼近(Function approximation)是機器學習中許多問題的核心,在過去十年來,這個問題的一種非常流行的方法是深度神經網絡。高級神經網絡由黑盒函數逼近器構成,它們學習從大量訓練數據點參數化單個函數。因此,網絡的大部分工作負載都落在訓練階段,而評估和測試階段則被簡化為快速的前向傳播。雖然高的測試時間性能對于許多實際應用是有價值的,但是在訓練之后就無法更新網絡的輸出,這可能是我們不希望的。例如,元學習(Meta-learning)是一個越來越受歡迎的研究領域,解決的正是這種局限性。

作為神經網絡的一種替代方案,還可以對隨機過程進行推理以執行函數回歸。這種方法最常見的實例是高斯過程( Gaussian process, GP),這是一種具有互補性質的神經網絡模型:GP不需要昂貴的訓練階段,可以根據某些觀察結果對潛在的ground truth函數進行推斷,這使得它們在測試時非常靈活。

此外,GP在未觀察到的位置表示無限多不同的函數,因此,在給定一些觀察結果的基礎上,它能捕獲其預測的不確定性。但是,GP在計算上是昂貴的:原始GP對數據點數量是3次方量級的scale,而當前最優的逼近方法是二次逼近。此外,可用的kernel通常以其函數形式受到限制,需要一個額外的優化過程來為任何給定的任務確定最合適的kernel及其超參數。

因此,將神經網絡和隨機過程推理結合起來,彌補兩種方法分別具有的一些缺點,這作為一種潛在解決方案越來越受到關注。在這項工作中,DeepMind研究科學家Marta Garnelo等人的團隊提出一種基于神經網絡并學習隨機過程逼近的方法,他們稱之為神經過程(Neural Processes, NPs)。NP具有GP的一些基本屬性,即它們學習在函數之上建模分布,能夠根據上下文的觀察估計其預測的不確定性,并將一些工作從訓練轉移到測試時間,以實現模型的靈活性。

更重要的是,NP以一種計算效率非常高的方式生成預測。給定n個上下文點和m個目標點,一個經過訓練的NP的推理對應于一個深度神經網絡的前向傳遞,它以scale,而不是像經典GP那樣以。此外,該模型通過直接從數據中學習隱式內核(implicit kernel)來克服許多函數設計上的限制。

本研究的主要貢獻是:

提出神經過程(Neural Processes),這是一種結合了神經網絡和隨機過程的優點的模型。

我們將神經過程(NP)與元學習(meta-learning)、深層潛變量模型(deep latent variable models)和高斯過程(Gaussian processes)的相關工作進行了比較。鑒于NP與這些領域多有相關,它們讓許多相關主題之間可以進行比較。

我們通過將NP應用于一系列任務,包括一維回歸、真實的圖像補完、貝葉斯優化和contextual bandits來證明了NP的優點和能力。

神經過程模型

圖1:神經過程模型。

(a)neural process的圖模型,x和y分別對應于y = f(x)的數據,C和T分別表示上下文點和目標點的個數,z表示全局潛變量。灰色背景表示觀察到變量。

(b)neural process的實現示意圖。圓圈中的變量對應于(a)中圖模型的變量,方框中的變量表示NP的中間表示,粗體字母表示以下計算模塊:h - encoder, a - aggregator和g - decoder。在我們的實現中,h和g對應于神經網絡,a對應于均值函數。實線表示生成過程,虛線表示推理過程。

在我們的NP實現中,我們提供了兩個額外的需求:上下文點的順序和計算效率的不變性(invariance)。

最終的模型可歸結為以下三個核心組件(見圖1b):

從輸入空間到表示空間的編碼器(encoder)h,輸入是成對的上下文值,并為每對生成一個表示。我們把h參數化為一個神經網絡。

聚合器(aggregator)a,匯總編碼器的輸入。

條件解碼器(conditional decoder)g,它將采樣的全局潛變量z以及新的目標位置作為輸入,并為對應的的值輸出預測

圖2:相關模型(a-c)和神經過程(d)的圖模型。灰色陰影表示觀察到變量。C表示上下文變量,T表示目標變量,即給定C時要預測的變量。

結果

圖4. MNIST和CelebA上的像素化回歸

左邊的圖展示了一張圖像完成像素化可以框定為一個2-D回歸任務,其中f(像素坐標)=像素亮度。右邊的圖展示了圖像實現MNIST和CelebA的結果。頂部的圖像對應提供給模型的上下文節點。為了能夠更清晰的展現,未被觀察到的點在MNIST和CelebA中分別標記為藍色和白色。在給定文本節點的情況下,每一行對應一個不同的樣本。隨著文本節點的增加,預測像素越來越接近底層像素,且樣本間的方差逐漸減小。

圖5. 用神經過程對1-D目標函數進行湯普森抽樣

這些圖展示了5次迭代優化的過程。每個預測函數(藍色)是通過對一個潛變量(latent variable)的采樣來繪制的,其中該變量的條件是增加文本節點(黑色)的數量。底層的ground truth函數被表示為一條黑色虛線。紅色三角形表示下一個評估點(evaluation point),它對應于抽取的NP曲線的最小值。下一個迭代中的紅色圓圈對應于這個評估點,它的底層ground truth指將作為NP的一個新文本節點。

表1. 使用湯普森抽樣對貝葉斯優化

優化步驟的平均數需要達到高斯過程生成的1-D函數的全局最小值。這些值是通過隨機搜索采取步驟數來標準化的。使用恰當的核(kernel)的高斯過程的性能等同于性能的上限。

表2. 增加δ值后wheel bandit問題的結果

結果表示的是超過100次的累加regret和簡單regret的平均誤差和標準誤差。結果歸一化了一個統一體(uniform agent)的性能。

討論

我們介紹了一組結合隨機過程和神經網絡優點的模型,叫做神經過程。NPs學會在函數上表示分布,并且測試時根據一些文本輸入做出靈活的預測。NPs不需要親自編寫內核,而是直接從數據中學習隱式度量(implicit measure)。

我們將NPs應用于一些列回歸任務,以展示它們的靈活性。本文的目的是介紹NPs,并將它與目前正在進行的研究做對比。因此,我們呈現的任務是雖然種類很多,但是維數相對較低。將NPs擴展到更高的維度,可能會大幅度降低計算復雜度和數據驅動表示(data driven representations)。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4771

    瀏覽量

    100719
  • 深度學習
    +關注

    關注

    73

    文章

    5500

    瀏覽量

    121113
  • DeepMind
    +關注

    關注

    0

    文章

    130

    瀏覽量

    10848

原文標題:【ICML Oral】DeepMind提出深度學習新方向:神經過程模型

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    神經網絡教程(李亞非)

      第1章 概述  1.1 人工神經網絡研究與發展  1.2 生物神經元  1.3 人工神經網絡的構成  第2章人工神經網絡基本
    發表于 03-20 11:32

    求基于labview的BP神經網絡算法的實現過程

    求高手,基于labview的BP神經網絡算法的實現過程,最好有程序哈,謝謝!!
    發表于 12-10 14:55

    【PYNQ-Z2試用體驗】神經網絡基礎知識

    學習和認知科學領域,是一種模仿生物神經網絡(動物的中樞神經系統,特別是大腦)的結構和功能的數學模型或計算模型,用于對函數進行估計或近似。神經網絡
    發表于 03-03 22:10

    【案例分享】基于BP算法的前饋神經網絡

    `BP神經網絡首先給出只包含一個隱層的BP神經網絡模型(兩層神經網絡): BP神經網絡其實由兩部分組成:前饋
    發表于 07-21 04:00

    【案例分享】ART神經網絡與SOM神經網絡

    元,它決定該輸入向量在地位空間中的位置。SOM神經網絡訓練的目的就是為每個輸出層神經元找到合適的權向量,以達到保持拓撲結構的目的。SOM的訓練過程其實很簡單,就是接收到一個訓練樣本后
    發表于 07-21 04:30

    卷積神經網絡優點是什么

    卷積神經網絡優點
    發表于 05-05 18:12

    如何構建神經網絡

    原文鏈接:http://tecdat.cn/?p=5725 神經網絡是一種基于現有數據創建預測的計算系統。如何構建神經網絡神經網絡包括:輸入層:根據現有數據獲取輸入的層隱藏層:使用反向傳播優化輸入變量權重的層,以提高
    發表于 07-12 08:02

    卷積神經網絡模型發展及應用

    分析目前的特殊模型結構,最后總結并討論卷積神經網絡在相關領域的應用,并對未來的研究方向進行展望。卷積
    發表于 08-02 10:39

    加工過程神經網絡模型參考自適應控制

    本文提出了用神經網絡模型參考自適應控制器對加工過程進行控制的方法。并以銑床加工過程為例,針對原PID控制器產生超調量過大,控制效果不理想,設
    發表于 12-26 13:58 ?10次下載

    深度神經決策樹:深度神經網絡和樹模型結合的新模型

    近日,來自愛丁堡大學的研究人員提出了一種結合深度神經網絡和樹模型的新型模型——深度
    的頭像 發表于 08-19 09:14 ?1.3w次閱讀

    什么是高斯過程 神經網絡高斯過程解析

    神經網絡是怎么和高斯過程聯系在一起的呢?Lee et al. [1] and Neal [2] 指出,隨機初始化無限寬網絡的參數會產生一個高斯過程
    發表于 08-10 11:25 ?4407次閱讀

    卷積神經網絡優點

    卷積神經網絡優點? 卷積神經網絡(Convolutional Neural Network,CNN)是一種基于深度學習的神經網絡模型,在圖
    的頭像 發表于 12-07 15:37 ?4339次閱讀

    bp神經網絡算法過程包括

    的算法過程,包括網絡結構、激活函數、訓練過程、反向傳播算法、權重更新策略等。 網絡結構 BP神經網絡由輸入層、隱藏層和輸出層組成,每層包含若
    的頭像 發表于 07-04 09:45 ?444次閱讀

    PyTorch神經網絡模型構建過程

    PyTorch,作為一個廣泛使用的開源深度學習庫,提供豐富的工具和模塊,幫助開發者構建、訓練和部署神經網絡模型。在神經網絡模型中,輸出層是
    的頭像 發表于 07-10 14:57 ?493次閱讀

    如何使用經過訓練的神經網絡模型

    使用經過訓練的神經網絡模型是一個涉及多個步驟的過程,包括數據準備、模型加載、預測執行以及后續優化等。
    的頭像 發表于 07-12 11:43 ?960次閱讀
    主站蜘蛛池模板: 中国人泡妞xxxxxxxx19| 亚洲中文字幕手机版| 天美传媒色情原创精品| 我不卡影院手机在线观看| 亚洲AV无码国产精品色午夜情| 亚洲AV 日韩 国产 有码| 亚洲综合色五月久久婷婷| 伊人影院蕉久| av网站视频在线观看| 宫交拔不出来了h黑人| 国精产品一区一区三区M| 久久99AV无色码人妻蜜柚| 毛片网站在线观看| 日韩欧无码一区二区三区免费不卡| 午夜福到在线4国产| 亚洲一区国产| 99re10久久热| 国产成人 免费观看| 久爱在线中文在观看| 欧美xxxxb| 性夜影院爽黄A爽免费动漫| 在线观看视频一区| 边做边爱BD免费看片| 国产亚洲美女在线视频视频| 麻豆E奶女教师国产精品| 日日操夜夜摸| 一级毛片皇帝 宫女| jk制服啪啪网站| 国产午夜视频在永久在线观看| 久热这里只有精品99国产6| 日本无码色哟哟婷婷最新网站 | 99久久国产综合色| 高清 国产 在线 亚洲| 精品久久久久久无码人妻国产馆| 美女白虎穴| 午夜无码片在线观看影院| 91精品福利一区二区| 国产精品亚洲在钱视频 | 啦啦啦 中国 日本 高清 在线| 秋霞午夜一级理论片久久| 亚洲人成人毛片无遮挡|