色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

英偉達神奇研究:用別的模型權重訓練神經網絡,改神經元不影響輸出!

CVer ? 來源:機器之心 ? 2023-08-21 14:55 ? 次閱讀

DNN 已經可以這么玩了?

不論計算機視覺還是 NLP,深度神經網絡(DNN)是如今我們完成機器學習任務的首選方法。在基于此構建的模型中,我們都需要對模型權重執行某種變換,但執行該過程的最佳方法是什么?

最近,英偉達對其 ICML 2023 研究 DWSNet 進行了解讀。DWSNet 展示了一種全新架構,它可以有效處理神經網絡的權重,同時保持其排列對稱性的等方差。

根據這種方法,我們可以根據其他網絡的權重來訓練一個網絡,這也許是一個用來做持續學習的好方法。同樣有趣的是,基于 DWSNet 的探索,我們發現網絡權重具有排列對稱性 —— 這意味著可以更改神經元的順序而不更改輸出。

04d644ac-3fe1-11ee-ac96-dac502259ad0.jpg

論文鏈接:https://arxiv.org/abs/2301.12780

官方 GitHub:https://github.com/AvivNavon/DWSNets

這種方法被認為具有廣泛潛力,可以實現各種有趣的任務,例如使預先訓練的網絡適應新的領域?;蛟S我們可以訓練一個從另一個網絡提取、編輯或刪除信息的網絡。

而在生成模型上,我們或許可以在很多針對各種任務進行訓練的網絡上進行訓練,然后在運行時為特定任務生成一個網絡 —— 就像現代版本的快速權重網絡一樣。

讓我們看看 DWSNet 是怎么做到的:

在使用隱式神經表征(Implicit Neural Representations,INR)或神經輻射場(Neural Radiance Fields,NeRF)表征的 3D 對象數據集時,我們經常需要「編輯」對象以更改其幾何形狀或修復錯誤,例如移除杯子的把手、使車輪更加對稱。然而,使用 INR 和 NeRF 的一個主要挑戰是它們必須在編輯之前先進行渲染,編輯工具依賴于渲染和微調 INR 或 NeRF 參數。

04e7ccd6-3fe1-11ee-ac96-dac502259ad0.png

圖 1. 數據專用架構示例。

來自英偉達的研究團隊試圖把神經網絡用作一種處理器,來處理其他神經網絡的權重。

表征深度網絡參數最簡單的方法是將所有權重(和偏置)矢量化為簡單的平面向量,然后應用全連接網絡(多層感知機(MLP))。這種方法可以預測神經網絡的性能。

但這種方法有一個缺點。神經網絡權重空間具有復雜的結構,將 MLP 應用于所有參數的矢量化版本會忽略該結構,進而損害泛化能力。

053ab4be-3fe1-11ee-ac96-dac502259ad0.png

圖 2. 具有兩個隱藏層(下)的多層感知機(MLP)的權重對稱性(上)。

幾何深度學習(GDL)領域已經針對 MLP 的這個問題進行了廣泛的研究。

在許多情況下,學習任務對于一些變換是不變的。例如,查找點云類別與給網絡提供點的順序無關。但在有些情況下,例如點云分割(point cloud segmentation),點云中的每個點都被分配一個類,那么輸出就會隨著輸入順序的改變而改變。

這種輸出隨著輸入的變換而變換的函數稱為等變函數。對稱感知架構因其有意義的歸納偏置而具有多種優勢,例如它們通常具有更好的樣本復雜性和更少的參數,這些因素可以顯著提高泛化能力。

權重空間的對稱性

那么,哪些變換可以應用于 MLP 的權重,使得 MLP 所表征的底層函數不會改變?

這就涉及到一種特定類型的變換 —— 神經元排列。如圖 2 所示,直觀地講,更改 MLP 某個中間層神經元的順序,函數不會發生改變。此外,每個內部層的重新排序過程可以獨立完成。

MLP 可以使用如下方程組表示:

0554df6a-3fe1-11ee-ac96-dac502259ad0.png

該架構的權重空間被定義為包含矢量化權重和偏差的所有串聯的(線性)空間。

0560ca28-3fe1-11ee-ac96-dac502259ad0.jpg

重要的是,這樣的話,權重空間是(即將定義的)神經網絡的輸入空間。

那么,權重空間的對稱性是什么?對神經元重新排序可以正式建模為將置換矩陣應用于一層的輸出以及將相同的置換矩陣應用于下一層。形式上,可以通過以下等式定義一組新參數:

056c5ac8-3fe1-11ee-ac96-dac502259ad0.png

新的參數集有所不同,但很容易看出這種變換不會改變 MLP 表示的函數。這是因為兩個置換矩陣 P 和 P^t 相互抵消(假設有像 ReLU 這樣的元素激活函數)。

更普遍的,如前所述,不同的排列可以獨立地應用于 MLP 的每一層。這意味著以下更通用的變換集不會改變底層函數。我們將它們視為權重空間的「對稱性」。

057bece0-3fe1-11ee-ac96-dac502259ad0.png

在這里,Pi 表示置換矩陣。這一觀察是由 Hecht-Nielsen 于 30 多年前在論文《ON THE ALGEBRAIC STRUCTURE OF FEEDFORWARD NETWORK WEIGHT SPACES》中提出的。類似的變換可以應用于 MLP 的偏差。

構建深度權重空間網絡

文獻中的大多數等變架構都遵循相同的方法:定義一個簡單的等變層,并將架構定義為此類簡單層的組合,它們之間可能具有逐點非線性。

CNN 架構就是這種結構的一個很好的例子。在這種情況下,簡單的等變層執行卷積運算,CNN 被定義為多個卷積的組合。DeepSets 和許多 GNN 架構都遵循類似的方法。有關更多信息,請參閱論文《Weisfeiler and Leman Go Neural: Higher-Order Graph Neural Networks》和《Invariant and Equivariant Graph Networks》。

當目標任務不變時,可以使用 MLP 在等變層之上添加一個不變層,如圖 3 所示。

05868592-3fe1-11ee-ac96-dac502259ad0.png

圖 3:典型的等變架構由幾個簡單的等變層組成,后面是不變層和全連接層。

在論文《Equivariant Architectures for Learning in Deep Weight Spaces》中,英偉達研究者遵循了這個思考。我們的主要目標是為上面定義的權重空間對稱性識別簡單而有效的等變層。不幸的是,表征一般等變函數的空間可能具有挑戰性。與之前的一些研究(例如跨集合交互的深度模型)一樣,我們的目標是表征所有線性等變層的空間。

因此,研究人員開發了一種新的方法來表征線性等變層,該方法基于如下觀察:權重空間 V 是表示每個權重矩陣 V=⊕Wi 的更簡單空間的串聯。(為簡潔起見,省略了偏差術語)。

這一觀察非常重要,因為它可以將任何線性層 L:V→V 寫入塊矩陣,其第 (i,j) 塊是 Wj 和 Wi Lij : Wj→Wi 之間的線性等變層。塊結構如圖 4 所示。

但我們如何才能找到 Lij 的所有實例呢?論文中列出了所有可能的情況,并表明其中一些層已經在之前的工作中得到了表征。例如,內部層的 Lii 在跨集交互的深度模型中進行了表征。

值得注意的是:在這種情況下,最通用的等變線性層是常見的,僅使用四個參數的深度集層的泛化。對于其他層,新研究提出基于簡單等變操作的參數化,例如池化、broadcasting 和小型全連接層,并表明它們可以表示所有線性等變層。

圖 4 展示了 L 的結構,它是特定權重空間之間的分塊矩陣。每種顏色代表不同類型的圖層。Lii 是紅色的。每個塊將一個特定的權重矩陣映射到另一個權重矩陣。該映射以依賴于網絡中權重矩陣的位置的方式參數化。

059ae41a-3fe1-11ee-ac96-dac502259ad0.png

圖 4:線性等變層的塊結構。

該層是通過獨立計算每個塊然后對每行的結果求和來實現的。英偉達在論文中涵蓋了一些額外的技術細節,例如處理偏差項和支持多個輸入和輸出功能。

我們將這些層稱為深度權重空間層(DWS 層),并將由它們構建的網絡稱為深度權重空間網絡(DWSNet)。我們在這里關注以 MLP 作為輸入的 DWSNet。

深度權重空間網絡的表達能力

如果我們把假設類限制為簡單等變函數的組合,可能會無意中損害等變網絡的表達能力,這在上面引用的圖神經網絡文獻中得到了廣泛的研究。英偉達的論文表明,DWSNet 可以近似輸入網絡上的前饋操作,這是理解其表達能力的一步。隨后,新研究證明 DWS 網絡可以近似 MLP 函數空間中定義的某些「表現良好」的函數。

實驗

DWSNet 在兩個任務系列中進行評估。首先采用代表數據的輸入網絡,例如 INR。其次,采用代表標準 I/O 映射(例如圖像分類)的輸入網絡。

實驗一:INR 分類

此配置根據 INR 所代表的圖像對 INR 進行分類。具體來說,它涉及訓練 INR 來表示來自 MNIST 和 Fashion-MNIST 的圖像。任務是讓 DWSNet 使用這些 INR 的權重作為輸入來識別圖像內容,例如 MNIST 中的數字。結果表明,英偉達提出的 DWSNet 架構大大優于其他基線。

05a91cec-3fe1-11ee-ac96-dac502259ad0.jpg

表 1:INR 分類。INR 的類別由它所代表的圖像定義(平均測試準確度)。

重要的是,將 INR 分類到它們所代表的圖像類別比對底層圖像進行分類更具挑戰性。在 MNIST 圖像上訓練的 MLP 可以實現近乎完美的測試精度。然而,在 MNIST INR 上訓練的 MLP 卻取得了較差的結果。

實驗 2:INR 的自監督學習

這里的目標是將神經網絡(特別是 INR)嵌入到語義一致的低維空間中。這是一項很重要的任務,因為良好的低維表示對于許多下游任務至關重要。

在這里的數據由適合 asin (bx) 形式的正弦波的 INR 組成,其中 a、b 從區間 [0,10] 上的均勻分布中采樣。由于數據由這兩個參數控制,因此密集表示應該提取底層結構。

05bbb8de-3fe1-11ee-ac96-dac502259ad0.png

圖 5:使用自監督訓練獲得的輸入 MLP 的 TSNE 嵌入。

類似 SimCLR 的訓練過程和目標用于通過添加高斯噪聲和隨機掩碼來從每個 INR 生成隨機視圖。圖 4 展示了所得空間的 2D TSNE 圖。英偉達提出的 DWSNet 方法很好地捕捉了數據的潛在特征,而與之對比的方法則比較困難。

實驗 3:使預訓練網絡適應新領域

該實驗展示了如何在不重訓練的情況下使預訓練 MLP 適應新的數據分布(零樣本域適應)。給定圖像分類器的輸入權重,任務是將其權重變換為在新圖像分布(目標域)上表現良好的一組新權重。

在測試時,DWSnet 接收一個分類器,并在一次前向傳遞中使其適應新域。CIFAR10 數據集是源域,其損壞版本是目標域(圖 6)。

05e2203c-3fe1-11ee-ac96-dac502259ad0.png

圖 6:使用 DWSNet 進行領域適應。

結果如表 2 所示。請注意:在測試時,模型應推廣到未見過的圖像分類器以及未見過的圖像。

05f72a40-3fe1-11ee-ac96-dac502259ad0.jpg

表 2:使網絡適應新領域。

未來研究方向

英偉達認為,將學習技術應用于深度權重空間的能力提供了許多新的研究方向。首先,尋找有效的數據增強方案來訓練權重空間上的函數有可能會提高 DWSNet 的泛化能力。其次,研究如何將排列對稱性納入其他類型的輸入架構和層,如 skip 連接或歸一化層也是很自然的思考。

最后,將 DWSNet 擴展到現實世界的應用程序,如形變、NeRF 編輯和模型修剪將很有用。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4771

    瀏覽量

    100715
  • 機器學習
    +關注

    關注

    66

    文章

    8406

    瀏覽量

    132566
  • 英偉達
    +關注

    關注

    22

    文章

    3770

    瀏覽量

    90989

原文標題:ICML 2023 | 英偉達神奇研究:用別的模型權重訓練神經網絡,改神經元不影響輸出!

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    關于卷積神經網絡,這些概念你厘清了么~

    可以不局限于已知的訓練圖像開展識別。該神經網絡需要映射到MCU中。 5、AI的模式識別內部到底是什么? AI的神經元網絡類似于人腦的生物神經元網絡。一個
    發表于 10-24 13:56

    神經網絡教程(李亞非)

      第1章 概述  1.1 人工神經網絡研究與發展  1.2 生物神經元  1.3 人工神經網絡的構成  第2章人工神經網絡基本
    發表于 03-20 11:32

    人工神經網絡算法的學習方法與應用實例(pdf彩版)

    的基本處理單元,它是神經網絡的設計基礎。神經元是以生物的神經系統的神經細胞為基礎的生物模型。在人們對生物
    發表于 10-23 16:16

    【PYNQ-Z2試用體驗】神經網絡基礎知識

    超過閾值,輸出就一躍而起。但我們一般S函數作為激活函數。如下圖:圖2 該函數相比階越函數更加接近現實。神經網絡原理如圖所示是一個具有兩層的神經網絡,每層有兩個
    發表于 03-03 22:10

    【案例分享】基于BP算法的前饋神經網絡

    期望的輸出。BP神經網絡算法推導(更新權重和偏倚):從上面推導可以發現:對于任意從神經元i(輸出神經元/隱層
    發表于 07-21 04:00

    【案例分享】ART神經網絡與SOM神經網絡

    是一種常用的無監督學習策略,在使用策略時,網絡輸出神經元相互競爭,每一時刻只有一個競爭獲勝的神經元激活。ART神經網絡由比較層、識別層、
    發表于 07-21 04:30

    如何構建神經網絡?

    原文鏈接:http://tecdat.cn/?p=5725 神經網絡是一種基于現有數據創建預測的計算系統。如何構建神經網絡?神經網絡包括:輸入層:根據現有數據獲取輸入的層隱藏層:使用反向傳播優化輸入變量
    發表于 07-12 08:02

    卷積神經網絡模型發展及應用

    神經網絡的思想起源于1943年McCulloch 和 Pitts 提出的神經元模型[19],簡稱 MCP 神經元模 型。它是利用計算機來模擬人的神經元反應的過 程,具有開創性意義。此
    發表于 08-02 10:39

    卷積神經網絡簡介:什么是機器學習?

    模型。第 3 部分將研究使用專用 AI 微控制器測試模型的特定例。什么是卷積神經網絡?神經網絡
    發表于 02-23 20:11

    人工神經網絡模型是一種什么模型

    ,具有強大的非線性映射能力,可以用于解決各種復雜的模式識別、分類、預測等問題。 一、基本概念 神經元:人工神經網絡的基本單元,類似于生物神經網絡中的神經元。每個
    的頭像 發表于 07-04 16:57 ?922次閱讀

    人工神經網絡模型訓練的基本原理

    圖像識別、語音識別、自然語言處理等。本文將介紹人工神經網絡模型訓練的基本原理。 1. 神經網絡的基本概念 1.1 神經元
    的頭像 發表于 07-05 09:16 ?652次閱讀

    rnn是什么神經網絡模型

    領域有著廣泛的應用。 RNN的基本概念 1.1 神經網絡的基本概念 神經網絡是一種受生物神經網絡啟發的數學模型,它由多個神經元(或稱為節點)
    的頭像 發表于 07-05 09:50 ?593次閱讀

    matlab的神經網絡app怎么

    Matlab的神經網絡App是一個強大的工具,可以幫助用戶快速構建、訓練和測試神經網絡模型神經網絡基本概念
    的頭像 發表于 07-09 09:49 ?401次閱讀

    如何構建三層bp神經網絡模型

    能力。本文將介紹如何構建三層BP神經網絡模型。 神經網絡基礎知識 2.1 神經元模型 神經元神經網絡
    的頭像 發表于 07-11 10:55 ?469次閱讀

    Python自動訓練人工神經網絡

    人工神經網絡(ANN)是機器學習中一種重要的模型,它模仿了人腦神經元的工作方式,通過多層節點(神經元)之間的連接和權重調整來學習和解決問題。
    的頭像 發表于 07-19 11:54 ?347次閱讀
    主站蜘蛛池模板: 在线免费观看日本| 蜜臀亚洲AV永久无码精品老司机| 国产成人a v在线影院| 动漫美女搞鸡| 俄罗斯另类Z0Z0ZOZO| 俄罗斯女人Z0ZOZO| 国产精品亚洲专一区二区三区| 果冻传媒MV免费播放在线观看| 国产精品v欧美精品v日韩| 国产传媒18精品A片在线观看| 国产精品久久久久久人妻香蕉| 国产精品嫩草99AV在线| 九色终合九色综合88| 美女穿丝袜被狂躁动态图| 女教师杨雪的性荡生活| 日产亚洲一区二区三区| 小色哥影院| 最近中文字幕完整版免费高清| 99热在线免费观看| 国产高清视频在线播放www色| 黄色大片aa| 青青草A在在观免费线观看| 午夜宅宅伦电影网中文字幕| 99精品中文字幕在线观看| 成人网18免费韩国| 国产亚洲精品久久无码98| 美女脱三角裤| 亚洲 日本 天堂 国产 在线| 中文在线观看永久免费| 俄罗斯女人Z0ZOZO| 棉签和冰块怎么弄出牛奶视频 | 大陆老熟女60岁| 精品一区二区三区在线成人| 欧美午夜不卡在线观看| 亚洲 成人网| 动漫美女和男人下载| 美女诱惑性感揉胸| 亚洲伊人色| 国产成人免费片在线观看| 奶水四溅54p| 伊人精品视频直播|