自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

用別的模型權(quán)重訓練神經(jīng)網(wǎng)絡,改神經(jīng)元不影響輸出:英偉達神奇研究

人工智能 新聞
DNN 已經(jīng)可以這么玩了?最近,英偉達對其 ICML 2023 研究 DWSNet 進行了解讀。DWSNet 展示了一種全新架構(gòu),它可以有效處理神經(jīng)網(wǎng)絡的權(quán)重,同時保持其排列對稱性的等方差。

不論計算機視覺還是 NLP,深度神經(jīng)網(wǎng)絡(DNN)是如今我們完成機器學習任務的首選方法。在基于此構(gòu)建的模型中,我們都需要對模型權(quán)重執(zhí)行某種變換,但執(zhí)行該過程的最佳方法是什么?

最近,英偉達對其 ICML 2023 研究 DWSNet 進行了解讀。DWSNet 展示了一種全新架構(gòu),它可以有效處理神經(jīng)網(wǎng)絡的權(quán)重,同時保持其排列對稱性的等方差。

根據(jù)這種方法,我們可以根據(jù)其他網(wǎng)絡的權(quán)重來訓練一個網(wǎng)絡,這也許是一個用來做持續(xù)學習的好方法。同樣有趣的是,基于 DWSNet 的探索,我們發(fā)現(xiàn)網(wǎng)絡權(quán)重具有排列對稱性 —— 這意味著可以更改神經(jīng)元的順序而不更改輸出。

圖片

  • 論文鏈接:https://arxiv.org/abs/2301.12780
  • 官方 GitHub:https://github.com/AvivNavon/DWSNets

這種方法被認為具有廣泛潛力,可以實現(xiàn)各種有趣的任務,例如使預先訓練的網(wǎng)絡適應新的領(lǐng)域?;蛟S我們可以訓練一個從另一個網(wǎng)絡提取、編輯或刪除信息的網(wǎng)絡。

而在生成模型上,我們或許可以在很多針對各種任務進行訓練的網(wǎng)絡上進行訓練,然后在運行時為特定任務生成一個網(wǎng)絡 —— 就像現(xiàn)代版本的快速權(quán)重網(wǎng)絡一樣。

讓我們看看 DWSNet 是怎么做到的:

在使用隱式神經(jīng)表征(Implicit Neural Representations,INR)或神經(jīng)輻射場(Neural Radiance Fields,NeRF)表征的 3D 對象數(shù)據(jù)集時,我們經(jīng)常需要「編輯」對象以更改其幾何形狀或修復錯誤,例如移除杯子的把手、使車輪更加對稱。然而,使用 INR 和 NeRF 的一個主要挑戰(zhàn)是它們必須在編輯之前先進行渲染,編輯工具依賴于渲染和微調(diào) INR 或 NeRF 參數(shù)。

圖片

圖 1. 數(shù)據(jù)專用架構(gòu)示例。

來自英偉達的研究團隊試圖把神經(jīng)網(wǎng)絡用作一種處理器,來處理其他神經(jīng)網(wǎng)絡的權(quán)重。

表征深度網(wǎng)絡參數(shù)最簡單的方法是將所有權(quán)重(和偏置)矢量化為簡單的平面向量,然后應用全連接網(wǎng)絡(多層感知機(MLP))。這種方法可以預測神經(jīng)網(wǎng)絡的性能。

但這種方法有一個缺點。神經(jīng)網(wǎng)絡權(quán)重空間具有復雜的結(jié)構(gòu),將 MLP 應用于所有參數(shù)的矢量化版本會忽略該結(jié)構(gòu),進而損害泛化能力。

圖 2. 具有兩個隱藏層(下)的多層感知機(MLP)的權(quán)重對稱性(上)。

幾何深度學習(GDL)領(lǐng)域已經(jīng)針對 MLP 的這個問題進行了廣泛的研究。

在許多情況下,學習任務對于一些變換是不變的。例如,查找點云類別與給網(wǎng)絡提供點的順序無關(guān)。但在有些情況下,例如點云分割(point cloud segmentation),點云中的每個點都被分配一個類,那么輸出就會隨著輸入順序的改變而改變。

這種輸出隨著輸入的變換而變換的函數(shù)稱為等變函數(shù)。對稱感知架構(gòu)因其有意義的歸納偏置而具有多種優(yōu)勢,例如它們通常具有更好的樣本復雜性和更少的參數(shù),這些因素可以顯著提高泛化能力。

權(quán)重空間的對稱性

那么,哪些變換可以應用于 MLP 的權(quán)重,使得 MLP 所表征的底層函數(shù)不會改變?

這就涉及到一種特定類型的變換 —— 神經(jīng)元排列。如圖 2 所示,直觀地講,更改 MLP 某個中間層神經(jīng)元的順序,函數(shù)不會發(fā)生改變。此外,每個內(nèi)部層的重新排序過程可以獨立完成。

MLP 可以使用如下方程組表示:

圖片

該架構(gòu)的權(quán)重空間被定義為包含矢量化權(quán)重和偏差的所有串聯(lián)的(線性)空間。

圖片

重要的是,這樣的話,權(quán)重空間是(即將定義的)神經(jīng)網(wǎng)絡的輸入空間。

那么,權(quán)重空間的對稱性是什么?對神經(jīng)元重新排序可以正式建模為將置換矩陣應用于一層的輸出以及將相同的置換矩陣應用于下一層。形式上,可以通過以下等式定義一組新參數(shù):

圖片

新的參數(shù)集有所不同,但很容易看出這種變換不會改變 MLP 表示的函數(shù)。這是因為兩個置換矩陣 P 和 P^t 相互抵消(假設有像 ReLU 這樣的元素激活函數(shù))。

更普遍的,如前所述,不同的排列可以獨立地應用于 MLP 的每一層。這意味著以下更通用的變換集不會改變底層函數(shù)。我們將它們視為權(quán)重空間的「對稱性」。

圖片

在這里,Pi 表示置換矩陣。這一觀察是由 Hecht-Nielsen 于 30 多年前在論文《ON THE ALGEBRAIC STRUCTURE OF FEEDFORWARD NETWORK WEIGHT SPACES》中提出的。類似的變換可以應用于 MLP 的偏差。

構(gòu)建深度權(quán)重空間網(wǎng)絡

文獻中的大多數(shù)等變架構(gòu)都遵循相同的方法:定義一個簡單的等變層,并將架構(gòu)定義為此類簡單層的組合,它們之間可能具有逐點非線性。

CNN 架構(gòu)就是這種結(jié)構(gòu)的一個很好的例子。在這種情況下,簡單的等變層執(zhí)行卷積運算,CNN 被定義為多個卷積的組合。DeepSets 和許多 GNN 架構(gòu)都遵循類似的方法。有關(guān)更多信息,請參閱論文《Weisfeiler and Leman Go Neural: Higher-Order Graph Neural Networks》和《Invariant and Equivariant Graph Networks》。

當目標任務不變時,可以使用 MLP 在等變層之上添加一個不變層,如圖 3 所示。

圖片

圖 3:典型的等變架構(gòu)由幾個簡單的等變層組成,后面是不變層和全連接層。

在論文《Equivariant Architectures for Learning in Deep Weight Spaces》中,英偉達研究者遵循了這個思考。我們的主要目標是為上面定義的權(quán)重空間對稱性識別簡單而有效的等變層。不幸的是,表征一般等變函數(shù)的空間可能具有挑戰(zhàn)性。與之前的一些研究(例如跨集合交互的深度模型)一樣,我們的目標是表征所有線性等變層的空間。

因此,研究人員開發(fā)了一種新的方法來表征線性等變層,該方法基于如下觀察:權(quán)重空間 V 是表示每個權(quán)重矩陣 V=⊕Wi 的更簡單空間的串聯(lián)。(為簡潔起見,省略了偏差術(shù)語)。

這一觀察非常重要,因為它可以將任何線性層 L:V→V 寫入塊矩陣,其第 (i,j) 塊是 Wj 和 Wi Lij : Wj→Wi 之間的線性等變層。塊結(jié)構(gòu)如圖 4 所示。

但我們?nèi)绾尾拍苷业?Lij 的所有實例呢?論文中列出了所有可能的情況,并表明其中一些層已經(jīng)在之前的工作中得到了表征。例如,內(nèi)部層的 Lii 在跨集交互的深度模型中進行了表征。

值得注意的是:在這種情況下,最通用的等變線性層是常見的,僅使用四個參數(shù)的深度集層的泛化。對于其他層,新研究提出基于簡單等變操作的參數(shù)化,例如池化、broadcasting 和小型全連接層,并表明它們可以表示所有線性等變層。

圖 4 展示了 L 的結(jié)構(gòu),它是特定權(quán)重空間之間的分塊矩陣。每種顏色代表不同類型的圖層。Lii 是紅色的。每個塊將一個特定的權(quán)重矩陣映射到另一個權(quán)重矩陣。該映射以依賴于網(wǎng)絡中權(quán)重矩陣的位置的方式參數(shù)化。

圖片

圖 4:線性等變層的塊結(jié)構(gòu)。

該層是通過獨立計算每個塊然后對每行的結(jié)果求和來實現(xiàn)的。英偉達在論文中涵蓋了一些額外的技術(shù)細節(jié),例如處理偏差項和支持多個輸入和輸出功能。

我們將這些層稱為深度權(quán)重空間層(DWS 層),并將由它們構(gòu)建的網(wǎng)絡稱為深度權(quán)重空間網(wǎng)絡(DWSNet)。我們在這里關(guān)注以 MLP 作為輸入的 DWSNet。

深度權(quán)重空間網(wǎng)絡的表達能力

如果我們把假設類限制為簡單等變函數(shù)的組合,可能會無意中損害等變網(wǎng)絡的表達能力,這在上面引用的圖神經(jīng)網(wǎng)絡文獻中得到了廣泛的研究。英偉達的論文表明,DWSNet 可以近似輸入網(wǎng)絡上的前饋操作,這是理解其表達能力的一步。隨后,新研究證明 DWS 網(wǎng)絡可以近似 MLP 函數(shù)空間中定義的某些「表現(xiàn)良好」的函數(shù)。

實驗

DWSNet 在兩個任務系列中進行評估。首先采用代表數(shù)據(jù)的輸入網(wǎng)絡,例如 INR。其次,采用代表標準 I/O 映射(例如圖像分類)的輸入網(wǎng)絡。

實驗一:INR 分類

此配置根據(jù) INR 所代表的圖像對 INR 進行分類。具體來說,它涉及訓練 INR 來表示來自 MNIST 和 Fashion-MNIST 的圖像。任務是讓 DWSNet 使用這些 INR 的權(quán)重作為輸入來識別圖像內(nèi)容,例如 MNIST 中的數(shù)字。結(jié)果表明,英偉達提出的 DWSNet 架構(gòu)大大優(yōu)于其他基線。

圖片

表 1:INR 分類。INR 的類別由它所代表的圖像定義(平均測試準確度)。

重要的是,將 INR 分類到它們所代表的圖像類別比對底層圖像進行分類更具挑戰(zhàn)性。在 MNIST 圖像上訓練的 MLP 可以實現(xiàn)近乎完美的測試精度。然而,在 MNIST INR 上訓練的 MLP 卻取得了較差的結(jié)果。

實驗 2:INR 的自監(jiān)督學習

這里的目標是將神經(jīng)網(wǎng)絡(特別是 INR)嵌入到語義一致的低維空間中。這是一項很重要的任務,因為良好的低維表示對于許多下游任務至關(guān)重要。

在這里的數(shù)據(jù)由適合 a\sin (bx) 形式的正弦波的 INR 組成,其中 a、b 從區(qū)間 [0,10] 上的均勻分布中采樣。由于數(shù)據(jù)由這兩個參數(shù)控制,因此密集表示應該提取底層結(jié)構(gòu)。

圖片

圖 5:使用自監(jiān)督訓練獲得的輸入 MLP 的 TSNE 嵌入。

類似 SimCLR 的訓練過程和目標用于通過添加高斯噪聲和隨機掩碼來從每個 INR 生成隨機視圖。圖 4 展示了所得空間的 2D TSNE 圖。英偉達提出的 DWSNet 方法很好地捕捉了數(shù)據(jù)的潛在特征,而與之對比的方法則比較困難。

實驗 3:使預訓練網(wǎng)絡適應新領(lǐng)域

該實驗展示了如何在不重訓練的情況下使預訓練 MLP 適應新的數(shù)據(jù)分布(零樣本域適應)。給定圖像分類器的輸入權(quán)重,任務是將其權(quán)重變換為在新圖像分布(目標域)上表現(xiàn)良好的一組新權(quán)重。

在測試時,DWSnet 接收一個分類器,并在一次前向傳遞中使其適應新域。CIFAR10 數(shù)據(jù)集是源域,其損壞版本是目標域(圖 6)。

圖片

圖 6:使用 DWSNet 進行領(lǐng)域適應。

結(jié)果如表 2 所示。請注意:在測試時,模型應推廣到未見過的圖像分類器以及未見過的圖像。

圖片

表 2:使網(wǎng)絡適應新領(lǐng)域。

未來研究方向

英偉達認為,將學習技術(shù)應用于深度權(quán)重空間的能力提供了許多新的研究方向。首先,尋找有效的數(shù)據(jù)增強方案來訓練權(quán)重空間上的函數(shù)有可能會提高 DWSNet 的泛化能力。其次,研究如何將排列對稱性納入其他類型的輸入架構(gòu)和層,如 skip 連接或歸一化層也是很自然的思考。

最后,將 DWSNet 擴展到現(xiàn)實世界的應用程序,如形變、NeRF 編輯和模型修剪將很有用??蓞⒖?ICML 2023 論文《Equivariant Architectures for Learning in Deep Weight Spaces》。

責任編輯:張燕妮 來源: 機器之心
相關(guān)推薦

2018-12-20 11:38:37

神經(jīng)元神經(jīng)網(wǎng)絡語言

2022-03-22 14:02:39

神經(jīng)網(wǎng)絡AI研究

2017-08-28 21:31:37

TensorFlow深度學習神經(jīng)網(wǎng)絡

2021-04-29 08:50:39

人工智能神經(jīng)網(wǎng)絡技術(shù)

2024-08-22 08:21:10

算法神經(jīng)網(wǎng)絡參數(shù)

2024-01-08 13:41:00

神經(jīng)網(wǎng)絡AI故事網(wǎng)絡

2017-12-22 08:47:41

神經(jīng)網(wǎng)絡AND運算

2023-10-07 13:16:40

ChatGPT神經(jīng)元模型

2023-11-03 12:56:00

AI模型

2019-11-06 17:00:51

深度學習神經(jīng)網(wǎng)絡人工智能

2022-09-26 00:00:00

神經(jīng)網(wǎng)絡激活函數(shù)sigmoid

2022-10-31 15:17:49

AI系統(tǒng)

2018-04-25 09:07:41

人工智能神經(jīng)網(wǎng)絡

2022-11-01 16:02:31

架構(gòu)神經(jīng)網(wǎng)絡模型

2021-08-11 07:02:04

Python激活函數(shù)

2024-06-06 09:44:33

2019-01-05 08:40:17

VGG神經(jīng)網(wǎng)絡

2022-09-11 15:02:22

機器學習算法感知器

2018-07-03 16:10:04

神經(jīng)網(wǎng)絡生物神經(jīng)網(wǎng)絡人工神經(jīng)網(wǎng)絡

2024-07-24 08:04:24

神經(jīng)網(wǎng)絡激活函數(shù)
點贊
收藏

51CTO技術(shù)棧公眾號