自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

谷歌重磅開源新技術:5行代碼打造無限寬神經網絡模型

新聞 前端
最近的許多研究結果表明,無限寬度的DNN會收斂成一類更為簡單的模型,稱為高斯過程(Gaussian processes)。

 [[318735]]

只要網絡足夠寬,深度學習動態(tài)就能大大簡化,并且更易于理解。

最近的許多研究結果表明,無限寬度的DNN會收斂成一類更為簡單的模型,稱為高斯過程(Gaussian processes)。

于是,復雜的現(xiàn)象可以被歸結為簡單的線性代數方程,以了解AI到底是怎樣工作的。

<span><span><span><i style=谷歌重磅開源新技術:5行代碼打造無限寬神經網絡模型">

所謂的無限寬度(infinite width),指的是完全連接層中的隱藏單元數,或卷積層中的通道數量有無窮多。

但是,問題來了:推導有限網絡的無限寬度限制需要大量的數學知識,并且必須針對不同研究的體系結構分別進行計算。對工程技術水平的要求也很高。

谷歌最新開源的 Neural Tangents,旨在解決這個問題,讓研究人員能夠輕松建立、訓練無限寬神經網絡。

甚至只需要5行代碼,就能夠打造一個無限寬神經網絡模型。

這一研究成果已經中了ICLR 2020。戳進文末Colab鏈接,即可在線試玩。

開箱即用,5行代碼打造無限寬神經網絡模型

Neural Tangents 是一個高級神經網絡 API,可用于指定復雜、分層的神經網絡,在 CPU/GPU/TPU 上開箱即用。

該庫用 JAX編寫,既可以構建有限寬度神經網絡,亦可輕松創(chuàng)建和訓練無限寬度神經網絡。

有什么用呢?舉個例子,你需要訓練一個完全連接神經網絡。通常,神經網絡是隨機初始化的,然后采用梯度下降進行訓練。

研究人員通過對一組神經網絡中不同成員的預測取均值,來提升模型的性能。另外,每個成員預測中的方差可以用來估計不確定性。

如此一來,就需要大量的計算預算。

但當神經網絡變得無限寬時,網絡集合就可以用高斯過程來描述,其均值和方差可以在整個訓練過程中進行計算。

而使用 Neural Tangents ,僅需5行代碼,就能完成對無限寬網絡集合的構造和訓練。

  1. from neural_tangents import predict, stax 
  2.  
  3. init_fn, apply_fn, kernel_fn = stax.serial( 
  4.     stax.Dense(2048, W_std=1.5, b_std=0.05), stax.Erf(), 
  5.     stax.Dense(2048, W_std=1.5, b_std=0.05), stax.Erf(), 
  6.     stax.Dense(1, W_std=1.5, b_std=0.05)) 
  7.  
  8. y_mean, y_var = predict.gp_inference(kernel_fn, x_train, y_train, x_test, ‘ntk’, diag_reg=1e-4, compute_cov=True) 
<span><span><span><i style=谷歌重磅開源新技術:5行代碼打造無限寬神經網絡模型">

上圖中,左圖為訓練過程中輸出(f)隨輸入數據(x)的變化;右圖為訓練過程中的不確定性訓練、測試損失。

將有限神經網絡的集合訓練和相同體系結構的無限寬度神經網絡集合進行比較,研究人員發(fā)現(xiàn),使用無限寬模型的精確推理,與使用梯度下降訓練整體模型的結果之間,具有良好的一致性。

這說明了無限寬神經網絡捕捉訓練動態(tài)的能力。

不僅如此,常規(guī)神經網絡可以解決的問題,Neural Tangents 構建的網絡亦不在話下。

研究人員在 CIFAR-10 數據集的圖像識別任務上比較了 3 種不同架構的無限寬神經網絡。

<span><span><span><i style=谷歌重磅開源新技術:5行代碼打造無限寬神經網絡模型">

可以看到,無限寬網絡模擬有限神經網絡,遵循相似的性能層次結構,其全連接網絡的性能比卷積網絡差,而卷積網絡的性能又比寬殘余網絡差。

但是,與常規(guī)訓練不同,這些模型的學習動力在封閉形式下是易于控制的,也就是說,可以用前所未有的視角去觀察其行為。

對于深入理解機器學習機制來說,該研究也提供了一種新思路。谷歌表示,這將有助于“打開機器學習的黑匣子”。

傳送門

論文地址:https://arxiv.org/abs/1912.02803

谷歌博客:https://ai.googleblog.com/2020/03/fast-and-easy-infinitely-wide-networks.html

GitHub地址:https://github.com/google/neural-tangents

Colab地址:https://colab.research.google.com/github/google/neural-tangents/blob/master/notebooks/neural_tangents_cookbook.ipynb

 

責任編輯:張燕妮 來源: 量子位
相關推薦

2020-04-20 13:45:32

神經網絡模型代碼

2017-09-08 16:41:43

微軟

2019-07-25 08:20:37

代碼開發(fā)神經網絡

2019-05-05 09:46:01

Python代碼神經網絡

2020-08-18 14:20:44

谷歌算力開發(fā)者

2017-09-15 13:35:11

JavaScript神經網絡

2017-09-18 08:08:33

JavaScript神經網絡代碼

2019-12-20 09:15:48

神經網絡數據圖形

2019-01-05 08:40:17

VGG神經網絡

2017-06-20 14:41:12

google神經網絡

2020-03-02 11:04:19

人工智能機器學習技術

2020-09-07 06:30:00

神經網絡數據圖形

2018-07-03 16:10:04

神經網絡生物神經網絡人工神經網絡

2025-02-25 10:50:11

2019-04-19 08:18:37

神經網絡數據圖形

2017-04-25 08:26:39

神經網絡解碼

2017-08-28 21:31:37

TensorFlow深度學習神經網絡

2025-03-31 08:50:00

模型量化神經網絡AI

2025-02-24 08:00:00

機器學習ML架構

2023-09-17 23:09:24

Transforme深度學習
點贊
收藏

51CTO技術棧公眾號