自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

DeepMind發(fā)布神經(jīng)網(wǎng)絡(luò)、強(qiáng)化學(xué)習(xí)庫,網(wǎng)友:推動(dòng)JAX發(fā)展

新聞 人工智能
JAX由谷歌提出,是TensorFlow的簡(jiǎn)化庫。結(jié)合了針對(duì)線性代數(shù)的編譯器XLA,和自動(dòng)區(qū)分本地 Python 和 Numpy 代碼的庫Autograd,在高性能的機(jī)器學(xué)習(xí)研究中使用。

本文經(jīng)AI新媒體量子位(公眾號(hào)ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請(qǐng)聯(lián)系出處。

 DeepMind今日發(fā)布了Haiku和RLax兩個(gè)庫,都是基于JAX。

JAX由谷歌提出,是TensorFlow的簡(jiǎn)化庫。結(jié)合了針對(duì)線性代數(shù)的編譯器XLA,和自動(dòng)區(qū)分本地 Python 和 Numpy 代碼的庫Autograd,在高性能的機(jī)器學(xué)習(xí)研究中使用。

而此次發(fā)布的兩個(gè)庫,分別針對(duì)神經(jīng)網(wǎng)絡(luò)和強(qiáng)化學(xué)習(xí),大幅簡(jiǎn)化了JAX的使用。

Haiku是基于JAX的神經(jīng)網(wǎng)絡(luò)庫,允許用戶使用熟悉的面向?qū)ο蟪绦蛟O(shè)計(jì)模型,可完全訪問 JAX 的純函數(shù)變換。

RLax是JAX頂層的庫,它提供了用于實(shí)現(xiàn)增強(qiáng)學(xué)習(xí)代理的有用構(gòu)件。

有意思的是,Reddit網(wǎng)友驚奇的發(fā)現(xiàn)Haiku這個(gè)庫的名字,竟然不以“ax”結(jié)尾。

DeepMind发布神经网络、强化学习库,网友:推动JAX发展

當(dāng)然,也有網(wǎng)友對(duì)這兩個(gè)庫表示了肯定:

毫無疑問,對(duì)JAX起到了推動(dòng)作用。

DeepMind发布神经网络、强化学习库,网友:推动JAX发展

那么,我們就來看下Haiku和RLex的廬山真面目吧。

Haiku

Haiku是JAX的神經(jīng)網(wǎng)絡(luò)庫,它允許用戶使用熟悉的面向?qū)ο缶幊棠P?,同時(shí)允許完全訪問JAX的純函數(shù)轉(zhuǎn)換。

它提供了兩個(gè)核心工具:模塊抽象hk.Module,和一個(gè)簡(jiǎn)單的函數(shù)轉(zhuǎn)換hk.transform。

hk.Module是Python對(duì)象,包含對(duì)其自身參數(shù)、其他模塊和對(duì)用戶輸入應(yīng)用函數(shù)方法的引用。

hk.transform允許完全訪問JAX的純函數(shù)轉(zhuǎn)換。

其實(shí),在JAX中有許多神經(jīng)網(wǎng)絡(luò)庫,那么Haiku有什么特別之處呢?有5點(diǎn)。

1、Haiku已經(jīng)由DeepMind的研究人員進(jìn)行了大規(guī)模測(cè)試

DeepMind相對(duì)容易地在Haiku和JAX中復(fù)制了許多實(shí)驗(yàn)。其中包括圖像和語言處理的大規(guī)模結(jié)果、生成模型和強(qiáng)化學(xué)習(xí)。

2、Haiku是一個(gè)庫,而不是一個(gè)框架

它的設(shè)計(jì)是為了簡(jiǎn)化一些具體的事情,包括管理模型參數(shù)和其他模型狀態(tài)??梢耘c其他庫一起編寫,并與JAX的其他部分一起工作。

3、Haiku并不是另起爐灶

它建立在Sonnet的編程模型和API之上,Sonnet是DeepMind幾乎普遍采用的神經(jīng)網(wǎng)絡(luò)庫。它保留了Sonnet用于狀態(tài)管理的基于模塊的編程模型,同時(shí)保留了對(duì)JAX函數(shù)轉(zhuǎn)換的訪問。

4、過渡到Haiku是比較容易的

通過精心的設(shè)計(jì),從TensorFlow和Sonnet,過渡到JAX和Haiku是比較容易的。除了新的函數(shù)(如hk.transform),Haiku的目的是Sonnet 2的API。

5、Haiku簡(jiǎn)化了JAX

它提供了一個(gè)處理隨機(jī)數(shù)的簡(jiǎn)單模型。在轉(zhuǎn)換后的函數(shù)中,hk.next_rng_key()返回一個(gè)唯一的rng鍵。

那么,該如何安裝Haiku呢?

Haiku是用純Python編寫的,但是通過JAX依賴于c++代碼。

首先,按照下方鏈接中的說明,安裝帶有相關(guān)加速器支持的JAX。

https://github.com/google/jax#installation

然后,只需要一句簡(jiǎn)單的pip命令就可以完成安裝。

  1. $ pip install git+https://github.com/deepmind/haiku 

接下來,是一個(gè)神經(jīng)網(wǎng)絡(luò)和損失函數(shù)的例子。

  1. import haiku as hk 
  2.  
  3. import jax.numpy as jnp 
  4.  
  5. def softmax_cross_entropy(logits, labels): 
  6.  
  7.   one_hot = hk.one_hot(labels, logits.shape[-1]) 
  8.  
  9.   return -jnp.sum(jax.nn.log_softmax(logits) * one_hot, axis=-1
  10.  
  11. def loss_fn(images, labels): 
  12.  
  13.   model = hk.Sequential([ 
  14.  
  15.       hk.Linear(1000), 
  16.  
  17.       jax.nn.relu, 
  18.  
  19.       hk.Linear(100), 
  20.  
  21.       jax.nn.relu, 
  22.  
  23.       hk.Linear(10), 
  24.  
  25.   ]) 
  26.  
  27.   logits = model(images) 
  28.  
  29.   return jnp.mean(softmax_cross_entropy(logits, labels)) 
  30.  
  31. loss_obj = hk.transform(loss_fn) 

RLax

RLax是JAX頂層的庫,它提供了用于實(shí)現(xiàn)增強(qiáng)學(xué)習(xí)代理的有用構(gòu)件。

它所提供的操作和函數(shù)不是完整的算法,而是強(qiáng)化學(xué)習(xí)特定數(shù)學(xué)操作的實(shí)現(xiàn)。

RLax的安裝也非常簡(jiǎn)單,一個(gè)pip命令就可以搞定。

  1. pip install git+git://github.com/deepmind/rlax.git 

使用JAX的jax.jit函數(shù),所有的RLax代碼可以不同的硬件上編譯。

RLax需要注意的是它的命名規(guī)則。

許多函數(shù)在連續(xù)的時(shí)間步長(zhǎng)中考慮策略、操作、獎(jiǎng)勵(lì)和值,以便計(jì)算它們的輸出。在這種情況下,后綴_t和tm1通常是為了說明每個(gè)輸入是在哪個(gè)步驟上生成的,例如:

q_tm1:轉(zhuǎn)換的源狀態(tài)中的操作值。

a_tm1:在源狀態(tài)下選擇的操作。

r_t:在目標(biāo)狀態(tài)下收集的結(jié)果獎(jiǎng)勵(lì)。

q_t:目標(biāo)狀態(tài)下的操作值。

Haiku和RLax都已在GitHub上開源,有興趣的讀者可從“傳送門”的鏈接訪問。

傳送門

Haiku:

https://github.com/deepmind/haiku

RLax:

https://github.com/deepmind/rlax

 

 

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2022-11-17 13:32:46

AlphaZero黑箱網(wǎng)絡(luò)

2022-11-02 14:02:02

強(qiáng)化學(xué)習(xí)訓(xùn)練

2017-03-20 15:23:46

人工智能連續(xù)學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

2020-06-05 14:49:51

強(qiáng)化學(xué)習(xí)算法框架

2021-09-10 16:31:56

人工智能機(jī)器學(xué)習(xí)技術(shù)

2022-10-08 09:53:17

AI算法

2020-01-16 15:57:36

AI 數(shù)據(jù)人工智能

2024-09-23 08:30:00

AI模型

2020-08-06 10:11:13

神經(jīng)網(wǎng)絡(luò)機(jī)器學(xué)習(xí)算法

2020-05-06 16:07:05

百度飛槳

2023-03-09 08:00:00

強(qiáng)化學(xué)習(xí)機(jī)器學(xué)習(xí)圍棋

2020-08-10 06:36:21

強(qiáng)化學(xué)習(xí)代碼深度學(xué)習(xí)

2017-08-22 15:56:49

神經(jīng)網(wǎng)絡(luò)強(qiáng)化學(xué)習(xí)DQN

2025-03-03 09:12:00

2025-04-25 09:08:00

2018-07-03 16:10:04

神經(jīng)網(wǎng)絡(luò)生物神經(jīng)網(wǎng)絡(luò)人工神經(jīng)網(wǎng)絡(luò)

2024-09-10 15:10:00

智能強(qiáng)化學(xué)習(xí)框架

2019-08-19 00:26:49

人工智能AIDeepMind

2022-02-25 15:08:16

強(qiáng)化學(xué)習(xí)職業(yè)博士

2018-11-14 10:28:38

AI數(shù)據(jù)科技
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)