自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

參數(shù)量?jī)H為4%,性能媲美GPT-3:開發(fā)者圖解DeepMind的RETRO

新聞 人工智能
從 BERT 到 GPT-2 再到 GPT-3,大模型的規(guī)模是一路看漲,表現(xiàn)也越來越驚艷。

  

從 BERT 到 GPT-2 再到 GPT-3,大模型的規(guī)模是一路看漲,表現(xiàn)也越來越驚艷。增大模型規(guī)模已經(jīng)被證明是一條可行的改進(jìn)路徑,而且 DeepMind 前段時(shí)間的一些研究表明:這條路還沒有走到頭,繼續(xù)增大模型依然有著可觀的收益。

但與此同時(shí),我們也知道,增大模型可能并不是提升性能的唯一路徑,前段時(shí)間的幾個(gè)研究也證明了這一點(diǎn)。其中比較有代表性的研究要數(shù) DeepMind 的 RETRO Transformer 和 OpenAI 的 WebGPT。這兩項(xiàng)研究表明,如果我們用一種搜索 / 查詢信息的方式來增強(qiáng)模型,小一點(diǎn)的生成語言模型也能達(dá)到之前大模型才能達(dá)到的性能。

在大模型一統(tǒng)天下的今天,這類研究顯得非常難能可貴。

在這篇文章中,擅長(zhǎng)機(jī)器學(xué)習(xí)可視化的知名博客作者 Jay Alammar 詳細(xì)分析了 DeepMind 的 RETRO(Retrieval-Enhanced TRansfOrmer)模型。該模型與 GPT-3 性能相當(dāng),但參數(shù)量?jī)H為 GPT-3 的 4%。

參數(shù)量?jī)H為4%,性能媲美GPT-3:開發(fā)者圖解DeepMind的RETRO
參數(shù)量?jī)H為4%,性能媲美GPT-3:開發(fā)者圖解DeepMind的RETRO

RETRO 整合了從數(shù)據(jù)庫(kù)中檢索到的信息,將其參數(shù)從昂貴的事實(shí)和世界知識(shí)存儲(chǔ)中解放出來。

在 RETRO 之前,研究社區(qū)也有一些工作采用了類似的方法,因此本文并不是要解釋它的新穎性,而是該模型本身。

將語言信息和世界知識(shí)信息分離開來

一般來講,語言模型的任務(wù)就是做填空題,這項(xiàng)任務(wù)有時(shí)候需要與事實(shí)有關(guān)的信息,比如

參數(shù)量?jī)H為4%,性能媲美GPT-3:開發(fā)者圖解DeepMind的RETRO

但有時(shí)候,如果你對(duì)某種語言比較熟悉,你也可以直接猜出空白部分要填什么,例如:

參數(shù)量?jī)H為4%,性能媲美GPT-3:開發(fā)者圖解DeepMind的RETRO

這種區(qū)別非常重要,因?yàn)榇笮驼Z言模型將它們所知道的一切都編碼到模型參數(shù)中。雖然這對(duì)于語言信息是有意義的,但是對(duì)于事實(shí)信息和世界知識(shí)信息是無效的。加入檢索方法之后,語言模型可以縮小很多。在文本生成過程中,神經(jīng)數(shù)據(jù)庫(kù)可以幫助模型檢索它需要的事實(shí)信息。

參數(shù)量?jī)H為4%,性能媲美GPT-3:開發(fā)者圖解DeepMind的RETRO

隨著訓(xùn)練數(shù)據(jù)記憶量的減少,我們可以使用較小的語言模型來加速訓(xùn)練。任何人都可以在更小、更便宜的 GPU 上部署這些模型,并根據(jù)需要對(duì)它們進(jìn)行調(diào)整。

從結(jié)構(gòu)上看,RETRO 是一個(gè)編碼器 - 解碼器模型,就像原始的 Transformer。然而,它在檢索數(shù)據(jù)庫(kù)的幫助下增加了輸入序列。該模型在數(shù)據(jù)庫(kù)中找到最可能的序列,并將它們添加到輸入中。RETRO 利用它的魔力生成輸出預(yù)測(cè)。

參數(shù)量?jī)H為4%,性能媲美GPT-3:開發(fā)者圖解DeepMind的RETRO

在探索模型架構(gòu)之前,讓我們先深入挖掘一下檢索數(shù)據(jù)庫(kù)。

RETRO 的檢索數(shù)據(jù)庫(kù)

此處的數(shù)據(jù)庫(kù)是一個(gè)鍵值存儲(chǔ)(key-value store)數(shù)據(jù)庫(kù)。其中 key 是標(biāo)準(zhǔn)的 BERT 句子嵌入,value 是由兩部分組成的文本:

  1. Neighbor,用于計(jì)算 key;
  2. Completion,原文件中文本的延續(xù)。

RETRO 的數(shù)據(jù)庫(kù)包含基于 MassiveText 數(shù)據(jù)集的 2 萬億個(gè)多語言 token。neighbor chunk 和 completion chunk 的長(zhǎng)度最多為 64 個(gè) token。

參數(shù)量?jī)H為4%,性能媲美GPT-3:開發(fā)者圖解DeepMind的RETRO

RETRO 數(shù)據(jù)庫(kù)內(nèi)部展示了 RETRO 數(shù)據(jù)庫(kù)中鍵值對(duì)的示例。

RETRO 將輸入提示分成多個(gè) chunk。為簡(jiǎn)單起見,此處重點(diǎn)關(guān)注如何用檢索到的文本擴(kuò)充一個(gè) chunk。但是,模型會(huì)針對(duì)輸入提示中的每個(gè) chunk(第一個(gè) chunk 除外)執(zhí)行此過程。

數(shù)據(jù)庫(kù)查找

在點(diǎn)擊 RETRO 之前,輸入提示進(jìn)入 BERT。對(duì)輸出的上下文向量進(jìn)行平均以構(gòu)建句子嵌入向量。然后使用該向量查詢數(shù)據(jù)庫(kù)。

參數(shù)量?jī)H為4%,性能媲美GPT-3:開發(fā)者圖解DeepMind的RETRO

使用 BERT 處理輸入提示會(huì)生成上下文化的 token 嵌入 。對(duì)它們求平均值會(huì)產(chǎn)生一個(gè)句子嵌入。

然后將該句子嵌入用于近似最近鄰搜索。檢索兩個(gè)最近鄰,它們的文本成為 RETRO 輸入的一部分。

參數(shù)量?jī)H為4%,性能媲美GPT-3:開發(fā)者圖解DeepMind的RETRO

BERT 句子嵌入用于從 RETRO 的神經(jīng)數(shù)據(jù)庫(kù)中檢索最近鄰。然后將這些添加到語言模型的輸入中。

現(xiàn)在 RETRO 的輸入是:輸入提示及其來自數(shù)據(jù)庫(kù)的兩個(gè)最近鄰(及其延續(xù))。

從這里開始,Transformer 和 RETRO 塊將信息合并到它們的處理中。

參數(shù)量?jī)H為4%,性能媲美GPT-3:開發(fā)者圖解DeepMind的RETRO

檢索到的近鄰被添加到語言模型的輸入中。然而,它們?cè)谀P蛢?nèi)部的處理方式略有不同。

高層次的 RETRO 架構(gòu)

RETRO 的架構(gòu)由一個(gè)編碼器堆棧和一個(gè)解碼器堆棧組成。

參數(shù)量?jī)H為4%,性能媲美GPT-3:開發(fā)者圖解DeepMind的RETRO

RETRO Transformer 由一個(gè)編碼器堆棧(處理近鄰)和一個(gè)解碼器堆棧(處理輸入)組成

編碼器由標(biāo)準(zhǔn)的 Transformer 編碼器塊(self-attention + FFNN)組成。Retro 使用由兩個(gè) Transformer 編碼器塊組成的編碼器。

解碼器堆棧包含了兩種解碼器 block:

  • 標(biāo)準(zhǔn) Transformer 解碼器塊(ATTN + FFNN)
  • RETRO 解碼器塊(ATTN + Chunked cross attention (CCA) + FFNN)
參數(shù)量?jī)H為4%,性能媲美GPT-3:開發(fā)者圖解DeepMind的RETRO

構(gòu)成 RETRO 的三種 Transformer 模塊

編碼器堆棧會(huì)處理檢索到的近鄰,生成后續(xù)將用于注意力的 KEYS 和 VALUES 矩陣。

解碼器 block 像 GPT 一樣處理輸入文本。它對(duì)提示 token 應(yīng)用自注意力(因此只關(guān)注之前的 token),然后通過 FFNN 層。

參數(shù)量?jī)H為4%,性能媲美GPT-3:開發(fā)者圖解DeepMind的RETRO

只有到達(dá) RETRO 解碼器時(shí),它才開始合并檢索到的信息。從 9 開始的每個(gè)第三個(gè) block 是一個(gè) RETRO block(允許其輸入關(guān)注近鄰)。所以第 9、12、15…32 層是 RETRO block。

參數(shù)量?jī)H為4%,性能媲美GPT-3:開發(fā)者圖解DeepMind的RETRO

下圖展示了檢索到的信息可以瀏覽完成提示所需的節(jié)點(diǎn)步驟。

參數(shù)量?jī)H為4%,性能媲美GPT-3:開發(fā)者圖解DeepMind的RETRO

 

 

責(zé)任編輯:張燕妮 來源: 機(jī)器之心Pro
相關(guān)推薦

2020-09-22 15:17:59

谷歌Android技術(shù)

2021-07-19 10:56:36

GPE-3OpenAI微軟

2021-11-03 15:12:09

微軟機(jī)器學(xué)習(xí)開發(fā)者

2022-12-27 13:36:09

2022-05-26 05:37:00

人工智能機(jī)器學(xué)習(xí)AI

2021-07-13 17:38:49

算法語言模型GPT-4

2022-03-24 10:35:38

人工智能模型代碼

2011-12-14 09:23:56

Android應(yīng)用開發(fā)者收入

2021-12-29 10:08:43

AI 數(shù)據(jù)人工智能

2024-08-22 13:40:08

開發(fā)者GPT-4oepoch

2023-09-25 09:58:25

AI框架

2023-04-07 09:53:02

量子AI

2023-08-02 10:41:26

2024-10-18 11:12:44

2023-02-25 21:45:55

模型AI

2023-03-01 16:15:16

2023-11-08 08:15:29

2023-06-08 15:33:31

人工智能GPT-3

2023-02-14 08:00:00

人工智能GPT-3語言模型

2012-06-13 01:23:30

開發(fā)者程序員
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)