自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

全面了解大語言模型,這有一份閱讀清單

人工智能 新聞
了解當(dāng)代大型語言模型背后的設(shè)計、約束和演變,你可以遵循本文的閱讀清單。

大型語言模型已經(jīng)引起了公眾的注意,短短五年內(nèi),Transforme等模型幾乎完全改變了自然語言處理領(lǐng)域。此外,它們還開始在計算機視覺和計算生物學(xué)等領(lǐng)域引發(fā)革命。

鑒于Transformers對每個人的研究進程都有如此大的影響,本文將為大家介紹一個簡短的閱讀清單,供機器學(xué)習(xí)研究人員和從業(yè)者入門使用。

下面的列表主要是按時間順序展開的,主要是一些學(xué)術(shù)研究論文。當(dāng)然,還有許多其他有用的資源。例如:

  • Jay Alammar撰寫的《The Illustrated Transformer》
  • Lilian Weng撰寫的《The Transformer Family》
  • Xavier Amatriain撰寫的《Transformer models: an introduction and catalog — 2023 Edition》
  • Andrej Karpathy寫的nanoGPT庫

對主要架構(gòu)和任務(wù)的理解

 如果你是Transformers、大型語言模型新手,那么這幾篇文章最適合你。 

論文1:《Neural Machine Translation by Jointly Learning to Align and Translate》?

圖片

論文地址:https://arxiv.org/pdf/1409.0473.pdf

本文引入了一種循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)注意力機制,提高了模型遠程序列建模能力。這使得RNN能夠更準確地翻譯較長的句子——這也是后來開發(fā)原始Transformer架構(gòu)的動機。 

圖片

圖源: https://arxiv.org/abs/1409.0473

論文2:《Attention Is All You Need》?

圖片

論文地址:https://arxiv.org/abs/1706.03762

本文介紹了由編碼器和解碼器組成的原始Transformer架構(gòu),這些部分將在以后作為單獨模塊進行相關(guān)介紹。此外,本文還介紹了縮放點積注意力機制、多頭注意力塊和位置輸入編碼等概念,這些概念仍然是現(xiàn)代Transformer的基礎(chǔ)。

圖片

圖源:https://arxiv.org/abs/1706.03762

論文3:《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》?

圖片

論文地址:https://arxiv.org/abs/1810.04805

大型語言模型研究遵循最初的Transformer架構(gòu),然后開始向兩個方向延伸:用于預(yù)測建模任務(wù)(如文本分類)的Transformer和用于生成建模任務(wù)(如翻譯、摘要和其他形式的文本創(chuàng)建)的Transformer 。 

BERT論文介紹了掩碼語言建模原始概念,如果你對這個研究分支感興趣,那么可以跟進RoBERTa,其簡化了預(yù)訓(xùn)練目標(biāo)。 

圖片

圖源:https://arxiv.org/abs/1810.04805

論文4:《Improving Language Understanding by Generative Pre-Training》

圖片

論文地址:https://www.semanticscholar.org/paper/Improving-Language-Understanding-by-Generative-Radford-Narasimhan/cd18800a0fe0b668a1cc19f2ec95b5003d0a5035

最初的GPT論文介紹了流行的解碼器風(fēng)格的架構(gòu)和通過下一個單詞預(yù)測進行預(yù)訓(xùn)練。BERT由于其掩碼語言模型預(yù)訓(xùn)練目標(biāo),可以被認為是一個雙向Transformer,而GPT是一個單向自回歸模型。雖然GPT嵌入也可以用于分類,但GPT方法是當(dāng)今最有影響力的LLMs(如ChatGPT)的核心。 

如果你對這個研究分支感興趣,那么可以跟進GPT-2和GPT-3的論文。此外,本文將在后面單獨介紹InstructGPT方法。 

圖片

論文5:《BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension》

圖片

論文地址 https://arxiv.org/abs/1910.13461.

如上所述, BERT型編碼器風(fēng)格的LLM通常是預(yù)測建模任務(wù)的首選,而GPT型解碼器風(fēng)格的LLM更擅長生成文本。為了兩全其美,上面的BART論文結(jié)合了編碼器和解碼器部分。

圖片

擴展定律與效率提升

如果你想了解更多關(guān)于提高Transformer效率的技術(shù),可以參考以下論文

  • 論文1:《A Survey on Efficient Training of Transformers》?
  • 論文地址:https://arxiv.org/abs/2302.01107?


  • 論文2:《FlashAttention: Fast and Memory-Efficient Exact Attention with IO-Awareness》
  • 論文地址:?https://arxiv.org/abs/2205.14135?


  • 論文3:《Cramming: Training a Language Model on a Single GPU in One Day》
  • 論文地址:https://arxiv.org/abs/2212.14034


  • 論文4:《Training Compute-Optimal Large Language Models》
  • 論文地址:https://arxiv.org/abs/2203.15556

此外,還有論文《Training Compute-Optimal Large Language Models》

論文地址:https://arxiv.org/abs/2203.15556

本文介紹了700億參數(shù)的Chinchilla模型,該模型在生成建模任務(wù)上優(yōu)于流行的1750億參數(shù)的GPT-3模型。然而,它的主要點睛之處在于,當(dāng)代大型語言模型訓(xùn)練嚴重不足。

本文定義了用于大型語言模型訓(xùn)練的線性scaling law。例如,雖然Chinchilla的大小只有GPT-3的一半,但它的表現(xiàn)優(yōu)于GPT-3,因為它是在1.4萬億(而不是3000億)token上進行訓(xùn)練的。換句話說,訓(xùn)練token的數(shù)量和模型大小一樣重要。

圖片

對齊——將大型語言模型朝著預(yù)期的目標(biāo)和興趣引導(dǎo)

近年來出現(xiàn)了許多相對強大的大型語言模型,它們可以生成真實的文本(例如GPT-3和Chinchilla)。就常用的預(yù)訓(xùn)練范式而言,目前似乎已經(jīng)達到了一個上限。

為了使語言模型更能幫助到人類,減少錯誤信息和不良語言,研究人員設(shè)計了額外的訓(xùn)練范式來微調(diào)預(yù)訓(xùn)練的基礎(chǔ)模型,包括如下論文。

  • 論文1:《Training Language Models to Follow Instructions with Human Feedback》
  • 論文地址:https://arxiv.org/abs/2203.02155

在這篇所謂的InstructGPT論文中,研究人員使用了RLHF(Reinforcement Learning from Human Feedback)。他們從預(yù)訓(xùn)練的GPT-3基礎(chǔ)模型開始,并使用監(jiān)督學(xué)習(xí)對人類生成的提示響應(yīng)對進行進一步微調(diào)(步驟1)。接下來,他們要求人類對模型輸出進行排序以訓(xùn)練獎勵模型(步驟2)。最后,他們使用獎勵模型通過近端策略優(yōu)化(步驟3)使用強化學(xué)習(xí)來更新預(yù)訓(xùn)練和微調(diào)的GPT-3模型。

順便說一句,這篇論文也被稱為描述ChatGPT背后思想的論文——根據(jù)最近的傳言,ChatGPT是InstructGPT的擴展版本,它在更大的數(shù)據(jù)集上進行了微調(diào)。

圖片

  • 論文2:《Constitutional AI: Harmlessness from AI Feedback》
  • 論文地址:https://arxiv.org/abs/2212.08073

在這篇論文中,研究人員進一步推進了對齊的想法,提出了一種創(chuàng)建「harmless」的AI系統(tǒng)的訓(xùn)練機制。研究人員提出了一種基于規(guī)則列表(由人類提供)的自訓(xùn)練機制,而不是直接由人類監(jiān)督。與上面提到的InstructGPT論文類似,所提出的方法使用了強化學(xué)習(xí)方法。

圖片

總結(jié)?

本文對上方表單的排列盡量保持簡潔美觀,建議重點關(guān)注前10篇論文,以了解當(dāng)代大型語言模型背后的設(shè)計、局限和演變。

如果想深入閱讀,建議參考上述論文中的參考文獻?;蛘?,這里有一些額外的資源,供讀者進一步研究:

GPT的開源替代方案

  • 論文1:《BLOOM: A 176B-Parameter Open-Access Multilingual Language Model》
  • 論文地址:https://arxiv.org/abs/2211.05100


  • 論文2:《OPT: Open Pre-trained Transformer Language Models》
  • 論文地址:https://arxiv.org/abs/2205.01068

ChatGPT的替代方案

  • 論文1《LaMDA: Language Models for Dialog Applications》
  • 論文地址:https://arxiv.org/abs/2201.08239


  • 論文2:《Improving alignment of dialogue agents via targeted human judgements》
  • 論文地址:https://arxiv.org/abs/2209.14375


  • 論文3:《BlenderBot 3: a deployed conversational agent that continually learns to responsibly engage》
  • 論文地址:https://arxiv.org/abs/2208.03188

計算生物學(xué)中的大型語言模型

  • 論文1:《 ProtTrans: Towards Cracking the Language of Life’s Code Through Self-Supervised Learning 》
  • 論文地址:https://arxiv.org/abs/2007.06225


  • 論文2:《Highly accurate protein structure prediction with AlphaFold》
  • 論文地址:https://www.nature.com/articles/s41586-021-03819-2


  • 論文3:《Large Language Models Generate Functional Protein Sequences Across Diverse Families》
  • 論文地址:https://www.nature.com/articles/s41587-022-01618-2
責(zé)任編輯:張燕妮 來源: 機器之心
相關(guān)推薦

2021-04-03 12:44:16

編程語言數(shù)據(jù)Python

2018-03-30 10:10:11

區(qū)塊鏈數(shù)字貨幣記賬模式

2019-03-24 14:14:40

代碼閱讀源代碼

2016-08-24 16:55:18

DevOps結(jié)構(gòu)清單

2023-10-19 13:57:00

AI模型

2021-04-05 17:11:34

App蘋果移動應(yīng)用

2018-12-27 14:35:25

物聯(lián)網(wǎng)安全物聯(lián)網(wǎng)IOT

2020-07-28 17:34:42

攜號轉(zhuǎn)網(wǎng)運營商套餐

2024-03-20 12:44:35

AI訓(xùn)練

2018-10-10 09:30:29

Spring Boot知識框架

2024-07-10 12:11:30

數(shù)據(jù)經(jīng)營分析業(yè)務(wù)

2018-02-08 18:48:42

區(qū)塊鏈食品安全

2023-04-28 15:41:08

模型ChatGPT

2020-06-08 09:15:14

前端 開發(fā) Git

2018-08-15 13:49:06

數(shù)據(jù)分析學(xué)習(xí)Python

2018-05-16 09:00:00

物聯(lián)網(wǎng)物聯(lián)網(wǎng)平臺IoT

2018-08-21 08:49:53

Nginx服務(wù)器配置

2018-07-29 15:33:04

2015-03-19 15:17:11

點贊
收藏

51CTO技術(shù)棧公眾號