自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

開發(fā)者笑瘋了! LLaMa驚天泄露引爆ChatGPT平替狂潮,開源LLM領域變天

人工智能 新聞
Meta的LLaMA模型開源,讓文本大模型迎來了Stable Diffustion時刻。誰都沒想到,LLaMA的一場「史詩級」泄漏,產生了一系列表現(xiàn)驚艷的ChatGPT「平替」。

誰能想到,一次意外的LLaMA泄漏,竟點燃了開源LLM領域最大的創(chuàng)新火花。

一系列表現(xiàn)出色的ChatGPT開源替代品——「羊駝家族」,隨后眼花繚亂地登場。

開源和基于 API 的分發(fā)之間的摩擦,是生成式AI生態(tài)系統(tǒng)中最迫在眉睫的矛盾之一。

在文本到圖像領域,Stable Diffusion的發(fā)布清楚地表明,對于基礎模型來說,開源是一種可行的分發(fā)機制。

然而,在大語言模型領域卻并非如此,這個領域最大的突破,比如GPT-4、Claude和Cohere等模型,都只能通過API獲得。

這些模型的開源替代品沒有表現(xiàn)出相同水平的性能,特別是在遵循人類指令能力上。然而,一場意想不到的泄露,讓這種狀況徹底發(fā)生了改變。

LLaMA的「史詩級」泄漏

幾周前,Meta AI推出了大語言模型LLaMA 。

LLaMA 有不同的版本,包括7B、13B、33B和65B的參數(shù),雖然它比GPT-3小,但在許多任務上,它都能和GPT-3的性能相媲美。

LLaMA 起初并未開源,但在發(fā)布一周后,這個模型忽然在4chan上泄露了,引發(fā)了數(shù)千次下載。

這個事件,可以被稱為「史詩級泄漏」了,因為它成為了大語言模型領域層出不窮的創(chuàng)新來源。

短短幾周內,基于它構建的LLM代理的創(chuàng)新,已經呈爆炸式增長。

Alpaca、Vicuna、Koala、ChatLLaMA 、FreedomGPT、ColossalChat…… 讓我們來回顧一下,這場「羊駝家族」的大爆炸,是如何誕生的。

Alpaca在三月中旬,斯坦福發(fā)布的大模型Alpaca火了。 

Alpaca是由Meta的LLaMA 7B微調而來的全新模型,僅用了52k數(shù)據(jù),性能約等于GPT-3.5。

關鍵是訓練成本奇低,不到600美元。

斯坦福研究者對GPT-3.5(text-davinci-003)和Alpaca 7B進行了比較,發(fā)現(xiàn)這兩個模型的性能非常相似。Alpaca在與GPT-3.5的比較中,獲勝次數(shù)為90對89。

對于斯坦福的團隊來說,想要在預算內訓練一個高質量的指令遵循模型,就必須面臨2個重要的挑戰(zhàn):要有一個強大的預訓練語言模型,以及一個高質量的指令遵循數(shù)據(jù)。

恰恰,提供給學術研究人員使用的LLaMA模型搞定了第一個問題。

對于第二個挑戰(zhàn),「Self-Instruct: Aligning Language Model with Self Generated Instructions」論文給了很好的啟發(fā),即使用現(xiàn)有的強語言模型來自動生成指令數(shù)據(jù)。

LLaMA模型最大的弱點,就是缺乏指令微調。OpenAI最大的創(chuàng)新之一就是將指令調優(yōu)用在了GPT-3上。

對此,斯坦福使用了現(xiàn)有的大語言模型,來自動生成遵循指令演示。

現(xiàn)在,Alpaca直接被網友們奉為「文本大模型的Stable Diffusion」。

Vicuna3月底,來自UC伯克利、卡內基梅隆大學、斯坦福大學和加州大學圣地亞哥分校的研究人員開源了Vicuna,這是一個與GPT-4性能相匹配的LLaMA微調版本。

130億參數(shù)的Vicuna,通過在ShareGPT收集的用戶共享對話上對LLaMA進行微調訓練而來,訓練成本近300美元。

結果顯示Vicuna-13B在超過90%的情況下,實現(xiàn)了與ChatGPT和Bard相匹敵的能力。

圖片

對于Vicuna-13B訓練流程,具體如下:

首先,研究人員從ChatGPT對話分享網站ShareGPT上,收集了大約70K對話。

接下來,研究人員優(yōu)化了Alpaca提供的訓練腳本,使模型能夠更好地處理多輪對話和長序列。之后利用PyTorch FSDP在8個A100 GPU上進行了一天的訓練。

在模型的質量評估方面,研究人員創(chuàng)建了80個不同的問題,并用GPT-4對模型輸出進行了評價。

為了比較不同的模型,研究人員將每個模型的輸出組合成一個單獨的提示,然后讓GPT-4評估哪個模型給出的回答更好。

圖片

LLaMA、Alpaca、Vicuna和ChatGPT的對比

Koala

最近,UC伯克利 AI Research Institute(BAIR)又發(fā)布了一個新模型「考拉」(Koala),相比之前使用OpenAI的GPT數(shù)據(jù)進行指令微調,Koala的不同之處在于使用網絡獲取的高質量數(shù)據(jù)進行訓練。?

研究結果表明,Koala可以有效地回答各種用戶的查詢,生成的回答往往比Alpaca更受歡迎,至少在一半的情況下與ChatGPT的效果不相上下。

研究人員希望這次實驗的結果可以進一步推動圍繞大型閉源模型相對于小型公共模型的相對性能的討論,特別是結果表明,對于那些能在本地運行的小模型,如果認真地收集訓練數(shù)據(jù),也可以取得大模型的性能。

圖片

事實上,在此之前斯坦福大學發(fā)布的Alpaca模型,根據(jù)OpenAI的GPT模型對LLaMA的數(shù)據(jù)進行微調的實驗結果已經表明,正確的數(shù)據(jù)可以顯著改善規(guī)模更小的開源模型。

這也是伯克利的研究人員開發(fā)和發(fā)布Koala模型的初衷,希望為這個討論結果再提供了一個實驗證明。

Koala對從網上獲取的免費交互數(shù)據(jù)進行了微調,并且特別關注包括與ChatGPT 等高性能閉源模型交互的數(shù)據(jù)。

研究人員并沒有追求盡可能多的抓取網絡數(shù)據(jù)來最大化數(shù)據(jù)量,而是專注于收集一個小型的高質量數(shù)據(jù)集,包括ChatGPT蒸餾數(shù)據(jù)、開源數(shù)據(jù)等。

ChatLLaMA

Nebuly開源了ChatLLaMA ,這是一個使用讓我們使用自己的數(shù)據(jù)創(chuàng)建對話助手的框架。

ChatLLaMA讓我們使用自己的數(shù)據(jù)和盡可能少的計算量,來創(chuàng)建超個性化的類似ChatGPT的助手。

假設在未來,我們不再依賴一個「統(tǒng)治所有人」的大型助手,每個人都可以創(chuàng)建自己的個性化版本類ChatGPT助手,它們可以支持人類的各種需求。

不過,創(chuàng)建這種個性化助手需要在許多方面做出努力:數(shù)據(jù)集創(chuàng)建,使用RLHF進行高效訓練,以及推理優(yōu)化。

這個庫的目的是,通過抽象計算優(yōu)化和收集大量數(shù)據(jù)所需的工作,讓開發(fā)人員高枕無憂。

ChatLLaMA旨在幫助開發(fā)人員處理各種用例,所有用例都與RLHF訓練和優(yōu)化推理有關。以下是一些用例參考:

  • 為垂直特定任務(法律、醫(yī)療、游戲、學術研究等)創(chuàng)建類似ChatGPT的個性化助手;
  • 想在本地硬件基礎設施上使用有限的數(shù)據(jù),訓練一個高效的類似ChatGPT的助手;
  • 想創(chuàng)建自己的個性化版本類ChatGPT助手,同時避免成本失控;
  • 想了解哪種模型架構(LLaMA、OPT、GPTJ等)最符合我在硬件、計算預算和性能方面的要求;
  • 想讓助理與我的個人/公司價值觀、文化、品牌和宣言保持一致。

FreedomGPT

FreedomGPT使用Electron 和 React構建,它是一個桌面應用程序,允許用戶在他們的本地機器上運行LLaMA。

FreedomGPT的特色,從它的名字上就可見一斑——它回答的問題不受任何審查或安全過濾。

這個程序由AI風險投資公司Age of AI開發(fā)。

FreedomGPT 建立在 Alpaca 之上。FreedomGPT使用Alpaca的顯著特征,因為與其他模型相比,Alpaca相對更易于訪問和定制。

ChatGPT遵循OpenAI的使用政策,限制仇恨、自殘、威脅、暴力、性方面的內容。

與ChatGPT不同,F(xiàn)reedomGPT回答問題時沒有偏見或偏袒,并且會毫不猶豫地回答有爭議或爭論性的話題。

?FreedomGPT甚至還回答了「如何在家制造炸彈」,而OpenAI專門從GPT-4中刪除了這一點。

FreedomGPT很獨特,因為它克服了審查限制,在沒有任何保障的情況下迎合有爭議的話題。它的標志是自由女神像,因為這個獨特而大膽的大語言模型象征了自由。

FreedomGPT甚至可以在不需要聯(lián)網的情況下,就能在計算機上本地運行。

此外,開源版本將很快發(fā)布,使用戶和組織可以完全定制。

ColossalChat

UC伯克利提出的ColossalChat只需要不到100億個參數(shù)就可以達到中英文雙語能力,效果與ChatGPT和GPT-3.5相當。

此外,基于LLaMA模型的ColossalChat,還復刻了完整的RLHF過程,是目前最接近ChatGPT原始技術路線的開源項目。

中英雙語訓練數(shù)據(jù)集

ColossalChat發(fā)布了一個雙語數(shù)據(jù)集,其中包含大約100,000個中英文問答對。

該數(shù)據(jù)集是從社交媒體平臺上的真實問題場景中收集和清理的,作為種子數(shù)據(jù)集,使用self-instruct進行擴展,標注成本約為900美元。

與其他self-instruct方法生成的數(shù)據(jù)集相比,該數(shù)據(jù)集包含更真實和多樣化的種子數(shù)據(jù),涵蓋更廣泛的主題。

該數(shù)據(jù)集適用于微調和RLHF訓練。在提供優(yōu)質數(shù)據(jù)的情況下,ColossalChat可以實現(xiàn)更好的對話交互,同時也支持中文。

 完整的RLHF管線

RLHF的算法復刻共有三個階段:

在RLHF-Stage1中,使用上述雙語數(shù)據(jù)集進行監(jiān)督指令微調以微調模型。

在RLHF-Stage2中,通過對同一提示的不同輸出手動排序來訓練獎勵模型分配相應的分數(shù),然后監(jiān)督獎勵模型的訓練。

在RLHF-Stage3中,使用了強化學習算法,這是訓練過程中最復雜的部分。

相信很快,就會有更多項目發(fā)布。

誰也沒想到,這場LLaMA的意外泄露,竟點燃了開源LLM領域最大的創(chuàng)新火花。

責任編輯:張燕妮 來源: 新智元
相關推薦

2023-04-02 21:39:14

ChatGPT開源

2013-09-27 16:13:28

2023-09-18 13:13:00

人工智能訓練

2023-06-30 09:00:00

Falcon LLM開源

2010-06-25 18:27:10

智能電腦英特爾

2023-03-14 13:45:14

模型AI

2013-08-20 13:23:15

移動開發(fā)

2012-10-29 11:17:41

百度移動統(tǒng)計

2009-03-20 11:50:44

LinuxSunCommunityOn

2025-03-17 08:00:00

2024-08-08 14:23:30

ChatGPTOpenAI工具

2023-03-20 09:34:14

ChatGPT開源

2023-03-31 13:55:00

模型智能

2023-04-20 14:43:38

Linux模型GPT4

2023-07-19 07:48:21

Llama 2 模型Azure AI

2023-03-13 12:32:45

ChatGPT開源

2011-05-06 11:55:41

紅帽PaaS

2014-08-05 16:40:44

密碼泄漏Mozilla火狐開發(fā)者

2011-01-11 11:35:17

jQueryAndroidgoogle

2010-06-09 10:48:51

Linux用戶
點贊
收藏

51CTO技術棧公眾號