自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

130億參數(shù),8個(gè)A100訓(xùn)練,UC伯克利發(fā)布對(duì)話模型Koala

人工智能 新聞
平替再平替,可以在消費(fèi)級(jí) GPU 上運(yùn)行的 Koala 模型能實(shí)現(xiàn) ChatGPT 一半的性能。

自從 Meta 發(fā)布并開(kāi)源了 LLaMA 系列模型,來(lái)自斯坦福大學(xué)、UC 伯克利等機(jī)構(gòu)的研究者們紛紛在 LLaMA 的基礎(chǔ)上進(jìn)行「二創(chuàng)」,先后推出了 Alpaca、Vicuna 等多個(gè)「羊駝」大模型。

羊駝已然成為開(kāi)源社區(qū)的新晉頂流。由于「二創(chuàng)」過(guò)于豐富,生物學(xué)羊駝屬的英文單詞都快不夠用了,但是用其他動(dòng)物的名字給大模型命名也是可以的。

最近,UC 伯克利的伯克利人工智能研究院(BAIR)發(fā)布了一個(gè)可以在消費(fèi)級(jí) GPU 上運(yùn)行的對(duì)話模型 Koala(直譯為考拉)。Koala 使用從網(wǎng)絡(luò)收集的對(duì)話數(shù)據(jù)對(duì) LLaMA 模型進(jìn)行微調(diào)。

圖片

項(xiàng)目地址:?https://bair.berkeley.edu/blog/2023/04/03/koala/?

Koala 已經(jīng)推出線上測(cè)試 demo:

圖片

  • Demo 地址:https://chat.lmsys.org/?model=koala-13b
  • 開(kāi)源地址:https://github.com/young-geng/EasyLM

Koala 概述

與 Vicuna 類似,Koala 也使用從網(wǎng)絡(luò)收集的對(duì)話數(shù)據(jù)對(duì) LLaMA 模型進(jìn)行微調(diào),其中重點(diǎn)關(guān)注與 ChatGPT 等閉源大模型對(duì)話的公開(kāi)數(shù)據(jù)。

研究團(tuán)隊(duì)表示,Koala 模型在 EasyLM 中使用 JAX/Flax 實(shí)現(xiàn),并在配備 8 個(gè) A100 GPU 的單個(gè) Nvidia DGX 服務(wù)器上訓(xùn)練 Koala 模型。完成 2 個(gè) epoch 的訓(xùn)練需要 6 個(gè)小時(shí)。在公共云計(jì)算平臺(tái)上,進(jìn)行此類訓(xùn)練的成本通常低于 100 美元。

研究團(tuán)隊(duì)將 Koala 與 ChatGPT 和斯坦福大學(xué)的 Alpaca 進(jìn)行了實(shí)驗(yàn)比較,結(jié)果表明:具有 130 億參數(shù)的 Koala-13B 可以有效地響應(yīng)各種用戶查詢,生成的響應(yīng)通常優(yōu)于 Alpaca,并且在超過(guò)一半的情況下與 ChatGPT 性能相當(dāng)。

Koala 最重要的意義是它表明:在質(zhì)量較高的數(shù)據(jù)集上進(jìn)行訓(xùn)練,那么小到可以在本地運(yùn)行的模型也可以獲得類似大模型的優(yōu)秀性能。這意味著開(kāi)源社區(qū)應(yīng)該更加努力地管理高質(zhì)量數(shù)據(jù)集,因?yàn)檫@可能比簡(jiǎn)單地增加現(xiàn)有系統(tǒng)的規(guī)模更能實(shí)現(xiàn)安全、真實(shí)和強(qiáng)大的模型。從這個(gè)角度看,Koala 是 ChatGPT 一種小而精的平替。

不過(guò),Koala 還只是一個(gè)研究原型,在內(nèi)容、安全性和可靠性方面仍然存在重大缺陷,也不應(yīng)用于研究之外的任何用途。

數(shù)據(jù)集和訓(xùn)練

構(gòu)建對(duì)話模型的主要障礙是管理訓(xùn)練數(shù)據(jù)。ChatGPT、Bard、Bing Chat 和 Claude 等大型對(duì)話模型都使用帶有大量人工注釋的專有數(shù)據(jù)集。為了構(gòu)建 Koala 的訓(xùn)練數(shù)據(jù)集,研究團(tuán)隊(duì)從網(wǎng)絡(luò)和公共數(shù)據(jù)集中收集對(duì)話數(shù)據(jù)并整理,其中包含用戶公開(kāi)分享的與大型語(yǔ)言模型(例如 ChatGPT)對(duì)話的數(shù)據(jù)。

不同于其他模型盡可能多地抓取網(wǎng)絡(luò)數(shù)據(jù)來(lái)最大化數(shù)據(jù)集,Koala 是專注于收集小型高質(zhì)量數(shù)據(jù)集,包括公共數(shù)據(jù)集中的問(wèn)答部分、人類反饋(正面和負(fù)面)以及與現(xiàn)有語(yǔ)言模型的對(duì)話。具體而言,Koala 的訓(xùn)練數(shù)據(jù)集包括如下幾個(gè)部分:

ChatGPT 蒸餾數(shù)據(jù):?

  • 公開(kāi)可用的與 ChatGPT 對(duì)話數(shù)據(jù)(ShareGPT);
  • Human ChatGPT 比較語(yǔ)料庫(kù) (HC3),其中同時(shí)使用來(lái)自 HC3 數(shù)據(jù)集的人類和 ChatGPT 響應(yīng)。

開(kāi)源數(shù)據(jù):?

  • Open Instruction Generalist (OIG);
  • 斯坦福 Alpaca 模型使用的數(shù)據(jù)集;
  • Anthropic HH;
  • OpenAI WebGPT;
  • OpenAI Summarization。

實(shí)驗(yàn)與評(píng)估

該研究進(jìn)行了一項(xiàng)人工評(píng)估,將 Koala-All 與 Koala-Distill、Alpaca 和 ChatGPT 幾個(gè)模型的生成結(jié)果進(jìn)行比較,結(jié)果如下圖所示。其中,使用兩個(gè)不同的數(shù)據(jù)集進(jìn)行測(cè)試,一個(gè)是斯坦福的 Alpaca 測(cè)試集,其中包括 180 個(gè)測(cè)試查詢(Alpaca Test Set),另一個(gè)是 Koala Test Set。

圖片

總的來(lái)說(shuō),Koala 模型足以展示 LLM 的許多功能,同時(shí)又足夠小,方便進(jìn)行微調(diào)或在計(jì)算資源有限的情況下使用。研究團(tuán)隊(duì)希望 Koala 模型成為未來(lái)大型語(yǔ)言模型學(xué)術(shù)研究的有用平臺(tái),潛在的研究應(yīng)用方向可能包括:

  • 安全性和對(duì)齊:Koala 允許進(jìn)一步研究語(yǔ)言模型的安全性并更好地與人類意圖保持一致。
  • 模型偏差:Koala 使我們能夠更好地理解大型語(yǔ)言模型的偏差,深入研究對(duì)話數(shù)據(jù)集的質(zhì)量問(wèn)題,最終有助于改進(jìn)大型語(yǔ)言模型的性能。
  • 理解大型語(yǔ)言模型:由于 Koala 模型可以在相對(duì)便宜的消費(fèi)級(jí) GPU 上運(yùn)行,并且執(zhí)行多種任務(wù),因此 Koala 使我們能夠更好地檢查和理解對(duì)話語(yǔ)言模型的內(nèi)部結(jié)構(gòu),使語(yǔ)言模型更具可解釋性。
責(zé)任編輯:張燕妮 來(lái)源: 機(jī)器之心
相關(guān)推薦

2023-04-04 13:17:00

GPUCMU開(kāi)源

2023-04-07 13:54:37

模型AI

2023-03-31 13:55:00

模型智能

2023-05-04 14:55:02

模型AI

2025-04-18 08:42:52

模型推理AI

2023-08-05 13:45:46

模型AI

2023-12-16 09:49:18

2024-11-26 13:40:00

2025-01-22 15:21:00

2025-04-30 09:09:00

2024-12-02 08:20:00

2024-03-04 08:15:00

2023-05-26 17:20:29

模型工具

2025-02-11 16:17:42

2023-11-14 07:47:42

IGN擴(kuò)散模型

2024-02-19 13:46:04

多模態(tài)信息LWMtoken

2024-12-18 07:20:00

2025-01-13 00:00:00

訓(xùn)練數(shù)據(jù)模型

2024-02-05 13:28:14

AI音頻虛擬人像

2023-04-11 14:16:53

模型AI
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)