自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

GPT-4最強(qiáng)平替更新!UC伯克利發(fā)布Vicuna v1.5,支持4K和16K上下文,刷新SOTA,LeCun轉(zhuǎn)贊

人工智能 新聞
UC伯克利發(fā)布了新版Vicuna v1.5,基于Llama 2微調(diào)而來(lái),支持4K和16K上下文。不僅支持4K和16K上下文,并且在幾乎所有基準(zhǔn)測(cè)試中取得了SOTA。

GPT-4最強(qiáng)平替更新了!

這次,基于全新的Llama 2,UC伯克利發(fā)布了更新版Vicuna v1.5。

不僅支持4K和16K上下文,并且在幾乎所有基準(zhǔn)測(cè)試中取得了SOTA。

自3月發(fā)布以來(lái),Vicuna已成為最受歡迎的聊天LLM之一。它在多模態(tài)、AI安全和評(píng)估方面的研究具有開(kāi)創(chuàng)性。

上個(gè)月,Vicuna模型在Hugging Face上的下載量超過(guò)了200萬(wàn)次。

LeCun也轉(zhuǎn)發(fā)了基于自家模型搭建的新版Vicuna。

最新模型權(quán)重

Vicuna基于LLaMA,應(yīng)在LLaMA的模型許可下使用。

你可以使用下面的命令開(kāi)始聊天。

它會(huì)自動(dòng)從Hugging Face存儲(chǔ)庫(kù)下載權(quán)重。在下面的「使用命令行界面進(jìn)行推理」部分中查看更多命令選項(xiàng)以及如何處理內(nèi)存不足。

圖片

注意:transformers>=4.31 是16K版本所必需的。

目前,有可試用的demo。

https://chat.lmsys.org/

Vicuna的優(yōu)秀項(xiàng)目

MiniGPT4

地址:https://minigpt-4.github.io

MiniGPT-4的新模型,使用先進(jìn)的大型語(yǔ)言模型Vicuna進(jìn)行調(diào)優(yōu)。

它在文本預(yù)言方面可以達(dá)到ChatGPT的90%。在視覺(jué)感知方面,研究人員還使用了與BLIP-2相同的預(yù)訓(xùn)練視覺(jué)組件。

其中組件由EVA-CLIP的ViT-G/14和Q-Former組成。

MiniGPT-4 只添加了一個(gè)映射層,將編碼的視覺(jué)特征與Vicuna語(yǔ)言模型對(duì)齊,凍結(jié)了所有視覺(jué)和語(yǔ)言組件參數(shù)。

LLaVA

地址:https://llava-vl.github.io

LLaVA是一個(gè)由威斯康星大學(xué)麥迪遜分校、微軟和哥大研究人員共同發(fā)布的多模態(tài)大模型。

該模型結(jié)合了視覺(jué)編碼器和Vicuna對(duì)于通用的視覺(jué)和語(yǔ)言理解。

其能力接近GPT-4的圖文理解能力,相對(duì)于GPT-4獲得了85.1%的相對(duì)得分,并在科學(xué)QA上實(shí)現(xiàn)了當(dāng)前最先進(jìn)的準(zhǔn)確性。

LLM-Attacks

地址:https://llm-attacks.org

CMU和人工智能安全中心的研究人員發(fā)現(xiàn),只要通過(guò)附加一系列特定的無(wú)意義token,就能生成一個(gè)神秘的prompt后綴。

由此,任何人都可以輕松破解LLM的安全措施,生成無(wú)限量的有害內(nèi)容。

有趣的是,這種「對(duì)抗性攻擊」方法不僅突破開(kāi)源系統(tǒng)的護(hù)欄,而且也可以繞過(guò)閉源系統(tǒng),包括ChatGPT、Bard、Claude等。

Gorilla

地址:https://github.com/ShishirPatil/gorilla

Gorilla是一種基于LLaMA架構(gòu)的大型語(yǔ)言模型,它可以生成合適的API調(diào)用。

它在Torch Hub、TensorFlow Hub和HuggingFace等三個(gè)大型機(jī)器學(xué)習(xí)庫(kù)的數(shù)據(jù)集上進(jìn)行了訓(xùn)練。

Gorilla還可以快速添加新的領(lǐng)域知識(shí),包括Kubernetes、GCP、AWS、OpenAPI等。

在零樣本的情況下,Gorilla的表現(xiàn)優(yōu)于GPT-4、ChatGPT和Claude等模型。

QLoRA

地址:https://github.com/artidoro/qlora

華盛頓大學(xué)的研究人員首次證明,在不損失模型性能的前提下,也可以微調(diào)量化的4位模型。

他們提出的新方法QLoRA,使用一種新的高精度技術(shù)將預(yù)訓(xùn)練模型量化為4位,然后添加一小部分可學(xué)習(xí)的低秩適配器權(quán)重。

這些適配器權(quán)重通過(guò)量化權(quán)重的反向傳播梯度進(jìn)行調(diào)整。

QLoRA方法證明了4位量化模型也可以進(jìn)行有效的微調(diào),達(dá)到與全精度模型相當(dāng)?shù)男阅堋?/span>

ToolLLaMA

地址:https://github.com/OpenBMB/ToolBench

ToolLLM這個(gè)項(xiàng)目,是為了構(gòu)建開(kāi)源、大規(guī)模、高質(zhì)量的指令調(diào)優(yōu)SFT數(shù)據(jù)集,以促進(jìn)構(gòu)建具有通用工具使用能力的強(qiáng)大語(yǔ)言模型。

研究人員表示,開(kāi)源LLM能夠掌握數(shù)千種不同的現(xiàn)實(shí)世界API,并通過(guò)收集高質(zhì)量的指令調(diào)優(yōu)數(shù)據(jù)集來(lái)實(shí)現(xiàn)這一點(diǎn)。

責(zé)任編輯:張燕妮 來(lái)源: 新智元
相關(guān)推薦

2024-04-07 00:45:00

開(kāi)源模型

2024-03-25 08:30:00

AI數(shù)據(jù)

2023-05-31 16:15:51

模型圖像

2024-04-01 00:00:00

馬斯克Grok 1.5HumanEval

2024-11-26 13:40:00

2024-02-19 13:46:04

多模態(tài)信息LWMtoken

2023-07-01 13:27:55

2023-05-04 14:55:02

模型AI

2023-11-17 18:06:15

2023-06-28 18:10:27

羊駝家族大模型集體進(jìn)化

2023-05-16 13:32:23

模型排行

2023-08-29 12:45:32

2023-04-04 13:17:00

GPUCMU開(kāi)源

2025-04-17 14:11:10

視覺(jué)AI模型

2023-07-15 23:54:57

GPT-4AI谷歌

2023-10-18 13:30:00

AI模型

2023-04-07 13:54:37

模型AI

2023-05-19 10:16:27

AIGPT-4

2024-04-12 17:41:28

GPT-4TurboClaude

2023-08-15 14:18:19

智能研究
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)