自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

一次通過率73%,開源代碼大模型WizardCoder超越最新GPT-4以外所有閉/開源模型

開發(fā)
除了最新 API 的 GPT-4(該團隊測試后得到的結(jié)果是 82.0%),該模型超越了所有閉源和開源模型,包括最新 API 的 ChatGPT(72.5%)和原始 GPT-4(67%)。

這幾天,代碼大模型領(lǐng)域又熱鬧了起來!

先是 Meta 開源代碼專用大模型 Code Llama,且免費商用。效果也非常好,Code Llama 在 HumanEval 和 MBPP 代碼數(shù)據(jù)集上的一次生成通過率(pass@1)輕松超越 GPT-3.5,其中「Unnatural」版本的 pass@1 逼近了原始 GPT-4(OpenAI 在今年 3 月 GPT-4 技術(shù)報告中的數(shù)據(jù))。

Code Llama 發(fā)布僅一天,來自 Phind 組織的研究人員用微調(diào)的 Code Llama-34B 在 HumanEval 評估中擊敗了 GPT-4。他們的兩個模型 Phind-CodeLlama-34B-v1 以及 Phind-CodeLlama-34B-Python-v1 在 HumanEval 分別實現(xiàn) 67.6% 和 69.5% 的 pass@1,顯然都超越了原始 GPT-4 的 67%。

不過,僅僅又過了一天,Phind 微調(diào)版 Code Llama 又迎來了一個強勁的對手。這次是 WizardLM 團隊的編程專用大模型 WizardCoder。

該團隊推出了基于 Code Llama 的最新版本模型 WizardCoder 34B,它利用 Evol-Instruct 進行微調(diào)而成。

結(jié)果顯示,它在 HumanEval 上的 pass@1 達到了驚人的 73.2%,超越了原始 GPT-4、ChatGPT-3.5 以及 Claude 2、Bard。此外,WizardCoder 13B 和 7B 版本也將很快到來。

  • GitHub 地址:https://github.com/nlpxucan/WizardLM/tree/main/WizardCoder
  • Huggingface:https://huggingface.co/WizardLM/WizardCoder-Python-34B-V1.0

此次具體版本是 WizardCoder-Python-34B-V1.0,下圖是與主流閉源和開源模型的 HumanEval pass@1 比較。除了最新 API 的 GPT-4(該團隊測試后得到的結(jié)果是 82.0%),該模型超越了所有閉源和開源模型,包括最新 API 的 ChatGPT(72.5%)和原始 GPT-4(67%)。

因此,WizardCoder-Python-34B-V1.0 成為了最新的 SOTA 開源代碼大模型。

WizardLM 團隊還表示,WizardCoder-Python-34B-V1.0 的性能百分之百是可以復(fù)現(xiàn)的。

想要體驗 WizardCoder-Python-34B-V1.0 的小伙伴可以嘗試以下 demo。

demo 地址:http://47.103.63.15:50085/

有人表示,在試了 demo 后發(fā)現(xiàn),提供準確代碼之前似乎有 COT(思維鏈)在起作用,這非常棒。

還有人表示,WizardCoder-Python-34B-V1.0 要比 GPT-4 犯的錯更少。

不過運行 WizardCoder-Python-34B-V1.0 需要 32GB 以上的 mac。

WizardLM 團隊會帶來更多驚喜

WizardCoder 在成為代碼家族一員已經(jīng)不是新鮮事,但是 WizardLM 團隊每次都會給大家?guī)聿灰粯拥捏@喜。

斯坦福發(fā)布的大語言模型排行榜 AlpacaEval 是一種基于 LLM 的全自動評估基準,且更加快速和可靠。很多著名的模型如 GPT-4、ChatGPT 等都在其上刷榜單。在這其中,WizardLM 13B V1.2 依舊在第六位。

WizardLM 是由 Can Xu 等人在 2023 年 4 月提出的一個能夠根據(jù)復(fù)雜指令生成文本的大型語言模型。它使用了一個名為 Evol-Instruct 的算法來生成和改寫指令數(shù)據(jù),從而提高了指令的復(fù)雜度和多樣性。 WizardLM 共有三個版本:7B、13B 和 30B。

WizardLM 推出的指令微調(diào)代碼大模型 ——WizardCoder,更是打破了閉源模型的壟斷地位,在 HumanEval 和 HumanEval + 上優(yōu)于 Anthropic 的 Claude 和 Google 的 Bard。

更值得一提的是,WizardCoder 還大幅度地提升了開源模型的 SOTA 水平,創(chuàng)造了驚人的進步,提高了 22.3% 的性能,成為了開源領(lǐng)域的新晉「領(lǐng)頭羊」。

以下為 WizardLM 團隊在 GitHub 上發(fā)布的諸多模型,這些模型是該團隊不斷創(chuàng)新、改進的足跡。

WizardLM 團隊在 WizardLM 與 WizardCoder 之后,還在今年八月中旬公布了 WizardMath。該團隊還發(fā)推文表示,自己一直在致力于解決各個學科復(fù)雜的問題。

那么未來 WizardLM 團隊還會帶給我們怎樣的驚喜,讓我們拭目以待。

責任編輯:趙寧寧 來源: 大模型
相關(guān)推薦

2023-09-11 15:57:16

人工智能模型GPT-4

2024-01-19 12:51:00

AI數(shù)據(jù)

2023-11-13 19:35:12

訓練數(shù)據(jù)

2023-09-19 14:56:00

模型訓練

2023-07-28 16:35:26

代碼模型

2024-09-06 13:00:29

2024-04-22 08:40:00

LLM模型開源

2024-04-19 14:52:13

MetaGPT-4模型

2024-02-06 17:55:10

2024-01-30 21:18:57

模型智能CMMLU

2023-10-08 13:11:00

訓練數(shù)據(jù)

2023-06-19 19:26:54

模型開源

2024-04-23 13:37:00

數(shù)據(jù)訓練

2024-04-19 09:17:33

AI模型

2024-02-07 12:34:00

模型數(shù)據(jù)

2024-07-02 13:25:22

2023-04-20 14:43:38

Linux模型GPT4

2023-09-19 13:48:31

AI數(shù)據(jù)

2023-10-21 12:42:06

數(shù)據(jù)模型

2023-11-15 09:23:00

模型AI
點贊
收藏

51CTO技術(shù)棧公眾號