自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

GPT-4o mini實力霸榜,限時2個月微調不花錢!每天200萬訓練token免費薅

人工智能
Llama 3.1 405B巨獸開源的同時,OpenAI又搶了一波風頭。從現(xiàn)在起,每天200萬訓練token免費微調模型,截止到9月23日。

Llama 3.1開源的同一天,OpenAI也open了一回。

圖片圖片

GPT-4o mini可以免費微調了,每天暢用200萬訓練token,限時2個月(截止9月23日)。

圖片圖片

收到郵件的開發(fā)者們激動地奔走相告,這么大的羊毛一定要趕快薅。

圖片圖片

另一邊,GPT-4o mini在大模型競技場LMSYS排名也出來了。

總榜單中,GPT-4o mini與GPT-4o并列第一。

圖片圖片

Altman本尊激動地表示,我從未對任何一次評估如此興奮過,GPT-4o mini與GPT-4o性能如此接近,而價格僅有其1/20!

圖片圖片

同時,他表示,GPT-4o mini的微調現(xiàn)在上線了。

圖片圖片

OpenAI能把如此強大的模型,放出來讓大家免費用,實在是出人意料。

網(wǎng)友一度以為,這可能是最高級的釣魚郵件。

圖片圖片

每天200萬token,GPT-4o mini免費微調

郵件中,OpenAI宣布現(xiàn)正式推出GPT-4o mini微調功能,為的是讓最新小模型在特定用例上,表現(xiàn)更加出色。

7月23日-9月23日期間,開發(fā)者們每天可以免費使用200萬訓練token。

圖片圖片

超過的部分,將會按3美元百萬token收費。

到了2個月免費使用截止后,微調訓練也將按照3美元百萬token收費。

圖片圖片

此外,OpenAI在郵件中給出了,每個人值得從GPT-3.5 Turbo切換到GPT-4o mini的原因:

- 更實惠:GPT-4o mini的輸入Token費用比GPT-3.5 Turbo低90%,輸出Tokens費用低80%。即使在免費期結束后,GPT-4o mini的訓練成本也比GPT-3.5 Turbo低一半。

圖片圖片

- 更長的上下文:GPT-4o mini的訓練上下文長度為65k Token,是GPT-3.5 Turbo的4倍,推理上下文長度為128k Token,是GPT-3.5 Turbo的8倍。

- 更聰明且更有能力:GPT-4o mini比GPT-3.5 Turbo更聰明,并且支持視覺功能(盡管目前微調僅限于文本)。

圖片圖片

最后,郵件中還提到,GPT-4o mini微調功能將向企業(yè)客戶,以及Tier 4和Tier 5開發(fā)者開放,未來將逐漸擴大訪問權限,擴展至所有級別的用戶。

圖片圖片

想要動手操作的小伙伴們,OpenAI已經(jīng)放出了微調指南,可參見:

https://platform.openai.com/docs/guides/fine-tuning/fine-tuning-examples

圖片圖片

一部分網(wǎng)友對此并不看好,他們正在保存我們的數(shù)據(jù),來訓練和改進AI模型。

圖片圖片

「又名,把你的私人數(shù)據(jù)給我,我會收你很少的錢」。

圖片圖片

網(wǎng)友用例

拿到資格的網(wǎng)友,已經(jīng)迫不及待上手測試了。

開發(fā)者使用《經(jīng)濟學人》風格的頭條數(shù)據(jù)集,對gpt-4o mini進行了微調。

圖片圖片

圖片圖片

然后,他比較了gpt-4o、gpt-4o min原始模型和微調后的模型在生成頭條方面的表現(xiàn)。

圖片圖片

小模型霸榜,堪比GPT-4o

GPT-4o mini發(fā)布一周后,在大模型排行榜中的成績終于出來了。

共收到了4K+用戶投票,GPT-4o mini小模型直接攀升至榜首,與GPT-4o并列第一。

最最重要的是,便宜20倍!

圖片圖片

這對于眾多開發(fā)者來說,是個好消息,能夠以更低的成本,搭建更強大的應用。

圖片圖片

在數(shù)學細分領域中,GPT-4o mini的性能有所下降,排在第9。

圖片圖片

此外,在hard prompt評測中,GPT-4o mini依舊保持了穩(wěn)健的性能,實力僅次于GPT-4o、Claude 3.5 Sonnet。

圖片圖片

在編碼領域,GPT-4o mini同樣展現(xiàn)出強大的能力。

圖片圖片

關于GPT-4o mini在Arena中排名如此高的原因,很多人提出了疑問。

圖片圖片

官方對此解釋是:

- Chatbot Arena根據(jù)不同領域的人類偏好進行評估。鼓勵大家不僅關注總排行榜,還要查看各個類別的排名(如數(shù)學、編碼等)。

- Arena評估是實時進行的。鼓勵大家在Arena中親自對比模型,實時驗證自己的假設。

- 透明性是我們的核心價值;所有代碼和分析都是開源的(http://github.com/lm-sys/FastChat)。我們定期發(fā)布20%的數(shù)據(jù),保留其余數(shù)據(jù)以避免過擬合,維護基準測試的完整性。

- 我們將根據(jù)政策發(fā)布隨機的20% GPT-4o mini對戰(zhàn)數(shù)據(jù),大家可以親自查看答案。

不過,另有網(wǎng)友認為,gpt-4o-mini的勝利是一個實質性的證據(jù),證明了普通人并不那么聰明。

而且,這是歷史上首次,AI變得足夠聰明可以愚弄我們。有點瘋狂,也有點具有歷史意義。

圖片圖片

圖片圖片

參考資料:

https://x.com/moyix/status/1815840634013639086

https://x.com/HamelHusain/status/1815848198927434019

https://x.com/sama/status/1815877987696533897

https://x.com/0xSMW/status/1815869241205350641


責任編輯:武曉燕 來源: 新智元
相關推薦

2024-08-21 14:47:00

2024-07-24 12:40:44

2024-05-30 13:13:43

2024-07-22 15:13:24

2024-12-30 15:15:07

2024-07-19 12:43:34

2024-05-21 12:23:17

2024-06-05 08:29:35

2024-06-21 09:58:38

2024-09-29 13:07:16

2024-05-14 19:16:52

ChatGPTGPT-4oOpenAI

2025-04-15 08:01:12

2024-05-24 14:04:04

2025-04-08 02:26:00

2024-05-28 08:25:09

2024-05-14 08:23:27

GPT-4oAI技術

2024-06-21 09:51:17

2024-05-15 07:54:12

GPT-4oAI助手人工智能

2024-05-20 08:50:00

模型神經(jīng)網(wǎng)絡

2024-09-23 15:10:00

點贊
收藏

51CTO技術棧公眾號