4o-mini只有8B,Claude 3.5 Sonnet有175B,微軟論文「透露」了下頂級模型參數(shù)
剛剛,X 上的一則推文受到了大家的廣泛討論,瀏覽量迅速增長。原來,OpenAI 發(fā)布的 GPT-4o-mini 居然是一個僅有 8B 參數(shù)的模型?
圖源:https://x.com/Yuchenj_UW/status/1874507299303379428
事情是這樣的。就在前幾天,微軟和華盛頓大學合作完成了一篇論文《MEDEC: A BENCHMARK FOR MEDICAL ERROR DETECTION AND CORRECTION IN CLINICAL NOTES 》。
論文地址:https://arxiv.org/pdf/2412.19260
這篇論文主要介紹了一個用于檢測和糾正臨床記錄中醫(yī)療錯誤的公開基準測試 MEDEC1,其包含 3,848 個臨床文本。論文描述了數(shù)據(jù)創(chuàng)建方法,并評估了近期的 LLMs(例如 o1-preview、GPT-4、Claude 3.5 Sonnet 和 Gemini 2.0 Flash)在檢測和糾正需要醫(yī)學知識和推理能力的醫(yī)療錯誤任務(wù)上的表現(xiàn)。
因為要進行實驗,因而在論文實驗部分出現(xiàn)了眾多模型的參數(shù)量,如下所示。
此前,有些模型的參數(shù)量都是未知的,也是大家比較好奇的。
此外,在這部分內(nèi)容底下,微軟還列出了一句聲明「大多數(shù)模型參數(shù)的數(shù)量是估計的」。
通過這張圖,我們不難發(fā)現(xiàn),除了 GPT-4o-mini,大家還發(fā)現(xiàn)了其他模型的大小,比如:
- Claude 3.5 Sonnet: 175B;
- GPT-4: 1.76T;
- GPT-4o: 200B;
- o1-preview: 300B;
- o1-mini: 200B。
結(jié)果部分也是將模型參數(shù)分為多個等級:
但是在這個推文下面大家討論的非常激烈,主要圍繞微軟對模型大小的估計到底準不準確。
前面我們已經(jīng)提到,模型參數(shù)都是估計出來的。因此有網(wǎng)友表示「就算微軟確實知道,但并不代表微軟 99% 的員工都知道?!埂赣?98% 的可能性是他們只是微軟雇傭的研究人員,但與有權(quán)訪問 OpenAI 的團隊沒有任何聯(lián)系?!?/span>
「感覺這些數(shù)字只是作者的猜測,因為他們沒有解釋他們是如何估計的。」不過這位網(wǎng)友強調(diào)的這一點,論文確實說明了參數(shù)是估計的。
還有網(wǎng)友表示這篇論文將 Claude 3.5 Sonnet 估計為 175B 有點扯。
「Claude 不可能只有 175B,我敢打賭它接近這個數(shù)字的兩倍。尤其是自 deepseek-v3 發(fā)布以來,其內(nèi)存大小達到 671B,而 Claude 的表現(xiàn)輕松超越了后者。」
「我敢打賭 4o-mini 是一個 MoE 模型,總共有大約 400 億個參數(shù),可能有 80 億個激活參數(shù)。我發(fā)現(xiàn)它比 80 億個模型擁有更多的知識(當詢問事實時),同時速度相當快。」
還有網(wǎng)友認為這是一個合理的猜測。消息畢竟出自微軟。
討論來討論去,最后的結(jié)論依然是沒有結(jié)論,你怎么看這篇論文給出的數(shù)據(jù)呢?