自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

4o-mini只有8B,Claude 3.5 Sonnet有175B,微軟論文「透露」了下頂級模型參數(shù)

人工智能 新聞
這篇論文主要介紹了一個用于檢測和糾正臨床記錄中醫(yī)療錯誤的公開基準測試 MEDEC1,其包含 3,848 個臨床文本。論文描述了數(shù)據(jù)創(chuàng)建方法,并評估了近期的 LLMs(例如 o1-preview、GPT-4、Claude 3.5 Sonnet 和 Gemini 2.0 Flash)在檢測和糾正需要醫(yī)學知識和推理能力的醫(yī)療錯誤任務(wù)上的表現(xiàn)。

剛剛,X 上的一則推文受到了大家的廣泛討論,瀏覽量迅速增長。原來,OpenAI 發(fā)布的 GPT-4o-mini 居然是一個僅有 8B 參數(shù)的模型?


圖片

圖源:https://x.com/Yuchenj_UW/status/1874507299303379428

事情是這樣的。就在前幾天,微軟和華盛頓大學合作完成了一篇論文《MEDEC: A BENCHMARK FOR MEDICAL ERROR DETECTION AND CORRECTION IN CLINICAL NOTES 》。

圖片論文地址:https://arxiv.org/pdf/2412.19260

這篇論文主要介紹了一個用于檢測和糾正臨床記錄中醫(yī)療錯誤的公開基準測試 MEDEC1,其包含 3,848 個臨床文本。論文描述了數(shù)據(jù)創(chuàng)建方法,并評估了近期的 LLMs(例如 o1-preview、GPT-4、Claude 3.5 Sonnet 和 Gemini 2.0 Flash)在檢測和糾正需要醫(yī)學知識和推理能力的醫(yī)療錯誤任務(wù)上的表現(xiàn)。

因為要進行實驗,因而在論文實驗部分出現(xiàn)了眾多模型的參數(shù)量,如下所示。

圖片

此前,有些模型的參數(shù)量都是未知的,也是大家比較好奇的。

此外,在這部分內(nèi)容底下,微軟還列出了一句聲明「大多數(shù)模型參數(shù)的數(shù)量是估計的」。

圖片

通過這張圖,我們不難發(fā)現(xiàn),除了 GPT-4o-mini,大家還發(fā)現(xiàn)了其他模型的大小,比如:

  • Claude 3.5 Sonnet: 175B;
  • GPT-4: 1.76T;
  • GPT-4o: 200B;
  • o1-preview: 300B;
  • o1-mini: 200B。

結(jié)果部分也是將模型參數(shù)分為多個等級:

圖片

但是在這個推文下面大家討論的非常激烈,主要圍繞微軟對模型大小的估計到底準不準確。

前面我們已經(jīng)提到,模型參數(shù)都是估計出來的。因此有網(wǎng)友表示「就算微軟確實知道,但并不代表微軟 99% 的員工都知道?!埂赣?98% 的可能性是他們只是微軟雇傭的研究人員,但與有權(quán)訪問 OpenAI 的團隊沒有任何聯(lián)系?!?/span>

圖片


圖片

「感覺這些數(shù)字只是作者的猜測,因為他們沒有解釋他們是如何估計的。」不過這位網(wǎng)友強調(diào)的這一點,論文確實說明了參數(shù)是估計的。

圖片

還有網(wǎng)友表示這篇論文將 Claude 3.5 Sonnet 估計為 175B 有點扯。

圖片

「Claude 不可能只有 175B,我敢打賭它接近這個數(shù)字的兩倍。尤其是自 deepseek-v3 發(fā)布以來,其內(nèi)存大小達到 671B,而 Claude 的表現(xiàn)輕松超越了后者。」

圖片

「我敢打賭 4o-mini 是一個 MoE 模型,總共有大約 400 億個參數(shù),可能有 80 億個激活參數(shù)。我發(fā)現(xiàn)它比 80 億個模型擁有更多的知識(當詢問事實時),同時速度相當快。」

圖片

還有網(wǎng)友認為這是一個合理的猜測。消息畢竟出自微軟。

圖片

討論來討論去,最后的結(jié)論依然是沒有結(jié)論,你怎么看這篇論文給出的數(shù)據(jù)呢?

責任編輯:張燕妮 來源: 機器之心
相關(guān)推薦

2025-01-02 11:00:34

2024-06-03 10:43:34

2025-04-23 15:25:27

語言模型Eagle 2.5英偉達

2024-10-06 09:00:00

AI訓練數(shù)據(jù)

2024-06-21 09:58:38

2024-12-09 08:00:00

AI大模型人工智能

2024-12-27 10:27:58

2025-01-22 16:57:32

字節(jié)跳動豆包大模型

2025-01-02 13:00:00

2025-01-16 16:39:44

2024-06-21 09:51:17

2024-10-17 18:52:41

2024-06-17 18:04:38

2024-10-17 13:30:00

2025-02-10 00:00:01

2024-06-24 12:25:22

2024-07-24 11:30:04

2025-01-10 14:15:02

2025-03-25 09:04:55

2024-12-26 14:42:23

點贊
收藏

51CTO技術(shù)棧公眾號