微軟:GPT-4o-mini只有8B,o1-mini僅100B
關(guān)于主流閉源LLM的參數(shù)規(guī)模一直討論不斷,在2024年最后2天來自微軟的一篇關(guān)于檢測(cè)和糾正臨床筆記中醫(yī)療錯(cuò)誤的測(cè)試基準(zhǔn)MEDEC的研究一不小心直接漏了它們的參數(shù)規(guī)模:o1-preview, GPT-4,GPT-4o和Claude 3.5 Sonnet。
- Claude 3.5 Sonnet(2024-10-22),~175B
- ChatGPT,~175B
- GPT-4,約1.76T
- GPT-4o,~200B
- GPT-4o-mini(gpt-4o-2024-05-13)只有8B
- 最新的o1-mini(o1-mini-2024-09-12)僅100B
- o1-preview(o1-preview-2024-09-12)~300B
實(shí)驗(yàn)部分也是將大模型參數(shù)規(guī)模分為3擋:7-8B,~100-300B,~1.7T,而GPT-4o-mini被分在第一檔,只有8B著實(shí)讓人有點(diǎn)不可思議~
PromptWizard 概述
https://arxiv.org/pdf/2412.19260v1
MEDEC: A BENCHMARK FOR MEDICAL ERROR DETECTION AND CORRECTION IN CLINICAL NOTES
本文轉(zhuǎn)載自??PaperAgent??
已于2025-1-2 15:42:52修改
贊
收藏
回復(fù)
分享
微博
QQ
微信
舉報(bào)

回復(fù)
相關(guān)推薦