編輯 | 云昭
出品 | 51CTO技術(shù)棧(微信號(hào):blog51cto)
剛剛,Mistral AI 放大招了!沉寂許久后,這家公司推出了 Mistral Medium 3,這是一款全新級(jí)別的 AI 模型,聲稱能夠平衡SOTA性能和成本效益,同時(shí)在基準(zhǔn)測(cè)試中勝過 Meta 的 Llama 4 Maverick 等競(jìng)爭(zhēng)對(duì)手,成本卻降低了一個(gè)數(shù)量級(jí),甚至低于DeepSeek。
各位不妨速覽一下亮點(diǎn):
- SOTA(當(dāng)前最強(qiáng))性能,在編程、跨模態(tài)理解等專業(yè)場(chǎng)景表現(xiàn)領(lǐng)先
- 成本降低 8 倍
- 更簡(jiǎn)化的部署方式,助力企業(yè)加速應(yīng)用
1.性能與成本的完美平衡,成本低于DeepSeek
該公司在公告中表示,該模型專為企業(yè)部署而設(shè)計(jì),在編碼、STEM 和多模態(tài)任務(wù)方面表現(xiàn)出色。
Mistral Medium 3 在保持前沿性能的同時(shí),將成本降至原來的一個(gè)數(shù)量級(jí)。舉例來說,在各類基準(zhǔn)測(cè)試中,模型整體表現(xiàn)達(dá)到或超過 Claude Sonnet 3.7 的 90%,而成本卻大幅降低(每百萬 tokens 計(jì),輸入 $0.4,輸出 $2)。
在性能上,Mistral Medium 3 同樣超越了領(lǐng)先的開源模型 Llama 4 Maverick,以及企業(yè)級(jí)模型 Cohere Command A。在價(jià)格方面,無論 API 還是自部署,Mistral Medium 3 都優(yōu)于成本控制型模型 DeepSeek v3。
圖片來源:Mistral
此前,其開源模型Mistral Small 3.1剛剛發(fā)布。新模型以 Mistral Small 3 為基礎(chǔ),改進(jìn)了文本性能、多模態(tài)理解能力,并將上下文窗口擴(kuò)展至高達(dá) 128k 個(gè) token。Mistral 聲稱,該模型的性能優(yōu)于 Gemma 3 和 GPT-4o mini 等同類模型,同時(shí)推理速度高達(dá)每秒 150 個(gè) token。
2.專為企業(yè)部署而設(shè)計(jì)
此外,Mistral Medium 3 還可靈活部署于任意云環(huán)境,或企業(yè)自建、配備 4 塊 GPU 及以上的私有服務(wù)器,并支持持續(xù)預(yù)訓(xùn)練和企業(yè)系統(tǒng)集成。該公司報(bào)告稱,金融、能源和醫(yī)療保健領(lǐng)域的早期采用者已將其用于個(gè)性化客戶服務(wù)和復(fù)雜數(shù)據(jù)分析。
據(jù)報(bào)道,盡管該模型規(guī)模適中,但在 API 和自托管格式方面均勝過幾家規(guī)模更大的競(jìng)爭(zhēng)對(duì)手。它只需四個(gè) GPU 即可在系統(tǒng)上運(yùn)行,這使得擁有不同基礎(chǔ)設(shè)施能力的組織更容易部署。
3.編碼任務(wù)優(yōu)秀,超過Llama4
在針對(duì)真實(shí)場(chǎng)景的第三方人工評(píng)估中,Mistral Medium 3 在編碼任務(wù)中表現(xiàn)尤為出色,超越了一些明顯更大的模型。
圖片來源:Mistral
該公司聲稱,在基準(zhǔn)測(cè)試中,Mistral Medium 3 的表現(xiàn)優(yōu)于 Cohere Command A 和Llama 4 Maverick,同時(shí)在 API 和自行部署場(chǎng)景中的定價(jià)上也優(yōu)于 DeepSeek v3。
該模型目前可在 Mistral 自己的平臺(tái)和 Amazon SageMaker 上使用,并且即將在 Azure AI、Google Cloud、IBM WatsonX 和 NVIDIA NIM 上提供支持。
值得注意的是,Mistral 證實(shí)其正在開發(fā)更大的開放模型。
參考鏈接:https://mistral.ai/news/mistral-medium-3