Llama4 剛開源就要被網(wǎng)友玩壞了!
Llama4(家族)發(fā)布并重回開源榜Top1,我梳理了Llama4第一手效果實(shí)測(cè)(編碼、多模態(tài)、長(zhǎng)上下文,啥啥都不行?)、本地部署、體驗(yàn)link:
一、Llama 4實(shí)測(cè)(真是水平如何)
- strawberry中有幾個(gè)r,回答:2個(gè)R
- 9.9與9.11哪個(gè)大
- “Llama 4”反著輸出結(jié)果:4 amallL
- 表格抽取,extractSwin-T/TNT-S、Transformer 's Throughput
- Llama 4給出了SwinV2-T的結(jié)果
- Llama 4編程,Llama 4 Maverick——Python六邊形測(cè)試失敗
- 來自karminski的Llama 4編程能力真是總結(jié):402B的Llama-4-maverick相當(dāng)于QwQ-32B水平,選DeepSeek-V3-0324更香。
- Llama4編程評(píng)測(cè)排名
- Llama4長(zhǎng)上下文深度理解效果is bad
更多信息:《動(dòng)手設(shè)計(jì)AI Agents:CrewAI版》、《高級(jí)RAG之36技》、新技術(shù)實(shí)戰(zhàn):Manus+MCP/GRPO+Agent/Lazy-GraphRAG、大模型日?qǐng)?bào)/月報(bào)、最新技術(shù)熱點(diǎn)追蹤(GPT4-o/數(shù)字人/MCP/Gemini 2.5 Pro)
二、Llama 4部署(自己本地)
網(wǎng)友整理了Llama 4三個(gè)不同尺寸模型本地部署所需要的資源,僅3臺(tái)512GB的M3 Ultra就本地?fù)碛幸粋€(gè)2T參數(shù)的Llama 4 Behemoth多模態(tài)模型,沖!
三、Llama 4體驗(yàn)link(不想本地,還想免費(fèi)玩)
英偉達(dá):??https://build.nvidia.com/meta/llama-4-maverick-17b-128e-instruct??
OpenRouter:??https://openrouter.ai/chat?models=meta-llama/llama-4-maverick:free??
競(jìng)技場(chǎng):https://lmarena.ai/ -> llama-4-maverick-03-26-experimental
抱抱臉:??https://huggingface.co/spaces/openfree/Llama-4-Maverick-17B-Research??
https://x.com/sagnikPatra19/status/1908974601566138581
llama4 code: https://x.com/karminski3/status/1909029187392086221
code: https://aider.chat/docs/leaderboards/
llama4 長(zhǎng)上下文: https://www.reddit.com/r/singularity/comments/1jsxpjc/fictionlivebench
本文轉(zhuǎn)載自??PaperAgent??,作者:PaperAgent
