自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Meta LLaMA 4:對抗 GPT-4o 與 Claude 的開源王牌

人工智能
在訓練過程中,系統(tǒng)最多可同時處理 48 張圖像;而在后續(xù)評估中,模型在處理多達 8 張圖像的輸入時,亦展現(xiàn)出穩(wěn)定而強勁的視覺理解性能。

2025 年 4 月,Meta 正式發(fā)布了 LLaMA 4 系列的首批兩款模型。

這兩款模型模型分別是:LLaMA 4 Scout 與 LLaMA 4 Maverick,均采用了 專家混合架構(Mixture-of-Experts, MoE)。

據(jù) Meta 表示,這是首次有 LLaMA 模型實現(xiàn) 文字與圖像的統(tǒng)一處理能力,具備真正意義上的多模態(tài)理解。

據(jù)悉,在訓練過程中,系統(tǒng)最多可同時處理 48 張圖像;而在后續(xù)評估中,模型在處理多達 8 張圖像的輸入時,亦展現(xiàn)出穩(wěn)定而強勁的視覺理解性能。

圖片圖片

LLaMA 4 系列:有哪些新突破?

Meta 于本次 LLaMA 4 發(fā)布中亮相了兩款全新模型:

1. LLaMA 4 Scout

這是一款輕量卻不失強勁性能的模型,專為在單張 NVIDIA H100 GPU 上高效運行而優(yōu)化,尤為適合科研人員與中小型企業(yè)應用。

  • 擁有 1000 萬詞元(token)的超長上下文窗口,遠遠領先于多數(shù)現(xiàn)有開源大語言模型。
  • 在推理、摘要生成與指令遵循等標準評測中,全面超越 Google 的 Gemma 3 與 Mistral 3.1。

2.LLaMA 4 Maverick

這款大型模型則劍指當前語言模型的重量級選手,如 GPT-4o、Claude 3.5 與 DeepSeek-V3。

  • 精于代碼生成、多跳推理與高級搜索任務。
  • 采用 專家混合機制(Mixture-of-Experts, MoE),僅激活部分參數(shù)進行計算,在保持卓越表現(xiàn)的同時顯著提升效率。

架構與創(chuàng)新亮點

兩款模型皆構建于全新的 Transformer 2.0 架構之上,并在多個關鍵維度進行了深度優(yōu)化:

  • 專家混合機制(MoE):每次前向傳播僅激活部分模型參數(shù),有效降低計算開銷,同時不犧牲性能。
  • 詞元流式處理與預測解碼(Speculative Decoding):顯著提升推理速度。
  • 超長上下文窗口(Scout 模型支持高達 1000 萬詞元):可處理超大文檔或多輪對話,效率倍增。
  • 多語言支持全面升級:在阿拉伯語、烏爾都語、西班牙語與中文等語言上的表現(xiàn)有了飛躍性提升。

圖片圖片

Scout 在輕量級模型領域中一騎絕塵,而 Maverick 則在與 GPT-4o 和 Claude 等頂尖模型的競爭中依然鋒芒不減。

走向現(xiàn)實:LLaMA 4 的真實應用場景

Meta 推出的 LLaMA 4 不僅是科研成果的展示,更已廣泛融入旗下多個核心產(chǎn)品:

  • WhatsApp:用于客戶支持和智能回復
  • Messenger:實現(xiàn) AI 內(nèi)容摘要和上下文感知的消息交互
  • Instagram:應用于標題推薦、評論過濾與智能搜索
  • Meta.ai(網(wǎng)頁版):面向公眾開放的 AI 聊天助手,功能類似 ChatGPT 或 Claude.ai

開源”的邊界:開放,還是有限開放?

盡管 Meta 將 LLaMA 4 宣傳為“開源模型”,其使用許可仍存在一定限制:

  • 月活躍用戶超過 7 億的企業(yè) 無權使用該模型
  • 開源倡議組織(OSI) 批評其為“半開源”,因其限制了商業(yè)化的自由擴展
  • 不過,學術界和獨立研究者 仍可訪問,意味著 AI 發(fā)展的透明度正朝積極方向邁進

下一站:LLaMA 4 Behemoth 即將登場

Meta 的發(fā)展藍圖中,還包括一款更具突破性的全新模型 —— LLaMA 4 Behemoth(巨獸)。

亮點一覽:

  • 采用 專家混合架構(Mixture-of-Experts),在每次推理中僅啟用部分模型參數(shù)
  • 總參數(shù)規(guī)模高達 2 萬億,每次推理激活參數(shù)約 2880 億
  • 聚焦科學、數(shù)學、多語言推理與代碼生成等高復雜度任務
  • 有望在 STEM 領域的基準測試中超越 GPT-4.5 與 Claude Sonnet 3.7
  • 預計將在 2025 年 4 月 29 日的 LLaMACon(Meta 首屆開源 AI 大會)上正式發(fā)布

背后的雄心:打造 AI 基礎設施層

Meta 對人工智能的投入愈發(fā)激進,未來兩年預計投資將高達 650 億美元。

這不僅是對市場的回應,更體現(xiàn)出其打造“互聯(lián)網(wǎng) AI 基礎設施層”的宏偉愿景。

LLaMA 4 的推出,標志著 Meta 不只是要與 OpenAI 和 Google 分庭抗禮,更要在開源領域取得主導地位。

LLaMA 4 系列的發(fā)布,堪稱開源 AI 生態(tài)的一次重大飛躍。

憑借其在效率、規(guī)模與可用性上的平衡,Meta 正在賦能全球開發(fā)者、初創(chuàng)企業(yè)與研究人員。

盡管許可政策仍有爭議,但 Scout 與 Maverick 的技術實力已贏得廣泛認可。

隨著 LLaMA 4 Behemoth 的臨近發(fā)布,以及 4 月 29 日 LLaMACon 的召開,

2025 正逐步成為“超級開源模型元年”,而 Meta,顯然已成為這場變革的領跑者。

via https://ai.plainenglish.io/metas-llama-4-series-10-million-context-length-is-here-pushing-the-frontier-of-open-source-ai-744c637084ae

責任編輯:武曉燕 來源: 大數(shù)據(jù)文摘
相關推薦

2024-06-21 09:51:17

2024-06-05 08:29:35

2024-05-21 12:23:17

2024-10-06 09:00:00

AI訓練數(shù)據(jù)

2024-07-24 13:18:17

2024-05-17 09:35:55

GPT-4o模型OpenAI

2024-05-20 08:20:00

OpenAI模型

2024-06-21 09:58:38

2025-01-06 13:15:02

2024-08-14 14:30:00

AI訓練

2024-06-28 18:13:05

2024-07-16 13:24:38

2024-06-05 13:09:26

2024-05-24 14:04:04

2023-09-11 15:57:16

人工智能模型GPT-4

2024-05-14 19:16:52

ChatGPTGPT-4oOpenAI

2025-04-15 08:01:12

2025-04-16 09:15:00

AI模型數(shù)據(jù)

2024-05-15 09:58:06

谷歌大模型

2024-06-24 12:25:22

點贊
收藏

51CTO技術棧公眾號