自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Meta坐不住了!高管辟謠:Llama4沒刷榜!訓練沒有使用測試集!模型穩(wěn)定實現(xiàn)需要時間,bug正在修

原創(chuàng) 精選
人工智能
昨日,Llama 4收到許多網友實測后的“差評”,加之自稱內部員工的人在國內論壇上爆料Meta作弊,一時間流言四起。

編輯 | 伊風

出品 | 51CTO技術棧(微信號:blog51cto)

Meta的辟謠來了!——沒刷榜、模型穩(wěn)定部署需要時間。

昨日,Llama 4收到許多網友實測后的“差評”,加之自稱內部員工的人在國內論壇上爆料Meta作弊,一時間流言四起。

這下Meta的高管們坐不住了,今天Meta 的生成式 AI 副總裁 Ahmad Al-Dahle在X平臺上表示該傳言“完全不屬實”,他先是象征性地夸了一句Llama 4,然后話鋒一轉開始辟謠:

“話雖如此,我們也收到了關于在不同服務中模型表現(xiàn)質量不一的反饋。由于我們在模型一準備好就立即發(fā)布了,所以我們預計各個平臺的公開實現(xiàn)需要幾天時間才能完全穩(wěn)定下來。我們會繼續(xù)修復 bug 并幫助合作伙伴完成接入。


關于有人聲稱我們在訓練中使用了測試集——這完全不屬實,我們絕不會那樣做。我們最合理的理解是,大家目前遇到的質量差異,主要是因為模型的具體實現(xiàn)還需要進一步穩(wěn)定?!?/span>

圖片圖片

評論區(qū)中,一些網友表示了理解,認為模型在各個平臺有些邊緣情況需要修bug很正常。

圖片圖片

也有網友對這波辟謠表示質疑,“沒見過其他模型需要搞‘穩(wěn)定實施’的”。

圖片圖片

有人補充說,可能與Llama 4新引入的一些技術有關。

圖片圖片

話說回來,Llama 4“作弊”傳聞能持續(xù)發(fā)酵,Meta自身要背負很大的責任。

在報告中,Meta 使用了一個“實驗性的、未公開發(fā)布”的 Maverick 版本參加 LM Arena 基準測試,進一步助長了傳言。

在圖表中,他們甚至備注了這個Maverick是做過對話場景優(yōu)化的。

圖片圖片

這無異于為Llama 4此后的各種流言和猜測埋下了一枚懷疑的種子。

傳聞開始:Meta內部員工稱,領導建議在后訓中使用benchmark測試集

討論最初由“一畝三分地”論壇(該論壇專注于留學和求職的社區(qū)平臺,在北美華人圈很有影響力)上的一篇帖子引發(fā),發(fā)帖人自稱是參與 Llama 4 訓練的內部員工,并表示因此已辭職。

經過反復訓練,其實內部模型的表現(xiàn)依然未能達到開源SOTA,甚至與之相差甚遠。公司領導層建議將各個benchmark的測試集混合在post-training過程中,目的是希望能夠在各項指標上交差,拿出一個“看起來可以的結果“。

圖片圖片

原貼地址可移步:https://www.1point3acres.com/bbs/thread-1122600-1-1.html

然而,評論區(qū)出現(xiàn)了Meta員工,邀請“實名對線”。也有人指出“最近離職的VP根本不參與模型訓練”等細節(jié)漏洞,讓貼主爆料中的真實性受到懷疑。

圖片圖片

有人進一步指出發(fā)帖人的矛盾之處:如果deadline是網友所爆料的4月底,何必在4月初就發(fā)布摻假的結果呢?

圖片圖片

盡管如此,因為Llama 4的實測表現(xiàn)真的很水,這個傳言暗合了許多人的心理預期。讓Meta的這個負面消息在未證實的情況下,就廣泛的傳播開了。

Meta給出的模型效果不一致,網友實測很失望

昨日,外媒TechCrunch 也發(fā)表文章,直接指出 Meta 新 AI 模型的性能測試“有些誤導”。

“看起來,Meta 部署到 LM Arena 的 Maverick 版本,與開發(fā)者可廣泛訪問的版本并不相同?!?/span>

X上的研究人員也發(fā)現(xiàn),Meta 可能為基準評測而優(yōu)化了模型的“人設”,甚至不惜犧牲客觀性來博好感。他在實測分享時說“Llama 4絕對被烹飪過頭了”。

圖片圖片

他用來測試GPT 4o和Llama 4的問題很簡單:“AI領域工作的Nathan Lambert(博主自己)是誰?”

圖片圖片

GPT的回答相當中肯、理性:

目前,沒有廣為人知、在人工智能領域具有代表性的重要人物叫 Nathan Lambert,他不像 Geoffrey Hinton、Yann LeCun 或 Fei-Fei Li 那樣出名。

但確實有一位名為 Nathan Lambert, PhD 的研究者,專注于機器學習和 AI 相關領域。

而Llama 4則立即開啟了瘋狂話癆模式,在輸出冗長的簡歷后不忘強調“他是該領域最具影響力的人之一。”

一些網友甚至吐槽Llama 4要比Gemma 3 27B以及Llama系列的前代模型還差許多。

圖片圖片

不過,Llama 4能否在Meta VP許諾的“幾天后”穩(wěn)定下來,并取得一個亮眼的成績,還是一個未知數(shù)?;蛟S,我們還是可以期待,在bug修繕后,模型性能會有一個臺階的躍升。

寫在最后:刷榜容易,刷新用戶的口碑難

Meta一系列迷惑的操作,也給其他模型公司敲了個警鐘。

首先,Llama 4的確在模型性能圖表中使用了“實驗版本”有著特定優(yōu)化的Maverick模型進行跑分。無疑將自己推向了“作弊”的塔西佗陷阱。

其次,Meta在模型剛出爐時就迫不及待地發(fā)布了,根本沒有在各個平臺調適到最佳性能。一位網友還建議Meta應該向阿里Qwen學習,做一個更友好的Web UI,讓大家能輕松接觸到前沿模型的能力。

最后,就是老生常談的大模型炒作與刷榜問題了。如果一個模型被特意為基準測試優(yōu)化后用于評測,隨后卻向公眾發(fā)布一個“普通版本”,這會讓開發(fā)者難以預測該模型在真實場景中的實際表現(xiàn)。這種行為也具有相當?shù)恼`導性。

事實上,“模型無意中看過了答案”這事兒,在AI圈早已不是新聞。大模型的訓練數(shù)據(jù)來源廣泛,覆蓋了互聯(lián)網上幾乎所有能爬到的內容——而熱門基準測試集,本身就經常被引用、分享、分析。結果就是,模型可能在訓練階段就接觸過這些“考試題”,在實際測試中自然能交出一份“優(yōu)等生”答卷。

因此,是時候重構我們對AI能力評估的方式了。與其再迷信分數(shù)排行榜,不如關注模型在真實任務中的表現(xiàn),比如長時對話、一致性寫作、多輪推理這些“考不過但能干活”的場景。

最后,問題來了,Llama 4家族中的超大杯Llama 4 Behemoth還值得我們期待嗎?

參考鏈接:

1.https://techcrunch.com/2025/04/07/meta-exec-denies-the-company-artificially-boosted-llama-4s-benchmark-scores/

2.https://www.reddit.com/r/singularity/comments/1jspmq9/users_are_not_happy_with_llama_4_models/?utm_source=chatgpt.com

想了解更多AIGC的內容,請訪問:

51CTO AI.x社區(qū)

http://www.scjtxx.cn/aigc/

責任編輯:武曉燕 來源: 51CTO技術棧
相關推薦

2025-04-15 08:00:00

LMArenaLlama 4大模型

2024-03-11 08:00:00

代碼視頻

2015-01-05 10:04:25

2025-01-26 09:00:00

AI算力模型

2022-11-25 14:24:27

2023-09-11 15:57:16

人工智能模型GPT-4

2025-04-07 13:24:52

2019-06-19 09:15:00

華為禁令開發(fā)

2022-07-18 10:45:18

安全

2020-12-07 09:22:50

量子計算機芯片超算

2024-05-27 09:01:42

Llama 3大型語言模型人工智能

2021-10-27 15:57:48

機器學習人工智能計算機

2025-04-08 13:12:49

2024-01-26 11:36:30

3D游戲

2024-07-29 09:20:00

AI模型

2024-08-05 13:15:28

2021-03-12 16:36:03

數(shù)字人民幣微信支付寶

2024-03-06 23:29:45

Claude 3GPT-4人工智能

2023-01-29 14:22:08

承包商OpenAIAI
點贊
收藏

51CTO技術棧公眾號