自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

GPT-4o mini排名雪崩,大模型競(jìng)技場(chǎng)規(guī)則更新,奧特曼刷分小技巧無(wú)效了

人工智能 新聞
在新規(guī)則下,奧特曼的GPT-4o mini、馬斯克的Grok-2系列排名顯著下降,谷歌Gemini-1.5-flash小模型也有所回落。

大模型競(jìng)技場(chǎng)規(guī)則更新,GPT-4o mini排名立刻雪崩,跌出前10。

圖片

新榜單對(duì)AI回答的長(zhǎng)度和風(fēng)格等特征做了降權(quán)處理,確保分?jǐn)?shù)反映模型真正解決問(wèn)題的能力。

想用漂亮的格式、增加小標(biāo)題數(shù)量等技巧討好用戶、刷榜,現(xiàn)在統(tǒng)統(tǒng)沒(méi)用了。

在新規(guī)則下,奧特曼的GPT-4o mini、馬斯克的Grok-2系列排名顯著下降,谷歌Gemini-1.5-flash小模型也有所回落。

Claude系列、Llama-3.1-405b大模型分?jǐn)?shù)則紛紛上漲。

圖片

只計(jì)算困難任務(wù)(Hard Prompt)的情況下,大模型在風(fēng)格控制榜單中的優(yōu)勢(shì)更加明顯。

圖片

此前GPT-4o mini小模型一度登頂,與GPT-4o滿血版并列第一,與網(wǎng)友的體感明顯不符。

Lmsys大模型競(jìng)技場(chǎng)這個(gè)一度被Karpathy推薦的評(píng)價(jià)標(biāo)準(zhǔn),口碑也跌落到“只能反映用戶喜好而不是模型能力了”。

Lmsys組織痛定思痛,先是公開(kāi)了GPT-4o mini參與的1000場(chǎng)battle數(shù)據(jù),從而分析出模型拒絕回答率、生成內(nèi)容長(zhǎng)度、和格式排版是影響投票結(jié)果的幾個(gè)因素。

而且?jiàn)W特曼還在GPT-4o mini發(fā)布之前,暗示了正是按照人類偏好做優(yōu)化的。

圖片

現(xiàn)在,Lmsys進(jìn)一步推出了控制這些因素的新算法,而且還只是規(guī)劃中的第一步。

圖片

如何控制風(fēng)格的影響?

假設(shè)有模型A擅長(zhǎng)生成代碼、事實(shí)和無(wú)偏見(jiàn)的答案等,但它的輸出非常簡(jiǎn)潔。

模型B在實(shí)質(zhì)內(nèi)容(例如正確性)上不是很好,但它輸出的內(nèi)容長(zhǎng)而詳細(xì)、格式排版華麗。

那么哪個(gè)更好?

答案不是唯一的,Lmsys嘗試用數(shù)學(xué)方法找出一個(gè)模型的得分有多少是內(nèi)容或風(fēng)格貢獻(xiàn)的。

此外,最近也已經(jīng)有研究表明,人類對(duì)排版漂亮和更詳細(xì)的AI回答可能存在偏好性。

圖片

通過(guò)在Bradley-Terry回歸中添加樣式特征,如響應(yīng)長(zhǎng)度、markdown小標(biāo)題的數(shù)量、列表和加粗文本數(shù)量作為自變量。

這是統(tǒng)計(jì)學(xué)中的一種常用技術(shù),最近被AlpacaEval LC等用于大模型評(píng)估。

在回歸中包含任何混雜變量(例如回答長(zhǎng)度),可以將分?jǐn)?shù)的增加歸因于混雜變量,而不是模型能力本身。

相關(guān)代碼已在Google Colab上公開(kāi)。

此外團(tuán)隊(duì)還對(duì)“只控制長(zhǎng)度”和“只控制格式”做了消融實(shí)驗(yàn)。GPT-4o mini、谷歌Gemini系列分?jǐn)?shù)受格式影響更大。

圖片

不過(guò)這種做法也存在局限性,比如可能存在未觀察到的混雜因素,例如長(zhǎng)度和回答質(zhì)量之間的正相關(guān),這些因素沒(méi)有被考慮在內(nèi)(例如思維鏈提示)。

有不少網(wǎng)友表示,調(diào)整后的困難任務(wù)榜單與自己的主觀印象更吻合了。

圖片

也有人覺(jué)得,正是榜單和沖榜的大模型公司這種來(lái)回博弈,才能讓整個(gè)領(lǐng)域一起進(jìn)步。

圖片

責(zé)任編輯:張燕妮 來(lái)源: 量子位
相關(guān)推薦

2024-07-24 12:40:44

2024-07-29 15:37:17

AI訓(xùn)練

2025-02-17 12:24:43

2024-10-16 15:07:57

2024-06-05 13:09:26

2024-05-31 14:23:15

2024-09-06 13:31:31

2024-12-31 12:35:46

2024-06-21 09:51:17

2024-07-22 15:13:24

2024-05-21 12:23:17

2024-07-19 12:43:34

2024-09-06 13:00:29

2024-07-04 15:26:56

2024-04-22 08:40:00

LLM模型開(kāi)源

2024-06-05 08:29:35

2024-05-30 13:13:43

2024-11-22 12:39:56

2025-04-14 09:06:00

2024-08-08 14:27:29

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)