自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

測試時訓(xùn)練(TTT)太強了!

發(fā)布于 2024-11-21 14:15
瀏覽
0收藏

論文筆記分享,標題:The Surprising Effectiveness of Test-Time Training for Abstract Reasoning

測試時訓(xùn)練(TTT)是個新概念:在推理過程中使用從輸入數(shù)據(jù)派生的損失暫時更新模型參數(shù)

文章的結(jié)論:

測試時訓(xùn)練(TTT)太強了!-AI.x社區(qū)

TTT 顯著提高了 ARC 任務(wù)上的性能,與基線微調(diào)模型相比,準確率提高了高達 6 倍;將 TTT 應(yīng)用于一個 8B 參數(shù)的語言模型,在 ARC 的公共驗證集上達到了 53%的準確率,將公共和純神經(jīng)網(wǎng)絡(luò)方法的最新水平提高了近 25%。通過將我們的方法與最近的程序生成方法相結(jié)合,獲得了 61.9%的 SoTA 公共驗證準確率,與人類評分接近。

ARC 任務(wù):一個評估語言模型抽象推理能力的基準測試。通過一系列視覺謎題任務(wù)來考驗?zāi)P徒鉀Q新問題的能力。 每個任務(wù)由2D網(wǎng)格(大小可達30×30)組成,網(wǎng)格中包含由多達10種不同顏色的形狀或模式。輸出是通過將一個直觀且共同的變換規(guī)則或函數(shù)應(yīng)用于輸入網(wǎng)格來獲得的。

算法步驟:

測試時訓(xùn)練(TTT)太強了!-AI.x社區(qū)

  • 從訓(xùn)練輸入-輸出對中創(chuàng)建留一法任務(wù),然后通過基于規(guī)則的變換來增強數(shù)據(jù)集。

測試時訓(xùn)練(TTT)太強了!-AI.x社區(qū)

  • 在測試時訓(xùn)練期間,使用LoRA來優(yōu)化。為每個任務(wù)學(xué)習(xí)一個特定的LoRA適配器,而不是為所有任務(wù)學(xué)習(xí)一個單一的適配器。

測試時訓(xùn)練(TTT)太強了!-AI.x社區(qū)

  • 使用幾何變換生成多個預(yù)測候選,然后通過貪婪解碼方案進行預(yù)測。采用分層投票策略,首先在每個變換內(nèi)進行投票,然后對每個變換的候選進行全局投票,以確定最終預(yù)測。

測試時訓(xùn)練(TTT)太強了!-AI.x社區(qū)

本文轉(zhuǎn)載自??NLP前沿??


收藏
回復(fù)
舉報
回復(fù)
相關(guān)推薦