自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

LLM合集:谷歌推出逆向思維RevThink框架,大模型零樣本性能提升13.53%

發(fā)布于 2024-12-3 13:28
瀏覽
0收藏

1. Reverse Thinking Makes LLMs Stronger Reasoners

LLM合集:谷歌推出逆向思維RevThink框架,大模型零樣本性能提升13.53%-AI.x社區(qū)

逆向思維在人類推理中扮演著至關重要的角色。人們不僅可以從問題推導出解決方案,還可以反過來從解決方案推導出問題。這種雙向思考方式往往能提高整體的推理性能,因為它允許前后思維之間的一致性檢查。為了使大型語言模型(LLM)具備逆向思維能力,我們引入了逆向增強思維(RevThink)框架,該框架由數(shù)據(jù)增強和學習目標組成。

在RevThink中,我們通過收集教師模型提供的結(jié)構(gòu)化正向-反向推理來擴充數(shù)據(jù)集,具體包括:(1) 原始問題;(2) 正向推理;(3) 反向問題;以及 (4) 反向推理。然后,我們采用三種目標以多任務學習的方式訓練一個小的學生模型:(a) 從問題生成正向推理;(b) 從問題生成反向問題;(c) 從反向問題生成反向推理。

在涵蓋常識、數(shù)學和邏輯推理的12個數(shù)據(jù)集上的實驗表明,RevThink相比學生模型的零樣本性能平均提升了13.53%,比最強的知識蒸餾基線方法提升了6.84%。此外,我們的方法展示了良好的樣本效率——僅使用訓練數(shù)據(jù)中10%的正確正向推理,就優(yōu)于在一個包含10倍更多正向推理的標準微調(diào)方法。RevThink還表現(xiàn)出較強的泛化能力,能夠很好地處理分布外的數(shù)據(jù)集。

論文: https://arxiv.org/pdf/2411.19865

2. LLM Teacher-Student Framework for Text Classification With No Manually Annotated Data: A Case Study in IPTC News Topic Classification

LLM合集:谷歌推出逆向思維RevThink框架,大模型零樣本性能提升13.53%-AI.x社區(qū)

隨著在線新聞報道數(shù)量的不斷增加,按照主題對新聞進行分類變得越來越重要。為了應對這一挑戰(zhàn),我們提出了一種基于大語言模型(LLM)的蒸餾框架,用于開發(fā)不需要人工數(shù)據(jù)標注的多語言新聞分類模型。該框架利用生成式預訓練transformer(GPT)模型作為教師模型,通過自動標注斯洛文尼亞語、克羅地亞語、希臘語和加泰羅尼亞語的新聞文章來構(gòu)建IPTC媒體主題訓練數(shù)據(jù)集。教師模型在這四種語言上表現(xiàn)出色,在零樣本任務上的性能很高,并且其標注結(jié)果與人類標注者的一致程度與人類標注者之間的相當。

為了解決處理數(shù)百萬文本所需的計算限制,我們對較小的BERT類學生模型進行了微調(diào),這些模型在GPT標注的數(shù)據(jù)集上進行了訓練。這些學生模型實現(xiàn)了與教師模型相當?shù)母咝阅?。此外,我們研究了訓練?shù)據(jù)量對學生模型性能的影響,并調(diào)查了它們的單語言、多語言和零樣本跨語言能力。研究發(fā)現(xiàn),學生模型可以在相對較少的訓練實例下達到高性能,并展示了強大的零樣本跨語言能力。最后,我們發(fā)布了表現(xiàn)最佳的新聞主題分類器,支持使用IPTC媒體主題架構(gòu)的多語言分類。

論文: https://arxiv.org/pdf/2411.19638

3. On Domain-Specific Post-Training for Multimodal Large Language Models

LLM合集:谷歌推出逆向思維RevThink框架,大模型零樣本性能提升13.53%-AI.x社區(qū)

近年來,通用多模態(tài)大語言模型(MLLMs)得到了快速發(fā)展。然而,將這些通用的MLLMs適應特定領域(如科學領域和工業(yè)應用)的研究仍然相對較少。本文系統(tǒng)地研究了通過后訓練進行MLLMs的領域適應性,重點關注數(shù)據(jù)合成、訓練流程和任務評估。

數(shù)據(jù)合成:我們使用開源模型開發(fā)了一個視覺指令合成器,能夠有效地從特定領域的圖像-標題對生成多樣化的視覺指令任務。我們的合成任務在提升MLLMs的領域特定性能方面優(yōu)于手動規(guī)則、GPT-4和GPT-4V生成的任務。

訓練流程:雖然兩階段訓練(最初在圖像-標題對上訓練,然后在視覺指令任務上訓練)是開發(fā)通用MLLMs的常見方法,但我們采用單階段訓練流程來增強領域特定后訓練中的任務多樣性。

任務評估:我們在兩個領域(生物醫(yī)學和食品)進行了實驗,通過對不同來源和規(guī)模的MLLMs(例如Qwen2-VL-2B、LLaVA-v1.6-8B、Llama-3.2-11B)進行后訓練,并評估其在各種領域特定任務上的性能。

這種方法不僅提升了MLLMs在特定領域的性能,還增強了其在多樣化任務中的適應性和靈活性,為其在實際應用中的廣泛應用奠定了基礎。

論文: https://arxiv.org/pdf/2411.19930

4. Scaling Transformers for Low-Bitrate High-Quality Speech Coding

LLM合集:谷歌推出逆向思維RevThink框架,大模型零樣本性能提升13.53%-AI.x社區(qū)

使用神經(jīng)音頻編解碼模型對語音進行分詞是現(xiàn)代AI pipeline中生成或理解語音(單獨或在多模態(tài)背景下)的關鍵部分。傳統(tǒng)上,這些分詞模型主要集中在具有強歸納偏置的低參數(shù)量架構(gòu)上。本文研究表明,通過將大規(guī)模參數(shù)的Transformer架構(gòu)應用于這個問題,并結(jié)合靈活的有限標量量化(FSQ)瓶頸層,可以在極低比特率(400或700位每秒)下達到最先進的語音質(zhì)量。訓練后的模型在客觀和主觀測試中均顯著優(yōu)于現(xiàn)有的基線方法。

這種方法不僅提升了語音處理的質(zhì)量,還在資源受限的情況下實現(xiàn)了高效的性能,適用于多種應用場景。

論文: https://arxiv.org/pdf/2411.19842

本文轉(zhuǎn)載自 ??AI-PaperDaily??,作者: AI-PaperDaily

收藏
回復
舉報
回復
相關推薦