順序決策與基礎模型如何交叉互惠?谷歌、伯克利等探討更多可能
在廣泛數據集上基于自監(jiān)督學習的預訓練基礎模型,已經展現出將知識遷移到不同下游任務的優(yōu)秀能力。因此,這些模型也被應用到長期推理、控制、搜索和規(guī)劃等更復雜的問題,或者被部署在對話、自動駕駛、醫(yī)療保健和機器人等應用中。未來它們也會提供接口給外部實體和智能體,例如在對話應用中,語言模型與人進行多輪交流;在機器人領域,感知控制模型在真實環(huán)境中執(zhí)行動作。
這些場景為基礎模型提出了新的挑戰(zhàn),包括:1) 如何從外部實體(如人對對話質量的評價)的反饋中學習,2) 如何適應大規(guī)模語言或視覺數據集中不常見的模態(tài)(如機器人動作),3) 如何在未來進行長期的推理和規(guī)劃。
這些問題一直是傳統(tǒng)意義上順序決策的核心,涵蓋了強化學習、模仿學習、規(guī)劃、搜索和最優(yōu)控制等領域。與基礎模型使用數十億圖像和文本 token 的廣泛數據集進行預訓練的范式相反,以往關于順序決策制定的工作主要集中在任務特定或具有有限先驗知識的白板設置上。
盡管缺少或沒有先驗知識讓順序決策看起來很難,但是對順序決策的研究已經在多個任務上超越了人類表現,如玩棋盤游戲、雅達利(Atari)電子游戲以及操作機器人完成導航和操作等。
然而,由于這些方法學習從零開始解決任務而沒有來自視覺、語言或其它數據集的廣泛知識,因此通常在泛化和樣本效率方面表現不佳,例如需要 7 塊 GPU 運行一天才能解決單個雅達利游戲。直覺上,類似于基礎模型所用的廣泛數據集也應該對順序決策制定模型有用。舉例而言,互聯網上有無數關于如何玩雅達利游戲的文章和視頻。同樣地,有關對象和場景屬性的大量知識對于機器人非常有用,關于人類愿望和情感的知識也可以改善對話模型。
雖然由于應用和關注點不同,基礎模型和順序決策的研究大體上是不相交的,但交匯的研究也越來越多。在基礎模型方面,隨著大語言模型的出現,目標應用從簡單的零樣本或少樣本任務擴展到現在需要長期推理或多次交互的問題 。相反在順序決策領域,受到大規(guī)模視覺和語言模型成功的啟發(fā),研究人員開始為學習多模型、多任務和通用交互式智能體準備越來越大的數據集。
兩者領域之間的界線變得越來越模糊,一些最近的工作研究了預訓練基礎模型(例如 CLIP 和 ViT)在視覺環(huán)境中 bootstrap 交互式智能體的訓練,而其他工作則研究了基礎模型作為通過強化學習和人類反饋進行優(yōu)化的對話智能體。還有一些工作還調整大型語言模型以與外部工具交互,例如搜索引擎、計算器、翻譯工具、MuJoCo 模擬器和程序解釋器。
最近,谷歌大腦團隊、UC 伯克利和 MIT 的研究者撰文表示,基礎模型和交互式決策研究相結合會讓彼此受益。一方面,將基礎模型應用于涉及外部實體的任務中,可以從交互式反饋和長期規(guī)劃中受益。另一方面,順序決策可以利用基礎模型的世界知識更快地解決任務并進行更好的泛化。
論文地址:https://arxiv.org/pdf/2303.04129v1.pdf
為了在這兩個領域的交集上推動進一步的研究,研究者限定了用于決策制定的基礎模型的問題空間。同時提供了理解當前研究的技術工具,回顧了目前存在的挑戰(zhàn)和未解決的問題,并預測了解決這些挑戰(zhàn)的潛在解決方案和有前景的方法。
論文概覽
論文主要分為以下 5 個主要章節(jié)。
第 2 章回顧了順序決策的相關背景,并提供了一些基礎模型和決策制定最好一起考慮的示例場景。隨后講述了圍繞基礎模型如何構建決策制定系統(tǒng)的不同組件。
第 3 章探討了基礎模型如何作為行為生成式模型(比如技能發(fā)現)和環(huán)境生成式模型(比如進行基于模型的推演)。
第 4 章探討了基礎模型如何作為狀態(tài)、動作、獎勵和轉移動態(tài)的表示學習器(例如即插即用的視覺 - 語言模型、基于模型的表示學習)。
第 5 章探討了語言基礎模型如何作為交互式智能體和環(huán)境,使得可以在順序決策框架(語言模型推理、對話、工具使用)下考慮新問題和應用。
最后一章,研究者概述了未解決的問題和挑戰(zhàn),并提出了潛在的解決方案(例如如何利用廣泛的數據、如何構建環(huán)境以及基礎模型和順序決策的哪些方面可以得到改進)。
更多細節(jié)內容請參閱原論文。