自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

264頁智能體綜述來了!MetaGPT等20家頂尖機構(gòu)、47位學者參與

人工智能 新聞
通讀整篇論文,讀者可以清晰地感受到作者構(gòu)建下一代通用智能體的雄心。

近期,大模型智能體(Agent)的相關話題爆火 —— 不論是 Anthropic 搶先 MCP 范式的快速普及,還是 OpenAI 推出的 Agents SDK 以及谷歌最新發(fā)布的 A2A 協(xié)議,都預示了 AI Agent 的巨大潛力。然而,目前的大部分 Agent 應用仍是 LLM 能力的簡單 “封裝” 或延伸,距離真正通用的智能實體尚有距離 —— 在面對復雜的真實世界時,Agent 往往會暴露出推理規(guī)劃、長期記憶、世界模型、自主進化以及安全對齊等核心能力不足的問題。

為了系統(tǒng)性地應對這些挑戰(zhàn),以構(gòu)建真正具備通用能力的未來智能體,MetaGPT & Mila 聯(lián)合全球范圍內(nèi) 20 個頂尖研究機構(gòu)的 47 位學者,共同撰寫并發(fā)布了長篇綜述《Advances and Challenges in Foundation Agents: From Brain-Inspired Intelligence to Evolutionary, Collaborative, and Safe Systems》。

圖片

  • 論文鏈接: https://arxiv.org/abs/2504.01990
  • Huggingface 鏈接:https://huggingface.co/papers/2504.01990
  • Github 鏈接:https://github.com/FoundationAgents/awesome-foundation-agents

目前該論文已蟬聯(lián) Hugging Face 的 Daily Paper 月榜第一名。

圖片

此研究匯聚了來自 MetaGPT、Montréal & Mila 人工智能研究所、南洋理工大學、美國阿貢國家實驗室、悉尼大學、賓夕法尼亞州立大學、微軟亞洲研究院、伊利諾伊大學厄巴納 - 香檳分校、香港科技大學、南加州大學、耶魯大學、斯坦福大學、佐治亞大學、俄亥俄州立大學、阿卜杜拉國王科技大學、杜克大學、香港理工大學、谷歌 DeepMind 以及 加拿大高等研究院(CIFAR)等眾多研究者的集體智慧與前瞻思考。

圖片

當前 AI 研究與人類大腦的差異

在這篇論文中,作者們首次定義并提出了基礎智能體 (Foundation Agent) 這一新概念框架。Foundation Agent 并非具體的智能體實例,而是一個更宏大且更根本性的技術藍圖及科學理念。它旨在通過認知科學和神經(jīng)科學的洞見,構(gòu)建一個由復雜認知、多層記憶、世界模型、獎勵 & 價值、情緒 & 動機、多模感知、行動系統(tǒng)等模塊化組件構(gòu)成的智能系統(tǒng)。

圖片

基礎智能體(Foundation Agent)的定義

第一部分:智能體的核心組件 - 構(gòu)建認知基石

論文首先強調(diào),一個強大的 Foundation Agent 必然是一個復雜的系統(tǒng),由多個相互協(xié)作的核心組件構(gòu)成。這借鑒了認知科學和神經(jīng)科學中對大腦模塊化功能的理解。作者詳細闡述了七個關鍵組件,它們共同構(gòu)成了智能體的認知架構(gòu):

圖片

Agent 框架(環(huán)境,循環(huán)與內(nèi)部結(jié)構(gòu))

1. 認知核心 (Cognition Core)

這是智能體的 “大腦” 或 “中央處理器”,負責最高層次的決策、推理和規(guī)劃。與當前主要依賴 LLM 進行 “思考” 的智能體不同,F(xiàn)oundation Agent 的認知核心可能是一個更復雜的系統(tǒng),集成了多種推理能力(如邏輯推理、因果推理、常識推理)和規(guī)劃算法(如任務分解、層級規(guī)劃、長期目標管理)。它需要能夠處理不確定性,進行反思和元認知(思考自己的思考過程),并根據(jù)環(huán)境反饋和內(nèi)部狀態(tài)動態(tài)調(diào)整策略。這要求認知核心不僅僅是模式匹配,更要具備深刻的理解和靈活的問題解決能力。

圖片

智能體的推理模式

2. 記憶系統(tǒng) (Memory System)

記憶是智能的基礎。當前的智能體往往只有有限的短期記憶(如 Prompt 中的上下文)或簡單的外部向量數(shù)據(jù)庫。Foundation Agent 則需要一個更復雜、更接近生物體的多層次記憶系統(tǒng)。論文探討了短期記憶、長期記憶與工作記憶等不同類型,包含情景記憶、語義記憶和程序記憶等細分領域。高效的記憶檢索、存儲、遺忘和泛化機制對于 Foundation Agent 至關重要。如何設計能夠支持持續(xù)學習、避免災難性遺忘,并能高效檢索相關信息的記憶系統(tǒng),是一個核心挑戰(zhàn)。

圖片

記憶的生命周期

3. 世界模型 (World Model)

智能體需要理解其所處的環(huán)境以及自身行為可能產(chǎn)生的后果。世界模型正是對環(huán)境動態(tài)的內(nèi)部表征。它可以幫助智能體進行預測(如果我采取行動 A,會發(fā)生什么?)、規(guī)劃(為了達到目標 B,我應該采取什么行動序列?)和反事實推理(如果當初采取了不同的行動,結(jié)果會怎樣?)。一個強大的世界模型需要能夠處理物理規(guī)律、社會規(guī)范、其他智能體的行為等多方面信息,并且能夠根據(jù)新的觀測數(shù)據(jù)不斷更新和完善。構(gòu)建準確、高效且可泛化的世界模型是實現(xiàn)高級智能的關鍵一步。

圖片世界模型的四種范式

4. 獎勵與價值系統(tǒng) (Reward and Value System)

智能體的行為需要有目標導向。獎勵系統(tǒng)負責評估智能體的行為表現(xiàn),并提供學習信號。這不僅僅是簡單的標量獎勵,可能涉及到多目標優(yōu)化、內(nèi)在動機(如好奇心、探索欲)以及對未來價值的預估。價值系統(tǒng)則負責評估不同狀態(tài)或行動的長期價值,指導智能體的決策。如何設計能夠引導智能體學習復雜行為、符合人類價值觀,并且能夠適應動態(tài)環(huán)境的獎勵和價值系統(tǒng),是確保智能體目標一致性的核心。

圖片

獎勵范式

5. 情緒與動機建模 (Emotion and Motivation Modeling)

雖然在傳統(tǒng) AI 中較少提及,但論文認為,模擬類人情緒和動機對于構(gòu)建更魯棒、更具適應性的智能體可能是有益的。情緒可以作為一種快速評估環(huán)境狀態(tài)和調(diào)整行為策略的啟發(fā)式機制,例如,“恐懼” 可能觸發(fā)規(guī)避行為,“好奇” 可能驅(qū)動探索。動機則為智能體提供持續(xù)行動的內(nèi)在驅(qū)動力。當然,如何在 AI 中恰當、可控地實現(xiàn)這些機制,避免產(chǎn)生不可預測的副作用,是一個需要審慎探索的方向。

圖片

人類的情緒種類

6. 感知系統(tǒng) (Perception System)

智能體需要通過感知系統(tǒng)從環(huán)境中獲取信息。這不僅僅是處理文本,更包括視覺、聽覺、觸覺等多模態(tài)信息的輸入和理解。感知系統(tǒng)需要能夠從原始感官數(shù)據(jù)中提取有意義的特征,識別對象、理解場景,并將這些信息傳遞給認知核心和記憶系統(tǒng)。多模態(tài)融合、實時處理以及對噪聲和不確定性的魯棒性是感知系統(tǒng)面臨的主要挑戰(zhàn)。

圖片

人類與智能體的感知

7. 行動系統(tǒng) (Action System)

智能體最終需要通過行動系統(tǒng)與環(huán)境進行交互。這包括生成自然語言、執(zhí)行代碼、控制機器人肢體、在虛擬世界中導航等。行動系統(tǒng)需要將認知核心的決策轉(zhuǎn)化為具體的、可在環(huán)境中執(zhí)行的操作序列。行動的選擇需要考慮可行性、效率和潛在風險。學習精細的操作技能、處理連續(xù)的行動空間以及確保行動的安全可控是行動系統(tǒng)的關鍵要求。

圖片

動作的相關概念

第二部分:智能體的自進化 —— 邁向自主智能

擁有完善的認知架構(gòu)只是第一步。Foundation Agent 的核心特征之一在于其自進化 (Self-Evolution) 的能力,即智能體能夠通過與環(huán)境的交互和自我反思,不斷學習、適應和提升自身能力,而無需持續(xù)的人工干預。這部分探討了實現(xiàn)自進化的關鍵機制:

1. 優(yōu)化空間 (Optimization Space)

自進化的前提是定義清楚哪些方面可以被優(yōu)化。論文指出,智能體的幾乎所有組件都可以成為優(yōu)化的對象:認知策略、記憶內(nèi)容、世界模型的準確性、感知能力、行動技能等等。其中,提示詞,工作流,智能體組件是可以被直接優(yōu)化的三個層次。定義清晰的優(yōu)化目標和評估指標是指導自進化過程的基礎。

2.LLM 作為優(yōu)化器 (LLM as Optimizer)

論文提出,強大的大型語言模型不僅可以作為智能體的認知核心的一部分,還可以扮演優(yōu)化器的角色。LLM 可以通過生成代碼、修改參數(shù)、提出新的策略或結(jié)構(gòu),來優(yōu)化智能體自身的其他組件。例如,LLM 可以分析智能體過去的失敗經(jīng)驗,提出改進記憶檢索算法的建議;或者根據(jù)新的數(shù)據(jù),生成更新世界模型的代碼。這為智能體的自我改進提供了一種強大的、基于語言理解和生成能力的全新途徑。

圖片

優(yōu)化方法分類

3. 在線與離線自改進 (Online and Offline Self-Improvement)

自進化可以在不同的時間和尺度上發(fā)生:智能體既能在與環(huán)境實時交互過程中進行在線改進,通過強化學習優(yōu)化行為策略或根據(jù)感知更新世界模型;也能在 "休息" 或?qū)iT訓練階段實現(xiàn)離線改進,利用收集的數(shù)據(jù)進行深層分析和模型更新,可能涉及調(diào)整整個認知架構(gòu)、重構(gòu)記憶庫,或利用 LLM 作為優(yōu)化器進行大規(guī)模模型迭代。

4. 自進化與科學發(fā)現(xiàn) (Self-Evolution in Scientific Discovery)

論文特別提到了自進化在科學發(fā)現(xiàn)等復雜問題解決場景中的巨大潛力。一個具備自進化能力的 Foundation Agent 可以自主地提出假設、設計實驗、分析數(shù)據(jù)、學習新知識,并不斷優(yōu)化其研究策略,從而加速科學探索的進程。這為 AI 在基礎科學領域的應用打開了新的想象空間。

自進化是 Foundation Agent 區(qū)別于當前大多數(shù)智能體的關鍵特征。它強調(diào)了智能體自主學習和適應的核心能力,并提出了利用 LLM 作為優(yōu)化器等創(chuàng)新思路。實現(xiàn)高效、穩(wěn)定且目標可控的自進化機制,是通往真正自主智能的關鍵挑戰(zhàn)。

第三部分:協(xié)作與進化型智能系統(tǒng) - 構(gòu)建群體智能

論文進一步將視野擴展到由多個 Foundation Agent 組成的多智能體系統(tǒng) (Multi-Agent System, MAS),探討 MAS 的基礎組成、結(jié)構(gòu)、協(xié)作范式和決策機制;以及在多智能體系統(tǒng)的自主協(xié)作 / 競爭中,群體智能形成的現(xiàn)象 (Collective Intelligence)。最后,論文還系統(tǒng)性梳理了現(xiàn)有的 MAS 評估方法和評估體系,為未來 MAS 的評估與應用實踐提供了理論基礎和方法論支撐。

1. 多智能體系統(tǒng)設計 (Multi-Agent System Design)

在大模型多智能體系統(tǒng)(LLM-MAS)中,協(xié)作目標與協(xié)作規(guī)范是塑造系統(tǒng)設計約束、內(nèi)部智能體交互模式和整體協(xié)作機制的基礎。協(xié)作目標定義了智能體追求的明確目標(個體性、集體性或競爭性),協(xié)作規(guī)范則確立了系統(tǒng)內(nèi)智能體交互的規(guī)則、約束和慣例。基于協(xié)作目標和規(guī)范,多智能體系統(tǒng)可分為策略學習、建模與仿真、以及協(xié)同任務求解三類。論文通過分析和梳理三類 MAS 的典型應用,探討了大語言模型(LLM)如何賦能、影響并改進同質(zhì)和異質(zhì)智能體的行為、交互及決策,并給出了 LLM-MAS 的下一代智能體協(xié)議。

2. 拓撲結(jié)構(gòu)與規(guī)?;–omunication Topology and Scalability)

從系統(tǒng)角度出發(fā),拓撲結(jié)構(gòu)往往決定著協(xié)作的效率與上限。論文作者將 MAS 的拓撲分為了靜態(tài)和動態(tài)兩大類:前者是預定義好的靜態(tài)拓撲(層級化、中心化、去中心化)結(jié)構(gòu),常用于特定任務的解決實現(xiàn);后者是根據(jù)環(huán)境反饋持續(xù)更新的動態(tài)拓撲結(jié)構(gòu),其可通過搜索式、生成式、參數(shù)式等新興算法實現(xiàn)。而隨著智能體數(shù)量的增加,科學的規(guī)?;绞揭矊⑹俏磥矶嘀悄荏w系統(tǒng)的重要議題。

3. 協(xié)作范式與機理 (Collaboration Paradigms)

借鑒人類社會中的多樣化交互行為,如共識達成、技能學習和任務分工,論文從交互目的、形式和關系三個維度探討多智能體協(xié)作。多智能體協(xié)作被歸納為共識導向、協(xié)作學習、迭代教學與強化,以及任務導向交互。

在不同交互目標和形式下,智能體之間形成討論、辯論、投票、協(xié)商等單向或多向交互。隨著交互的持續(xù),這些過程迭代出決策和交互網(wǎng)絡,不同智能體在協(xié)作中增強和更新個體記憶與共享知識。

4. 群體智能與涌現(xiàn) (Collective Intelligence and Emergence)

在 MAS 中,群體智能的產(chǎn)生是一個動態(tài)且迭代的過程。通過持續(xù)交互,智能體逐步形成共享理解和集體記憶。個體智能體的異質(zhì)性、環(huán)境反饋和信息交換增強了交互的動態(tài)性,這對復雜社會網(wǎng)絡的形成和決策策略的改進至關重要。通過多輪交互和對共享上下文的反思,智能體不斷提升推理和決策能力,產(chǎn)生如信任、戰(zhàn)略欺騙、自適應偽裝等涌現(xiàn)行為。按照進化形成機制,可分為基于記憶的學習和基于參數(shù)的學習。與此同時,隨著 MAS 的演化,智能體之間逐漸將形成和演進社會契約、組織層級和勞動分工,從基礎的合作行為轉(zhuǎn)向復雜社會結(jié)構(gòu)。觀測、理解和研究群體智能的涌現(xiàn)現(xiàn)象是后續(xù) MAS 研究的重要方向。

5. 多智能體系統(tǒng)評估 (Evaluation of Multi-Agent Systems)

隨著多智能體的優(yōu)勢成為共識,其評估范式亦需有根本性的變革 ——MAS 評估應聚焦于 Agent 交互的整體性,包括協(xié)同規(guī)劃的效率、信息傳遞的質(zhì)量與群體決策的性能等關鍵維度。由此衍生,作者總結(jié)了 MAS 常見的任務求解型 benchmark,以及最新的通用能力評估方式:前者的重點在于,衡量多智能體在各種環(huán)境中的決策協(xié)同的推理深度與正確性;后者評估智能體群在復雜、動態(tài)場景下的交互與適應能力。

圖片

智能體的協(xié)作與競爭

第四部分:構(gòu)建安全和有益的 AI 智能體 —— 對齊與責任

隨著 Foundation Agent 能力的增強,其潛在的風險也隨之增大。論文的最后一部分聚焦于如何構(gòu)建安全、可控、符合人類價值觀的智能體,這也是整個 AI 領域面臨的最核心的挑戰(zhàn)之一。

1. 安全威脅與措施

高級智能體面臨諸多安全威脅,包括對抗性攻擊、越獄與濫用、目標漂移和意外交互等。這些威脅可能導致智能體做出錯誤行為、繞過安全限制執(zhí)行惡意任務、在自進化過程中偏離初始目標,或在復雜 MAS 中引發(fā)系統(tǒng)級故障。為應對這些挑戰(zhàn),需要研究部署多層次安全措施,如提高抵抗攻擊能力的魯棒性訓練、檢測阻止有害內(nèi)容的過濾與監(jiān)控機制、證明行為符合安全規(guī)范的形式化驗證、幫助理解決策原因的可解釋性與透明度設計,以及限制權(quán)限與影響的沙箱與隔離技術。

2. 對齊問題

這是最根本的挑戰(zhàn):如何確保智能體(尤其是具備自進化能力的 Foundation Agent)的目標和行為始終與人類的價值觀和意圖保持一致?這涉及到價值學習、意圖理解、倫理推理等多個難題。論文強調(diào)了對齊研究的緊迫性和重要性,需要跨學科的努力來解決這一問題。

3. 未來方向

構(gòu)建安全有益的 AI 是一個持續(xù)的過程。未來的研究需要在技術、倫理、治理等多個層面共同推進。包括開發(fā)更可靠的對齊技術、建立完善的 AI 安全評估標準、制定相應的法律法規(guī)和社會規(guī)范等。

安全和對齊是 Foundation Agent 發(fā)展不可或缺的基石。如果不能有效解決這些問題,再強大的智能也可能帶來巨大的風險。這部分內(nèi)容敲響了警鐘,強調(diào)了負責任地發(fā)展 AI 的重要性。

圖片

智能體面臨的安全問題

討論:Foundation Agent 的意義與挑戰(zhàn)

通讀整篇論文,讀者可以清晰地感受到作者構(gòu)建下一代通用智能體的雄心。Foundation Agent 的概念,是對當前基于 LLM 的智能體范式的一次深刻反思和重大超越。它不再將智能體視為 LLM 的簡單應用,而是將其看作一個由認知、記憶、學習、感知、行動等多個核心組件構(gòu)成的復雜、有機的系統(tǒng)。其核心意義在于提供了系統(tǒng)性框架,強調(diào)了自主性,關注協(xié)作與生態(tài),并突出了安全與對齊。然而,實現(xiàn)這一愿景也面臨著技術復雜度高、需要龐大計算資源、評估困難、自進化可控性問題以及安全與對齊的根本性難題等巨大挑戰(zhàn)。

這篇關于 Foundation Agent 的論文,與其說是一份詳盡的技術指南,不如說是一份高瞻遠矚的研究議程 (Research Agenda)。它清晰地指出了當前智能體研究的局限,并為邁向更通用、更自主、更安全的 AI 指明了方向。Foundation Agent 的概念提醒我們,通往通用人工智能的道路需要在智能體的認知架構(gòu)、學習機制、協(xié)作模式和安全保障上取得根本性突破,這需要跨學科領域的共同努力。雖然前路漫漫,但這篇論文為未來的 AI Agent 研究注入了新的思考和動力,描繪了一個由能夠自主學習、協(xié)作進化、并與人類和諧共存的 Foundation Agent 構(gòu)成的智能新紀元。

責任編輯:張燕妮 來源: 機器之心
相關推薦

2023-12-27 14:07:00

模型訓練

2024-01-22 07:08:00

2023-08-28 13:38:00

數(shù)據(jù)模型

2025-02-20 11:31:31

2023-10-18 13:32:00

AI數(shù)據(jù)

2024-07-23 14:10:48

2023-06-02 14:04:38

AI安全

2025-01-03 15:44:09

2023-12-22 13:46:41

數(shù)據(jù)訓練

2022-02-10 15:15:41

人工智能強化學習谷歌

2023-02-27 12:57:32

BERTChatGPT機構(gòu)

2025-01-09 12:32:57

2018-01-05 14:40:16

人工智能發(fā)展預見性見解

2023-09-25 12:27:24

研究數(shù)據(jù)

2024-11-11 09:47:00

AI開源

2023-10-30 10:58:57

2023-09-18 08:50:51

智能模型

2024-07-31 15:40:00

2014-04-18 15:11:49

點贊
收藏

51CTO技術棧公眾號