自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

圖解LLM-Agent大模型智能體

發(fā)布于 2024-10-16 16:15
瀏覽
0收藏

LLM-Agent 大模型智能體熱度空前,但智能體是什么、為什么、怎么辦,行業(yè)還沒有統(tǒng)一認(rèn)知,典型的小學(xué)語文課本里“小馬過河”的現(xiàn)實(shí)版。

是什么

一、OpenAI 工程師Lilian Weng的定義  2023.6.23

圖解LLM-Agent大模型智能體-AI.x社區(qū)

規(guī)劃

子目標(biāo)和分解:將大型任務(wù)分解為更小的、可管理的子目標(biāo)。

反思和改進(jìn):對(duì)過去的行動(dòng)進(jìn)行自我批評(píng)和自我反省,從錯(cuò)誤中學(xué)習(xí)。

記憶

短期記憶:上下文學(xué)習(xí)都是利用模型的短期記憶來學(xué)習(xí)。

長期記憶:長期保留和回憶信息的能力。    

工具使用

調(diào)用外部API來獲取模型權(quán)重中缺少的額外信息。

二、復(fù)旦大學(xué)學(xué)者的調(diào)研總結(jié)    2023.9.19          

 

圖解LLM-Agent大模型智能體-AI.x社區(qū)

大腦

Brain作為記憶和決策中心。

感知

Perception解釋外部刺激,從文本到更多模態(tài)的形式。

行動(dòng)          

Action執(zhí)行來自“大腦”的決定。  

三、NVIDIA 工程師Tanay Varshney的看法    2023.11.30

圖解LLM-Agent大模型智能體-AI.x社區(qū)

    

智能體核心

核心邏輯和行為特征的中央?yún)f(xié)調(diào)模塊,或“關(guān)鍵決策模塊”,包括

目標(biāo):包含總體目標(biāo)和目的。

工具手冊(cè):可訪問的所有工具的“用戶手冊(cè)”。

規(guī)劃指南:不同規(guī)劃模塊的使用細(xì)節(jié)。

動(dòng)態(tài)記憶:推斷時(shí)動(dòng)態(tài)填充與用戶過去對(duì)話中最相關(guān)的記憶項(xiàng)。

角色(可選):最終響應(yīng)中注入典型的特質(zhì)。

記憶

短期記憶:回答用戶的單個(gè)問題時(shí)所經(jīng)歷的行動(dòng)和想法的賬本。

長期記憶:用戶和智能體之間發(fā)生的事件的行動(dòng)和想法的賬本。

工具

用來執(zhí)行任務(wù)的定義良好的可執(zhí)行工作流。

規(guī)劃

任務(wù)和問題分解

反思或批評(píng)

LLM大模型之前,Agent就有不少研究,LLM 讓這一構(gòu)想有了更現(xiàn)實(shí)的可能。以上是今年影響面較大的三篇內(nèi)容,其中有明顯的時(shí)間線,反映了行業(yè)認(rèn)知的持續(xù)深化。NVIDIA 工程師的版本更簡潔明了。

為什么          

一、幻覺,大模型天生可能一本正經(jīng)的胡說。哈工大與華為學(xué)者的調(diào)研 2023.11.9      

圖解LLM-Agent大模型智能體-AI.x社區(qū)

數(shù)據(jù)引起

缺陷數(shù)據(jù)源(錯(cuò)誤信息與偏見,知識(shí)邊界)

數(shù)據(jù)利用不足(知識(shí)捷徑,知識(shí)召回失?。?nbsp;         

訓(xùn)練所致

預(yù)訓(xùn)練帶來(架構(gòu)缺陷,次優(yōu)訓(xùn)練目標(biāo))

對(duì)齊產(chǎn)生(能力錯(cuò)位,信念錯(cuò)位)     

推理引入

缺陷的解碼策略(內(nèi)在采樣隨機(jī)性)

不完美解碼表征(上下文注意力不足,Softmax瓶頸)                  

二、前后左右不一的自一致性 self-consistency           

圖解LLM-Agent大模型智能體-AI.x社區(qū)

單視角橫向自一致性

同上下文,多條線,同一輸入的輸出預(yù)期一致        

單視角縱向自一致性          

同上下文,單條線,先后同輸入的輸出預(yù)期一致

多視角縱橫一致性          

不同上下文,多條線,先后同輸入的輸出,特定情況下預(yù)期一致          

三、記憶的短期性,上下文窗口限制           

圖解LLM-Agent大模型智能體-AI.x社區(qū)

 

沒有超出上下文窗口的記憶

只能“記住”給定的有限上下文中的內(nèi)容,沒有其他獨(dú)立的記憶存儲(chǔ)。 

上下文窗口作為LLM的瞬時(shí)記憶

完全依賴于上下文窗口來獲取任何之前的信息。           

怎么辦

一、從LLM外部解決問題的思路,典型做法,檢索輔助生成RAG           

圖解LLM-Agent大模型智能體-AI.x社區(qū)

RAG

模型利用從文檔中檢索到的相關(guān)信息輔助生成過程。          

附加知識(shí)庫

為模型提供額外的信息輸入,適用于知識(shí)密集型任務(wù)。

兩個(gè)關(guān)鍵階段

利用編碼模型基于問題檢索相關(guān)文檔,如BM25、DPR、ColBERT等方法。

使用檢索到的上下文作為條件生成內(nèi)容。

圖解LLM-Agent大模型智能體-AI.x社區(qū)

RAG局限

不適用于教會(huì)模型理解廣泛的領(lǐng)域或?qū)W習(xí)新的語言、格式或風(fēng)格。                   

微調(diào)技術(shù)?

通過深入學(xué)習(xí)內(nèi)化知識(shí),適合需要復(fù)制特定的結(jié)構(gòu)、風(fēng)格或格式。                    

二、解鈴還須系鈴人,從LLM內(nèi)部系統(tǒng)性解決問題的思路           

圖解LLM-Agent大模型智能體-AI.x社區(qū)


解鈴還須系鈴人,有針對(duì)性的為幻覺來源對(duì)癥下藥,將是今后管控幻覺的關(guān)鍵措施。這里沒用“消除”一詞,從上文認(rèn)知框架筆者推斷,可將幻覺降低到“不可見”范圍,但很難消除為零。

針對(duì)語料中的偏差與錯(cuò)誤,語料的全面數(shù)據(jù)治理十分必要,既要豐富詳實(shí),又要不偏不倚;加大算力提高模型精度,增強(qiáng)嵌入及后續(xù)訓(xùn)練的信息區(qū)分度;

改進(jìn)Transformer-Attention歸一化算法,優(yōu)化降低自由能損失,最大程度降低信息折損;自回歸預(yù)測將受益于歸一化優(yōu)化,從而提升內(nèi)部概率先驗(yàn)精確性;

構(gòu)建重整化流的數(shù)學(xué)公式,推導(dǎo)出其流動(dòng)的方向,并計(jì)算可能的不動(dòng)點(diǎn),從而借助新語料,對(duì)不動(dòng)點(diǎn)做微擾,促進(jìn)其進(jìn)入更有序的相空間,實(shí)現(xiàn)可控的可預(yù)測的涌現(xiàn);

RLHF訓(xùn)練結(jié)合提示工程探索不同上下文有效提示語,改進(jìn)decoder模型,促進(jìn)大模型內(nèi)部采樣使用Wasserstein距離作為概率分布近似的度量;

探測研究內(nèi)部世界模型結(jié)構(gòu),進(jìn)而可以控制模型溫度,指導(dǎo)動(dòng)態(tài)Bayes推理更貼切的采樣概率分布,進(jìn)一步亦可通過檢索增強(qiáng)生成(RAG)效果,提高自一致自評(píng)估能力。

三、內(nèi)外兼修,多種概念架構(gòu)層出不窮           

伯克利學(xué)者增強(qiáng)上下文窗口 Context Window 的思路

圖解LLM-Agent大模型智能體-AI.x社區(qū)

增加一個(gè)分層的外部上下文和相應(yīng)管理功能函數(shù)。 

LLM處理器以主上下文為輸入,并輸出由解析器解釋的文本:輸出或函數(shù)調(diào)用,函數(shù)調(diào)用在主上下文和外部上下文之間移動(dòng)數(shù)據(jù)。

普林斯頓學(xué)者的工作也比較有啟發(fā)性

圖解LLM-Agent大模型智能體-AI.x社區(qū)

定義了一組交互模塊和過程。

決策程序執(zhí)行智能體的源代碼。

此源代碼由與 LLM (提示模板和解析器)、內(nèi)部存儲(chǔ)器(檢索和學(xué)習(xí))和外部環(huán)境(Grounding) 交互的過程組成。

寫在最后

邏輯上人腦包括兩個(gè)重要系統(tǒng):

系統(tǒng)1 負(fù)責(zé)刺激響應(yīng),系統(tǒng)2負(fù)責(zé)深度思考。

大模型LLM功能目前相當(dāng)于系統(tǒng)1,智能體Agent類似系統(tǒng)2。

兩者相輔相成,協(xié)同一致,處理復(fù)雜問題兩者都不可或缺。          

筆者傾向于從LLM內(nèi)部解決現(xiàn)有問題的思路,三個(gè)關(guān)鍵點(diǎn):

·Self-awareness,非自我意識(shí),而是加強(qiáng)LLM對(duì)學(xué)到的范疇的結(jié)構(gòu)和關(guān)系的理解;

·范疇內(nèi)和跨范疇采樣改進(jìn),依據(jù)更好的“范疇的結(jié)構(gòu)和關(guān)系的理解”優(yōu)化采樣算法;

·構(gòu)建內(nèi)部工作空間,管理短中長期多層次記憶與范疇交互,推理規(guī)劃與使用工具;     

參考文獻(xiàn)

1.LLM Powered Autonomous Agents https://lilianweng.github.io/posts/2023-06-23-agent/?

2.The Rise and Potential of Large Language Model Based Agents: A Survey https://arxiv.org/pdf/2309.07864.pdf?

3.Introduction to LLM Agents https://developer.nvidia.com/blog/introduction-to-llm-agents/?

4.A Survey on Hallucination in Large Language Models:Principles, Taxonomy, Challenges, and Open Questions https://arxiv.org/pdf/2311.05232.pdf?

5.ENHANCING LARGE LANGUAGE MODELS IN CODING THROUGH MULTI-PERSPECTIVE SELF-CONSISTENCY https://openreview.net/pdf?id=hUs8YHAUEr?

6.Survey of Hallucination in Natural Language Generation https://arxiv.org/pdf/2202.03629.pdf?

7.Retrieval-Augmented Generation for Large Language Models: A Survey https://arxiv.org/pdf/2312.10997.pdf?

8.Cognitive Architectures for Language Agents https://arxiv.org/pdf/2309.02427.pdf?    

9.https://promptengineering.org/statistical-or-sentient-understanding-the-llm-mind/?

10.MEMGPT: TOWARDS LLMS AS OPERATING SYSTEMS  ?https://arxiv.org/pdf/2310.08560.pdf

本文轉(zhuǎn)載自??清熙??,作者: 王慶法 ????

標(biāo)簽
收藏
回復(fù)
舉報(bào)
回復(fù)
相關(guān)推薦