ODA:通過全局觀察增強大模型集成知識圖譜推理能力的新型Agent框架
大型語言模型(LLMs)在自然語言處理任務中取得了顯著的成功。然而,LLMs在處理需要超出其預訓練內容的專業(yè)知識的查詢時,往往難以提供準確的回答。為了克服這一限制,研究者提出了將外部知識源,如知識圖譜(KGs),與LLMs集成的方法。KGs提供了結構化、明確且可解釋的知識表示,是克服LLMs內在限制的協(xié)同方法。盡管LLMs與KGs的融合在近期研究中引起了廣泛關注,但現有的方法往往僅依賴于LLM對問題的分析,忽視了KGs中豐富的認知潛力。
一個LLM與KG集成的例子。觀察到的實體以白色顯示,而非觀察到的實體以灰色顯示。代理選擇用于回答問題的實體以黃色高亮顯示。
ODA(Observation-Driven Agent)框架是為了解決涉及KGs的任務而設計的。它通過全局觀察來增強KG的推理能力,并采用觀察、行動和反思的循環(huán)范式。ODA的關鍵模塊包括:
觀察模塊:設計用于檢查全局KG知識并引導與KG環(huán)境的自主推理過程。通過遞歸進度避免三元組數量呈指數級增長的問題。
行動模塊:基于觀察子圖和ODA記憶,戰(zhàn)略性地選擇最適合執(zhí)行的行動,確保準確回答問題。
反思模塊:利用觀察子圖和從行動步驟獲得的知識,提供反饋并更新記憶,為下一次迭代提供連續(xù)的推理。
ODA(Observation-Driven Agent)框架
ODA的工作流程示例。在這個例子中,ODA從實體Johann Wolfgang von Goethe開始觀察。在左側的第一次迭代中,選擇了Johann Wolfgang von Goethe的鄰居探索行動,并將反思得到的三元組(Johann Wolfgang von Goethe, unmarried Partner, Lili Sch?neman)存儲在記憶中。隨后,對Lili Sch?neman的觀察引導ODA選擇鄰居探索行動,并導致三元組(Lili Sch?neman, place of birth, Offenbach am Main)被保留在記憶中,如右側所示。一旦積累了足夠的知識,ODA觸發(fā)回答行動,正確識別出Offenbach am Main 作為答案。
通過在四個KBQA數據集上的廣泛實驗,ODA在處理復雜問題時表現出色,尤其是在QALD10-en和T-REx數據集上分別實現了12.87%和8.9%的準確率提升。此外,ODA在不同基礎模型上(GPT3.5、GPT4)的表現也證明了其在不同LLMs上的通用性。ODA通過觀察模塊和反思模塊的有效整合,顯著提高了行動選擇和反思的準確性,從而增強了ODA的推理能力。
不同方法的性能比較,粗體分數代表所有基于GPT的零樣本方法中的最佳性能。微調的SOTA包括:1: SPARQL-QA,2: RACo,3: Re2G,4: RAG。?
消融比較:有無觀察模塊、以及不同反思方法
ODA: Observation-Driven Agent for integrating LLMs and Knowledge Graphs
??https://arxiv.org/pdf/2404.07677.pdf ??
??https://github.com/lanjiuqing64/KGdata??
本文轉載自??PaperAgent??,作者:PaperAgent
