自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

大語言模型中自我發(fā)現(xiàn)的蘇格拉底方法 原創(chuàng)

發(fā)布于 2024-10-21 15:08
瀏覽
0收藏

今天我們介紹來自普林斯頓NLP組的一篇很有意思的博客,作者提出了大語言模型中自我發(fā)現(xiàn)的蘇格拉底方法。

大語言模型中自我發(fā)現(xiàn)的蘇格拉底方法-AI.x社區(qū)


一、核心內(nèi)容

(一)多智能體協(xié)作解決問題(有人類參與)

  1. 智能體角色分配
  • 文中提到在涉及基于大型語言模型的智能體和人類參與的多智能體協(xié)作解決問題領(lǐng)域十分引人關(guān)注。通過給大型語言模型賦予如“分析員”或“校對員”等不同角色,能夠有效利用它們各自的優(yōu)勢,增強整體解決問題的能力。這種角色分配就像是在一個團隊中,每個成員都有自己擅長的領(lǐng)域,通過協(xié)作能攻克更復(fù)雜的難題。

大語言模型中自我發(fā)現(xiàn)的蘇格拉底方法-AI.x社區(qū)

(二)蘇格拉底方法的力量

  1. 現(xiàn)有方法的局限
  • 在大型語言模型中,像思維鏈(CoT)/反應(yīng)(ReAct)等方法雖然在激發(fā)分析和批判性思維能力方面取得了進展,但它們往往依賴于精心設(shè)計的固定形式的提示。這就好比是給模型設(shè)定了一個固定的思維框架,限制了模型解決問題的靈活性。
  1. 蘇格拉底方法的探索
  • 文章提出通過促進智能體之間的自由式探究來充分釋放大型語言模型的潛力。這種方法類似于古希臘哲學(xué)家蘇格拉底通過對話引導(dǎo)人們思考和發(fā)現(xiàn)真理的過程,在大型語言模型的語境下,有望讓模型擺脫固定提示的束縛,更自由地挖掘自身的能力。

(三)對知識和推理“提示”的再思考

  1. 提示工程的擴展
  • 作者將“提示工程”的概念進行了推廣,不局限于依靠少量固定的提示格式來引導(dǎo)文本生成。而是主張讓大型語言模型通過自身之間的自主、自由形式的對話,利用其固有的推理能力。這種方式就像是讓模型自己學(xué)會思考和交流,從內(nèi)部挖掘知識,而不是被動地等待外部的提示。
  1. SocraticAI的提出
  • 基于上述見解,提出了SocraticAI這一利用大型語言模型促進自我發(fā)現(xiàn)和創(chuàng)造性解決問題的新方法。它為大型語言模型的應(yīng)用開啟了新的思路,就像打開了一扇通往更智能、更自主的人工智能應(yīng)用的大門。

大語言模型中自我發(fā)現(xiàn)的蘇格拉底方法-AI.x社區(qū)

二、理論基礎(chǔ)與相關(guān)研究

(一)柏拉圖的認識論:一切學(xué)習都是回憶

  1. 蘇格拉底與美諾的對話
  • 在公元前402年的古雅典,蘇格拉底和美塞尼亞的領(lǐng)袖美諾進行了關(guān)于美德起源的對話,蘇格拉底提出了“一切學(xué)習都是回憶”的理論,即回憶理論。這個理論假設(shè)我們的靈魂中蘊含著前世的知識,學(xué)習只是挖掘這些潛在智慧的過程。
  1. 幾何問題示例
  • 例如蘇格拉底讓美諾的仆人男孩將2×2正方形面積翻倍的幾何問題。男孩一開始沒有數(shù)學(xué)知識,提出了錯誤的方法,但經(jīng)過蘇格拉底一系列簡單問題的引導(dǎo),最終找到了正確的解決方案——以原正方形對角線為新正方形的邊。這個過程體現(xiàn)了通過正確提問引導(dǎo)他人“回憶”起知識的力量,也為大型語言模型的探索提供了一種啟發(fā)式的思路。

(二)大型語言模型:提示的重要性

  1. 模型的訓(xùn)練與能力涌現(xiàn)
  • 如今的大型語言模型如OpenAI的ChatGPT,是在大規(guī)模數(shù)據(jù)集上進行預(yù)訓(xùn)練,學(xué)習預(yù)測序列中的下一個單詞,再通過少量指令和反饋進行微調(diào)。隨著模型和數(shù)據(jù)集規(guī)模增大,會涌現(xiàn)出零樣本或少樣本泛化能力和推理能力等。這種預(yù)訓(xùn)練過程就像是模型的“前世”積累。
  1. 提示工程的必要性
  • 然而,大型語言模型有時會“產(chǎn)生幻覺”,給出錯誤或無意義的回答,所以提示工程變得至關(guān)重要。目前有多種提示技術(shù)如思維鏈(CoT)、“描述、解釋、計劃和選擇”(DEPS)、“推理 + 行動”(ReAct)和自我反思(Reflexon)等被開發(fā)出來增強模型解決問題的能力,但這些技術(shù)存在需要創(chuàng)建特定任務(wù)提示模板和局限于單一思路等問題。這就促使人們思考是否可以采用類似蘇格拉底對話的方法,讓多個大型語言模型相互交流來解決問題。

大語言模型中自我發(fā)現(xiàn)的蘇格拉底方法-AI.x社區(qū)

三、SocraticAI框架

(一)框架概述

  1. 智能體角色與工具
  • SocraticAI框架基于ChatGPT 3.5等現(xiàn)代大型語言模型,采用三個獨立的基于大型語言模型的智能體,分別扮演蘇格拉底(分析員)、泰阿泰德(分析員)和柏拉圖(校對員)的角色來協(xié)作解決問題。這些智能體可以訪問WolframAlpha和Python代碼解釋器,就像是給它們配備了強大的工具來解決問題。
  1. 系統(tǒng)提示與對話規(guī)則
  • 在每次對話開始時,智能體會收到元級系統(tǒng)提示,包括問題陳述、如何進行多輪對話、如何咨詢用戶、如何編寫和執(zhí)行Python腳本、如何咨詢WolframAlpha以及如何呈現(xiàn)最終答案等規(guī)則。例如,智能體遇到不確定情況可以通過特定語句向用戶咨詢,編寫Python腳本有特定的格式要求等。這些規(guī)則為智能體的協(xié)作提供了一個有序的框架。

(二)案例研究:二十四點游戲

  1. 傳統(tǒng)方法的失敗嘗試
  • 用思維鏈(CoT)方法讓GPT - 4解決用2、3、4、5這四個數(shù)字各一次,通過基本算術(shù)運算得到24的二十四點游戲問題時,盡管多次嘗試糾正和分析,GPT - 4還是未能找到解決方案。這顯示了傳統(tǒng)方法在某些問題上的局限性。
  1. SocraticAI框架的成功解決
  • 而在SocraticAI框架下,三個基于GPT的智能體能夠自主地為這個謎題制定問題解決策略。它們通過討論,如先將問題形式化,然后由蘇格拉底編寫Python腳本生成數(shù)字和操作的組合,經(jīng)過一系列步驟,包括柏拉圖提出建議和糾正,最終找到了“2 * (3+(4 + 5))”這個正確的解決方案,并通過WolframAlpha驗證了答案的正確性。整個過程展示了SocraticAI框架中智能體通過協(xié)作自主解決問題的能力。

四、更多演示

(一)估計果蠅大腦中的連接密度

  1. 問題解決過程
  • 在演示中的第一個對話場景里,人類用戶(Tony)詢問SocraticAI果蠅大腦中的連接數(shù)量,并建議使用FlyWire的突觸表來估計。雖然“連接密度”未明確定義,但智能體自動將其定義為單位體積腦組織中的突觸數(shù)量。它們在計算突觸總數(shù)時遇到了表格列缺失的錯誤,經(jīng)過柏拉圖的建議檢查列名后成功計算出突觸總數(shù)。然后在估計腦組織體積時,提出了不同的方法,如用外部形態(tài)或顯微鏡圖像估計,還創(chuàng)造性地提出將果蠅頭部建模為橢球體來估計體積,但由于本地機器缺少邊界框數(shù)據(jù)而遇到錯誤。這個過程展示了智能體在面對復(fù)雜問題時的思考和嘗試。

(二)計算素數(shù)索引行的總和

  1. 問題分析與解決
  • 在第二個對話中,人類用戶(Tony)要求計算Excel表中第i行的總和(i為第21個素數(shù))。智能體首先討論了問題的定義,澄清了是行總和且需要精確值。蘇格拉底和泰阿泰德錯誤地認為第21個素數(shù)是71(實際是73),在嘗試用Python代碼解決讀取Excel文件問題時遇到了多次錯誤,包括文件格式和數(shù)據(jù)類型轉(zhuǎn)換等問題,但最終通過調(diào)試成功計算出總和。這個過程體現(xiàn)了智能體在解決實際問題時會遇到各種困難,但通過相互協(xié)作和調(diào)試能夠找到解決方案。

五、未來與局限

(一)未來展望

  1. 多樣化智能體協(xié)作
  • 目前只進行了基于相同基礎(chǔ)模型和專業(yè)知識的智能體實驗,但未來可以想象有各種具有獨特專業(yè)知識的人工智能智能體相互協(xié)作來解決多方面挑戰(zhàn),就像一個由不同專業(yè)人才組成的團隊攻克復(fù)雜項目一樣。這種基于回憶理論和蘇格拉底方法的設(shè)想,有望讓人工智能系統(tǒng)在廣泛的討論中互相提問和引導(dǎo),形成一個“AI社會”,在這個社會中,AI能夠有組織地進行生產(chǎn)活動,通過不同角色的分工解決問題,超越現(xiàn)有的單一模型提示方法。
  1. 知識與技能的融合
  • 隨著這些AI系統(tǒng)的交流和協(xié)作,它們能夠整合集體的知識和技能,產(chǎn)生新的見解,優(yōu)化流程,推動各個領(lǐng)域的進步。這將有可能徹底改變我們對人工智能的理解和應(yīng)用,在科學(xué)發(fā)現(xiàn)過程中帶來重大變革。

(二)局限與挑戰(zhàn)

  1. 新的風險與復(fù)雜性
  • 然而,讓多個大型語言模型進行對話雖然可能提高解決問題的能力,但也會帶來新的復(fù)雜性和風險,如潛在的偏見和錯誤信息的放大。在向更具協(xié)作性的AI環(huán)境過渡時,解決這些挑戰(zhàn),確保AI系統(tǒng)有效和負責任地合作至關(guān)重要。
  1. 方法的易錯性
  • 就像在第二個演示對話中智能體錯誤地認為71是第21個素數(shù)一樣,這種方法有時還是容易因錯誤信念而產(chǎn)生錯誤。不過,作者相信通過更多研究,特別是使用更多專門設(shè)計來解決這些問題的角色和智能體,可以幫助解決這些問題。

在人工智能不斷發(fā)展的今天,SocraticAI框架為大型語言模型的應(yīng)用提供了新的方向和思考,雖然存在局限,但它所展現(xiàn)出的潛力值得我們進一步探索和研究。


本文轉(zhuǎn)載自公眾號AIGC最前線  作者:實習小畢

原文鏈接:??https://mp.weixin.qq.com/s/0bHWYBbVC2ycyaVzfi4Jbg???

?著作權(quán)歸作者所有,如需轉(zhuǎn)載,請注明出處,否則將追究法律責任
已于2024-10-21 15:09:09修改
收藏
回復(fù)
舉報
回復(fù)
相關(guān)推薦