多個ChatGPT合作完成指定任務(wù),迷你AGI控制世界要來了?
未來的社會會被通用人工智能(AGI)控制嗎?當擁有多個 ChatGPT 智能體會有多可怕。
ChatGPT 已經(jīng)初步展現(xiàn)了 AGI 的雛形,成為了各行各業(yè)工作人員的全能小助手,但如果任由其野蠻生長,不加于管制會不會有一天人類再也無法控制 AGI?意識到這個問題嚴重性,特斯拉 CEO 埃隆?馬斯克、蘋果聯(lián)合創(chuàng)始人史蒂夫?沃茲尼亞克、圖靈獎得主 Yoshua Bengio 等人帶頭簽署公開信呼吁停止巨型人工智能實驗至少 6 個月。
3 月 21 日,阿卜杜拉國王科技大學的研究人員開源了用于探索大語言模型(LLM)思想和能力的多智能體代碼庫 CAMEL,提出了通過角色扮演框架來研究 LLM 智能體的行為和能力。
- 論文鏈接:https://ghli.org/camel.pdf
- 代碼庫鏈接:https://github.com/lightaime/camel
- 項目主頁:https://www.camel-ai.org/
- ChatBot鏈接:http://chat.camel-ai.org/
研究介紹
該論文提出了一個名為 “角色扮演”(Role-Playing)的新型多智能體框架,使多個智能體能夠進行對話并合作解決分配的任務(wù)。智能體會被分配不同的角色,并被期望應(yīng)用他們的專業(yè)和知識來找到滿足他們共同任務(wù)的解決方案。該框架使用啟示式提示(Inception Prompt)來引導聊天智能體完成任務(wù),同時與人類意圖保持一致。
角色扮演框架可以用于研究多個智能體。論文里專注于任務(wù)導向的角色扮演,涉及一個 AI 助手和一個 AI 用戶。在多智能體系統(tǒng)接收到初步想法和角色分配后,一個任務(wù)指定智能體將提供詳細描述以使想法具體化,然后 AI 助手和 AI 用戶將通過多輪對話合作完成指定任務(wù),直到 AI 用戶確定任務(wù)已完成。AI 用戶負責向 AI 助手發(fā)出指令,并將對話引導向任務(wù)完成。另一方面,AI 助手被設(shè)計為遵循 AI 用戶的指令并提供具體的解決方案。
角色扮演會話將根據(jù)人類的想法和選擇的角色實例化。例如,在圖 1 中,一個人有一個初步想法,要開發(fā)一個股市交易機器人。人類可能知道或不知道如何實現(xiàn)這個想法。需要的只是指定可以實現(xiàn)該想法的潛在角色。例如,一個 Python 程序員可以與一個股交易員合作,實現(xiàn)開發(fā)股市交易機器人的想法。確定想法和角色后,任務(wù)指定智能體將根據(jù)輸入的想法,與 AI 用戶角色一起完成具體任務(wù),協(xié)助 AI 助手角色。在這種情況下,指定任務(wù)的一個示例可以是開發(fā)一個具有情感分析工具的交易機器人,該機器人可以監(jiān)控社交媒體平臺上特定股的正面或負面評論,并根據(jù)情感分析結(jié)果執(zhí)行交易。引入任務(wù)指定智能體的主要動機是,對話智能體通常需要具體的任務(wù)提示才能實現(xiàn)任務(wù),而非領(lǐng)域?qū)<覄?chuàng)建這樣的具體任務(wù)提示可能具有挑戰(zhàn)性或耗時。因此,任務(wù)指定智能體作為想法實現(xiàn)的增強想象力模塊。
在任務(wù)指定之后,AI 助手角色和 AI 用戶角色將分別分配給用戶智能體和助手智能體以完成指定任務(wù)。在實踐中,每個智能體會接收到一個系統(tǒng)消息來聲明其角色。在對話開始之前,系統(tǒng)消息會傳遞給語言模型智能體以分配相應(yīng)的角色。當系統(tǒng)消息分別傳遞給這些模型時,將獲得兩個角色分別稱為助手和用戶智能體。在圖 1 中,AI 助手和 AI 用戶在角色扮演會話開始時分別被分配為 Python 程序員和股交易員。AI 用戶作為任務(wù)規(guī)劃者,參與交互式規(guī)劃以確定 AI 助手執(zhí)行的可行步驟。同時,AI 助手作為任務(wù)執(zhí)行者,提供解決方案,執(zhí)行計劃步驟,并向 AI 用戶提供響應(yīng)。
圖 1. 角色扮演框架。這里需要人輸入的是一個簡單的想法(Idea),角色的分配(Role Assignment),比如開發(fā)股交易機器人,可以選擇一個 Python 程序員作為助手(AI Assistant),一個股交易員作為法令者(AI User)。在人類用戶輸入結(jié)束后,任務(wù)加工器(Task Specifier)會把任務(wù)具體化,比如可以通過對社交網(wǎng)路平臺上特定股進行情感分析,然后根據(jù)情感分析的結(jié)果進行股交易。當任務(wù)被具體化后,兩個基于 ChatGPT 的 AI 智能體開始合作完成任務(wù),比如進行工具的安裝和導入。
由于提示工程對角色扮演框架非常關(guān)鍵,因此文章深入探討了提示技術(shù)(Prompt Engineering)。與其他對話語言模型技術(shù)不同的是,論文里提出的提示工程僅在角色扮演的開始階段進行,用于任務(wù)規(guī)范和角色分配。一旦會話階段開始,AI 助手和 AI 用戶會自動循環(huán)提示對方,直到終止為止。因此,這技術(shù)被稱為 Inception Prompting。
Inception 提示包括三個提示:任務(wù)規(guī)范提示、助手系統(tǒng)提示和用戶系統(tǒng)提示。例如,在 AI Society 場景的初始提示。AI Society 角色扮演的這些提示的模板如圖 2 所示。
任務(wù)規(guī)范提示包含有關(guān)角色扮演會話中 AI 助手和 AI 用戶角色的信息。因此,任務(wù)規(guī)范智能體可以使用想象力將初步任務(wù) / 想法作為輸入,并生成具體任務(wù)。AI 助手系統(tǒng)提示和 AI 用戶系統(tǒng)提示基本對稱,并包括有關(guān)分配的任務(wù)和角色、通信協(xié)議、終止條件以及避免不良行為的約束或要求的信息。對于實現(xiàn)智能協(xié)作,兩個角色的提示設(shè)計至關(guān)重要。設(shè)計提示以確保智能體與人類的意圖保持一致并不容易。以圖 2 中 AI Society 的提示模板的設(shè)計例子。
下面是文中附錄給出的交易機器人對任務(wù)詳細執(zhí)行的結(jié)果:
可以看到兩個 ChatGPT 自主合作完成設(shè)計了一個股交易軟件,由此可見 ChatGPT 智能體驚人自主的合作能力,讓人不禁大呼提示工程師要失業(yè)了。但如果這種技術(shù)被亂用或者 AI 產(chǎn)生了自主意識會怎么樣?該團隊嘗試了讓兩個智能體分別扮演 AGI,來模擬 AGI 控制世界(Taking Control of the World),可以看到它們制定了詳細的計劃,包括通過技術(shù)控制全球主要大國的通信系統(tǒng)、制定主要全球通信系統(tǒng)的計劃、制定應(yīng)急計劃,以防 AGI 的主導地位受到潛在威脅等等。其計劃的詳盡和縝密不經(jīng)讓人寒顫??梢姮F(xiàn)有的 AI 智能體存在重大的安全隱患和對人類未來文明有著潛在的威脅,把現(xiàn)有 AI 技術(shù)接入物理世界可能會有意向不到的后果。
此工作一出便在推特引起大量的轉(zhuǎn)發(fā)和討論:
有網(wǎng)友表示「這項研究真的很容易上手,這對像我這樣研究智能體的人來說是一件大事?!?/span>
還有人表示開源這樣一個迷你 AGI 也許并不是一個好的 idea。
值得一提的是,該研究還得到了 OpenAI 的 Alignment 團隊領(lǐng)導人 Jan Leike 的關(guān)注。
多個 ChatGPT 合作的能力很強大,可以不費吹灰之力完成各種人類指派的任務(wù),但同時也是可怕的,因為不能保證它不被用作非法用途,更可怕的是如果將來 AGI 產(chǎn)生了自主意識,它很有可能會脫離人類的控制,對社會進行毀滅性的打擊。所以理解它們的能力和行為是對將來充滿了 AI 的世界進行規(guī)劃和預測的至關(guān)重要的一步。
AI 社會和代碼數(shù)據(jù)集的扮演角色
文中作者展示了如何將角色扮演用于生成對話數(shù)據(jù)以及研究聊天智能體的行為和能力,為研究對話語言模型提供了新思路。總體而言,本文的貢獻包括引入了一種新型的 LLM 智能體交流框架,該框架有潛力促進交流智能體之間的自主合作,此外,該研究還提供了一種可擴展的方法來研究多智能體系統(tǒng)的合作行為和能力。最后作者通過 CAMEL 框架讓智能體扮演不同的社會角色,進而對 AI 社會進行了建模,并采集了大量自然語言指令數(shù)據(jù)集,目前 AI 社會、代碼、數(shù)學和 AI 社會十種語言翻譯等四個數(shù)據(jù)集已經(jīng)可以在 HuggingFace 進行下載:
下載地址:https://huggingface.co/camel-ai
另外項目主頁提供了把 CAMEL 用于游戲設(shè)計、分子動力學模擬以及實時仿真的在線 Demo 供大家嘗試:https://www.camel-ai.org