GPT-4“自我反思”后能力大增,測試表現(xiàn)提升 30%
4 月 4 日消息,OpenAI 最新的語言模型 GPT-4 不僅能夠像人類一樣生成各種文本,還能夠設(shè)計和執(zhí)行測試來評估和改進自己的表現(xiàn)。這種“反思”技術(shù)讓 GPT-4 在多項難度較高的測試中,都取得了顯著的進步,測試表現(xiàn)提升 30%。
GPT-4 是繼 GPT、GPT-2 和 GPT-3 之后,OpenAI 推出的最先進的系統(tǒng),也是目前最大的多模態(tài)模型(可以接受圖像和文本輸入,輸出文本)。其利用深度學(xué)習(xí)技術(shù),使用人工神經(jīng)網(wǎng)絡(luò)來模仿人類的寫作。
研究人員諾亞?辛恩(Noah Shinn)和阿什溫?戈平納特(Ashwin Gopinath)在論文中寫道:“我們開發(fā)了一種新穎的技術(shù),讓 AI 代理能夠模擬人類的自我反思,并評估自己的表現(xiàn)。GPT-4 在完成各種測試的時候,會增加一些額外的步驟,讓它能夠自己設(shè)計測試來檢查自己的答案,找出錯誤和不足之處,然后根據(jù)發(fā)現(xiàn)來修改自己的解決方案。”
在 HumanEval 編碼測試中,GPT-4 使用自我反思環(huán)路,準確率從 67% 上升到 88%
GPT-4 可以通過設(shè)計和執(zhí)行測試來批判其自身的性能,如 AlfWorld 測試結(jié)果所示,可以大大改善其性能
研究團隊使用這種技術(shù)對 GPT-4 進行了幾種不同的性能測試。在 HumanEval 測試中,GPT-4 需要解決 164 個從未見過的 Python 編程問題,原本準確率為 67%,使用反思技術(shù)后,準確率提升到了 88%。在 Alfworld 測試中,AI 需要在各種不同的交互環(huán)境中,通過執(zhí)行一些允許的操作,來做出決策和解決多步任務(wù)。使用反思技術(shù)后,GPT-4 的準確率從 73% 提高到了 97%,只有 4 個任務(wù)失敗。在 HotPotQA 測試中,GPT-4 可以訪問維基百科,并回答 100 個需要從多個支持文檔中解析內(nèi)容和推理的問題,原本準確率為 34%,使用反思技術(shù)后,準確率提高到了 54%。
這項研究表明,AI 問題的解決方案有時候是依賴 AI 本身。IT之家發(fā)現(xiàn),這有點像生成對抗網(wǎng)絡(luò),這是一種讓兩個 AI 互相提高技能的方法,比如一個 AI 試圖生成一些看起來像真實圖片的圖片,另一個 AI 試圖分辨哪些是假的,哪些是真的。但在這種情況下,GPT 既是寫作者又是編輯,通過自我反思來改進自己的輸出質(zhì)量。