自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

?GPT充當大腦,指揮多個模型協(xié)作完成各類任務,通用系統(tǒng)AutoML-GPT來了

人工智能 新聞
使用 ChatGPT 實現(xiàn)通用人工智能,思路打開了。

當前,AI 模型雖然已經(jīng)涉及非常廣泛的應用領域,但大部分 AI 模型是為特定任務而設計的,它們往往需要大量的人力來完成正確的模型架構、優(yōu)化算法和超參數(shù)。ChatGPT、GPT-4 爆火之后,人們看到了大型語言模型(LLM)在文本理解、生成、互動、推理等方面的巨大潛力。一些研究者嘗試利用 LLM 探索通往通用人工智能(AGI)的新道路。

近期,來自德克薩斯州大學奧斯汀分校的研究者提出一種新思路 —— 開發(fā)任務導向型 prompt,利用 LLM 實現(xiàn)訓練 pipeline 的自動化,并基于此思路推出新型系統(tǒng) AutoML-GPT。

圖片

論文地址:

https://papers.labml.ai/paper/35151be0eb2011edb95839eec3084ddd

AutoML-GPT 使用 GPT 作為各種 AI 模型之間的橋梁,并用優(yōu)化過的超參數(shù)來動態(tài)訓練模型。AutoML-GPT 動態(tài)地接收來自 Model Card [Mitchell et al., 2019] 和 Data Card [Gebru et al., 2021] 的用戶請求,并組成相應的 prompt 段落。最后,AutoML-GPT 借助該 prompt 段落自動進行多項實驗,包括處理數(shù)據(jù)、構建模型架構、調(diào)整超參數(shù)和預測訓練日志。

AutoML-GPT 通過最大限度地利用其強大的 NLP 能力和現(xiàn)有的人工智能模型,解決了各種測試和數(shù)據(jù)集中復雜的 AI 任務。大量實驗和消融研究表明,AutoML-GPT 對許多人工智能任務(包括 CV 任務、NLP 任務)是通用的、有效的。

AutoML-GPT 簡介

AutoML-GPT 是一個依賴數(shù)據(jù)和模型信息來格式化 prompt 輸入段落的協(xié)作系統(tǒng)。其中,LLM 作為控制器,多個專家模型作為協(xié)作的執(zhí)行者。AutoML-GPT 的工作流程包括四個階段:數(shù)據(jù)處理、模型架構設計、超參數(shù)調(diào)整和訓練日志生成。

具體來說,AutoML-GPT 的工作機制如下:

圖片

  • 通過 Model Card 和 Data Card 生成固定格式的 prompt 段落
  • 構建訓練 pipeline,在選定的數(shù)據(jù)集和模型架構上處理用戶需求
  • 生成性能訓練日志并調(diào)整超參數(shù)
  • 根據(jù)自動建議的(auto-suggested)超參數(shù)調(diào)整模型

輸入分解

AutoML-GPT 的第一階段是讓 LLM 接受用戶輸入。為了提高 LLM 的性能并生成有效的 prompt,該研究對輸入 prompt 采用特定的指令。這些指令包括三個部分:Data Card、Model Card、評估指標和附加要求。

如下圖 2 所示,Data Card 的關鍵部分由數(shù)據(jù)集名稱、輸入數(shù)據(jù)集類型(如圖像數(shù)據(jù)或文本數(shù)據(jù))、標簽空間(如類別或分辨率)和默認評估指標組成。

圖片

如下圖 3 所示,Model Card 由模型名稱、模型結構、模型描述和架構超參數(shù)組成。通過提供這些信息,Model Card 能告知 LLM 整個機器學習系統(tǒng)使用了哪些模型,以及用戶對模型架構的偏好。

圖片

除了 Data Card 和 Model Card,用戶還可以選擇請求更多的評估基準、評估指標或任何約束。AutoML-GPT 將這些任務規(guī)范作為高級指令提供給 LLM,用于相應地分析用戶需求。

當有一系列需要處理的任務時,AutoML-GPT 需要為每個任務匹配相應的模型。為了達到這一目標,首先系統(tǒng)需要獲得 Model Card 和用戶輸入中的模型描述。

然后,AutoML-GPT 使用 in-context 任務 - 模型分配機制,動態(tài)地為任務分配模型。這種方法通過將模型描述和對用戶需求的更好理解結合起來,實現(xiàn)了增量模型(incremental model)訪問,并提供了更大的開放性和靈活性。

用預測訓練日志調(diào)整超參數(shù)

AutoML-GPT 根據(jù) Data Card 和 Model Card 設置超參數(shù),并通過生成超參數(shù)的訓練日志來預測性能。該系統(tǒng)自動進行訓練并返回訓練日志。在數(shù)據(jù)集上的模型性能訓練日志記錄了訓練過程中收集的各種指標和信息,這有助于了解模型訓練進展,找出潛在問題,以及評估所選架構、超參數(shù)和優(yōu)化方法的有效性。

實驗

為了評估 AutoML-GPT 的性能,該研究使用 ChatGPT(OpenAI 的 GPT-4 版本)來實現(xiàn)它,并進行多項實驗從多個角度展示了 AutoML-GPT 的效果。

下圖 4 展示了使用 AutoML-GPT 在未知數(shù)據(jù)集上訓練的結果:

圖片

下圖 5 展示了 AutoML-GPT 在 COCO 數(shù)據(jù)集上完成目標檢測任務的過程:

圖片

下圖 6 展示了 AutoML-GPT 在 NQ 開放數(shù)據(jù)集(Natural Questions Open dataset,[Kwiatkowski et al., 2019])上的實驗結果:

圖片

該研究還使用 XGBoost 在 UCI Adult 數(shù)據(jù)集 [Dua and Graff, 2017] 上評估了 AutoML-GPT,以探究其在分類任務上的性能,實驗結果如下圖 7 所示:

圖片

感興趣的讀者可以閱讀論文原文,了解更多研究細節(jié)。

責任編輯:張燕妮 來源: 機器之心
相關推薦

2023-02-16 13:48:56

模型論文

2023-04-10 11:18:24

GPT模型

2023-12-12 12:43:19

AI訓練

2023-09-01 21:12:13

GPT3.5模型微調(diào)

2023-03-28 08:23:38

2023-06-19 13:30:09

語音AI

2020-06-15 10:42:42

谷歌Android開發(fā)者

2023-03-16 19:17:57

2023-06-08 11:27:10

模型AI

2021-03-23 15:21:00

人工智能機器學習技術

2023-04-14 13:58:17

代碼智能

2023-03-02 22:46:48

2024-01-26 15:25:27

GPT-4人工智能大模型

2024-01-05 13:13:40

2023-11-06 09:26:00

模型測評

2023-08-17 08:00:00

2023-04-24 07:32:54

GPT模型文檔

2023-08-11 13:15:35

ChatGPTMBTIGPT-4
點贊
收藏

51CTO技術棧公眾號