自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

ChatGPT vs. GPT-3 vs. GPT-4只是聊天機器人家族的內部斗爭

人工智能
在解釋SoMin公司的廣告文案和橫幅生成功能時,經常有人會問,是否用ChatGPT取代了GPT-3,或者是否仍然在運行過時的模式。

在解釋SoMin公司的廣告文案和橫幅生成功能時,經常有人會問,是否用ChatGPT取代了GPT-3,或者是否仍然在運行過時的模式?!拔覀儧]有,也不打算這樣做?!盨oMin公司發(fā)言人給出這樣的回答,盡管OpenAI公司推出的ChatGPT這款聊天機器人正在蓬勃發(fā)展。這往往會讓客戶大吃一驚,以下解釋一下他為什么要給出這樣的回答。

在人工智能模型中占有一席之地

GPT-2、GPT-3、ChatGPT以及最近推出的GPT-4都屬于同一類人工智能模型——Transformer。這意味著,與上一代機器學習模型不同,它們被訓練來完成更統(tǒng)一的任務,因此它們不需要為每個特定的任務重新訓練來產生可行的結果。后者解釋了它們的巨大規(guī)模(在GPT-3的例子中有1750億個參數(shù)),而一個模型可能需要“記住整個互聯(lián)網(wǎng)”,才能足夠靈活地根據(jù)用戶輸入在不同的數(shù)據(jù)片段之間切換。然后,當用戶輸入查詢的問題,描述任務和幾個示例(就像你向圖書管理員詢問感興趣的書籍一樣)時,模型能夠生成結果。這種方法被稱為“小樣本學習”(Few-Shot Learning),最近在為現(xiàn)代Transformer模型提供輸入已成為一種趨勢。

但是,為了完成當前的任務,是否總是需要掌握所有的互聯(lián)網(wǎng)知識呢?當然不是——在很多情況下,就像ChatGPT一樣,需要大量 (數(shù)以百萬計)特定于任務的數(shù)據(jù)樣本,這些樣本將允許模型啟動“從人類反饋中強化學習(RLHF)”過程。反過來,RLHF將衍生出人工智能和人類之間進行的協(xié)作訓練過程,以進一步訓練人工智能模型,以產生類似人類的對話。因此,ChatGPT不僅在聊天機器人場景中表現(xiàn)出色,而且還幫助人們編寫短篇內容(例如詩歌或歌詞)或長篇內容(例如論文);當人們需要快速獲得答案時,可以采用簡單的術語或深入的知識解釋復雜的話題;提供頭腦風暴、新的話題和想法,這在創(chuàng)作過程中是有幫助的,支持銷售部門進行個性化溝通,例如生成電子郵件進行回復。

雖然從技術上來說,大型Transformer模型可以嘗試完成這些任務,但不太可能由ChatGPT甚至GPT-4來完成——這是因為ChatGPT和其他OpenAI的Transformer對世界發(fā)生的事件了解非常有限,因為它們是預訓練的模型,因此由于模型再訓練的計算需求非常大,因此它們的數(shù)據(jù)更新不夠頻繁。這可能是迄今為止OpenAI(以及其他任何公司)所生成的所有預訓練模型中最大的缺點。一個更大的問題是針對ChatGPT的:與GPT-3不同,它是在一個非常集中的對話數(shù)據(jù)集上進行訓練的,因此,只有在對話任務中ChatGPT才能超越它的前輩,而在完成其他人類生產力任務時,它就不那么先進。

成長中的大型語言模型家族

人們現(xiàn)在知道ChatGPT只是GPT-3的一個更小、更具體的版本,但這是否意味著在不久的將來會有更多這樣的模型出現(xiàn):用于營銷的MarGPT,用于數(shù)字廣告的AdGPT,用于回答醫(yī)療問題的MedGPT?

這是有可能的,其原因如下:當SoMin公司提交一份申請以獲得GPT-3 Beta的訪問權限時,盡管填寫了一份冗長的申請表,詳細解釋了將要構建的當前軟件,但被要求同意提供關于每天如何使用模型以及所收到的結果的反饋。OpenAI公司這樣做是有原因的,主要是因為這是一個研究項目,他們需要對模型的最佳應用進行商業(yè)洞察,他們通過眾籌來換取參與這場偉大的人工智能革命的機會。聊天機器人應用程序似乎是最受歡迎的應用程序之一,所以ChatGPT首先出現(xiàn)。ChatGPT不僅規(guī)模更小(200億個參數(shù)vs.1750億個參數(shù)),而且比GPT-3更快,而且在解決會話任務時比GPT-3更準確——對于低成本/高質量的人工智能產品來說,這是一個完美的商業(yè)案例。

那么,對于生成式人工智能來說,規(guī)模越大越好嗎?其答案是,要視情況而定。當人們正在構建一個能夠完成許多任務的通用學習模型時,其答案是肯定的,其規(guī)模越大越好,GPT-3比GPT-2和其他前輩的優(yōu)勢證明了這一點。但是,當人們想要很好地完成一項特定的任務時,就像ChatGPT中的聊天機器人一樣,那么與模型和數(shù)據(jù)大小相比,數(shù)據(jù)焦點和適當?shù)挠柧氝^程要重要得多。這就是為什么在SoMin公司沒有使用ChatGPT來生成文案和橫幅的原因,而是利用特定的數(shù)字廣告相關數(shù)據(jù)來指導GPT-3為尚未看到的新廣告制作更好的內容。

那么,有人可能會問,生成式人工智能的未來將如何發(fā)展?多模態(tài)將是人們在即將到來的GPT-4中看到的不可避免的進步之一,正如OpenAI公司首席執(zhí)行官Sam Altman在他的演講中提到的那樣。與此同時,Altman還打破了該模型擁有100萬億個參數(shù)的傳言。因此,人們都知道,這種人工智能模型越大并不總是代表著越好。

責任編輯:華軒 來源: 企業(yè)網(wǎng)D1Net
相關推薦

2023-02-18 21:39:08

聊天機器人AI工具

2023-05-04 08:00:00

機器人GPT4模型機器學習

2021-01-13 16:04:07

網(wǎng)絡On-Prem托管

2024-10-18 11:12:44

2024-05-21 12:23:17

2023-03-15 08:44:58

2014-09-28 10:29:43

喬布斯施密特Android

2021-12-23 15:36:21

NASSANDAS

2020-08-25 09:14:17

對象存儲文件存儲塊存儲

2023-05-22 19:49:30

命令Linux

2024-09-12 22:45:47

2025-02-18 16:00:00

代碼Python架構

2023-07-25 09:23:23

Llama 2GPT-4

2019-04-02 15:07:51

API NginxZuul

2020-04-15 10:21:43

云計算AWSAzure

2023-08-15 13:24:04

GPT-4AGI模型

2023-08-23 08:54:59

OpenAIGPT-3.5

2018-06-05 11:30:22

數(shù)據(jù)科學機器學習統(tǒng)計學

2023-05-04 06:28:51

GPT-4OpenAI

2023-03-01 16:15:16

點贊
收藏

51CTO技術棧公眾號