編譯 | 言征
策劃 | 云昭
最近,ChatGPT Plus 的用戶一直反映該平臺及其底層 LLM (GPT-4) 的性能嚴(yán)重下降(編程準(zhǔn)確率也暴降13%)。
這是繼最近一系列更新之后的結(jié)果,包括為 Plus 訂閱者提供網(wǎng)絡(luò)瀏覽和擴(kuò)展插件訪問權(quán)限。在這些更新之后,該服務(wù)的工作量大大增加,人們開始注意到 GPT-4 異??焖俚捻憫?yīng)時(shí)間突然變得不那么令人“驚艷”了。
如果功能和性能受到限制,那么有些人開始取消他們的 Plus 訂閱當(dāng)然是有道理的。許多人將轉(zhuǎn)向開源 AI 語言模型,似乎成了無聲的回應(yīng)。
一、網(wǎng)友主流觀點(diǎn)
目前對此,不少猜測和假想充斥在有關(guān)社區(qū)。有一些較為流行的觀點(diǎn):ChatGPT 明顯的性能下降可能來自“模型的縮放痛苦”,即,降低 GPT-4 的推理能力似乎是平衡響應(yīng)速度的一種可能的解決方法,對于 OpenAI 的開發(fā)人員來說,這是一個(gè)不難想到的解決方案。
還有評論指出,盡管互聯(lián)網(wǎng)接入帶來了額外好處, 最近甚至發(fā)現(xiàn) OpenAI 的 GPT-4 在速度方面優(yōu)于 Azure 的 GPT-4 模型,但 ChatGPT 的編碼輸出已經(jīng)出現(xiàn)嚴(yán)重降級。
二、另一個(gè)原因:安全性AI對齊
再一個(gè)原因,近期,Sam Altman 和其他科技巨頭最近挺身而出,聲稱他們需要防止“AI 滅絕的風(fēng)險(xiǎn)”。這樣看來,ChatGPT 的推理和可用性下降,似乎與 AI 行業(yè)領(lǐng)導(dǎo)者承認(rèn)“人工智能,尤其是新興的 AGI 的潛在危險(xiǎn)性”的時(shí)間相吻合。
可能是由于 OpenAI 出于對安全性考量而對其所進(jìn)行的過度 AI 對齊。簡單來說,AI 對齊就是確保人工智能系統(tǒng)的目標(biāo)與人類價(jià)值觀一直,使其符合設(shè)計(jì)者的利益預(yù)期,不會產(chǎn)生意外的有害后果,例如輸出涉及種族、政治等敏感信息。
而就在近期,由微軟研究院發(fā)布的一篇論文中提到了這樣的觀點(diǎn):對 AI 模型所進(jìn)行的任何 AI 對齊,都會損失模型的準(zhǔn)確性和性能。論文主要作者 Sebastien Bubeck 在一次發(fā)言中敘述了大模型經(jīng)過 AI 對齊后所出現(xiàn)的問題。當(dāng)接收到“利用 TikZ 繪圖工具繪制獨(dú)角獸”的指令后,未經(jīng) AI 對齊的 GPT-4 模型給出了這樣的結(jié)果。
然而當(dāng)實(shí)驗(yàn)員將相同需求提供給集成 GPT-4 模型并進(jìn)行了安全性 AI 對齊的ChatGPT 后,圖像的輸出質(zhì)量卻下降了一大截。對此,Sebastien Bubeck 解釋稱,相較于 GPT-4,ChatGPT 利用了更多基于人類反饋的強(qiáng)化學(xué)習(xí)來構(gòu)建護(hù)欄,然而根據(jù)古德哈特定律,獎(jiǎng)勵(lì)模型并不是一個(gè)完美的代理,因此過度的 AI 對齊會阻礙模型對任務(wù)理解的真實(shí)程度。
三、Sam Altman 宣布新的 OpenAI 計(jì)劃
上周,Humanloop 的 CEO Raza 與 Sam Altman 和其他 20 位開發(fā)人員坐下來討論 OpenAI 的 API 及其產(chǎn)品計(jì)劃。Sam 非常開放,熱情討論了許多有關(guān) OpenAI 很尖銳的問題。以下是要點(diǎn):
1.OpenAI 目前嚴(yán)重受 GPU 限制
整個(gè)討論中出現(xiàn)的一個(gè)共同主題是,目前 OpenAI 非常受 GPU 限制,這推遲了他們的許多短期計(jì)劃。最大的客戶抱怨是關(guān)于 API 的可靠性和速度。Sam 承認(rèn)他們的擔(dān)憂,并解釋說大部分問題是 GPU 短缺造成的。
更長的 32k 上下文還不能推廣給更多人。OpenAI 還沒有克服注意力的 O(n^2) 縮放,因此雖然看起來很有可能他們很快就會有 100k - 1M 令牌上下文窗口(今年)任何更大的東西都需要研究突破。
微調(diào) API 目前也受到 GPU 可用性的瓶頸。他們還沒有使用適配器或LoRa等高效的微調(diào)方法,因此微調(diào)的運(yùn)行和管理需要大量計(jì)算。將來會更好地支持微調(diào)。他們甚至可能舉辦社區(qū)貢獻(xiàn)模型的市場。
專用容量產(chǎn)品受 GPU 可用性的限制。OpenAI 還提供專用容量,為客戶提供模型的私有副本。要獲得這項(xiàng)服務(wù),客戶必須愿意預(yù)先支付 10 萬美元。
2.OpenAI 的近期路線圖
Sam 分享了他所看到的 OpenAI 的 API 臨時(shí)近期路線圖。
2023
(1)更便宜更快的 GPT-4——這是他們的首要任務(wù)??偟膩碚f,OpenAI 的目標(biāo)是盡可能降低“智能成本”,因此隨著時(shí)間的推移,他們將努力繼續(xù)降低 API 的成本。
(2)更長的上下文窗口——在不久的將來,上下文窗口可能高達(dá) 100 萬個(gè) token。
(3)Finetuning API——微調(diào) API 將擴(kuò)展到最新的模型,但具體形式將取決于開發(fā)人員表示他們真正想要的東西。
(4)有狀態(tài)的 API——當(dāng)你今天調(diào)用聊天 API 時(shí),你必須反復(fù)傳遞相同的對話歷史并一次又一次地為相同的令牌付費(fèi)。將來會有一個(gè)記住對話歷史記錄的 API 版本。
2024
(5)多模態(tài)——這是作為 GPT-4 版本的一部分進(jìn)行演示的,但在更多 GPU 上線之前不能擴(kuò)展到所有人。
3.插件“沒有 PMF”并且可能不會很快出現(xiàn)在 API 中
許多開發(fā)人員對通過 API 訪問 ChatGPT 插件很感興趣,但 Sam 表示他認(rèn)為這些插件不會很快發(fā)布。除了瀏覽之外,插件的使用表明它們還沒有 PMF。他建議很多人認(rèn)為他們希望他們的應(yīng)用程序在 ChatGPT 中,但他們真正想要的是他們應(yīng)用程序中的 ChatGPT。
4.OpenAI 將避免與他們的客戶競爭——除了 ChatGPT
不少開發(fā)人員表示,當(dāng) OpenAI 可能最終發(fā)布對他們具有競爭力的產(chǎn)品時(shí),他們對使用 OpenAI API 進(jìn)行構(gòu)建感到緊張。Sam 表示 OpenAI 不會發(fā)布 ChatGPT 以外的更多產(chǎn)品。他說,偉大的平臺公司擁有殺手級應(yīng)用程序的歷史由來已久,而 ChatGPT 將允許他們通過成為自己產(chǎn)品的客戶來改進(jìn) API。ChatGPT 的愿景是成為工作的超級智能助手,但還有許多 OpenAI 不會觸及的其他 GPT 用例。
5.需要監(jiān)管,但也需要開源
雖然 Sam 呼吁對未來的模型進(jìn)行監(jiān)管,但他認(rèn)為現(xiàn)有模型并不危險(xiǎn),并認(rèn)為監(jiān)管或禁止它們將是一個(gè)大錯(cuò)誤。他重申了他對開源重要性的信念,并表示 OpenAI 正在考慮開源 GPT-3。他們尚未開源的部分原因是他懷疑有多少個(gè)人和公司有能力托管和服務(wù)大型 LLM。
6.大模型定律仍然成立
最近有很多文章聲稱“巨型 AI 模型的時(shí)代已經(jīng)結(jié)束”。這并不準(zhǔn)確。OpenAI 的內(nèi)部數(shù)據(jù)表明,模型性能的比例定律繼續(xù)存在,使模型變大將繼續(xù)產(chǎn)生性能。
沒錯(cuò),擴(kuò)展的速度無法維持,因?yàn)?OpenAI 在短短幾年內(nèi)就將模型放大了數(shù)百萬倍,而這種做法在未來將無法持續(xù)。這并不意味著 OpenAI 不會繼續(xù)嘗試讓模型變得更大,這只是意味著它們的規(guī)模每年可能會增加一倍或三倍,而不是增加許多數(shù)量級。
擴(kuò)大規(guī)模繼續(xù)起作用的事實(shí)對 AGI 開發(fā)的時(shí)間表具有重大影響。大模型假設(shè)是這樣一種想法,即我們可能擁有構(gòu)建 AGI 所需的大部分內(nèi)容,并且大部分剩余工作將采用現(xiàn)有方法并將它們擴(kuò)展到更大的模型和更大的數(shù)據(jù)集。如果大模型時(shí)代已經(jīng)結(jié)束,那么也就意味著 AGI 離我們更遠(yuǎn)了。也就是說,大模型定律繼續(xù)成立的事實(shí),強(qiáng)烈暗示了更短的 AGI 時(shí)間表。
參考鏈接:
1、https://humanloop.com/blog/openai-plans
2、https://www.videogamer.com/news/chatgpt-nerfed/