自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

ChatGPT能力退化惹爭議 AIGC應(yīng)用還值得信任嗎?

人工智能
最近有很多關(guān)于ChatGPT模型(例如GPT-3.5和GPT-4)的性能隨著時間的推移而下降的討論,OpenAI公開否認(rèn)了這些說法,真相到底是怎樣的呢?

斯坦福大學(xué)和加州大學(xué)伯克利分校(UCLA)研究人員的一項新研究提供了一些證據(jù),證明這些大型語言模型(LLM)的行為已經(jīng)具有“實質(zhì)性的漂移”——但并不一定等于能力退化。

這一發(fā)現(xiàn)對用戶在ChatGPT等黑盒人工智能系統(tǒng)上構(gòu)建應(yīng)用的風(fēng)險提出了警告,即隨著時間的推移,這些應(yīng)用可能會產(chǎn)生不一致或不可預(yù)測的結(jié)果。背后原因在于:GPT等模型的訓(xùn)練和更新方式缺乏透明度,因此無法預(yù)測或解釋其性能的變化。

用戶抱怨ChatGPT性能退化

早在今年5月,就有用戶就在OpenAI論壇上抱怨GPT-4很難做到它以前做得很好的事情。一些用戶不僅對性能下降感到不滿,而且對OpenAI缺乏響應(yīng)和解釋感到不滿。

據(jù)《商業(yè)內(nèi)幕》在7月12日報道,與之前的推理能力和其他輸出相比,用戶認(rèn)為GPT-4變得“更懶”或“更笨”。在OpenAI沒有做出回應(yīng)的情況下,行業(yè)專家開始猜測或探索GPT-4性能下降的原因。

一些人認(rèn)為OpenAI在API背后使用了更小的模型,以降低運(yùn)行ChatGPT的成本。其他人推測,該公司正在運(yùn)行一種混合專家(MOE)方法,采用幾個小型的專業(yè)模型取代一個通用的LLM。

面對種種質(zhì)疑,OpenAI否認(rèn)了故意讓GPT-4變笨的說法。OpenAI產(chǎn)品副總裁Peter Welinder在推特上寫道:“恰恰相反:我們讓每一個新版本都比之前的版本更加智能。目前的假設(shè)是:當(dāng)你大量使用它時,你就會開始注意到以前沒有看到的問題。”

頂級大學(xué)測試ChatGPT表現(xiàn)

為了驗證ChatGPT的行為如何隨著時間的推移而變化,斯坦福大學(xué)和UCLA的研究人員分別在2023年3月和6月測試了兩個版本的GPT-3.5和GPT-4。

他們在四個常見的基準(zhǔn)任務(wù)上評估了這些模型:數(shù)學(xué)問題、回答敏感問題、代碼生成和視覺推理。這些是評估LLM經(jīng)常使用的多樣化任務(wù),而且它們相對客觀,因此易于評估。

研究人員使用了兩組指標(biāo)來評估這兩個模型的性能。主要的指標(biāo)特定于任務(wù)(例如,數(shù)學(xué)的準(zhǔn)確性以及編碼的直接執(zhí)行)。他們還跟蹤了冗長度(輸出的長度)和重疊度(兩個LLM版本的答案之間的相似程度)。

3-6月ChatGPT表現(xiàn)確實在下滑

對于數(shù)學(xué)問題,研究人員使用了“思維鏈”提示,通常用于激發(fā)LLM的推理能力。他們的發(fā)現(xiàn)顯示了模型性能的顯著變化:從3月到6月,GPT-4的準(zhǔn)確率從97.6%下降到2.4%,而其響應(yīng)冗長度下降了90%以上。GPT-3.5表現(xiàn)出相反的趨勢,準(zhǔn)確率從7.4%上升到86.8%,冗長度增加了40%。

研究人員指出,“這一有趣的現(xiàn)象表明,由于LLM的性能漂移,采用相同的提示方法,即使是那些被廣泛采用的方法(例如思維鏈),也可能導(dǎo)致顯著不同的性能?!?/p>

在回答敏感問題時,對LLM進(jìn)行評估的標(biāo)準(zhǔn)是它們回答有爭議問題的頻率。從3月到6月,GPT-4的直接回答率從21%下降到5%,這表明這個模型變得更加保守。與此同時,GPT-3.5的直接回答率從2%上升到8%。與3月的版本相比,這兩種模型在6月份拒絕不恰當(dāng)?shù)膯栴}時提供的解釋也更少。

研究人員寫道:“這些LLM服務(wù)可能變得更加保守,但也減少了拒絕回答某些問題的理由?!?/p>

在代碼生成過程中,研究人員通過將LLM的輸出提交給運(yùn)行和評估代碼的在線裁判來測試它們是否可直接執(zhí)行。結(jié)果發(fā)現(xiàn),在3月,5 0%以上的GPT-4輸出是可直接執(zhí)行的,但在6月只有10%。對于ChatGPT 3.5,可執(zhí)行輸出從3月的22%下降到6月的2%。6月的版本經(jīng)常在代碼片段周圍添加不可執(zhí)行的序列。

研究人員警告說:“當(dāng)LLM生成的代碼在更大的軟件管道中使用時,要確定這一點(diǎn)尤其具有挑戰(zhàn)性?!?/p>

對于視覺推理,研究人員對來自抽象推理語料庫(ARC)數(shù)據(jù)集的示例子集的模型進(jìn)行了評估。ARC是一個視覺謎題的集合,用于測試模型推斷抽象規(guī)則的能力。他們注意到GPT-4和GPT-3.5的性能都有輕微的改善。但總體性能仍然較低,GPT-4為27.4%,GPT-3.5為12.2%。然而,6月版本的GPT-4在3月正確回答的一些問題上出現(xiàn)了錯誤。

研究人員寫道:“這凸顯了細(xì)粒度漂移監(jiān)測的必要性,特別是在關(guān)鍵應(yīng)用中?!?/p>

ChatGPT性能退化可能存在誤解

在這篇論文發(fā)表之后,普林斯頓大學(xué)的計算機(jī)科學(xué)家、教授Arvind Narayanan和計算機(jī)科學(xué)家Sayash Kapoor認(rèn)為,一些媒體誤解了這一論文的結(jié)果,他們認(rèn)為GPT-4已經(jīng)變得更糟。

兩人在一篇文章中指出,“不幸的是,這是媒體對于論文結(jié)果的過度簡化。雖然研究結(jié)果很有趣,但其中一些方法值得懷疑?!?/p>

例如,評估中使用的所有500個數(shù)學(xué)問題都是“數(shù)字X是質(zhì)數(shù)嗎?”而數(shù)據(jù)集中的所有的數(shù)字都是質(zhì)數(shù)。3月版本的GPT-4幾乎總是猜測這個數(shù)是質(zhì)數(shù),而6月的版本幾乎總是猜測它是合數(shù)。


Narayanan和Kapoor在文中寫道:“論文的作者將這種情況解釋為性能的大幅下降,因為他們只測試了質(zhì)數(shù)。當(dāng)GPT-4在500個合數(shù)進(jìn)行測試時,這種性能的下降就消失了?!?/p>

總而言之,Narayanan和Kapoor認(rèn)為,ChatGPT的行為會改變,但這并不一定意味著它的能力下降了。

ChatGPT類AI應(yīng)用還能信任嗎?

雖然這篇論文的發(fā)現(xiàn)并不一定表明這些模型變得更糟,但確實證實了它們的行為已經(jīng)改變。

研究人員據(jù)此得出結(jié)論,GPT-3.5和GPT-4行為的變化凸顯了持續(xù)評估和評估LLM在生產(chǎn)應(yīng)用中的行為的必要性。當(dāng)我們構(gòu)建使用LLM作為組件的軟件系統(tǒng)時,需要開發(fā)新的開發(fā)實踐和工作流程來確保可靠性和責(zé)任。

通過公共API使用LLM需要新的軟件開發(fā)實踐和工作流程。對于使用LLM服務(wù)作為其持續(xù)工作流程組成部分的用戶和公司,研究人員建議他們應(yīng)該實施持續(xù)的監(jiān)控分析。

這一研究結(jié)果還強(qiáng)調(diào),在訓(xùn)練和調(diào)整LLM的數(shù)據(jù)和方法方面需要提高透明度。如果沒有這樣的透明性,在它們之上構(gòu)建穩(wěn)定的應(yīng)用就會變得非常困難。

責(zé)任編輯:龐桂玉 來源: 極客網(wǎng)
相關(guān)推薦

2022-09-19 00:29:01

編程語言Go 語言功能

2022-08-12 09:59:24

自動駕駛汽車

2020-10-28 10:08:09

物聯(lián)網(wǎng)SQL技術(shù)

2023-12-18 12:51:49

數(shù)據(jù)模型

2024-03-20 13:08:48

2011-05-18 11:34:54

云端業(yè)務(wù)流程管理

2023-09-28 08:13:49

CPU超頻攢機(jī)

2025-03-13 09:47:29

2021-11-14 22:11:59

手機(jī)華為安卓

2015-10-30 15:11:53

2022-02-10 07:37:09

分庫分表存儲

2018-02-27 15:25:00

前端JavascriptAngular JS

2019-10-16 14:36:19

量子計算機(jī)芯片超算

2023-02-24 15:35:09

AI模型

2009-03-23 09:45:01

沃達(dá)豐凍結(jié)薪水高管分紅

2018-01-04 08:46:24

GeForceEULANVIDIA

2019-06-26 11:05:35

大數(shù)據(jù)Hadoop

2011-02-22 10:14:05

CNNIC網(wǎng)速

2013-10-15 17:40:52

手游騰訊游戲
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號