GPT-4慘遭削弱,偷懶摸魚絕不多寫一行代碼,OpenAI已介入調(diào)查
GPT-4再次遭網(wǎng)友“群攻”,原因是“懶”得離譜!
有網(wǎng)友想在Android系統(tǒng)開發(fā)一個能夠與OpenAI API實時交互的應(yīng)用。
于是把方法示例鏈接發(fā)給GPT-4,讓它參考用Kotlin語言編寫代碼:
沒成想,和GPT-4一來二去溝通半天,GPT-4死活給不出一個能正常運行的完整代碼。
反而解釋了一通“應(yīng)該怎么做”。
這讓網(wǎng)友著實惱火,發(fā)推文吐槽“兩周前能寫好的代碼,現(xiàn)在卻不行了”。
結(jié)果一下子炸出來更多網(wǎng)友:
終于有人調(diào)查這事兒了。
大伙兒連連表示遇到了類似問題:
據(jù)網(wǎng)友所述,似乎從11月6日GPT-4大更新起,就開始出現(xiàn)這種情況了。
目前有OpenAI員工出面回應(yīng),表示已將問題反饋給團隊。
只要代碼,完整代碼!
也難怪網(wǎng)友會“破防”,就說上面網(wǎng)友把方法示例鏈接發(fā)給GPT-4,讓它用Kotlin語言編寫代碼之后。
GPT-4給出的回復(fù)是這樣嬸兒的,足足列了7條步驟,都在解釋“應(yīng)該怎么做”:
直到最后才給出代碼,但只是一個基礎(chǔ)“模版”:
網(wǎng)友起初還比較有耐心,告訴它“不需要解釋,只要給我代碼,完整的代碼,能100%正常運行的代碼”:
結(jié)果GPT-4張口又在解釋、舉例子:
網(wǎng)友氣不打一處來,直接打斷它,并再次強調(diào)“不要解釋,給我代碼”:
GPT-4這下可是真真明白了,把上面那個模版稍微改動了一下,就發(fā)出來了:
這才有了開頭的一幕,網(wǎng)友無奈發(fā)帖吐槽。
對于GPT-4的回復(fù),網(wǎng)友“怒吼”了一句:他們都對你做了什么?抱歉你被削弱了。
GPT-4此刻也是一臉無辜??。
陸陸續(xù)續(xù)出來吐槽的網(wǎng)友中,更有甚者表示已經(jīng)不用ChatGPT了。
AI圖像編輯器dingboard CEO@kache (yacine)在前一天也發(fā)帖吐槽,瀏覽量達(dá)157000+:
在過去的一個半星期里,我一直在編寫“幼稚”的代碼,因為GPT-4不那么遵循指令了。
巧了不是,如果按網(wǎng)友所說的“一個半星期”來算,時間還和奧特曼·真還傳事件吻合了。
圖片
kache (yacine)還有一條帖子滿滿都是情緒,“請把舊的GPT-4還給我”:
這位網(wǎng)友表示“我懂你”:
以前它能做出很好的猜測,現(xiàn)在它會給我十個理由解釋為什么它不能做出好的猜測。
上周,我對著聊天框大喊“f*ing do it!!”的次數(shù)創(chuàng)下歷史新高。
一時間,GPT-4的“懶惰”成為眾多網(wǎng)友“討伐”對象。
沃頓商學(xué)院教授Ethan Mollick也看不下去了,親自上手測試了一下,結(jié)果似乎表明這是真的。
Ethan Mollick重復(fù)了一系列之前用代碼解釋器(Code Interpreter)做過的分析。
GPT-4雖然知道該怎么做,但會一直提示“去完成工作”。導(dǎo)致原本的一個步驟變成了許多步驟,而且有些步驟很奇怪。
這下Ethan Mollick也是無語住了。
GPT-4到底是怎么了?背后原因還不得而知,網(wǎng)友們也是紛紛猜測起來。
OpenAI員工:已反饋給團隊
Ethan Mollick還是很嚴(yán)謹(jǐn),認(rèn)為即便如此也不足以證明GPT-4變得越來越笨了,他推測這可能是系統(tǒng)負(fù)載過高的暫時問題。
如果你是在手機(移動設(shè)備)上遇到了這種問題,那可能是因為手機版系統(tǒng)提示的原因,會指示ChatGPT生成更簡短精要的答案。
我的測試是在網(wǎng)頁版進行的。
Reddit上也有人發(fā)文討論,其中有一篇帖子指出“并不是新版GPT-4懶,只是我們用錯了”:
文中指出,GPT-4自本月6號進行了一次大更新后,基礎(chǔ)版本沒有自定義提示,這就導(dǎo)致GPT-4沒有預(yù)定義的“路徑”來指導(dǎo)其行為。
這讓它非常通用,但默認(rèn)設(shè)置下它的輸出也有些“無方向”。
解決辦法之一,就是使用更新后提供的自定義GPT新功能(GPTs),為每項工作設(shè)置一個專門的GPT。
也相繼有網(wǎng)友分享“小妙招”:
新版GPT-4改變游戲規(guī)則的一點是它能一次性解釋的代碼量。明確地說出類似“請完整地寫出這個測試”的指令,可能會有用。
同時,明確指出“不要重寫已經(jīng)寫過的代碼”也很有幫助,這樣可以節(jié)省token,讓模型專注于產(chǎn)生新的輸出。
我還發(fā)現(xiàn),加入“一步一步思考”的提示會在開始時增加一些計劃性的文本,這有助于后續(xù)輸出更好地定位上下文。
但也有網(wǎng)友表示自己在用的時候,無論如何都會留下一些“待辦事項”:
這位網(wǎng)友更是直言GPT-4現(xiàn)在像是得了老年癡呆:
OpenAI暗示的是新版GPT-4非常善于遵循指令,但事實并非如此。
我從一開始就一直在使用GPT-3、3.5再到后來的4,從未見過這種程度的阿爾茨海默癥。
在網(wǎng)友的激烈吐槽下,OpenAI員工也出面回應(yīng)。
起初是讓網(wǎng)友們提供一些具體的例子,說是研究一下,很有可能在下次模型版本迭代中修補這些問題。
此話一出,炸出更多網(wǎng)友“上報故障”。
will depue再次回應(yīng):
感謝反饋,在這里的所有示例都會幫助我們更快地解決這個問題。我剛剛將其轉(zhuǎn)發(fā)給團隊,后續(xù)消息會及時通知。
看來官方后續(xù)回應(yīng)還要再等一波,家人們最近有遇到類似情況嗎?
參考鏈接:
[1]https://twitter.com/erhartford/status/1729566883350012038。
[2]https://chat.openai.com/share/38e5ec71-a155-4d92-a85c-4b9e598a07fb。
[3]https://x.com/emollick/status/1729358803425001702?s=20。