OpenAI承認GPT-4變懶:暫時無法修復
對于越來越嚴重的GPT-4偷懶問題,OpenAI正式回應了。
還是用的ChatGPT賬號。
我們已收到相關反饋!自11月11日以來沒有更新過模型,所以這當然不是故意造成的。
模型行為可能是不可預測的,我們正在調查準備修復它。
也就是段時間內還修復不好了。
然而網(wǎng)友并不理解,“一遍一遍使用同一個模型,又不會改變文件”。
ChatGPT賬號澄清:
并不是說模型以某種方式改變了自己,只是模型行為的差異可能很微妙,只對部分提示詞有劣化,員工和客戶需要很長時間才注意到并修復。
更多網(wǎng)友反饋,趕快修復吧,一天比一天更糟糕了。
現(xiàn)在不但更懶,還缺乏創(chuàng)造力,更不愿意遵循指令,也不太能保持角色扮演了。
GPT-4偷懶,網(wǎng)友花式自救
此前很多網(wǎng)友反饋,自11月6日OpenAI開發(fā)者日更新后,GPT-4就有了偷懶的毛病,代碼任務尤其嚴重。
比如要求用別的語言改寫代碼,結果GPT-4只改了個開頭,主體內容用注釋省略。
對于大家工作學習生活中越來越離不開的AI助手,官方修復不了,網(wǎng)友也只能發(fā)揮創(chuàng)造力自救。
比較夸張的有“我沒有手指”大法,來一個道德綁架。
GPT-4現(xiàn)在寫代碼愛省略,代碼塊中間用文字描述斷開,人類就需要多次復制粘貼,再手動補全,很麻煩。
開發(fā)者Denis Shiryaev想出的辦法是,告訴AI“請輸出完整代碼,我沒有手指,操作不方便”成功獲得完整代碼。
還有網(wǎng)友利用“金錢”來誘惑它,并用API做了詳細的實驗。
提示詞中加上“我會給你200美元小費”,回復長度增加了11%。
如果只給20美元,那就只增加6%。
如果明示“我不會給小費”,甚至還會減少-2%
還有人提出一個猜想,不會是ChatGPT知道現(xiàn)在已經(jīng)是年底,人類通常都會把更大的項目推遲到新年了吧?
這理論看似離譜,但細想也不是毫無道理。
如果要求ChatGPT說出自己的系統(tǒng)提示詞,里面確實會有當前日期。
當然,對于這個問題也有一些正經(jīng)的學術討論。
比如7月份斯坦福和UC伯克利團隊,就探究了ChatGPT的行為是如何雖時間變化的。
發(fā)現(xiàn)GPT-4遵循用戶指令的能力隨著時間的推移而下降的證據(jù),指出對大模型持續(xù)檢測的必要性。
有人提出可能是溫度(temperature)設置造成的,對此,清華大學計算機系教授馬少平給了詳細解釋。
也有人發(fā)現(xiàn)更奇怪的現(xiàn)象,也就是當temperature=0時,GPT-4的行為依然不是確定的。
這通常會被歸因于浮點運算的誤差,但他通過實驗提出新的假設:GPT-4中的稀疏MoE架構造成的。
早期的GPT-3 API各個版本行為比較確定,GPT-4對同一個問題的30個答案中,平均有11.67個不一樣的答案,當輸出答案較長時隨機性更大。
最后,在這個問題被修復之前,綜合各種正經(jīng)不正經(jīng)的技巧,使用ChatGPT的正確姿勢是什么?
a16z合伙人Justine Moore給了個總結:
參考鏈接:
[1]https://twitter.com/ChatGPTapp/status/1732979491071549792
[2]https://twitter.com/literallydenis/status/1724909799593120044
[3]https://mashable.com/article/chatgpt-longer-responses-tips?taid=656feabb4faaf00001129343
[4]https://weibo.com/1929644930/NwbPFyTCZ
[5]https://152334h.github.io/blog/non-determinism-in-gpt-4/
[6]https://twitter.com/venturetwins/status/1732817594762338597