「視覺版」GPT-4 Turbo重磅升級!ChatGPT 40條消息限制或取消
趁著谷歌開大會,OpenAI果然又來定向狙擊了。
谷歌前腳剛官宣一系列更新,OpenAI立馬跟著拋出重大消息——
GPT-4 Turbo迎來「重大升級」!
OpenAI今天官宣稱,配備視覺能力的GPT-4 Turbo已經(jīng)可以通過API調(diào)用了。
最新模型有128k上下文,訓(xùn)練數(shù)據(jù)截止到2023年12月。同時,Vision請求也可以使用JSON模式和函數(shù)調(diào)用。
而現(xiàn)在,早已有開發(fā)者用上了最新的模型。
爆火全網(wǎng)的AI工程師Devin就是通過Vision來執(zhí)行各種編碼任務(wù)。
Healthifyme團(tuán)隊通過GPT-4 Turbo with Vision構(gòu)建的應(yīng)用Snap,可以對各種美食進(jìn)行拍照識別,為你提供營養(yǎng)洞察。
還有更牛的應(yīng)用Make Real,直接勾畫幾筆UI,就能構(gòu)建出由真實(shí)代碼支持的網(wǎng)站。
顯然,新模型可以有助于簡化開發(fā)人員的工作流程,創(chuàng)造出更高效的應(yīng)用程序。
但代碼能力變差了?
不過,有研究發(fā)現(xiàn),GPT-4 Turbo with Vision在編碼方面較差。
尤其是,新模型似乎比現(xiàn)有的GPT-4 Turbo preview模型更加懶惰。
代碼編輯能力
Aider依靠代碼編輯基準(zhǔn)來定量評估LLM對現(xiàn)有代碼進(jìn)行更改的程度。
GPT-4 Turbo with Vision在這一基準(zhǔn)上的得分僅為62%,是現(xiàn)有任何GPT-4型號中得分最低的。
其他模型的得分為63%-66%,因此這只代表了很微小的退步,與 gpt-4-0613 相比,在統(tǒng)計上可能微不足道。
懶惰編碼
GPT-4 Turbo preview版本因在編碼時「懶惰」而廣受吐槽。
經(jīng)常省略所需的代碼,而是在注釋中留下「在此實(shí)現(xiàn)方法」之類的內(nèi)容。
def some_complex_method(foo, bar):
# ... implement method here ...
新的GPT-4 Turbo with Vision模型在AIDER的重構(gòu)基準(zhǔn)上只得了34%的分?jǐn)?shù),成為所有GPT-4 Turbo模型中最懶惰的一個。
不過,有網(wǎng)友表示,在對新模型進(jìn)行了一天的測試后,發(fā)現(xiàn)其并不懶惰而是更愿意輸出完整大量的代碼,甚至推理能力變強(qiáng)了。
每3小時40條消息限制取消了?
與此同時,有外媒報道稱,OpenAI已經(jīng)將GPT-4每3小時40條消息的使用限制,變成了根據(jù)供需情況動態(tài)調(diào)整的靈活配額」。
簡單來說就是,OpenAI會根據(jù)系統(tǒng)當(dāng)前的繁忙程度,來增加或減少用戶對GPT-4的請求次數(shù)。
然而,有不少Reddit網(wǎng)友表示,他們才剛發(fā)了10到17條消息,就被告知已經(jīng)達(dá)到了上限。
但也有很「歐」的網(wǎng)友稱,自己不管怎么用都沒有觸及限額。
不管是遠(yuǎn)低于40條的限制,還是近乎無限次的使用,OpenAI最大的問題在于——不僅從來不會告訴你已經(jīng)使用的次數(shù),也不會告訴你上限到底是多少。
據(jù)推測,這一調(diào)整是為了應(yīng)對ChatGPT在「免注冊」之后,顯著增加的使用量。
對于OpenAI而言,這種變化提供了更大的靈活性,可以更好地分配有限而昂貴的計算資源給GPT-4。
但對于用戶來說,尤其是在需求高峰期,可能用著用著突然就被取消了GPT-4的使用資格……
對此,有不少網(wǎng)友表示:還是Claude 3香!
至少,諸如Anthropic這樣的平臺,會提供更清晰的使用配額,或者允許按消息計費(fèi)。