Claude 4被曝發(fā)布在即!DeepSeek把大招都給逼出來了
終于!終于!Claude 4被曝將在未來幾周內發(fā)布!
高亮重點,最新的它采取了一個與之前模型路線不同的辦法:
是個混合型大模型。
簡單來說,就是既帶有推理能力,會使用更多的算力來思考和解決難題;在面對簡單問題的時候,又能像傳統(tǒng)大模型一樣短平快地輕巧處理,無需多費不必要的功夫。
怎么樣,聽起來是不是和昨天奧特曼透露的GPT-5非常類似(doge)。
都是不再把傳統(tǒng)通用模型和推理模型分開推出,直接融合在一起。
據(jù)透露,Anthropic計劃在未來幾周內發(fā)布該模型。
而翻遍互聯(lián)網(wǎng)發(fā)現(xiàn),4天前就有人按捺不住,在推特上劇透過:
Anthropic內部員工告訴我,他們將在本周內發(fā)布Claude 4,以及一個推理模型。
至于性能嘛,超過滿血o3!
俗話說得好:傳言有出入,期待需謹慎。
但還是禁不住狠狠期待一下!
下面一起來看更詳細的劇透——
Claude 4不走老路,可控制使用時的推理成本
如前所述,Claude 4與此前的通用大模型不同。
它把通用模型和推理模型融合到一起去了,會根據(jù)具體任務,調整所需算力和所需功能:
遇到復雜的問題,就啟用推理能力;遇到簡單的問題,就用通用模型處理。
而且用戶可以自行控制,每個問題需要耗費多少token——表現(xiàn)出來就是我可以規(guī)定它在每個具體的問題上思考推理多長時間。
具體操作,是使用者可以通過一個游標刻度尺來調整,刻度上標注的是“完成任務所需的token數(shù)”。
如果將游標滑動到“0”,那么Claude 4就是一個傳統(tǒng)的、不帶推理能力的AI大模型。
滑動到的數(shù)值越大,所調用的算力就越多,思考推理過程就越長。
其實呢,OpenAI現(xiàn)在的模型也有類似功能。
不過OpenAI只分了“低-中-高”三檔,供用戶選擇推理強度。
但講道理,很難預測模型在每一檔位實際上會用掉多少tokens,所以很多用戶反饋“三個檔位并不能很好地控制使用成本”。
不過,這可能和OpenAI和Anthropic的市場定位有關系。
OpenAI更多針對的是普通用戶和個人開發(fā)者,三檔式更簡單易懂,方便操作。
而Anthropic更注重企業(yè)級市場,相對來說toB一些,所以采用了游標刻度尺來調整,讓使用者控制成本、速度等。
推理通用二合一,下一個大趨勢?
可以看到,國外大模型的兩個最強玩家,Anthropic和OpenAI,都明確了下一步道路:
讓通用模型和推理模型合二為一。
幾周內將發(fā)布的Claude 4如此,數(shù)月內將發(fā)布的GPT-5也是如此。
這或許是所有基座大模型玩家的下一步共同選擇也未可知——
當傳統(tǒng)Scaling Law撞墻成為一個強共識,而后訓練、推理、CoT的重要性與日俱增時,推理變成通用模型的必需技能,似乎是大勢所趨。
不過在這中間,Anthropic有屬于自己的牢固生態(tài)位,那就是它旗下的Claude系列,編程能力一直站在第一梯隊的頂尖。
而且它擅長的是大廠工程師所需級別的編程任務。
舉個例子,Claude系列更擅長理解由數(shù)千個文件組成的復雜代碼庫,并生成就能正常運行的完整代碼,且一次成功。
這就非常有意思了~
因為在面對復雜編程問題時,AI大模型往往會偷懶,僅提供注釋,而不是吐出實際代碼。
不過,現(xiàn)在還不清楚Claude 4將如何定價。
會比o3-mini便宜嗎?會比DeepSeek-R1便宜嗎?會比Google 2.0 Flash-Lite便宜嗎?
暫時還沒人知道。
不過有網(wǎng)友說出了大多數(shù)人的心聲:
如果花1000美元還解決不了我想解決的問題,那不是純純浪費錢嗎。
說白了,如果不是在某項實用能力上有「傲視群雄的拔尖實力」,或許所有模型玩家在定價這一part上能做的,就是像DeepSeek和Google 2.0 Flash-Lite一樣。
(忍痛)對著價格先狠狠砍一刀,然后再砍一刀,再砍一刀……
本文轉自量子位 ,作者:量子位
