自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Anthropic秘密「混合模型」 Claude 4首曝細(xì)節(jié),硬剛GPT-5!深度推理模型來(lái)了

人工智能
AI競(jìng)賽白熱化!Anthropic秘密研發(fā)一種與眾不同的AI——語(yǔ)言模型與可控推理能力相結(jié)合的混合模型。模型包括一個(gè)獨(dú)特的「滑動(dòng)條」功能,它賦予開發(fā)者對(duì)計(jì)算資源和成本前所未有的控制權(quán)。

Anthropic終于要開始搞點(diǎn)事情啦!

近期的「推理模型」熱潮中,Anthropic除了其CEO打了幾個(gè)嘴炮外,還沒有掏出一個(gè)拿得出手的產(chǎn)品。

在這樣下去,可能要退出AI一線模型玩家行列了。Anthropic自己顯然不想看到這種情況發(fā)生。

就在剛剛,有消息稱,Anthropic會(huì)在未來(lái)幾周內(nèi)發(fā)布其全新的「混合AI」模型。

圖片圖片

Anthropic版「推理模型」,測(cè)試時(shí)計(jì)算完全掌控

在OpenAI去年秋季發(fā)布其「推理模型」后,谷歌以及國(guó)內(nèi)眾多AI公司紛紛推出了自己的模型。作為一個(gè)主要的競(jìng)爭(zhēng)對(duì)手,Anthropic在這場(chǎng)推理競(jìng)賽中卻明顯缺席。

現(xiàn)在,我們知道了原因——Anthropic開發(fā)的是一款融合了推理能力的混合AI模型。

具體來(lái)說(shuō),這種「混合模型」可以使用更多的計(jì)算資源來(lái)計(jì)算復(fù)雜問(wèn)題,但也能像傳統(tǒng)LLM一樣快速處理更簡(jiǎn)單的任務(wù),無(wú)需額外計(jì)算。

此外,模型還可以讓客戶控制它在查詢時(shí)使用的算力——換句話說(shuō)就是,它在解決問(wèn)題時(shí)「推理」的時(shí)長(zhǎng)。

開發(fā)者可以通過(guò)一個(gè)滑動(dòng)條來(lái)調(diào)整模型在嘗試找出答案或完成任務(wù)時(shí)將處理或生成的token數(shù)量。

通過(guò)將滑動(dòng)條設(shè)置為「0」,開發(fā)者可以將Anthropic模型作為一個(gè)普通的、非推理AI使用,類似于OpenAI的GPT-4o。

OpenAI也有類似的功能,允許開發(fā)者控制其推理模型「思考」的時(shí)間。

但開發(fā)者僅限于「低」、「中」和「高」三種設(shè)置,很難預(yù)測(cè)模型在這些級(jí)別上實(shí)際會(huì)處理多少token——因此,也很難預(yù)測(cè)單次查詢的成本。

現(xiàn)在,OpenAI可能轉(zhuǎn)而成為追隨者。

2月13日,CEO Sam Altman表示,OpenAI計(jì)劃將其Orion大語(yǔ)言模型作為GPT-4.5發(fā)布——這是一個(gè)傳統(tǒng)的、非推理模型。之后,則會(huì)把GPT模型和o系列推理模型合并為一個(gè)單一的AI。

在外界看來(lái),這和Anthropic尚未公開的技術(shù)路線可謂是如出一轍。(去年11月The Information曾做過(guò)相關(guān)預(yù)測(cè))

圖片圖片

從Anthropic和OpenAI設(shè)計(jì)模型和產(chǎn)品的方式,我們可以清晰地看出它們?cè)诟?jìng)爭(zhēng)激烈的AI市場(chǎng)中的戰(zhàn)略定位。

OpenAI顯然更希望ChatGPT成為面向消費(fèi)者或個(gè)人專業(yè)人士的突破性應(yīng)用,這可能就是它在推理模型中使用低-中-高命名法的原因,因?yàn)檫@更容易讓普通用戶理解。

Anthropic則更專注于企業(yè)市場(chǎng),這就是為什么它致力于開發(fā)能讓開發(fā)者通過(guò)滑動(dòng)條方式更好地控制成本、速度和定價(jià)的功能。

據(jù)知情人士透露,Anthropic即將推出的模型在編程方面也取得了特別顯著的進(jìn)展,這已經(jīng)成為生成式AI在企業(yè)中最強(qiáng)大的應(yīng)用之一。

當(dāng)允許Anthropic模型使用最長(zhǎng)時(shí)間「思考」時(shí),在某些編程基準(zhǔn)測(cè)試中,它的表現(xiàn)已經(jīng)超過(guò)了客戶目前能訪問(wèn)到的最先進(jìn)的OpenAI推理模型(即o3-mini high)。

這位人士表示,雖然OpenAI的推理模型在更學(xué)術(shù)性的問(wèn)題上表現(xiàn)更好,比如競(jìng)爭(zhēng)性編程問(wèn)題,但Anthropic的模型更擅長(zhǎng)處理企業(yè)工程師可能遇到的實(shí)際編程任務(wù)。

例如,Anthropic的模型更善于理解由數(shù)千個(gè)文件組成的復(fù)雜代碼庫(kù),并能一次性生成可用的完整代碼行。

不過(guò),仍然懸而未決的重要問(wèn)題是,Anthropic的新模型將收取多少費(fèi)用,以及它是否會(huì)比OpenAI最近發(fā)布的o3-mini推理模型更便宜。后者因比OpenAI最受歡迎的非推理模型GPT-4o更便宜而給開發(fā)者留下了深刻印象。

目前還不清楚像DeepSeek和谷歌最新的Gemini模型這樣的超低價(jià)AI是否會(huì)推動(dòng)所有模型的價(jià)格趨近于零。

就目前來(lái)看,市場(chǎng)上似乎在進(jìn)行著兩場(chǎng)不同的競(jìng)爭(zhēng):

  • 在AI開發(fā)的前沿,那些在推理或編程方面能夠逐步改進(jìn)的模型將繼續(xù)保持定價(jià)優(yōu)勢(shì);
  • 在另一個(gè)更大的市場(chǎng)中,那些「夠用就好」(good-enough)的模型則可能會(huì)繼續(xù)展開價(jià)格戰(zhàn)。

對(duì)于這個(gè)全新的「混合模型」,有網(wǎng)友認(rèn)為,Anthropic新模型的成敗將取決于它的成本,畢竟性能也很強(qiáng)的o3-mini是一個(gè)小模型,成本很低。

圖片圖片

當(dāng)然,也有網(wǎng)友質(zhì)疑說(shuō),「滑動(dòng)條」并不是一個(gè)好的設(shè)計(jì),這位叫eric的網(wǎng)友評(píng)論稱,「我只希望回復(fù)是正確的,不想在每次后續(xù)中都需要調(diào)整?!?/span>

「我們確實(shí)處于模型交互體驗(yàn)尷尬階段?!顾u(píng)價(jià)說(shuō)。

圖片

2027年收入飆至345億美元

根據(jù)The Information的報(bào)道,Anthropic在2023年燒了56億美元現(xiàn)金后,計(jì)劃在2025年將支出減少近半,并在2027年實(shí)現(xiàn)高達(dá)345億美元的收入。

要實(shí)現(xiàn)這樣的增長(zhǎng),Anthropic需要大幅縮小與市場(chǎng)領(lǐng)導(dǎo)者OpenAI之間的差距。目前OpenAI的收入可能是Anthropic的5倍以上——在2027年實(shí)現(xiàn)4,400億美元的收入。

Anthropic和OpenAI一直是企業(yè)在生成式AI投資方面的風(fēng)向標(biāo),因此科技投資者正密切關(guān)注兩家公司的表現(xiàn)。

在最可能的基本情況下,Anthropic表示其收入將從2025年的22億美元增長(zhǎng)至2027年的120億美元。

目前外界并不知道Anthropic在2024年的具體收入,不過(guò)其月收入從年初的約800萬(wàn)美元上升到年底的約8,000萬(wàn)美元,這表明其全年收入在4億至6億美元之間。

Anthropic即將推出的新一代旗艦?zāi)P虲laude有望支持其宏偉的增長(zhǎng)目標(biāo)。據(jù)知情人士透露,新模型預(yù)計(jì)在未來(lái)幾周內(nèi)發(fā)布。

圖片圖片

然而,最近像DeepSeek這樣的超低成本模型的發(fā)布,引發(fā)了人們對(duì)AI公司是否需要降價(jià)以保持競(jìng)爭(zhēng)力的質(zhì)疑。

在DeepSeek發(fā)布后,Anthropic也是少數(shù)幾個(gè)沒有大幅降低模型價(jià)格的AI實(shí)驗(yàn)室之一。

從Anthropic的融資材料來(lái)看,公司認(rèn)為通過(guò)API向企業(yè)提供技術(shù)服務(wù)的機(jī)會(huì),要大于與ChatGPT等聊天機(jī)器人競(jìng)爭(zhēng)。

OpenAI的ChatGPT在普通用戶以及程序員、營(yíng)銷人員和律師等專業(yè)人士群體中取得了突破性成功,截至去年底,其訂閱收入每月超過(guò)3.33億美元。

超越OpenAI?

在Anthropic發(fā)送給投資者的融資材料中,公司管理層預(yù)計(jì)到2027年API收入將達(dá)到200億美元,是OpenAI同期預(yù)測(cè)API收入的3倍。

即使在基準(zhǔn)預(yù)測(cè)情況下,Anthropic的API收入也將超過(guò)OpenAI。(Anthropic的其余預(yù)期收入來(lái)自向企業(yè)和專業(yè)用戶銷售Claude)

Anthropic表示,其技術(shù)可以改變辦公場(chǎng)景,如生成或?qū)彶榉晌募?、?shí)現(xiàn)軟件工程自動(dòng)化等。

諸如代碼托管平臺(tái)GitLab,法律搜索公司LexisNexis,以及開發(fā)Cursor編程助手的Anysphere,都是Claude的主要客戶。

目前,Anthropic正尋求以580億美元的投前估值融資20億美元,而OpenAI則試圖以2,600億美元的投前估值進(jìn)行融資。

除收入差距外,影響兩家公司估值差異的另一個(gè)因素是Anthropic與轉(zhuǎn)售其AI的云服務(wù)商(主要是亞馬遜)之間的協(xié)議。

OpenAI通過(guò)與微軟的業(yè)務(wù)合作獲得20%的收入分成,而Anthropic此前向部分投資者透露,當(dāng)客戶通過(guò)亞馬遜購(gòu)買其模型時(shí),需要向亞馬遜支付更高比例的分成。

在Anthropic管理層預(yù)計(jì)的2027年345億美元收入中,近2/3將來(lái)自其API業(yè)務(wù),其中大部分銷售將通過(guò)亞馬遜等合作伙伴實(shí)現(xiàn)。亞馬遜已承諾向該公司投資數(shù)十億美元,并正在為其開發(fā)專用數(shù)據(jù)中心服務(wù)器集群。

資金消耗

估值差距的另一個(gè)因素是:OpenAI的運(yùn)營(yíng)效率可能高于Anthropic。

  • Anthropic去年燒掉的現(xiàn)金比計(jì)劃高出近30億美元。其中,超過(guò)50%是來(lái)自一次性支付的數(shù)據(jù)中心使用費(fèi)。
  • OpenAI在2024年上半年僅消耗了3.4億美元現(xiàn)金(未來(lái)幾年會(huì)有所增加),并在在同期產(chǎn)生了數(shù)倍于Anthropic的收入。
  • AI模型開發(fā)成本占據(jù)了Anthropic支出的大部分。其中,單在服務(wù)器上就投入了15億美元。
  • OpenAI去年在訓(xùn)練成本上的支出約為30億美元(包括數(shù)據(jù)購(gòu)買等額外支出)。
  • Anthropic的研發(fā)人員成本達(dá)到了1.6億美元,但不包括股權(quán)激勵(lì)支出(一項(xiàng)重要的非現(xiàn)金支出)。
  • OpenAI在2024年上半年報(bào)告的股權(quán)激勵(lì)支出為15億美元。
  • 截至2024年底,Anthropic擁有915名員工,其中521人從事研發(fā)工作;預(yù)計(jì)到2025年底,這一數(shù)字將翻倍至1,900人。
  • 截至2024年9月,OpenAI的員工人數(shù)已超過(guò)1,600人。

對(duì)此,Anthropic向投資者表示,今年的現(xiàn)金支出預(yù)計(jì)是30億美元,較去年的56億美元大幅減少。此外,公司將會(huì)在2027年實(shí)現(xiàn)現(xiàn)金流轉(zhuǎn)正。

參考資料:

https://www.theinformation.com/articles/anthropic-strikes-back?rc=epv9gi

https://www.theinformation.com/articles/anthropic-projects-soaring-growth-to-34-5-billion-in-2027-revenue?rc=epv9gi

責(zé)任編輯:武曉燕 來(lái)源: 新智元
相關(guān)推薦

2025-02-25 09:02:26

2025-04-18 10:36:42

2023-09-03 12:56:43

2024-12-25 20:01:13

2025-04-18 10:43:23

2023-07-12 16:10:48

人工智能

2025-02-25 10:08:38

2025-03-05 00:22:00

2025-02-25 09:13:16

2024-12-25 11:35:48

谷歌人工智能

2023-09-19 12:45:36

2025-02-25 08:15:09

2025-02-25 11:59:44

2024-12-26 07:10:00

2024-12-12 00:40:07

2024-01-18 12:30:03

2025-02-26 09:24:03

2025-04-23 08:30:05

2025-02-13 10:52:56

2024-03-05 09:16:32

AI模型GPT-4
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)