面對開源大模型浪潮,基礎(chǔ)模型公司如何持續(xù)盈利? 原創(chuàng)
編者按: 當前 AI 基礎(chǔ)模型的商業(yè)前景正面臨前所未有的挑戰(zhàn)。開源模型的性能日益接近甚至在某些領(lǐng)域超越閉源產(chǎn)品,高昂的推理成本讓訂閱制模式的盈利空間被嚴重擠壓,而價格戰(zhàn)使 API 服務(wù)利潤率持續(xù)下滑。這些現(xiàn)實問題正迫使每一個在 AI 領(lǐng)域創(chuàng)業(yè)或投資的人重新思考商業(yè)策略。
本文作者基于一線市場觀察和深度行業(yè)洞察,提出了一套商業(yè)模式組合拳。
首先,文章深入分析了基礎(chǔ)模型的兩大主要商業(yè)模式 —— 訂閱制和 API 服務(wù),并指出 API 模式雖然前期回報較低,但長期盈利潛力更大,且能創(chuàng)造更強的用戶粘性。
作者還探討了垂直整合戰(zhàn)略的可能性,包括自研 AI 芯片、構(gòu)建生態(tài)閉環(huán)、應(yīng)用場景探索和服務(wù)延伸等路徑。作者提出可以借鑒奢侈品行業(yè)的“準入壁壘”策略,將頂級模型作為“VIP 產(chǎn)品”僅向符合條件的客戶開放,從而實現(xiàn)溢價和品牌勢能增長。
最后,作者呼吁大型基礎(chǔ)模型公司不要恐懼開源社區(qū)的崛起,而應(yīng)主動擁抱,利用開源驅(qū)動創(chuàng)新飛輪。
本文系原作者觀點,Baihai IDP 僅進行編譯分享。
作者 | Devansh
編譯 | 岳揚
生成式 AI 已在諸多領(lǐng)域帶來了較大的生產(chǎn)力提升,但顯然其潛力尚未被完全釋放。這項技術(shù)蘊含著巨大的商業(yè)潛力,但人們卻不知道如何將其釋放出來 —— 尤其是考慮到這些技術(shù)獲得的巨額投資與開源模型的崛起,后者在生成質(zhì)量和生成速度上已能匹敵閉源模型。
Image[1]
關(guān)于生成式 AI 如何盈利此前已有諸多精彩的討論,但所有人都忽略了一個關(guān)鍵點 —— 基礎(chǔ)模型的商業(yè)化不僅是一個工程或產(chǎn)品戰(zhàn)略問題。企業(yè)最終采取的戰(zhàn)略,往往受內(nèi)部博弈和公關(guān)考量驅(qū)動,其程度不亞于實際業(yè)務(wù)/技術(shù)因素的影響。
當我們深入討論被誤解的開源大語言模型時,這場對話會變得更加撲朔迷離。開源模型的表現(xiàn)、較低的投資和“免費”特性,讓人們誤以為它們將徹底終結(jié)閉源模型的需求。
雖然這種想法讓我內(nèi)心癢癢的,但現(xiàn)實是:基于開源模型的開發(fā)成本極其高昂,這正是許多開發(fā)者最終轉(zhuǎn)向使用大型模型供應(yīng)商 API 的根本原因
本文將剖析基礎(chǔ)模型的主要商業(yè)模式,解答縈繞在每個人心頭的疑問 —— 在“免費”開源基礎(chǔ)模型時代,ChatGPT、Gemini 或 Claude 等基礎(chǔ)模型將如何盈利?
劇透預警 —— 其中一種商業(yè)模式的靈感源自奢侈品手提包(真正的奢侈品)。閱讀至文末,你會了解奢侈品牌為何可能成為大語言模型供應(yīng)商值得效仿的商業(yè)范本。
01 核心要點 (TL;DR)
從最高層級來看,大語言模型主要有兩種盈利方式:
1.1 訂閱制
當前大多數(shù)用戶都是通過訂閱制使用大語言模型。這種模式的商業(yè)邏輯簡單明了 —— 每月支付 X 美元,即可與“Y 大模型”進行 Z 次交互。
訂閱制適用于用戶需要直接與模型進行單輪或多輪對話的簡單場景,特別是當任務(wù)的復雜度較低,通過模型內(nèi)置知識庫和簡單輸入即可解決時效果最佳。
從商業(yè)角度來看,我對 LLMs 中的訂閱制印象最深的是以下幾點:
1) 前期收益可觀,但盈利潛力有上限(收入無法超越用戶支付的訂閱費用)。 這對大語言模型供應(yīng)商來說是個比較大的問題,因為模型推理成本極高。Netflix 可以大規(guī)模地為訂閱用戶提供服務(wù),因為其邊際成本極低(存儲費用、人才成本、版權(quán)費用等主要成本都是一次性支出)。而大語言模型供應(yīng)商面臨持續(xù)高企的推理成本,設(shè)置一個收入上限將導致單位經(jīng)濟效益(譯者注:unit economics,平均一個買賣單位的收入與成本的關(guān)系。)惡化。
2) 訂閱制的銷售難度最低,但由于定制化程度不足導致用戶黏性最弱。 用戶可以輕易轉(zhuǎn)向使用競品的訂閱服務(wù)。
3) 某種程度上將大語言模型從基礎(chǔ)資源轉(zhuǎn)化為應(yīng)用產(chǎn)品了,有助于規(guī)避當前 API 領(lǐng)域慘烈的價格戰(zhàn)(這在基礎(chǔ)資源領(lǐng)域已經(jīng)十分常見了)。但第二點特性仍使總體需求對價格高度敏感,導致訂閱制本身極易陷入價格戰(zhàn)泥潭。
相關(guān)概念提示[2]
總而言之,依賴訂閱制會與用戶之間產(chǎn)生一種有趣但又緊張的關(guān)系 —— 你希望用戶訂閱服務(wù)卻不使用服務(wù),這種行為反而會進一步降低用戶的忠誠度。否則,你的選擇只能是限制服務(wù)使用量(Claude 即使對付費用戶也設(shè)定了使用限額),或者像 OpenAI 那樣承擔潛在的虧損來維持大語言模型的運營。
Discussed this news here[3]
如果你認為訂閱制是最好的商業(yè)模式,你需要賭對以下前提:
1) 絕大多數(shù)用戶的需求足夠簡單,只需一個通用界面即可滿足大多數(shù)用戶需求;
2) LLM 推理成本的下降趨勢是"真實存在"的 —— 該下降趨勢應(yīng)源于供應(yīng)商的成本結(jié)構(gòu)優(yōu)化,而非通過犧牲利潤換取市場份額;
3) "真實的"推理成本將持續(xù)走低,提升訂閱制的利潤空間。 例如:若能將實際推理成本降至0.03 美元/百萬 tokens(為簡化計算,此處將輸入 token 和輸出 token 合并統(tǒng)計),那么 20 美元的訂閱費用可覆蓋約 66,000 次 10K tokens 規(guī)模的查詢(不過當涉及大規(guī)模輸入語料庫及搜索/引用等附加功能時,實際成本可能因上述復雜場景迅速接近甚至超過訂閱費,但這個數(shù)字(約 66,000 次 10K tokens 規(guī)模的查詢)仍很可觀)。但需注意,這些都是理想情況下的數(shù)據(jù)(目前性價比最高的 Gemini 1.5 8B 模型,輸出成本 0.3 美元/百萬 tokens,輸入成本 0.075 美元/百萬 tokens,仍大幅高于假設(shè)值)。
向早期的經(jīng)典建模軟件致敬
依我看 —— 觀點 1(譯者注:標準化產(chǎn)品(如 ChatGPT 的聊天框)已能滿足多數(shù)用戶需求)有一定道理,觀點 2(譯者注:LLM 推理成本的長期下降趨勢是真實的)純屬扯淡,觀點 3(譯者注:若推理成本真能持續(xù)下降,訂閱模式利潤將顯著提升)雖有可能但面臨重大技術(shù)障礙與組織慣性阻力。這也正是我不看好訂閱制的原因。相關(guān)分析將另文詳述,此處先簡要概括:
1) 許多團隊因“政治考量”/品牌營銷方面的考慮,會持續(xù)鼓吹擴展模型規(guī)模。 以 Recursion Pharmaceuticals(RXRX)(譯者注:Recursion Pharmaceuticals (納斯達克股票代碼: RXRX) 是一家成立于2013年的臨床階段生物技術(shù)公司,總部位于美國猶他州鹽湖城。公司專注于運用人工智能 (AI) 和機器學習技術(shù)革新藥物發(fā)現(xiàn)流程,主要聚焦于遺傳性罕見疾病和腫瘤學等領(lǐng)域。)為例,這一點是我對該公司唯一的質(zhì)疑。盡管我總體認可其技術(shù)路線,但該公司反復宣揚其對超級計算機的投資卻避談商業(yè)價值評估(我曾在覆蓋報告[4]中警示過此問題),這種行為實屬危險信號。在我看來,這不過是又一家試圖通過"深度學習+英偉達+規(guī)模擴展"敘事推高估值的公司(該觀點曾引發(fā)其不滿,但從未獲得實質(zhì)性反駁)。此類現(xiàn)象絕非 RXRX 獨有,大量案例顯示很多團隊因激勵機制錯位而選擇高成本路徑(完整清單見此[5]),沉沒成本、模型規(guī)模崇拜等因素將使得進行根本性的變革舉步維艱。
2)技術(shù)層面,現(xiàn)有大語言模型的優(yōu)化方案可能會阻礙其向更高效架構(gòu)的轉(zhuǎn)型。
我不是記者,也不是八卦博主,所以我不會把我與大科技公司高層領(lǐng)導的對話寫成文章,他們也坦言推行創(chuàng)新優(yōu)化方案時遭遇的阻力遠超外界想象,這種系統(tǒng)性壓力將有效遏制實際成本的過度下降。
source[6]
1.2 API
這是我最喜歡的盈利方式。LLM 供應(yīng)商提供 API keys,允許開發(fā)者按 token 使用量付費。這種方式的前期回報較低,但基于 API 的計費有諸多優(yōu)勢:
1) 回報沒有上限。
2) 基于 API 的開發(fā)者會投入更多時間圍繞 LLM 的特性優(yōu)化產(chǎn)品,切換模型時面臨更高的機會成本,這天然形成了更強的用戶粘性。
3) 減少與存儲數(shù)據(jù)相關(guān)的資源消耗和安全風險擔憂 —— 正如深度求索(DeepSeek)事件所示,這個問題遠比表面復雜。
短短數(shù)分鐘內(nèi),我們就發(fā)現(xiàn)了深度求索存在可公開訪問的 ClickHouse 數(shù)據(jù)庫,該數(shù)據(jù)庫完全開放且無需認證即可訪問敏感數(shù)據(jù)。該數(shù)據(jù)庫位于 ??https://oauth2callback.deepseek.com:9000??? 和 ??dev.deepseek.com:9000??。
該數(shù)據(jù)庫存儲著大量聊天記錄、后臺數(shù)據(jù)和敏感信息,包括日志數(shù)據(jù)流、API 密鑰和技術(shù)或業(yè)務(wù)細節(jié)。
更嚴重的是,該漏洞使得外界無需進行任何認證即可完全控制數(shù)據(jù)庫,并可能在深度求索系統(tǒng)內(nèi)實現(xiàn)“提權(quán)”。
深度求索的公開數(shù)據(jù)庫允許外部人員完全控制所有操作,包括訪問內(nèi)部數(shù)據(jù)。此次內(nèi)部數(shù)據(jù)暴露涉及超百萬行包含敏感信息的日志數(shù)據(jù)流。
當前的 API 定價面臨著巨大的挑戰(zhàn),因為它將 LLM 變成了大宗商品(其他產(chǎn)品用于增值的原材料),使其深陷價格戰(zhàn)泥潭。由于大宗商品極度依賴價格競爭,這導致每個競爭參與者的利潤率持續(xù)走低。這就是行業(yè)預估的 LLM API 利潤率一直在下降的原因。
Image Source[7]
我喜歡 API 業(yè)務(wù)的利潤空間,因為它具有爆發(fā)性增長的潛力。 這點是源于技術(shù)領(lǐng)域天然的壟斷屬性,任何真正實現(xiàn)技術(shù)差異化的供應(yīng)商都將主導市場。雖然中短期內(nèi)難以實現(xiàn)(該領(lǐng)域仍處于早期階段),但一旦突破臨界點,回報將呈指數(shù)級增長。因此,值得搏一搏。
換個角度說,我推崇 API 戰(zhàn)略的核心邏輯在于:當你在專業(yè)領(lǐng)域做到極致時,市場競爭將變得無關(guān)緊要。當進入這一階段,API 將釋放出巨大的商業(yè)價值。如果我執(zhí)掌某家 LLM 企業(yè),我會牢牢盯住這個目標。回避這場關(guān)鍵戰(zhàn)役本質(zhì)上是為保生存而戰(zhàn),而非為勝利而戰(zhàn),這種畏首畏尾的姿態(tài)難以在科技史上留下真正的印記。
當前主流的 LLM 供應(yīng)商都在通過不同的方式探索變現(xiàn)路徑(頭部玩家已同步布局聊天界面訂閱制與 API 服務(wù))。不過,他們還可以從很多方向發(fā)展。
- 垂直整合戰(zhàn)略:包括芯片/推理優(yōu)化、應(yīng)用層開發(fā)、各種延伸服務(wù)、建立戰(zhàn)略聯(lián)盟(參照 Palantir 模式)等路徑。這種整合將創(chuàng)造收入增長極、優(yōu)化成本結(jié)構(gòu),并加速產(chǎn)品的市場滲透。
- 借鑒奢侈品行業(yè)“準入壁壘”策略:通過建立分級訪問機制強化模型安全性,同時塑造 LLM 的稀缺價值。這種看似反常識的商業(yè)邏輯,在高級定制時裝領(lǐng)域已被驗證有效,或許能為 AI 領(lǐng)域提供差異化競爭的思路。
Source[8]
02 垂直整合戰(zhàn)略如何賦能 LLM 發(fā)展
接下來探討垂直整合的可能性。模型供應(yīng)商將在人工智能價值鏈上實施前向或后向整合 —— 后向整合旨在降本,前向整合旨在拓展收入來源。
Source[9]
該戰(zhàn)略可能呈現(xiàn)多種形態(tài)。
2.1 LLM 模型供應(yīng)商進軍硬件領(lǐng)域
Sam Altman、亞馬遜和谷歌都在嘗試自研 AI 加速芯片。此舉既能降低對英偉達等外部供應(yīng)商的依賴,又能通過專用芯片設(shè)計實現(xiàn)更優(yōu)的性能表現(xiàn)。
Image Source[10]
2.2 構(gòu)建 LLM 生態(tài)閉環(huán)
谷歌的生成式 AI 布局堪稱典型案例(若非這家公司屢屢錯失技術(shù)領(lǐng)先優(yōu)勢,本可成為完美示范)。雖然大眾認知中 Gemini 是谷歌云的核心創(chuàng)收引擎,但鮮為人知的是谷歌還通過云平臺提供視頻嵌入模型(video embedding model)等AI產(chǎn)品(盡管性能平庸但比較實用)。這種商業(yè)模式的邏輯簡明有力 —— 以 LLM 為流量入口,繼而向用戶交叉銷售完整生態(tài)服務(wù)。
對于那些對這種玩法感興趣的研究者來說,谷歌的案例極具啟示意義。早在 2022 年初,他們就“萬事俱備” —— 高性能的多模態(tài)模型 PaLM 與高效的 TPU 芯片。然而混亂的產(chǎn)品戰(zhàn)略、疲軟的營銷策略、缺失的銷售體系,加之谷歌云平臺自身的缺陷,最終葬送了巨大的技術(shù)先發(fā)優(yōu)勢。
因此,任何試圖效仿這一模式的企業(yè),必須謹慎規(guī)避,避免重蹈覆轍。
2.3 應(yīng)用場景探索
以 Meta 為典型案例進行剖析。該公司雖不直接從 LLM 中獲取收益,但確實依賴 LLM 來優(yōu)化其社交平臺的用戶體驗。通過開源 Llama 模型的眾包開發(fā)策略,Meta 成功撬動開發(fā)者生態(tài)反哺技術(shù)迭代,并將優(yōu)化成果反哺至廣告推薦等核心業(yè)務(wù)。這種迂回變現(xiàn)路徑的啟示在于:供應(yīng)商可借力開源社區(qū)完善技術(shù)底座,間接賦能主營業(yè)務(wù)實現(xiàn)增值,而非直接利用 LLM 盈利。
2.4 服務(wù)延伸路徑
最后,LLM 公司可以向 AI 解決方案服務(wù)商轉(zhuǎn)型。通過為企業(yè)客戶提供端到端的實施服務(wù),既能開辟訂閱收入之外的新盈利渠道(服務(wù)費+產(chǎn)品使用費),又能撬動政府、律所、金融機構(gòu)等非技術(shù)領(lǐng)域的高凈值客戶群。具體可分為三類模式:
- 埃森哲模式
依托品牌效應(yīng)承接大型政企訂單,要么直接執(zhí)行合同,要么將其分包出去。四大咨詢公司已驗證該模式的可行性 —— 他們通過出售自己的 “專業(yè)知識”,為那些簡易軟件收取天價服務(wù)費。當項目復雜度超出能力邊界時,可分包給某方面更專業(yè)的公司賺取差價。
Image[11]
然而,該模式并不適合大多數(shù)硅谷企業(yè),因為他們對服務(wù)型公司存在根深蒂固的優(yōu)越感(認為產(chǎn)品天生優(yōu)于服務(wù),這種偏見源于對少數(shù)成功案例的過度外推和短視判斷)。對于那些堅持產(chǎn)品本位但希望試水通過提供服務(wù)獲利的企業(yè),下個模式或許更具參考價值。
- Palantir 模式與 Forward Deployment Engineers
Palantir 完美詮釋了"產(chǎn)品+服務(wù)"組合的創(chuàng)收潛力。通過向高凈值客戶(如政府機構(gòu))部署配備專業(yè) forward deployment engineers(譯者注:指直接駐扎在客戶現(xiàn)場或與客戶密切協(xié)作的技術(shù)團隊,負責產(chǎn)品部署、定制化實施和技術(shù)支持。) 團隊,他們實現(xiàn)了產(chǎn)品部署與客戶服務(wù)的無縫銜接。這種業(yè)務(wù)模式已被他們驗證具有強大變現(xiàn)能力。
數(shù)據(jù)說明一切
LLM 供應(yīng)商可復制該模式??梢耘c地方政府有深厚關(guān)系的服務(wù)商建立合作,培訓其團隊成為 forward deployment engineers,借助現(xiàn)成關(guān)系網(wǎng)絡(luò)加速產(chǎn)品滲透。這種合作能夠創(chuàng)造雙贏的局面 —— LLM 供應(yīng)商無需大量基礎(chǔ)工作即可觸達新客戶,而咨詢服務(wù)公司則能夠提升相關(guān)技術(shù)能力,并且憑借與供應(yīng)商的聯(lián)盟關(guān)系,服務(wù)商可承接更高端、利潤更豐厚的項目。
- Cohere 模式
該 LLM 供應(yīng)商更進一步,除了上述方法,還向客戶出售可以本地化部署的私有模型。但在開源模型性能突飛猛進的當下,這種策略已顯疲態(tài)。Cohere 目前依靠強大的 DevRel 工作與開源生態(tài)勉強維持,但據(jù)行業(yè)交流反饋,他們已經(jīng)大不如前了。該模式雖不適合作為核心戰(zhàn)略,但或可用于老舊/冷門模型的變現(xiàn)(某些買家可能出于逆向工程目的采購)
昔日被譽為 GPT 最強競品的 Cohere 淪落至此,令人唏噓
至此已完成當下主流戰(zhàn)略的全景掃描。但未來將走向何方呢?
03 準入壁壘與生態(tài)聯(lián)盟 —— 未來基礎(chǔ)模型商業(yè)模式的基石
注:該觀點源自筆者的摯友、頂級投資人 Eric Flainingam[12]。
隨著模型蒸餾等技術(shù)逐漸消解基礎(chǔ)模型間的技術(shù)代差,部分 LLM 供應(yīng)商可能不愿向非認證用戶開放完整的 API 權(quán)限。此時,有限制的訪問策略(Gated Access Strategy)就能派上用場了:LLM 供應(yīng)商可與企業(yè)客戶簽訂最低使用協(xié)議(minimum-use contract),將其最優(yōu)模型作為“VIP 產(chǎn)品”僅向符合條件者開放(如已在其他產(chǎn)品線消費一定金額的客戶)。這樣,這些模型基本上也成為了一種“奢侈品”。
這種模式看似反直覺,但其商業(yè)邏輯卻異常堅實:
1)通過最低使用協(xié)議鎖定基礎(chǔ)收入
2)多數(shù)場景下,次級模型已能滿足客戶需求(市場低估了這些模型的實際能力)
3)確保了最強大的模型不會被復制,因為僅允許少數(shù)高價值企業(yè)客戶訪問模型的話,他們的使用情況更容易被跟蹤
4)增加品牌勢能,構(gòu)筑護城河(對標奢侈品"稀缺性溢價"的心理機制)
5)高階模型可實施溢價定價,釋放利潤空間
我愈深入推敲,愈堅信該策略是賺錢的。將最好的 LLM 塑造為"身份象征",會讓用戶更不愿意轉(zhuǎn)向使用競爭對手的產(chǎn)品。唯一的風險在于"旗艦?zāi)P?可能會因調(diào)用量不足而缺乏實戰(zhàn)驗證 —— 這個隱患可通過在訂閱制的聊天界面給用戶使用這些“旗艦?zāi)P汀?,但限制用戶的模型可使用量來緩解:這樣既能收集用戶反饋,又能提升平臺的活躍度,在產(chǎn)品之間產(chǎn)生協(xié)同效應(yīng)。
以上即為當前 LLM 提供商可行的主流商業(yè)模式。我預計各 LLM 供應(yīng)商能夠融合采用多種策略,尋找到最優(yōu)解。 如 API 章節(jié)所述,我認為該領(lǐng)域天然趨向壟斷格局,最終贏家將通吃市場。雖不知勝者何人,但科技史的經(jīng)驗昭示此乃必然 —— 正如死神 Yama 騎著水牛逼近垂死之人一樣,行業(yè)的整合步伐看似緩慢,但它就在穩(wěn)步地向我們逼近。智者當未雨綢繆,主動布局。
文末,容我向各位 LLM 提供商的領(lǐng)導層給出一些建議:關(guān)于該如何面對開源社區(qū)的洶涌攻勢。
04 開源洪流下的生成式 AI 盈利之道 —— 兼論 LLM 供應(yīng)商為何無需畏懼開源社區(qū)的挑戰(zhàn)
近期的行業(yè)動態(tài)揭示了一個充滿諷刺的現(xiàn)實:許多標榜擁護自由市場與技術(shù)中立的 LLM 領(lǐng)袖,竟紛紛游說美國政府實施出口管制,以"保護美國利益"之名遏制 DeepSeek。這并非 LLM 廠商首次對開源表現(xiàn)恐慌(當 Llama 模型遭泄露時,Sam Altman 即借"AI安全"之名推動監(jiān)管立法,實則是制造恐慌并爭取監(jiān)管)。
這場鬧劇始于 2023 年中[13],本質(zhì)仍是老調(diào)重彈
本文最后,請允許我向這些“自由與進步的先鋒”們發(fā)出一個簡單的請求:與其逃避開源浪潮,不如主動擁抱。對開源社區(qū)的恐懼不僅損害行業(yè)生態(tài),更將侵蝕你們自身的利潤根基。
首先,開源會驅(qū)動創(chuàng)新飛輪。技術(shù)商業(yè)門外漢或認為開源會侵蝕商業(yè)利益,但任何深度商業(yè)分析都會告訴你事實恰恰相反。開源將帶來更多技術(shù)創(chuàng)新,而作為手握頂級資源的技術(shù)先驅(qū),你們比任何人都更擅長將社區(qū)成果轉(zhuǎn)化為競爭優(yōu)勢。
開源本就是門好生意(這篇文章[14]已詳述相關(guān)變現(xiàn)路徑)
此戰(zhàn)略的核心價值在于能夠加速壟斷地位形成 —— 通過開源促進技術(shù)擴散,能加快技術(shù)進步,讓你成為該領(lǐng)域的佼佼者,讓你從壟斷中獲利。扼殺開源實質(zhì)是在阻礙自身壟斷進程。
其次,恐懼性的政策會暴露戰(zhàn)略上的怯懦。當企業(yè)沉迷于炒作威脅論與政策尋租時,實則是在向世界宣告:我們?nèi)狈夹g(shù)自信,唯有通過非正常競爭手段求生。這種弱者姿態(tài)終將被識破 —— 員工將意識到高管的潛臺詞是"你們(員工)不夠優(yōu)秀"。試問這對團隊士氣與創(chuàng)新動力是何等打擊?
最后,失格者終遭唾棄。或許是因為存在文化認知差異(筆者成長于新德里而非硅谷)。在新德里街頭哲學中:自稱街區(qū)霸主卻遇挑戰(zhàn)即逃,手握千億資金、頂尖人才、政策傾斜等絕對優(yōu)勢仍哭求政府庇護 —— 這等行徑不會被視作充滿智慧、有戰(zhàn)略眼光或?qū)徤鳌?/p>
在新德里,我們會稱其為懦夫。
當然,這可能只是文化差異使然。若有不同觀點,愿聞高見。
Thanks for reading!
Hope you have enjoyed and learned new things from this blog!
About the author
Devansh
The best meme-maker in Tech. Writer on AI, Software, and the Tech Industry. Currently in NYC Come say hi, I want more friends.
END
本期互動內(nèi)容 ??
?文中提出"把最強的 LLM 做成奢侈品",你認為這種策略更適合哪種場景?比如政府安全部門專用模型、華爾街量化機構(gòu)的量化大模型、好萊塢頂級影視 IP 創(chuàng)作工具...
??文中鏈接??
[2]??https://www.thoughtco.com/price-elasticity-of-demand-overview-1146254??
[4]??https://artificialintelligencemadesimple.substack.com/p/using-ai-to-reinvent-drug-discovery??
[5]??https://artificialintelligencemadesimple.substack.com/p/how-scaling-became-a-local-optima??
[7]??https://futuresearch.ai/openai-api-profit??
[8]??https://www.diamondbanc.com/insider-news/why-are-hermes-birkin-bags-so-iconic/??
[9]??https://www.generativevalue.com/p/the-current-state-of-ai-markets??
[10]??http://www.eitc.org/research-opportunities/photos1/cpu-vs-gpu-vs-tpu_012023a/image_view_fullscreen??
[11]??http://sherwood.news/business/generative-ai-consulting-war-block-trading-a24-creative-economy/??
[12]??https://www.linkedin.com/in/ericflaningam/overlay/about-this-profile/??
[14]??https://artificialintelligencemadesimple.substack.com/p/why-companies-invest-in-open-source??
本文經(jīng)原作者授權(quán),由 Baihai IDP 編譯。如需轉(zhuǎn)載譯文,請聯(lián)系獲取授權(quán)。
原文鏈接:
??https://artificialintelligencemadesimple.substack.com/p/how-will-foundation-models-make-money??
