AI行業(yè)買英偉達GPU,花的錢比賺的多17倍
搞 AI 大模型,實在太燒錢了。
我們知道,如今的生成式 AI 有很大一部分是資本游戲,科技巨頭利用自身強大的算力和數(shù)據(jù)占據(jù)領(lǐng)先位置,并正在使用先進 GPU 的并行算力將其推廣落地。這么做的代價是什么?
最近《華爾街日報》一篇有關(guān)明星創(chuàng)業(yè)公司的報道里給出了答案:投入是產(chǎn)出的 17 倍。
上個周末,機器學習社區(qū)圍繞這個數(shù)字熱烈地討論了起來。
明星創(chuàng)業(yè)公司,幾周估值翻倍:但沒有收入
由知名投資人 Peter Thiel 支持的 AI 初創(chuàng)公司 Cognition Labs 正在尋求 20 億美元估值,新一輪融資在幾周之內(nèi)就將該公司的估值提高了近六倍。
在如今火熱的生成式 AI 領(lǐng)域里,Cognition 是一家冉冉升起的新星。如果你對它還不太熟悉,這里有它的兩個關(guān)鍵詞:國際奧賽金牌團隊,全球首位 AI 程序員。
Cognition 由 Scott Wu 聯(lián)合創(chuàng)立,其團隊組成吸引眼球,目前只有 10 個人,但包含許多國際信息學奧林匹克競賽的金牌選手。
Cognition Labs 的團隊,CEO Scott Wu(后排身穿襯衣)只有 27 歲。
該公司在今年 3 月推出了 AI 代碼工具 Devin,號稱「第一位接近人類的 AI 程序員」,能夠自主完成復雜的編碼任務,例如創(chuàng)建自定義的網(wǎng)站。從開發(fā)到部署,再到 debug,只需要人類用自然語言給需求,AI 就能辦到。
該新聞很快就登上了眾多媒體的頭條,也成為了熱搜:
一些投資者表示,Devin 代表了人工智能的重大飛躍,并可能預示著軟件開發(fā)的大規(guī)模自動化之路已經(jīng)開啟。
Cognition 雖然神奇,但它并不是個獨苗。最近一段時間,生成式 AI 展現(xiàn)了超乎想像的吸金能力。去年 12 月,總部在法國的 Mistral 獲得了 4.15 億美元融資,估值達到 20 億美元,比前一年夏天的一輪融資增長了大約七倍。
3 月初,旨在挑戰(zhàn)谷歌網(wǎng)絡(luò)搜索主導地位的 AI 初創(chuàng)公司 Perplexity 也傳來新一輪融資的消息,新估值有望達到近 10 億美元。
而在這其中,作為一家旨在提供 AI 自動代碼工具的創(chuàng)業(yè)公司,Cognition 去年才開始研發(fā)產(chǎn)品,目前并沒有獲得有意義的收入數(shù)字。今年初,在 Founders Fund 牽頭的一輪 2100 萬美元融資中,該公司的估值達到了 3.5 億美元。據(jù)介紹,美國著名創(chuàng)業(yè)投資家、創(chuàng)辦 Founders Fund 的 Peter Thiel 幫助領(lǐng)導了對 Cognition 的投資。
Peter Thiel 是全球暢銷書《從 0 到 1:開啟商業(yè)與未來的秘密》的作者,身家 71 億美元。
AI 編寫代碼看起來是一個有前途的大模型應用方向,其他提供類似產(chǎn)品的公司也看到了增長勢頭。上個季度,微軟的代碼工具 GitHub Copilot 用戶數(shù)量增長了 30% 達到 130 萬。Magic AI 是 Cognition 的競爭對手,2 月份獲得了 1.17 億美元的投資。國內(nèi)也有一些代碼生成自動化工具的初創(chuàng)企業(yè),在生成式 AI 技術(shù)爆發(fā)后正在加速行業(yè)落地。
盡管出現(xiàn)了令人鼓舞的增長跡象,新公司的估值也不斷膨脹,但這種快速發(fā)展也引發(fā)了人們對于出現(xiàn)泡沫的擔憂 —— 到目前為止,很少有初創(chuàng)公司能夠展示他們?nèi)绾钨嶅X,想要收回開發(fā)生成式 AI 的高昂成本,似乎還沒有門道。
在 3 月的一次演講中,紅杉資本(Sequoia Capital)有投資人估計 AI 行業(yè)去年為了訓練大模型,僅在英偉達芯片上就花費了 500 億美元,而換來的收入是 30 億美元。
所以說,不算電費,開銷是收入的 17 倍。
怎么樣,今年還玩得起嗎?
出路在哪
如今生成式 AI 技術(shù)的爆發(fā),可謂驗證了強化學習先驅(qū) Richard S. Sutton 在《苦澀的教訓》中的斷言,即利用算力才是王道。黃仁勛兩周前在 GTC 上也曾表示:「通用計算已經(jīng)失去動力,現(xiàn)在我們需要更大的模型、更大的 GPU,需要將 GPU 堆疊在一起…… 這不是為了降低成本,而是為了擴大規(guī)模?!?/span>
但是在千億、萬億參數(shù)量的大模型出現(xiàn)之后,通過提升規(guī)模來提升智能的方法是否還可以持續(xù),是一個無法回避的問題。更何況現(xiàn)在的大模型已經(jīng)很貴了。
華爾街日報的文章迅速引起大量討論。有網(wǎng)友認為:「資本支出通常就是一次性的,而投資的收入?yún)s是日積月累的。生成式 AI 剛剛起步,其后續(xù)的經(jīng)濟收益可能是巨大的?!?/span>
但這種樂觀的觀點很快遭到反駁,另一位網(wǎng)友指出:「資本的支出的確是一次性的,但 GPU 會相對較快地貶值。」
為什么說 GPU 會快速貶值呢?雖然較老版本的 GPU 也不會停止支持 CUDA(英偉達推出的運算平臺)等等,但與 H100 相比,V100 的能源消耗是巨大的浪費。
畢竟同樣也是在 3 月份,英偉達已經(jīng)發(fā)布了全新一代 AI 加速的 GPU Blackwell 系列。
近八年來,AI 算力增長了一千倍。
如果使用 V100 可以賺錢,那當然沒問題。然而,如諸多媒體報道所述,對大多數(shù)公司來說,現(xiàn)階段運行大模型并沒有轉(zhuǎn)化為實際收入。
另一方面,看看現(xiàn)在大模型每周都在推陳出新的狀態(tài),即使幾年前的 GPU 在算力角度看可以接受,但大模型也在「快速折舊」。七年后的 AI,用現(xiàn)在的基礎(chǔ)設(shè)施能支撐嗎?
此外,如果一家公司花費大量成本來購買 V100,試圖跟上生成式模型的趨勢,那么可能就會出現(xiàn)研究團隊雇傭成本不足的問題,那么最終可能還是無法做出有實際應用、經(jīng)濟收益的產(chǎn)品。
值得注意的是,許多 LLM 都需要額外的處理層來消除幻覺或解決其他問題。這些額外的層顯著增加了生成式模型的計算成本。這不是 10% 的小幅增長,而是計算量增長了一個數(shù)量級。并且許多行業(yè)可能都需要這種改進。
圖源:Reddit 用戶 @LessonStudio
從行業(yè)的角度講,運行生成式大模型需要大型數(shù)據(jù)中心。英偉達已經(jīng)非常了解這個市場,并持續(xù)迭代更新 GPU。其他公司可能無法僅僅投資數(shù)百億美元來與之競爭。而這些 GPU 需求還只是來自各大互聯(lián)網(wǎng)公司的,還有很多初創(chuàng)公司,例如 Groq、Extropic、MatX、Rain 等等。
最后,也有人給出了這種夸張投入的「合理性」:坐擁大量現(xiàn)金的微軟、谷歌和 Meta,他們因為反壟斷法規(guī)而無法繼續(xù)收購,因而只能選擇將資金投入 AI 技術(shù)發(fā)展。而 GPU 支出的折舊,可以作為損失避免繳納更多稅款。
但這就不是創(chuàng)業(yè)公司所要考慮的事了。
無論如何,競爭會決出勝者。無論花掉多少錢,成為第一可能就會帶來潛在的收益……
但是什么樣的收益,我們還無法作出預測。難道,生成式 AI 真正的贏家是英偉達?