AI成本革命:DeepSeek-R1與OpenAI的顛覆性突破重構企業(yè)智能新范式
AI領域的發(fā)展日新月異,如果你跟不上步伐,就會落后。
近期的兩項進展正在重塑開發(fā)者和企業(yè)的格局:DeepSeek發(fā)布R1模型,以及OpenAI推出新的Deep Research產品,它們共同重新定義了強大推理模型的成本和可及性,這一點已被廣泛報道,然而,較少被討論的是,它們將如何推動公司采用蒸餾、有監(jiān)督微調(SFT)、強化學習(RL)和檢索增強生成(RAG)等技術,來構建更智能、更專業(yè)的AI應用。
在DeepSeek驚人成就的初步興奮感逐漸平息后,開發(fā)者和企業(yè)決策者需要考慮這對他們意味著什么。從定價、性能到幻覺風險以及干凈數據的重要性,以下是這些突破對當今構建AI的任何人來說意味著什么。
更便宜、透明、行業(yè)領先的推理模型——但通過蒸餾實現
DeepSeek-R1的亮點很簡單:它以OpenAI的o1模型一小部分的成本,提供了行業(yè)領先的推理模型。具體來說,它的運行成本大約便宜30倍,而且與許多封閉模型不同,DeepSeek對其推理步驟提供了完全的透明度。對于開發(fā)者而言,這意味著你現在可以構建高度定制的AI模型,而無需花費巨資——無論是通過蒸餾、微調還是簡單的RAG實現。
特別是蒸餾,正在成為一種強大的工具。通過使用DeepSeek-R1作為“教師模型”,公司可以創(chuàng)建更小、針對特定任務的模型,這些模型繼承了R1卓越的推理能力。事實上,這些小型模型是大多數企業(yè)公司的未來。完整的R1推理模型對于公司的需求來說可能過于龐大——思考過多,而無法為公司特定的領域應用采取果斷行動?!爸髁髅襟w中肯定沒有人真正在討論的一點是,實際上,推理模型在像智能體這樣的應用上表現并不那么好,”專注于AI智能體的ML開發(fā)者Sam Witteveen表示,AI智能體在企業(yè)應用中的協(xié)調作用日益凸顯。
作為其發(fā)布的一部分,DeepSeek將其推理能力蒸餾到多個小型模型中,包括Meta的Llama系列和阿里巴巴的Qwen系列的開源模型,如其論文所述,這些小型模型隨后可以針對特定任務進行優(yōu)化,這種向更小、更快的模型以滿足定制需求發(fā)展的趨勢將加速:將會涌現出大量這樣的模型?!拔覀儸F在正開始進入一個人們使用多個模型的世界,他們不再只是一直使用一個模型,”Witteveen說。這也包括來自Google和OpenAI的低成本、小型封閉源模型?!斑@意味著像Gemini Flash、GPT-4o Mini這些非常便宜的模型,實際上在80%的使用場景中表現都非常好?!彼硎?。
蒸餾步驟之后,企業(yè)公司有幾個選項來確保模型已準備好用于其特定應用。如果你是一家處于非常特定領域的公司,該領域的細節(jié)不在網絡上或書籍中——即大型語言模型(LLM)無法對其進行訓練——你可以通過一個稱為有監(jiān)督微調(SFT)的過程,注入你自己的領域特定數據集。一個例子是集裝箱建造行業(yè),其規(guī)格、協(xié)議和法規(guī)并不廣為人知。
DeepSeek表明,你可以通過“數千”個問答數據集來很好地完成這一任務。關于其他人如何將此付諸實踐的一個例子是,IBM工程師Chris Hay演示了他如何使用自己的數學特定數據集對一個小型模型進行微調,以實現閃電般的響應速度——在同一任務上超越了OpenAI的o1。
此外,希望訓練模型以更好地符合特定偏好(例如,使客戶支持聊天機器人既簡潔又富有同情心)的公司,可能希望對模型進行一些強化學習(RL)。如果公司希望其聊天機器人能夠根據用戶反饋調整語氣和建議,這同樣很有用。隨著每個模型都變得無所不能,“個性”將變得越來越重要,沃頓商學院AI教授Ethan Mollick昨天在X上表示。
然而,對于公司來說,要很好地實施這些SFT和RL步驟可能很棘手。如果用來自特定領域的數據喂養(yǎng)模型,或將其調整為以某種方式行動,它突然就會變得無用,無法執(zhí)行該領域或風格之外的任務。
對于大多數公司來說,RAG已經足夠好
然而,對于大多數公司來說,檢索增強生成(RAG)是最簡單、最安全的前進道路。RAG是一個相對直接的過程,它允許組織通過其自有數據庫中包含的專有數據來為其模型提供基礎——從而確保輸出準確且特定于領域。在此過程中,大型語言模型將用戶的提示輸入到向量和圖形數據庫中,以搜索與該提示相關的信息。RAG過程在查找最相關內容方面已經變得非常擅長。
這種方法也有助于抵消與DeepSeek相關的一些幻覺問題。根據幫助公司進行RAG過程的供應商Vectara進行的一項研究,DeepSeek目前產生幻覺的比例為14%,而OpenAI的o3模型為8%。
對于大多數公司來說,模型的蒸餾加上RAG將產生神奇的效果。即使對于那些數據科學或編碼專業(yè)知識有限的人來說,這也變得非常容易。我個人下載了DeepSeek蒸餾的1.5b Qwen模型,這是最小的一個,這樣它就可以很好地安裝在我的MacBook Air上,然后,我將一些求職者的簡歷PDF加載到向量數據庫中,并讓模型查看這些求職者,告訴我哪些人有資格在VentureBeat工作。(總的來說,我只用了74行代碼就完成了這一切,這些代碼我基本上是借鑒了其他做同樣事情的人。)
我喜歡Deepseek蒸餾模型展示其推薦或不推薦每位求職者的思考過程——這種透明度在Deepseek發(fā)布之前是很難獲得的。
在我最近關于DeepSeek和RAG的視頻討論中,我展示了在實際應用中實施RAG已經變得多么簡單,即使對于非專家來說也是如此。Sam Witteveen也通過分解RAG管道的工作原理以及為什么企業(yè)越來越依賴它們而不是完全微調模型,為討論做出了貢獻。
OpenAI Deep Research:拓展RAG的能力——但有所保留
DeepSeek正在降低推理模型的成本并提高其透明度,而OpenAI周日宣布的Deep Research則代表了一種不同但互補的轉變,它可以通過爬取網絡來創(chuàng)建高度定制化的研究,從而將RAG提升到新的水平,然后,可以將這項研究的輸出作為輸入插入到公司可以使用的RAG文檔中,與其自有數據一起使用。
這種功能通常被稱為智能體RAG,它允許AI系統(tǒng)自主地從互聯網上尋找最佳上下文,為知識檢索和奠基帶來新的維度。
OpenAI的Deep Research與Google的Deep Research、Perplexity和You.com等工具相似,但OpenAI試圖通過強調其卓越的鏈式思維推理使其更準確來區(qū)分其產品。這些工具的工作原理如下:公司研究人員要求大型語言模型在一份經過深入研究和引用的報告中查找關于某個主題的所有可用信息。大型語言模型隨后會要求研究人員回答另外20個子問題,以確認所需內容,然后,研究用的大型語言模型會進行10次或20次網絡搜索,以獲取最相關的數據來回答所有這些子問題,隨后提取知識并以有用的方式呈現。
然而,這項創(chuàng)新也并非沒有挑戰(zhàn)。Vectara的首席執(zhí)行官Amr Awadallah警告說,過度依賴Deep Research等模型的輸出存在風險。他質疑這種方法是否真的更準確:“這一點尚不清楚,”Awadallah指出:“我們在各種論壇上看到的文章和帖子都說不是,他們仍然遇到很多幻覺,Deep Research只是和市場上其他解決方案差不多好?!?/p>
換句話說,盡管Deep Research提供了頗具前景的能力,但企業(yè)在將其輸出整合到知識庫中時仍需謹慎行事。Awadallah表示,模型的基礎知識應來自經過驗證、人類認可的來源,以避免級聯錯誤。
成本曲線正在崩潰:為何這很重要
DeepSeek發(fā)布的最直接影響是其激進的價格降低??萍夹袠I(yè)預計成本會隨著時間的推移而下降,但很少有人預料到這一過程會如此迅速。DeepSeek已經證明,強大且開放的模型既可以負擔得起,又高效,為廣泛的實驗和成本效益高的部署創(chuàng)造了機會。
Awadallah強調了這一點,并指出,真正的改變游戲規(guī)則者不僅僅是訓練成本,還有推理成本,DeepSeek的推理成本約為OpenAI的o1或o3每token推理成本的1/30?!癘penAI、Anthropic和Google Gemini之前能夠獲得的利潤現在將不得不壓縮至少90%,因為他們無法以如此高的定價保持競爭力,”Awadallah說。
不僅如此,這些成本還將繼續(xù)下降。Anthropic的首席執(zhí)行官Dario Amodei最近表示,開發(fā)模型的成本每年繼續(xù)以大約4倍的速度下降。由此可見,大型語言模型(LLM)提供商的收費也將繼續(xù)下降?!拔彝耆A計成本將降至零,”Intuit的首席數據官Ashok Srivastava說,該公司一直在其稅務和會計軟件(如TurboTax和Quickbooks)中大力推動AI的應用?!啊舆t也將降至零,它們將成為我們能夠使用的通用能力。”
這種成本降低不僅對開發(fā)者和企業(yè)用戶有利,它還表明,AI創(chuàng)新不再局限于擁有數十億美元預算的大型實驗室。進入門檻已經降低,這激勵著小型公司和個體開發(fā)者以之前難以想象的方式進行實驗。最重要的是,Srivastava表示,這些模型如此易于訪問,以至于任何商業(yè)專業(yè)人士都將使用它們,而不僅僅是AI專家。
DeepSeek的顛覆:挑戰(zhàn)“大型AI”在模型開發(fā)上的主導地位
最重要的是,DeepSeek打破了只有大型AI實驗室才能創(chuàng)新的迷思。多年來,OpenAI和谷歌等公司將自己定位為先進AI的守門人,傳播這樣一種信念:只有擁有豐富資源的頂尖博士才能構建出有競爭力的模型。
DeepSeek顛覆了這種敘事。通過使推理模型開放且負擔得起,它賦予了一波新的開發(fā)者和企業(yè)公司實驗和創(chuàng)新的能力,而無需數十億美元的資金支持。這種民主化在訓練后的階段(如強化學習和微調)尤其重要,因為這些階段正發(fā)生著最令人興奮的發(fā)展。
DeepSeek揭露了AI領域出現的一個謬誤,即只有大型AI實驗室和公司才能真正創(chuàng)新,這一謬誤迫使許多其他AI構建者被邊緣化,DeepSeek已經阻止了這種情況,它給了每個人啟發(fā),表明在這個領域有很多創(chuàng)新的方式。
數據當務之急:為何干凈、精選的數據是企業(yè)公司的下一個行動項
雖然DeepSeek和Deep Research提供了強大的工具,但它們的最終有效性取決于一個關鍵因素:數據質量。整理數據多年來一直是一個重要主題,并在AI時代的過去九年中加速發(fā)展,但在GenAI領域,這一點變得更為重要,而現在隨著DeepSeek的顛覆性影響,這一點絕對是關鍵。美國運通首席技術官Hilary Packer昨天在接受記者采訪時強調了這一點:“對我們來說,說實話,數據是‘啊哈’時刻。你可以選擇世界上最好的模型……但數據是關鍵。驗證和準確性現在是GenAI的圣杯?!?/p>
這是企業(yè)必須集中精力的地方。雖然追逐最新的模型和技術很誘人,但任何成功的AI應用的基礎都是干凈、結構良好的數據。無論你是使用檢索增強生成(RAG)、有監(jiān)督微調(SFT)還是強化學習(RL),數據的質量將決定你模型的準確性和可靠性。
雖然許多公司都渴望完善其整個數據生態(tài)系統(tǒng),但現實是完美難以實現。相反,企業(yè)應該專注于清理和精選其數據中最關鍵的部分,以啟用能夠提供即時價值的點式AI應用。
與此相關的是,關于DeepSeek用于訓練其模型的確切數據存在很多疑問,這引發(fā)了對其模型權重中存儲的知識固有偏見的質疑,但這與其他開源模型(如Meta的Llama模型系列)所面臨的問題并無不同。大多數企業(yè)用戶已經找到了對模型進行微調或利用RAG等方法進行落地的方法,以減輕這種偏見帶來的任何問題。這已經足以在企業(yè)公司內部形成接受開源、甚至以開源為主導的強勁勢頭。
同樣,毫無疑問的是,許多公司都將使用DeepSeek模型,盡管有人擔心該公司來自中國。不過,同樣真實的是,在金融或醫(yī)療等高度監(jiān)管的行業(yè)中,許多公司在短期內至少會對在任何直接與客戶交互的應用中使用任何DeepSeek模型持謹慎態(tài)度。
結論:企業(yè)AI的未來是開放的、負擔得起的和數據驅動的
DeepSeek和OpenAI的Deep Research不僅僅是AI武器庫中的新工具,它們還標志著一種深刻轉變的信號,即企業(yè)將大量推出專門設計、價格極其實惠、功能強大且基于公司自身數據和方法的模型。
對企業(yè)而言,信息很明確:構建強大、領域特定AI應用的工具觸手可及。如果你不利用這些工具,就有落后的風險,但真正的成功將取決于你如何整理數據、如何利用RAG和蒸餾等技術,以及如何在預訓練階段之后進行創(chuàng)新。
正如AmEx的Packer所說,能夠正確處理數據的企業(yè)將成為引領下一波AI創(chuàng)新的佼佼者。