企業(yè)對AI模型的判斷:開源為何會勝出
企業(yè)界對開源大型語言模型(LLM)的使用迅速增長,越來越多的公司在AI領(lǐng)域獲得了更多專業(yè)知識,尋求更大的控制力、定制能力和成本效率。
盡管早期主要是OpenAI的GPT-4等封閉模型占據(jù)主導(dǎo)地位,但多位企業(yè)領(lǐng)導(dǎo)人在接受記者采訪時表示,開源模型的質(zhì)量已經(jīng)縮小了差距,并且在企業(yè)中的增長速度至少與封閉模型持平。
這與今年早些時候的情況有所不同。當(dāng)時我曾報道,盡管開源的前景毋庸置疑,但它的普及速度相對較慢,然而Meta向記者表示,其公開發(fā)布的模型下載量已經(jīng)超過4億次,速度是去年的10倍,使用量在2024年5月至7月間翻了一番,這一采用熱潮反映出多種因素的共同作用——從技術(shù)上的平衡到信任方面的考量——正在推動先進企業(yè)向開源替代方案靠攏。
Groq的CEO Jonathan Ross直言道:“開源始終是贏家?!?Groq是一家提供專用AI處理基礎(chǔ)設(shè)施的公司,客戶大量使用開源模型。他補充說:“大多數(shù)人都非常擔(dān)心被廠商鎖定。”
即便是投入40億美元于封閉源廠商Anthropic的AWS——這是AWS史上最大的投資——也承認(rèn)了這一趨勢。AWS AI和基礎(chǔ)設(shè)施副總裁Baskar Sridharan表示:“我們確實在過去幾個月里看到了對公共模型的更大需求?!盇WS通過其Bedrock服務(wù)提供盡可能多的開放源和封閉源模型,以滿足客戶的不同需求。
大型應(yīng)用公司平臺轉(zhuǎn)型加速了開源模型的普及
在初創(chuàng)公司或個人開發(fā)者中,OpenAI等封閉源模型依然領(lǐng)先,但在企業(yè)領(lǐng)域,情況卻大不相同。不幸的是,市場上沒有第三方渠道追蹤企業(yè)級開源和封閉LLM的競爭情況,部分原因在于這一信息難以公開。API公司Kong在7月對700多位用戶進行了調(diào)查,但由于受訪者中包括了較小的公司,因此傾向于選擇操作簡單的OpenAI(這一報告還包含其他AI服務(wù)如Bedrock,但Bedrock并非LLM,而是一個提供多種LLM(包括開源模型)的服務(wù)——類似于“混合”的對比)。
但從實證角度來看,證據(jù)正在積累。例如,各大商業(yè)應(yīng)用提供商都在積極整合開源LLM,徹底改變了企業(yè)應(yīng)用這些模型的方式。上個月,Salesforce引領(lǐng)了最新一波浪潮,推出了Agentforce,承認(rèn)其客戶關(guān)系管理客戶需要更靈活的AI選項,該平臺允許企業(yè)在Salesforce應(yīng)用中接入任意LLM,使開源模型的使用便捷度媲美封閉模型。Salesforce旗下的Slack也迅速跟進。
Oracle也在上個月擴展了其企業(yè)套件中對最新Llama模型的支持,包括ERP、人力資源和供應(yīng)鏈等大型企業(yè)應(yīng)用程序,另一位商業(yè)應(yīng)用巨頭SAP宣布通過其Joule AI助手提供全面的開源LLM支持,而ServiceNow在客戶服務(wù)和IT支持等工作流自動化領(lǐng)域同時支持開源和封閉LLM集成。
Oracle的AI和數(shù)據(jù)管理服務(wù)執(zhí)行副總裁Greg Pavlik表示:“我認(rèn)為開源模型最終會勝出。”他指出,尤其是在垂直領(lǐng)域中,企業(yè)客戶可以修改模型并進行實驗,這種能力結(jié)合成本優(yōu)勢非常具有吸引力。
復(fù)雜的“開源”模型生態(tài)系統(tǒng)
雖然Meta的Llama已經(jīng)嶄露頭角,但開源LLM生態(tài)系統(tǒng)演變?yōu)橐粋€細(xì)致的市場,不同的開源方式各有特點。例如,Meta的Llama在市場上已有超過65000個派生模型。企業(yè)IT領(lǐng)導(dǎo)者需要在完全開放的權(quán)重和訓(xùn)練數(shù)據(jù)以及帶有商業(yè)許可的混合模型之間進行權(quán)衡和選擇。
例如,Mistral AI通過提供高性能模型并提供靈活的許可條款,成功吸引了需要不同支持級別和定制化的企業(yè),而Cohere則采用了另一種模式,提供開源模型權(quán)重,但需支付許可費——這種模式因其透明性和商業(yè)支持的平衡性而受到部分企業(yè)的青睞。
這種開源模型生態(tài)系統(tǒng)的復(fù)雜性已成為成熟企業(yè)的優(yōu)勢。企業(yè)可以選擇符合其具體需求的模型——無論是需要對模型權(quán)重進行全面控制以實現(xiàn)高度定制,還是支持開源權(quán)重以便快速部署。領(lǐng)導(dǎo)者表示,檢查和修改這些模型的能力提供了完全封閉替代方案無法實現(xiàn)的控制水平。此外,使用開源模型往往需要一支技術(shù)嫻熟的團隊來對模型進行微調(diào)和高效管理,這也是擁有更多資源的企業(yè)在使用開源模型時具備優(yōu)勢的另一個原因。
Meta對Llama的快速開發(fā)展示了企業(yè)為何青睞開源模型的靈活性。AT&T使用基于Llama的模型進行客戶服務(wù)自動化,DoorDash用于幫助解答其軟件工程師的問題,而Spotify則用于內(nèi)容推薦。高盛在受高度監(jiān)管的金融服務(wù)應(yīng)用中部署了這些模型。其他Llama用戶還包括Niantic、野村、Shopify、Zoom、Accenture、Infosys、KPMG、富國銀行、IBM以及格萊美獎。
Meta積極培養(yǎng)渠道合作伙伴。目前所有主要的云提供商都支持Llama模型。Meta產(chǎn)品副總裁Ragavan Srinivasan表示:“企業(yè)客戶對Llama的興趣和部署量在急劇增長,特別是在Llama 3.1和3.2發(fā)布之后。尤其是大型的405B模型獲得了非常強勁的關(guān)注,因為成熟的企業(yè)客戶看到了能夠在多種模型之間切換的價值?!彼岬?,客戶可以使用蒸餾服務(wù)從Llama 405B創(chuàng)建衍生模型,以根據(jù)自己的數(shù)據(jù)進行微調(diào)。蒸餾是一種在保留核心能力的同時創(chuàng)建更小、更快模型的過程。
事實上,Meta憑借其其他模型組合很好地覆蓋了市場,包括Llama 90B模型,可用于大多數(shù)提示任務(wù),而1B和3B模型則小到可以在設(shè)備上使用。今天,Meta還發(fā)布了這些小型模型的“量化”版本。量化是一種使模型更小的過程,從而減少功耗并加快處理速度。此次最新發(fā)布的版本在訓(xùn)練過程中進行了量化,使其比其他業(yè)內(nèi)的量化替代品更高效——在生成標(biāo)記方面速度提升四倍,功耗減少到原來的四分之一。
技術(shù)能力推動復(fù)雜部署
開源和封閉模型之間的技術(shù)差距實際上已消失,但各自的優(yōu)勢仍然明顯,成熟的企業(yè)正在戰(zhàn)略性地利用這些優(yōu)勢,這帶來了更細(xì)致的部署方式,企業(yè)根據(jù)特定任務(wù)需求組合不同模型。
Salesforce的AI執(zhí)行副總裁Jayesh Govindarajan解釋道:“大型的專有模型在高級推理和分解模糊任務(wù)方面非常出色?!钡珜τ谀切┩评硪筝^低、以語言創(chuàng)作為主的任務(wù),例如撰寫電子郵件、創(chuàng)建營銷內(nèi)容、公司研究,“開源模型已經(jīng)達到同等水平,甚至在某些方面更好?!彼€指出,即使是高推理任務(wù)也可以分解為多個子任務(wù),其中很多最終成為以語言為主的任務(wù),而開源模型在這方面表現(xiàn)出色。
Intuit,這家擁有會計軟件QuickBooks和稅務(wù)軟件TurboTax的公司,在幾年前就開始了其LLM之旅,成為財富500強公司中非常早的行動者。其實施過程展示了成熟的應(yīng)用策略。對于QuickBooks中的交易分類等面向客戶的應(yīng)用,Intuit發(fā)現(xiàn)其基于Llama 3微調(diào)的LLM比封閉替代品表現(xiàn)出更高的準(zhǔn)確性。Intuit的首席數(shù)據(jù)官Ashok Srivastava解釋說:“我們發(fā)現(xiàn)可以使用一些開源模型,將其調(diào)整到較小規(guī)模,并用于特定領(lǐng)域的需求?!边@些模型“體積小得多,延遲低且精度不減,甚至更高?!?/p>
銀行業(yè)也展示了從封閉LLM向開源LLM的遷移。服務(wù)于澳大利亞和新西蘭的ANZ銀行最初使用OpenAI進行快速實驗,但在轉(zhuǎn)向?qū)嶋H應(yīng)用部署時,放棄了OpenAI,改為基于Llama模型的微調(diào)模型,以適應(yīng)特定的金融應(yīng)用場景,并滿足對穩(wěn)定性和數(shù)據(jù)主權(quán)的需求,該銀行發(fā)布了一篇博客,詳細(xì)介紹了這一過程,強調(diào)了Llama的多版本提供的靈活性、靈活的托管選項、版本控制和便捷的回滾功能。據(jù)我們了解,美國排名前三的一家銀行最近也放棄了OpenAI,轉(zhuǎn)向開源解決方案。
正是這種想要從OpenAI轉(zhuǎn)向開源的需求促使一些公司推出了“切換工具包”,例如PostgresML的產(chǎn)品,使企業(yè)能夠在幾分鐘內(nèi)從OpenAI無縫轉(zhuǎn)向開源。
基礎(chǔ)設(shè)施的演變消除了部署障礙
開源LLM的部署路徑已大大簡化。Meta的Srinivasan概述了企業(yè)采用的三條主要路徑:
1. 云合作伙伴集成:主要的云提供商現(xiàn)在提供了簡化的開源模型部署方案,具有內(nèi)置的安全性和擴展功能。
2. 自定義技術(shù)棧開發(fā):具備技術(shù)能力的公司可以在本地或云端構(gòu)建自己的基礎(chǔ)設(shè)施,保持對AI技術(shù)棧的完全控制——Meta也通過所謂的Llama Stack提供幫助。
3. API訪問:對于追求簡便的公司,現(xiàn)在多家供應(yīng)商提供開源模型的API訪問,使其使用方式如同封閉模型一樣簡單。Groq、Fireworks和Hugging Face就是例子,它們都能提供推理API、微調(diào)API以及所有類似于專有供應(yīng)商的功能。
安全性和控制優(yōu)勢顯現(xiàn)
開源方法在模型安全性和控制方面也意外地成為了領(lǐng)先者,特別適合那些需要對其AI系統(tǒng)進行嚴(yán)格監(jiān)管的企業(yè)。Groq的Ross指出:“Meta在安全性方面非常謹(jǐn)慎,因為他們讓模型面向公眾?!彼f,“他們實際上更為小心。相較之下,其他公司則不太透明,測試的難度更大?!?/p>
Meta對安全性的重視也反映在其組織結(jié)構(gòu)中。Ross表示,根據(jù)幾個月前與Meta的對話,負(fù)責(zé)Llama安全性和合規(guī)性的團隊相對于工程團隊規(guī)模較大。(Meta發(fā)言人表示公司不對人員信息發(fā)表評論)。9月發(fā)布的Llama 3.2推出了Llama Guard Vision,進一步豐富了7月發(fā)布的安全工具。這些工具可以:
? 檢測潛在問題的文本和圖像輸入,防止其進入模型
? 監(jiān)控并過濾輸出結(jié)果,以確保安全和合規(guī)
企業(yè)AI提供商在此基礎(chǔ)安全功能之上進行了擴展。例如,AWS的Bedrock服務(wù)允許企業(yè)在不同模型中建立一致的安全保護機制。AWS的Sridharan解釋道:“一旦客戶設(shè)置了這些政策,就可以在不同的公共模型之間切換,而無需重新編寫應(yīng)用程序?!边@種標(biāo)準(zhǔn)化對管理多個AI應(yīng)用程序的企業(yè)至關(guān)重要。
作為企業(yè)級云數(shù)據(jù)提供商的Databricks和Snowflake也認(rèn)可Llama的安全性:“Llama模型保持了‘最高的安全和可靠性標(biāo)準(zhǔn)’,”Neural Networks的CTO Hanlin Tang表示。
Intuit的實施展示了企業(yè)如何在安全措施上進行額外的疊加,該公司的GenSRF(安全、風(fēng)險和欺詐評估)系統(tǒng),作為其“GenOS”操作系統(tǒng)的一部分,監(jiān)控約100個信任和安全維度。Intuit的Srivastava解釋道:“我們有一個委員會負(fù)責(zé)審查LLM,確保其標(biāo)準(zhǔn)與公司原則一致?!辈贿^,他指出,對開源模型的審查與公司對封閉源模型的審查沒有不同。
通過合成訓(xùn)練解決數(shù)據(jù)來源問題
關(guān)于LLM的一個關(guān)鍵問題在于其訓(xùn)練數(shù)據(jù)的來源。出版商和其他創(chuàng)作者提起了許多訴訟,指控LLM公司侵犯版權(quán)。大多數(shù)LLM公司,無論是開源還是封閉的,都沒有完全透明地披露其數(shù)據(jù)來源。由于大部分?jǐn)?shù)據(jù)來自公開網(wǎng)絡(luò),因此可能存在高度的偏見并包含個人信息。
許多封閉源公司為用戶提供了“賠償保障”,即在使用其LLM時對法律風(fēng)險或訴訟提供保護。開源提供商通常不提供此類賠償。不過,最近關(guān)于數(shù)據(jù)來源的擔(dān)憂似乎有所緩解。通過微調(diào)可以對模型進行調(diào)整和過濾,Meta等公司還創(chuàng)建了更多對齊和其他安全措施以緩解這些擔(dān)憂。數(shù)據(jù)來源問題對于一些企業(yè),特別是那些受嚴(yán)格監(jiān)管的行業(yè)(如銀行業(yè)或醫(yī)療保健)仍然是一個問題,但一些專家建議,通過合成訓(xùn)練數(shù)據(jù),這些數(shù)據(jù)來源問題可能很快會得到解決。
Salesforce的Govindarajan解釋道:“想象一下,如果我可以采取公共的專有數(shù)據(jù),通過一些算法方法進行修改,以創(chuàng)建反映真實世界的合成數(shù)據(jù),那么我其實不需要訪問所有那種互聯(lián)網(wǎng)數(shù)據(jù)……數(shù)據(jù)來源問題就消失了?!?/p>
Meta已接受這一趨勢,并在Llama 3.2的1B和3B模型中加入了合成數(shù)據(jù)訓(xùn)練。
區(qū)域模式揭示了由成本驅(qū)動的采用趨勢
開源LLM的采用顯示出明顯的區(qū)域和行業(yè)特定模式。Oracle的Pavlik觀察到:“在北美,封閉源模型在生產(chǎn)中的使用量肯定超過了開源模型?!彼又硎荆骸岸诶∶乐蓿覀兛吹絃lama模型在生產(chǎn)場景中的使用量大幅上升,這幾乎是相反的?!?/p>
導(dǎo)致這些地區(qū)差異的原因尚不明確,但可能反映出在成本和基礎(chǔ)設(shè)施方面的不同優(yōu)先級。Pavlik描述了一個全球范圍內(nèi)發(fā)生的情景:“一些企業(yè)用戶開始使用GPT-4進行一些原型開發(fā)……收到第一份賬單后,他們會想,‘天啊,太貴了!’這比他們預(yù)期的要昂貴得多,于是他們開始尋找替代方案?!?/p>
市場動態(tài)指向商業(yè)化趨勢
LLM部署的經(jīng)濟性正迅速向開源模型傾斜。風(fēng)投家Marc Andreessen指出:“過去一年里,生成LLM輸出的每個token的成本已經(jīng)下降了100倍?!彼|(zhì)疑封閉源模型提供商是否能保持盈利,這樣的“價格戰(zhàn)”對那些為封閉模型開發(fā)籌集數(shù)十億美元的公司構(gòu)成了壓力,而那些通過核心業(yè)務(wù)支持開源開發(fā)的組織則更具優(yōu)勢。
Intuit的Srivastava表示:“我們知道這些模型的成本將趨近于零?!彼娣Q,過度投入這些模型的公司可能很快會面臨后果,這種趨勢特別有利于Meta,因為Meta可以提供免費模型,同時從其平臺和產(chǎn)品的應(yīng)用中獲取價值。
Groq的Ross認(rèn)為,LLM競爭的一個很好的比喻是操作系統(tǒng)之爭?!癓inux可能是LLM的最佳類比?!彪m然Windows主導(dǎo)了消費級計算,但開源的Linux卻在企業(yè)系統(tǒng)和工業(yè)計算中占據(jù)主導(dǎo)地位。Intuit的Srivastava也看到類似的模式:“我們一次又一次地看到開源操作系統(tǒng)與非開源操作系統(tǒng)的競爭。瀏覽器之爭也是如此,”當(dāng)時開源的Chromium瀏覽器擊敗了封閉源的模型。
SAP全球AI主管Walter Sun也贊同這一觀點:“我認(rèn)為在競爭中,開源的大型語言模型與封閉源模型一樣有效,這給予了人們更多的靈活性?!彼a充道:“如果你有特定的需求和應(yīng)用場景……開源是實現(xiàn)的最佳途徑?!?/p>
Groq的Ross和其他一些觀察家認(rèn)為,Meta可能有能力投入1000億美元來訓(xùn)練其Llama模型,這一數(shù)額超過了所有專有模型提供商的總和。他表示,Meta有動力這樣做,因為它是LLM的最大受益者之一,需要它們來提升其核心業(yè)務(wù)的智能水平,為Instagram、Facebook和WhatsApp上的用戶提供AI服務(wù)。Meta表示,其AI每周接觸1.85億活躍用戶,這樣的規(guī)模幾乎無出其右。
這表明開源LLM不會面臨其他開源項目中經(jīng)常出現(xiàn)的可持續(xù)性挑戰(zhàn)。Meta CEO Mark Zuckerberg在7月的開源AI支持信中宣布:“從明年開始,我們預(yù)計未來的Llama模型將成為行業(yè)中最先進的模型?!彼f,“但即便在此之前,Llama已經(jīng)在開放性、可修改性和成本效率方面處于領(lǐng)先地位?!?/p>
專用模型豐富了生態(tài)系統(tǒng)
專用行業(yè)解決方案的出現(xiàn)進一步加強了開源LLM生態(tài)系統(tǒng)。例如,IBM推出了其Granite模型,完全開源,并專為金融和法律應(yīng)用訓(xùn)練而成。IBM的GenAI全球管理合伙人Matt Candy表示:“Granite模型是我們的‘殺手級應(yīng)用’。”他說,“這些是唯一能完全解釋訓(xùn)練和調(diào)優(yōu)數(shù)據(jù)集來源的模型。如果你身處一個受監(jiān)管的行業(yè),并將你的企業(yè)數(shù)據(jù)與該模型結(jié)合使用,你需要非常清楚其內(nèi)容?!?/p>
IBM的業(yè)務(wù)受益于開源,包括將其Red Hat Enterprise Linux操作系統(tǒng)打包進混合云平臺中,包含Granite模型的使用以及InstructLab——一種微調(diào)和增強LLM的方法。其AI業(yè)務(wù)已初見成效。Candy表示:“看看股價吧——歷史新高?!?/p>
信任日益傾向于開源
信任正在轉(zhuǎn)向企業(yè)可以擁有和控制的模型。Inflection AI的首席運營官Ted Shelton解釋了封閉模型的根本挑戰(zhàn)。Inflection AI是一家為企業(yè)提供許可源代碼和完整應(yīng)用棧的公司,作為封閉和開源模型的替代方案。他指出:“無論是OpenAI、Anthropic、Gemini還是Microsoft,它們都愿意為企業(yè)客戶提供所謂的私有計算環(huán)境,然而,這種計算環(huán)境仍由模型提供商的員工管理,客戶無法訪問模型本身?!边@是因為LLM的所有者希望保護源代碼、模型權(quán)重和超參數(shù)訓(xùn)練細(xì)節(jié)等專有元素,而這些信息對于直接訪問模型的客戶無法隱藏。由于大量代碼是用Python編寫的,而不是編譯語言,因此它們依然暴露在外。
這種情況對于嚴(yán)肅對待AI部署的企業(yè)而言不可接受。Shelton指出:“一旦你允許‘OpenAI的員工將真正控制和管理模型,他們將接觸到公司的所有數(shù)據(jù)’,這就成為了數(shù)據(jù)泄漏的一個風(fēng)險點?!彼a充道,“那些真正關(guān)心數(shù)據(jù)安全的公司會說,‘不,我們不會這么做。我們會實際運行自己的模型,而唯一的選擇就是開源?!?/p>
未來的方向
雖然封閉源模型在較簡單的用例中仍然保持市場領(lǐng)先地位,但成熟的企業(yè)越來越意識到未來的競爭力依賴于對其AI基礎(chǔ)設(shè)施的更多控制。正如Salesforce的Govindarajan所觀察到的:“一旦你看到價值,并開始將其擴展到所有用戶和客戶身上,就會開始提出一些有趣的問題。是否可以提高效率?是否可以實現(xiàn)成本效率?是否可以提高速度?”
這些問題的答案正促使企業(yè)轉(zhuǎn)向開源模型,即便這一轉(zhuǎn)變并非總是那么順利。Inflection AI的Shelton說:“我確實認(rèn)為會有一大批公司努力嘗試讓開源發(fā)揮作用,因為他們別無選擇。你要么屈服,接受幾家大型科技公司控制GenAI,要么接受Mark Zuckerberg拋出的救命稻草,然后說:‘好吧,讓我們一起努力吧?!?/p>