撰稿丨張潔
“買(mǎi)得越多,省得越多!”黃仁勛深夜放言,毫不掩飾在這個(gè)大模型井噴時(shí)代的豪氣。
在今年的世界頂級(jí)計(jì)算機(jī)圖形學(xué)會(huì)議 SIGGRAPH上,老黃再度登上舞臺(tái)。不過(guò)除了發(fā)布讓老黃本人差點(diǎn)翻車的、號(hào)稱比A100更牛逼的旗艦級(jí)的RTX 6000以外,更為讓人尋味的,是老黃突然宣布的生態(tài)玩法:英偉達(dá)要跟Hugging Face手拉手了!
一向不吝嗇自己在“硬”實(shí)力上秀肌肉的英偉達(dá),為降低生成式AI門(mén)檻,在軟硬件方面推出了一系列重磅更新。這都可以理解。但AI開(kāi)發(fā)工具、開(kāi)發(fā)平臺(tái)、大模型齊備的英偉達(dá),選擇與全球范圍內(nèi)最大的AI社區(qū)強(qiáng)強(qiáng)聯(lián)合,一定有藏著老黃更大的“野心”。
1、借東風(fēng):英偉達(dá)因何選擇Hugging Face
在硬件方面,GH200超級(jí)芯片的更新版的推出引起了普遍關(guān)注。相比x86架構(gòu)的CPU,GPU在能效上的優(yōu)勢(shì)更明顯。黃仁勛打了個(gè)比方,同樣使用1億美元打造數(shù)據(jù)中心,可以買(mǎi)下8800個(gè)x86的CPU或2500套GH200,但后者的AI算力是前者的12倍,同時(shí)能耗減少20倍。
不過(guò),要讓大模型的使用門(mén)檻進(jìn)一步降低,硬基座的夯實(shí)只是一方面,軟環(huán)境的升級(jí)同樣不可或缺。在推出NVIDIA DGX Cloud短短幾個(gè)月后,英偉達(dá)昨天又官宣了與Hugging Face 的合作。事實(shí)上,在外界看來(lái),這一合作并不令人意外。那么,為何是Hugging Face?
依靠明星項(xiàng)目Transformers庫(kù)走紅的Hugging Face是一個(gè)針對(duì)機(jī)器學(xué)習(xí)的開(kāi)源平臺(tái)和社區(qū),在當(dāng)下被視為大模型托管領(lǐng)域的Github。其官網(wǎng)顯示,Hugging Face 目前擁有25萬(wàn)+的模型,5萬(wàn)+數(shù)據(jù)集。
圖源:https://huggingface.co/
通過(guò)Hugging Face,企業(yè)可以直接通過(guò)API接入大模型能力,也可以上傳自己的數(shù)據(jù),在眾多開(kāi)源項(xiàng)目中找到適合自身的模型和訓(xùn)練方法,直接訓(xùn)練一個(gè)屬于企業(yè)自己的大模型??梢哉f(shuō),Hugging Face集成開(kāi)放模型的優(yōu)勢(shì)有目共睹。
雙方的合作將英偉達(dá)之前發(fā)布的DGX Cloud 和Hugging Face平臺(tái)集成到了一起,通過(guò)讓開(kāi)發(fā)人員在Hugging Face平臺(tái)中訪問(wèn)NVIDIA DGX Cloud AI超級(jí)計(jì)算來(lái)訓(xùn)練和調(diào)整高級(jí)AI模型。
“Hugging Face 和英偉達(dá)正在將世界上最大的AI社區(qū)與NVIDIA在世界領(lǐng)先云中的AI計(jì)算平臺(tái)連接起來(lái)??傊?,英偉達(dá)AI計(jì)算對(duì)于Hugging Face 社區(qū)來(lái)說(shuō)只需點(diǎn)擊一下即可。”黃仁勛如此說(shuō)道。
兩者的集成使Hugging Face用戶能輕松實(shí)現(xiàn)對(duì)NVIDIA多節(jié)點(diǎn)AI超級(jí)計(jì)算平臺(tái)的一鍵式訪問(wèn)。作為合作的一部分,Hugging Face將提供一項(xiàng)名為T(mén)raining Cluster as a Service的新服務(wù),以簡(jiǎn)化為企業(yè)創(chuàng)建新的和自定義的生成AI模型的過(guò)程。該服務(wù)由NVIDIA DGX Cloud 提供支持,將在未來(lái)幾個(gè)月內(nèi)推出。
2、大模型亂戰(zhàn):“大炮打蚊子”的無(wú)奈
在英偉達(dá)之前,包括AMD、亞馬遜在內(nèi)的諸多巨頭已經(jīng)和Hugging Face達(dá)成了緊密合作。由此可見(jiàn),這一現(xiàn)象并非偶然,至少折射出了大模型賽道中一種新的趨向的形成——除了成為大模型的供應(yīng)商,也可以選擇成為大模型的服務(wù)平臺(tái)。
不可否認(rèn),自從ChatGPT發(fā)布后,大模型的發(fā)展前所未有、日新月異。通過(guò)模型的巨量化可以提高人工智能的通用屬性,并降低人工智能的應(yīng)用門(mén)檻。但是大模型的應(yīng)用落地一直存在諸多挑戰(zhàn),如何讓更多行業(yè)和場(chǎng)景真正用起來(lái)也是業(yè)界頻頻討論的關(guān)鍵議題。歸結(jié)起來(lái),其矛盾主要集中于以下幾個(gè)方面:
首先,不是所有場(chǎng)景都需要大模型。雖然普遍認(rèn)為大模型在諸多行業(yè)能發(fā)揮巨大價(jià)值,但也有一些數(shù)據(jù)量小、任務(wù)并不復(fù)雜的場(chǎng)景,并不適合使用大模型,否則就是“大炮打蚊子”。
其次,大模型不是參數(shù)數(shù)量越大越好,泛化能力才是其主要價(jià)值。正如中國(guó)科學(xué)院自動(dòng)化研究所研究員王金橋曾提到的,“在生活中,百分之八九十場(chǎng)景的問(wèn)題都屬于小樣本問(wèn)題?!爆F(xiàn)實(shí)中如何快速適配不同場(chǎng)景才是大模型應(yīng)用的難點(diǎn)所在。
再者,大模型不是萬(wàn)能的,不要寄希望于一個(gè)大模型解決所有問(wèn)題。人工智能著名學(xué)者吳恩達(dá)曾表示,“在消費(fèi)互聯(lián)網(wǎng)行業(yè)中,我們只需訓(xùn)練少數(shù)機(jī)器學(xué)習(xí)模型就能服務(wù)10億用戶。然而在制造業(yè)中,有1萬(wàn)家制造商就要搭建1萬(wàn)個(gè)定制模型?!贝竽P鸵嬲涞剡€需要解決通用性和個(gè)性化之間的問(wèn)題。
整體來(lái)說(shuō),大模型上線只是第一步,如何應(yīng)用到具體的行業(yè)場(chǎng)景中,搶占到用戶和市場(chǎng)才是這場(chǎng)戰(zhàn)役的奧義所在。隨著五花八門(mén)的大模型陸續(xù)上線,關(guān)于大模型落地的矛盾愈發(fā)凸顯。
因此,縱觀國(guó)內(nèi)外大模型領(lǐng)域的發(fā)展動(dòng)向,可以發(fā)現(xiàn),看似花團(tuán)錦簇的繁榮表象之下,巨頭們的大模型之爭(zhēng)已經(jīng)逐漸從大模型本身擴(kuò)展到了大模型之外的角落。想依靠單一自建大模型打天下的理想在當(dāng)下反而不太現(xiàn)實(shí)。
當(dāng)然,大模型賽道還是卷得很厲害,頗有你方唱罷我登場(chǎng)之勢(shì)。但是巨頭自建大模型的目的,防守之意遠(yuǎn)大于進(jìn)攻。絕大多數(shù)入場(chǎng)玩家不再執(zhí)著于訓(xùn)練出一個(gè)超越ChatGPT形態(tài)的產(chǎn)品,他們建立自有大模型更多地是為現(xiàn)有業(yè)務(wù)加上護(hù)盾?!澳阌形乙灿小辈攀谴蠹夜苍谝粡堈勁凶赖那疤?,“你有我沒(méi)有”顯然表示你連上桌資格都沒(méi)有。
3、調(diào)轉(zhuǎn)船頭:MaaS成為新航向
這種意識(shí)在國(guó)內(nèi)的大模型市場(chǎng)也逐漸顯露端倪。
縱觀國(guó)內(nèi)企業(yè)構(gòu)建大模型的歷程,大家?guī)缀醵际窃谕黄鹋芫€起步。沒(méi)有一騎絕塵的領(lǐng)先者,百花齊放的形態(tài)下,群雄逐鹿、你追我趕成為常態(tài)。
百度文心大模型已經(jīng)迭代到了3.5版本;騰訊成立了由張正友帶隊(duì)研發(fā)的混元助手項(xiàng)目組;阿里發(fā)布“通義千問(wèn)”后,還推出“通義聽(tīng)悟”且正式開(kāi)啟公測(cè);華為的“盤(pán)古”大模型在推出后甚至還接入了鴻蒙的底座。
新技術(shù)發(fā)展過(guò)程中,當(dāng)限制因素逐漸被解決后,其在產(chǎn)業(yè)的應(yīng)用便會(huì)迅速落地。大模型逐漸過(guò)渡到商業(yè)化落地階段已成為必然。但是在發(fā)現(xiàn)單純依靠大模型還無(wú)法打通商業(yè)化之路時(shí),調(diào)轉(zhuǎn)船頭成為了必然。
由于中國(guó)并沒(méi)有Hugging Face這樣的模型服務(wù)平臺(tái),各大云廠商成為了這場(chǎng)轉(zhuǎn)向的主角。因?yàn)闊o(wú)論大模型如何迭代,技術(shù)棧如何演變,算力永遠(yuǎn)是大模型的剛需。作為計(jì)算的底層支撐,云廠商的參與是必然的。
在大模型這座金礦尚有諸多不確定性時(shí),云服務(wù)商選擇的“你們淘金,我賣水”的模式逐漸成為新的發(fā)展路徑。在去年的云棲大會(huì)上,阿里云CTO周靖人首次提到了MaaS這個(gè)詞。
MaaS,Model as a Service,即“模型即服務(wù)”,顧名思義,以模型為核心提供服務(wù)。此后在“百模大戰(zhàn)”中,這一發(fā)展模式開(kāi)始開(kāi)花結(jié)果。雖然對(duì)外宣傳的側(cè)重各有不同,但形式基本一致,自研模型和第三方模型一起在云平臺(tái)上提供服務(wù)。
在阿里云發(fā)起的AI模型社區(qū)魔搭中,集聚了180多萬(wàn)AI開(kāi)發(fā)者和900多個(gè)AI模型;百度最早發(fā)布文心一言大模型,現(xiàn)在也已在百度上線第三方模型;騰訊甚至在發(fā)布模型平臺(tái)之外,發(fā)布了作為中間層工具的向量數(shù)據(jù)庫(kù)產(chǎn)品。而更為典型的是火山引擎。
今年6月28日,火山引擎發(fā)布了大模型服務(wù)平臺(tái)“火山方舟”,面向企業(yè)提供模型精調(diào)、評(píng)測(cè)、推理等全方位的平臺(tái)服務(wù)。此外,火山引擎還推出了“模型商店”,以此方便企業(yè)挑選合適的模型進(jìn)行組合。
火山引擎智能算法負(fù)責(zé)人吳迪表示,火山方舟平臺(tái)一方面會(huì)在資源和優(yōu)化方面跟模型提供商進(jìn)行非常深度的合作,長(zhǎng)期致力于降低推理成本,另一方面,火山算法團(tuán)隊(duì)會(huì)和客戶做重點(diǎn)的應(yīng)用共建和應(yīng)用落地,催化整個(gè)大模型、大算力在千行百業(yè)的落地速度。
4、結(jié)語(yǔ):MaaS選型需要考慮的關(guān)鍵因素
最后,站在企業(yè)用戶的角度,MaaS的誕生的確帶來(lái)了諸多的便利。
它允許企業(yè)快速輕松地訪問(wèn)強(qiáng)大的AI模型,而無(wú)需從頭開(kāi)始開(kāi)發(fā)和訓(xùn)練自己的大模型。這消除了對(duì)昂貴的軟硬件的需求,以及自己開(kāi)發(fā)和測(cè)試所需的時(shí)間和資源。與此同時(shí),MaaS還使企業(yè)更容易嘗試不同的大模型和技術(shù)。通過(guò)訪問(wèn)預(yù)訓(xùn)練模型,企業(yè)可以快速輕松地試驗(yàn)不同的選擇,從而快速確定哪些模型最能滿足他們的需求。
但是在選擇MaaS平臺(tái)時(shí),用戶也需要考慮幾個(gè)關(guān)鍵因素。
其一,應(yīng)該考慮平臺(tái)提供的模型和算法類型。不同的平臺(tái)提供不同的模型和算法,因此應(yīng)該確保你選擇的平臺(tái)提供你需要的模型和算法。
其二,應(yīng)該考慮MaaS平臺(tái)的定價(jià)結(jié)構(gòu)。不同的平臺(tái)提供不同的定價(jià)模型,因此應(yīng)該確保你選擇的平臺(tái)提供滿足你需求的定價(jià)模型。
其三,應(yīng)該考慮MaaS平臺(tái)提供的客戶支持級(jí)別。不同的平臺(tái)提供不同級(jí)別的客戶支持,因此應(yīng)該確保你選擇的平臺(tái)提供你需要的支持級(jí)別。
盡管使用MaaS具有許多優(yōu)勢(shì),但企業(yè)在創(chuàng)建AI模型時(shí)仍面臨一些常見(jiàn)挑戰(zhàn),比如如何選擇正確的模型類型、如何使用正確的數(shù)據(jù)訓(xùn)練模型以及如何定期評(píng)估模型。
長(zhǎng)遠(yuǎn)來(lái)說(shuō),無(wú)論是MaaS的構(gòu)建者、合作者還是用戶,依舊任重而道遠(yuǎn)。
參考鏈接:
https://nvidianews.nvidia.com/news/nvidia-and-hugging-face-to-connect-millions-of-developers-to-generative-ai-supercomputing
https://www.bianews.com/news/details?id=156713
https://medium.com/@pearcenjordan/what-is-maas-unlock-the-power-of-model-as-a-service-27ebbcaefce6