老黃的“AI 代工廠”開(kāi)工了!第一批生產(chǎn)“超級(jí)模型”!
隨著“大語(yǔ)言模型”技術(shù)不斷深化到應(yīng)用層,在全球多地形成了開(kāi)發(fā)定制化生成式人工智能的熱潮。
無(wú)論是從國(guó)家層面:法國(guó)將人工智能技術(shù)與國(guó)家的工業(yè)和數(shù)字主權(quán)掛鉤;印度下定了“必須要有自己的主權(quán)人工智能”的決心;日本以舉國(guó)之力押注主權(quán)AI......
還是從行業(yè)層面:金融行業(yè)利用AI提升交易算法的速度與精度,優(yōu)化風(fēng)險(xiǎn)管理;醫(yī)療行業(yè),利用AI精準(zhǔn)診斷和個(gè)性化治療,提高患者護(hù)理的質(zhì)量;制造業(yè),通過(guò)AI賦能的生產(chǎn)流程,降低成本,提升效率;零售業(yè),基于AI進(jìn)行客戶(hù)行為分析,增強(qiáng)個(gè)性化推薦和服務(wù),提升顧客滿意度......
越來(lái)越多組織甚至國(guó)家期待依賴(lài)定制化的AI解決方案來(lái)提高其核心能力的智能化水平。這種轉(zhuǎn)變不僅加速了AI技術(shù)的實(shí)際應(yīng)用,還將推動(dòng)全球AI技術(shù)的發(fā)展和創(chuàng)新,尤其是在有效整合人工智能以解決特定行業(yè)問(wèn)題方面。
試想,如果有這樣一個(gè)模型,它不僅支持最尖端的工具、資源以及強(qiáng)大基礎(chǔ)設(shè)施,還能讓你根據(jù)自有數(shù)據(jù)自行設(shè)計(jì)和定制,那將會(huì)是怎樣的情景?
NVIDIA“AI 代工廠” 幫助用戶(hù)定制“超級(jí)模型”
如今,業(yè)界期待已久的“超級(jí)模型”已經(jīng)變?yōu)楝F(xiàn)實(shí)。NVIDIA 宣布推出全新 NVIDIA AI Foundry 服務(wù)和 NVIDIA NIM? 推理微服務(wù),與同樣剛推出的 Llama 3.1 系列開(kāi)源模型一起,為全球企業(yè)的生成式 AI 提供強(qiáng)力支持。
老黃(NVIDIA 創(chuàng)始人兼首席執(zhí)行官黃仁勛)強(qiáng)調(diào)說(shuō):“NVIDIA AI Foundry 已經(jīng)在整個(gè)過(guò)程中集成了 Llama 3.1,并能夠幫助企業(yè)構(gòu)建和部署自定義 Llama 超級(jí)模型。借助 NVIDIA AI Foundry,可以使用自有數(shù)據(jù)以及由 Llama 3.1 405B 和 NVIDIA Nemotron? Reward 模型生成的合成數(shù)據(jù),來(lái)訓(xùn)練這些“超級(jí)模型”。
具體而言,基于 NVIDIA DGX? Cloud AI平臺(tái)驅(qū)動(dòng)的NVIDIA AI Foundry,由 NVIDIA與全球領(lǐng)先的公有云提供商共同設(shè)計(jì),專(zhuān)門(mén)為滿足企業(yè)不斷變化的AI計(jì)算需求而打造。
來(lái)源:NVIDIA
NVIDIA AI Foundry提供的計(jì)算資源不僅可以根據(jù)需求靈活擴(kuò)展,為企業(yè)帶來(lái)前所未有的便利,還可使用企業(yè)數(shù)據(jù)以及合成生成的數(shù)據(jù)來(lái)增強(qiáng)和更改預(yù)訓(xùn)練基礎(chǔ)模型中包含的一般知識(shí)。
一旦模型經(jīng)過(guò)定制、評(píng)估并具有護(hù)欄,就會(huì)輸出NVIDIA NIM 推理微服務(wù)(推理微服務(wù),包括定制模型、優(yōu)化引擎和標(biāo)準(zhǔn) API,支持不同環(huán)境的部署),開(kāi)發(fā)人員只需幾行代碼便可使用NIM 的標(biāo)準(zhǔn)API來(lái)構(gòu)建由人工智能驅(qū)動(dòng)的生成應(yīng)用程序,同時(shí)還能利用NIM 容器無(wú)縫集成 Kubernetes(K8s)生態(tài)系統(tǒng),高效地協(xié)調(diào)和管理容器化人工智能應(yīng)用。而從部署中的應(yīng)用程序中獲得的知識(shí)可以反饋到 AI Foundry中,以進(jìn)一步改進(jìn)自定義模型。
來(lái)源:NVIDIA
而Llama 3.1 多語(yǔ)種大語(yǔ)言模型(LLM)集合則是一個(gè)具有 8B、70B 和 405B 三種參數(shù)規(guī)模的生成式 AI 模型集合。該集合中的模型在超過(guò) 16,000 個(gè)NVIDIA Tensor Core GPU上訓(xùn)練而成,并針對(duì) NVIDIA 加速計(jì)算和軟件(無(wú)論是在數(shù)據(jù)中心、云以及配備 NVIDIA RTX? GPU 的本地工作站或配備 GeForce RTX GPU 的 PC 上)進(jìn)行了優(yōu)化。
值得注意的是,NIM 微服務(wù)也是將 Llama 3.1 模型部署到生產(chǎn)中的最快途徑。Meta 創(chuàng)始人兼首席執(zhí)行官馬克·扎克伯格表示:“全新的 Llama 3.1 模型是開(kāi)源 AI邁出極其重要的一步。借助 NVIDIA AI Foundry,企業(yè)可以輕松創(chuàng)建和定制大家想要的最先進(jìn)的 AI 服務(wù),并通過(guò) NVIDIA NIM 進(jìn)行部署?!?/p>
測(cè)試數(shù)據(jù)顯示,直接部署Llama 3.1 模型的吞吐量,最多可比不使用 NIM 運(yùn)行推理時(shí)高出 2.5 倍。
為應(yīng)對(duì)企業(yè)組織需要更多訓(xùn)練數(shù)據(jù)創(chuàng)建特定領(lǐng)域模型的需求,NVIDIA 和 Meta 支持可以在創(chuàng)建自定義的同時(shí)使用 Llama 3.1 405B 和 Nemotron-4 340B 生成合成數(shù)據(jù),以提高模型的準(zhǔn)確性。對(duì)于擁有自己的訓(xùn)練數(shù)據(jù)的用戶(hù)可以使用 NVIDIA NeMo 對(duì) Llama 3.1 模型進(jìn)行自定義,通過(guò)領(lǐng)域自適應(yīng)預(yù)訓(xùn)練(DAPT)進(jìn)一步提高模型的準(zhǔn)確性。
面向AI PC及AI基礎(chǔ)設(shè)施輕量化的藍(lán)海,NVIDIA 和 Meta為幫助企業(yè)能夠在AI 工作站、筆記本電腦等加速基礎(chǔ)設(shè)施上運(yùn)行由 Llama 驅(qū)動(dòng)的 AI 應(yīng)用,更是提供了提煉方法,供開(kāi)發(fā)者為生成式 AI 應(yīng)用創(chuàng)建更小的自定義 Llama 3.1 模型。
“NVIDIA +Llama” 強(qiáng)化行業(yè)“AI 實(shí)力”
現(xiàn)在,醫(yī)療、能源、金融服務(wù)、零售、交通、電信等行業(yè)的企業(yè)已在使用適用于 Llama 的 NVIDIA NIM 微服務(wù)。同時(shí),數(shù)百家提供企業(yè)、數(shù)據(jù)和基礎(chǔ)設(shè)施平臺(tái)的 NVIDIA NIM 合作伙伴現(xiàn)在能夠?qū)⑦@些新的微服務(wù)集成到其 AI 解決方案中,從而為 NVIDIA 社區(qū) 500 多萬(wàn)開(kāi)發(fā)者和 1.9 萬(wàn)家初創(chuàng)公司的生成式 AI 提供超強(qiáng)助力。
來(lái)源:NVIDIA
全球?qū)I(yè)服務(wù)巨頭埃森哲更是先行一步,率先借助 NVIDIA AI Foundry 引入了一股創(chuàng)新的新風(fēng)潮!不僅為自己定制了 Llama 3.1 模型,還利用自家的 Accenture AI Refinery? 框架,為那些渴望反映其獨(dú)特文化、語(yǔ)言和行業(yè)需求的客戶(hù)提供了同樣的服務(wù)。
埃森哲的董事長(zhǎng)兼CEO Julie Sweet 分享說(shuō):“全球領(lǐng)軍企業(yè)看到了生成式 AI 正在如何深入改變各行各業(yè),并且希望部署由自定義模型驅(qū)動(dòng)的應(yīng)用。埃森哲的內(nèi)部 AI 應(yīng)用一直在使用 NVIDIA NIM 推理微服務(wù)?,F(xiàn)在,借助 NVIDIA AI Foundry,我們能夠幫助客戶(hù)快速創(chuàng)建和部署自定義 Llama 3.1 模型,為他們的優(yōu)先業(yè)務(wù)事項(xiàng)提供變革性的 AI 應(yīng)用。”
對(duì)于行業(yè)企業(yè)而言,NVIDIA AI Foundry 提供的不僅僅是一種服務(wù),而是一條快速打造定制超級(jí)模型的捷徑。這個(gè)全方位服務(wù)結(jié)合了 NVIDIA 的尖端軟件、健壯的基礎(chǔ)設(shè)施和深厚的專(zhuān)業(yè)知識(shí),并且融合了 NVIDIA AI 生態(tài)系統(tǒng)中的豐富資源與開(kāi)放社區(qū)的模型和技術(shù)。
通過(guò) NVIDIA AI Foundry,企業(yè)可以輕松使用 Llama 3.1 模型和 NVIDIA NeMo 平臺(tái)(包括在 Hugging Face RewardBench 排名首位的 NVIDIA Nemotron-4 340B Reward 模型)來(lái)塑造自己的定制解決方案。
定制模型就位后,企業(yè)便能夠構(gòu)建基于 NVIDIA NIM 推理微服務(wù)的應(yīng)用,這些服務(wù)可以在他們選擇的云平臺(tái)上運(yùn)行,支持全球服務(wù)器制造商提供的 NVIDIA 認(rèn)證系統(tǒng)?,并與頂級(jí)的機(jī)器學(xué)習(xí)運(yùn)維(MLOps)和人工智能運(yùn)維(AIOps)平臺(tái)無(wú)縫對(duì)接。
NVIDIA也承諾,NVIDIA AI Enterprise 的專(zhuān)家團(tuán)隊(duì)與全球的系統(tǒng)集成商合作伙伴一起,幫助 AI Foundry 的客戶(hù)加速?gòu)拈_(kāi)發(fā)到部署的整個(gè)過(guò)程,使得企業(yè)可以更快速地實(shí)現(xiàn) AI 驅(qū)動(dòng)的業(yè)務(wù)變革。
寫(xiě)在最后
不難看出,NVIDIA AI Foundry 代表企業(yè)AI服務(wù)向“即服務(wù)”模式轉(zhuǎn)變的趨勢(shì)。通過(guò)此平臺(tái),企業(yè)能快速定制和部署AI解決方案,滿足特定業(yè)務(wù)需求。此外,與全球系統(tǒng)集成商的合作也加速了從開(kāi)發(fā)到部署的過(guò)程,幫助企業(yè)實(shí)現(xiàn)AI驅(qū)動(dòng)的業(yè)務(wù)變革。
同時(shí),對(duì)于 Llama 3.1 模型而言,這款開(kāi)源模型在NVIDIA的支持下,正邁出通向開(kāi)源通用人工智能的下一步!”目前,Meta已經(jīng)在研發(fā)Llama 4,相信在NVIDIA的支持下,“開(kāi)源的勝利”未來(lái)可期!
現(xiàn)在,Llama 3.1 NIM 和 NeMo Retriever NIM 微服務(wù)的生產(chǎn)支持可以通過(guò) NVIDIA AI Enterprise 獲得。NVIDIA 開(kāi)發(fā)者計(jì)劃也聲稱(chēng),將很快為會(huì)員提供免費(fèi)訪問(wèn) NIM 微服務(wù),并支持在他們首選的基礎(chǔ)設(shè)施上進(jìn)行研究、開(kāi)發(fā)和測(cè)試。