NVIDIA AI Foundry 全新發(fā)布:賦能全球企業(yè)打造自定義 Llama 3.1 生成式 AI 模型
原創(chuàng)毋庸置疑,生成式 AI已經(jīng)成為驅(qū)動千行百業(yè)創(chuàng)新與發(fā)展的關(guān)鍵技術(shù)。在 AIGC的加持下,企業(yè)正在積極探索新的商業(yè)模式,提高生產(chǎn)效率,為用戶帶來更加優(yōu)質(zhì)的服務(wù)體驗。為了推動大模型應(yīng)用的發(fā)展,進一步加速生成式AI在千行百業(yè)的落地,NIVIDA 于近日正式推出了全新 NVIDIA AI Foundry 服務(wù)和 NVIDIA NIM? 推理微服務(wù),與同樣剛推出的 Llama 3.1 系列開源模型一起,為全球企業(yè)的生成式 AI 提供強力支持。
作為 NVIDIA 提供的一項服務(wù),NVIDIA AI Foundry 旨在幫助企業(yè)構(gòu)建、優(yōu)化和部署人工智能(AI)模型。這項服務(wù)是 NVIDIA 在推動 AI 創(chuàng)新和普及方面的一部分,它為企業(yè)提供了一系列工具和平臺,以便更快速、更高效地開發(fā)和實施 AI 解決方案。
賦能企業(yè)利用 Llama 3.1 構(gòu)建“超級模型”
剛剛發(fā)布不久的Llama 3.1系列大模型,性能有了很大的提升。根據(jù)官方數(shù)據(jù)顯示,在150多個基準測試集中,405B版本的表現(xiàn)追平甚至超越了現(xiàn)有SOTA模型GPT-4o和Claude 3.5 Sonnet。作為支持開源AI的模型,Llama 3.1提供高級功能,并優(yōu)化訓(xùn)練棧和推理能力,并支持開源和廣泛生態(tài)合作。
馬克·扎克伯格表示,除了擁有更高的性能和更高級功能之外,全新的 Llama 3.1 模型是開源 AI 邁出極其重要的一步。
我們知道,NVIDIA AI Foundry 是由 NVIDIA DGX? Cloud AI 平臺驅(qū)動。該平臺由 NVIDIA 與全球公有云共同設(shè)計,旨在為企業(yè)提供大量計算資源,所提供的計算資源可隨著 AI 需求的變化輕松擴展。此次發(fā)布會的NVIDIA AI Foundry,旨在提供對剛剛發(fā)布的Llama 3.1系列大模型提供更好地支持。
全新發(fā)布的 NVIDIA AI Foundry 提供了從數(shù)據(jù)策管、合成數(shù)據(jù)生成、微調(diào)、檢索、防護到評估的全方位生成式 AI 模型服務(wù),以便部署自定義 Llama 3.1 NVIDIA NIM 微服務(wù)和新的 NVIDIA NeMo Retriever 微服務(wù),以實現(xiàn)準確響應(yīng)。
借助 NVIDIA AI Foundry,企業(yè)和各國現(xiàn)在能夠使用 Llama 3.1 以及 NVIDIA 軟件、計算和專業(yè)知識,為其特定領(lǐng)域的行業(yè)用例創(chuàng)建自定義“超級模型”。企業(yè)可以使用自有數(shù)據(jù)以及由 Llama 3.1 405B 和 NVIDIA Nemotron? Reward 模型生成的合成數(shù)據(jù),來訓(xùn)練這些超級模型。
“Meta 的 Llama 3.1 開源模型標志著全球企業(yè)采用生成式 AI 的關(guān)鍵時刻已經(jīng)到來。Llama 3.1 將掀起各個企業(yè)與行業(yè)創(chuàng)建先進生成式 AI 應(yīng)用的浪潮?!?NVIDIA 黃仁勛表示:NVIDIA AI Foundry 已經(jīng)在整個過程中集成了 Llama 3.1,并能夠幫助企業(yè)構(gòu)建和部署自定義 Llama 超級模型。
馬克·扎克伯格表示,借助 NVIDIA AI Foundry,企業(yè)可以輕松創(chuàng)建和定制大家想要的先進的 AI 服務(wù),并通過 NVIDIA NIM 進行部署。
利用NVIDIA NIM 微服務(wù)為 RAG 提供檢索準確性
NVIDIA NIM?推理微服務(wù)是 NVIDIA 提供的一種基于云的 AI 推理服務(wù),旨在簡化和加速企業(yè)在各種應(yīng)用中部署 AI 模型的過程。NIM 推理微服務(wù)通過提供一個高效、可擴展和易于管理的平臺,幫助企業(yè)實現(xiàn) AI 模型的快速集成和部署。
全新的 NVIDIA NeMo Retriever NIM 推理微服務(wù)實現(xiàn)了檢索增強生成(RAG),企業(yè)可以將自定義 Llama 超級模型和 Llama NIM 微服務(wù)部署到生產(chǎn)中,以提高響應(yīng)準確性。此外,當與適用于 Llama 3.1 405B 的 NVIDIA NIM 推理微服務(wù)結(jié)合使用時,NeMo Retriever NIM 微服務(wù)可以為 RAG 工作流中的開放和商業(yè)文本問答帶來極高的檢索準確性。
借助 NVIDIA AI Foundry,企業(yè)能夠使用 Llama 3.1 模型和 NVIDIA NeMo 平臺上的 NVIDIA Nemotron-4 340B Reward 模型創(chuàng)建自定義模型。之后,企業(yè)就可以構(gòu)建 NVIDIA NIM 推理微服務(wù),以便在其選擇的云平臺和全球服務(wù)器制造商提供的 NVIDIA 認證系統(tǒng)?上,使用自己選擇的機器學(xué)習(xí)運維(MLOps)和人工智能運維(AIOps)平臺在生產(chǎn)中運行這些模型。
如果企業(yè)需要更多訓(xùn)練數(shù)據(jù)來創(chuàng)建特定領(lǐng)域的模型,可以在創(chuàng)建自定義 Llama 超級模型同時使用 Llama 3.1 405B 和 Nemotron-4 340B 生成合成數(shù)據(jù),以提高模型的準確性。另外,擁有自己的訓(xùn)練數(shù)據(jù)的客戶可以使用 NVIDIA NeMo 對 Llama 3.1 模型進行自定義,通過領(lǐng)域自適應(yīng)預(yù)訓(xùn)練(DAPT)進一步提高模型的準確性。
為合作伙伴部署 Llama 提供強力支持
Llama 3.1 多語種大語言模型(LLM)集合是一個具有 8B、70B 和 405B 三種參數(shù)規(guī)模的生成式 AI 模型集合。該集合中的模型在超過 16,000 個 NVIDIA Tensor Core GPU 上訓(xùn)練而成,并針對 NVIDIA 加速計算和軟件(無論是在數(shù)據(jù)中心、云以及配備 NVIDIA RTX? GPU 的本地工作站或配備 GeForce RTX GPU 的 PC 上)進行了優(yōu)化。
目前,醫(yī)療、能源、金融服務(wù)、零售、交通、電信等行業(yè)的企業(yè)已在使用適用于 Llama 的 NVIDIA NIM 微服務(wù)構(gòu)建大模型。Aramco、AT&T 和優(yōu)步則成為首批使用面向 Llama 3.1 全新 NIM 微服務(wù)的公司。
據(jù)了解,埃森哲內(nèi)部 AI 應(yīng)用一直在使用 NVIDIA NIM 推理微服務(wù)。現(xiàn)在,借助 NVIDIA AI Foundry,埃森哲能夠幫助客戶快速創(chuàng)建和部署自定義 Llama 3.1 模型,為他們的優(yōu)先業(yè)務(wù)事項提供變革性的 AI 應(yīng)用。
除此之外,數(shù)百家提供企業(yè)、數(shù)據(jù)和基礎(chǔ)設(shè)施平臺的 NVIDIA NIM 合作伙伴現(xiàn)在能夠?qū)⑦@些新的微服務(wù)集成到其 AI 解決方案中,從而為 NVIDIA 社區(qū) 500 多萬開發(fā)者和 1.9 萬家初創(chuàng)公司的生成式 AI 提供超強助力。
目前,企業(yè)可以通過 NVIDIA AI Enterprise 獲得 Llama 3.1 NIM 和 NeMo Retriever NIM 微服務(wù)的生產(chǎn)支持。NVIDIA 開發(fā)者計劃會員將很快能夠免費訪問 NIM 微服務(wù),以在他們選擇的基礎(chǔ)設(shè)施上進行研究、開發(fā)和測試。