英偉達全力發(fā)展AI Agent!開源專屬大模型,最強AI工廠
今天凌晨,全球AI領導者英偉達(Nvidia)在美國圣何塞舉辦了“GTC 2025”全球產(chǎn)品、開發(fā)者大會,涵蓋大模型、AI Agent、實體機器人、AI專用芯片、量子計算等技術分享。
其中,英偉達在官網(wǎng)宣布與Oracle(甲骨文)達成技術合作,提供160多種原生AI工具和100多個微服務,幫助企業(yè)構建超復雜、無縫銜接的Agent應用,將復雜、重復的數(shù)字業(yè)務實現(xiàn)自動化。
還開源了一個專用于Agent的基礎模型Llama Nemotron,目前,微軟、埃森哲、德勤、SAP、ServiceNow正與英偉達合作,基于該模型開發(fā)商用智能體。
同時發(fā)布了一個專用于AI Agent的訓練、推理AI工廠Blackwell Ultra,性能比上一代大幅度提升。
本次GTC 2025大會的召開時間為5天,預計將有超過1000場產(chǎn)品、技術分享。但英偉達把AI Agent作為重頭戲放在了第一天,并且和昨天的Zoom一樣用連續(xù)多篇通稿來介紹,足以看出對智能體的重視性。
那下面「AIGC開放社區(qū)」就為大家介紹在第一天開幕式上,英偉達準備了哪些Agent大餐。
英偉達全力發(fā)展AI Agent
為了幫助企業(yè)開發(fā)更復雜、智能的Agent,英偉達是基于Llama-3.1之上開發(fā)了專屬模型Llama Nemotron。
Llama Nemotron一共有Nano、Super和Ultra三種模型,每種都針對不同的部署需求進行了優(yōu)化。Nano模型適用于個人電腦和邊緣設備,例如,手機、平板、筆記本等;
Super模型在單個GPU上提供最佳的準確性和吞吐量;Ultra模型在多GPU服務器上提供最大的Agent準確性。
此外,英偉達在后訓練階段對這些模型進行了增強,以提升多步驟數(shù)學計算、編碼、推理和復雜決策的能力,其準確性比基礎模型提高了20%,并且在推理速度上比其他領先的開源推理模型優(yōu)化了5倍。使得基于該模型開發(fā)的Agent能夠以更高的準確率處理復雜的自動化任務,增強決策能力。
開源地址:https://huggingface.co/nvidia/Llama-3.1-Nemotron-Nano-8B-v1
??https://huggingface.co/nvidia/Llama-3_3-Nemotron-Super-49B-v1??
英偉達官網(wǎng)體驗:https://build.nvidia.com/models
目前,微軟正把Llama Nemotron模型整合到 Azure AI Foundry中,為客戶提供 Azure AI Agent Service for Microsoft 365 等服務。
埃森哲將在AI Refinery平臺上提供Llama Nemotron模型,幫助客戶開發(fā)和部署定制Agent。SAP將通過Llama Nemotron 模型增強Business AI和Joule AI兩大平臺,開發(fā)定制Agent。
德勤將把Llama Nemotron納入新推出的 Zora AI 智能Agent平臺。該平臺支持和模擬Agent,讓其擁有深度自動化功能與行業(yè)特定業(yè)務知識,能像人一樣決策和行動。
同時英偉達還開源了一個專用于開發(fā)、優(yōu)化、整合Agent的框架AgentIQ,集成了NVIDIA NeMo Retrieve并支持多模態(tài)信息檢索,能夠處理文本、圖像、視頻等多種類型的數(shù)據(jù),幫助Agent結合不同類型的信息做出更全面的決策。
AgentIQ提供了豐富的工具和接口,能將不同的Agent與數(shù)據(jù)源連接起來,支持數(shù)據(jù)的實時獲取和處理,確保Agent能夠基于最新的信息進行推理和決策。
AgentIQ還支持構建持續(xù)學習的能力,通過與 NVIDIA NeMo 微服務的結合,幫助Agent從人類和AI生成的反饋中不斷自主學習,從而優(yōu)化其性能和決策能力。
開源地址:https://github.com/NVIDIA/AgentIQ
在今天,英偉達還與Oracle在Agent領域達成了深度技術合作。Oracle云平臺與NVIDIA AI企業(yè)軟件平臺的集成,提供160多個原生AI工具和100多個NVIDIA NIM微服務,幫助企業(yè)快速搭建用于復雜自動化業(yè)務的Agent。
在部署方面,NVIDIA AI企業(yè)軟件不僅支持OCI裸金屬實例,可以通過OCI Kubernetes引擎在Kubernetes集群中部署。
還提供了無代碼部署方案,使客戶能夠在無需手動配置基礎設施或選擇軟件堆棧的情況下快速運行AI工作負載。這為NVIDIA GPU、NIM微服務和預打包的可觀測性工具提供了高效方案,幫助企業(yè)將Agent從數(shù)周縮短到數(shù)分鐘。
目前,Pipefy已經(jīng)通過Oracle和英偉達的合作云平臺,進行自動文檔預處理和圖像處理,顯著減少了部署時間和節(jié)省了大量運行資源。
發(fā)布最強AI工廠
為了加速Agent、大模型的推理效率,英偉達發(fā)布了最新版本的NVIDIA Blackwell Ultra,這是一個專用于AI Agent、物理AI的加速平臺。
Blackwell Ultra是基于一年前推出的開創(chuàng)性Blackwell架構構建,包括NVIDIA GB300 NVL72機架級解決方案和NVIDIA HGX B300 NVL16系統(tǒng)。
GB300 NVL72的AI性能比上一代GB200 NVL72高出1.5倍,并且與基于NVIDIA Hopper構建的AI工廠相比,為Blackwell的AI工廠收入機會增加了50倍。
NVIDIA GB300 NVL72將72個Blackwell Ultra GPU和36個基于Arm Neoverse的NVIDIA Grace? CPU連接在一個機架級設計中,作為一個巨大的GPU用于測試時擴展。
借助GB300 NVL72,AI模型可以訪問平臺的增強計算能力,探索問題的不同解決方案,并將復雜請求分解為多個步驟,從而生成更高質量的響應。
Blackwell Ultra專用于AI Agent,使用復雜的推理和迭代規(guī)劃自主解決復雜、多步驟的問題。Agent系統(tǒng)不僅遵循指令,還能推理、規(guī)劃并采取行動以實現(xiàn)特定目標。
物理AI,幫助企業(yè)能夠實時生成合成、逼真的視頻,大規(guī)模訓練機器人和自動駕駛汽車等應用。
Blackwell Ultra系統(tǒng)可以無縫集成到NVIDIA Spectrum-X?以太網(wǎng)和NVIDIA Quantum-X800 InfiniBand平臺中,通過NVIDIA ConnectX?-8 SuperNIC,系統(tǒng)中的每個GPU都可以獲得800 Gb/s的數(shù)據(jù)吞吐量。這提供了業(yè)界領先的遠程直接內(nèi)存訪問能力,使AI工廠和云數(shù)據(jù)中心能夠處理AI推理模型,而不會出現(xiàn)瓶頸。
此外,Blackwell Ultra系統(tǒng)還配備了NVIDIA BlueField?-3 DPUs,支持多租戶網(wǎng)絡、GPU計算彈性、加速數(shù)據(jù)訪問和實時網(wǎng)絡安全威脅檢測。
從2025年下半年開始,英偉達的合作伙伴將推出基于Blackwell Ultra的產(chǎn)品。思科、戴爾科技、惠普企業(yè)、聯(lián)想和超微等公司將提供一系列基于Blackwell Ultra產(chǎn)品的服務器,還有Aivres、ASRock Rack、華碩、Eviden、富士康、技嘉、英業(yè)達、廣達云技術、緯創(chuàng)和威盛等公司。
云服務提供商亞馬遜網(wǎng)絡服務、谷歌云、微軟Azure和甲骨文云基礎設施以及GPU云提供商CoreWeave、Crusoe、Lambda、Nebius、Nscale、Yotta和YTL將是首批提供Blackwell Ultra的公司。
NVIDIA的創(chuàng)始人兼首席執(zhí)行官黃仁勛表示,AI取得了巨大的飛躍,Agent需要更高的計算性能。所以,我們設計了Blackwell Ultra,它是一個多功能平臺,可以輕松高效地進行預訓練、后訓練和推理。
本文轉自 AIGC開放社區(qū) ,作者:AIGC開放社區(qū)
