42.5 Exaflops:谷歌新TPU性能超越最強超算24倍,智能體協(xié)作協(xié)議A2A出爐
AI 算力又迎來了新的標桿。
本周三,谷歌正式發(fā)布了旗下第七代張量處理單元(TPU)Ironwood。谷歌稱,在大規(guī)模部署的情況下,這款 AI 加速器的計算能力能達到全球最快超級計算機的 24 倍以上。
這款在 Google Cloud Next '25 大會上發(fā)布的新芯片代表著谷歌十年來 AI 芯片研發(fā)戰(zhàn)略的重大轉(zhuǎn)折:谷歌自研的前幾代 TPU 主要面向 AI 的訓練和推理工作負載,而 Ironwood 是第一款專為推理而設(shè)計的芯片。
谷歌副總裁兼機器學習、系統(tǒng)和云 AI 總經(jīng)理 Amin Vahdat 表示:「Ironwood 旨在支持生成式 AI 的下一階段及其巨大的計算和通信需求。這就是我們所說的『推理時代』,AI 代理將主動檢索和生成數(shù)據(jù),以協(xié)作方式提供洞察和答案,而不僅僅是數(shù)據(jù)?!?/span>
突破壁壘,最大 42.5 exaflops 算力
Ironwood 擁有超模的技術(shù)規(guī)格,當每個 pod 擴展至 9216 塊芯片時,它可提供 42.5 exaflops 的 AI 算力,遠超目前全球最快的超級計算機 El Capitan 的 1.7 exaflops。每塊 Ironwood 芯片的峰值計算能力可達 4614 TFLOPs。
在單芯片規(guī)格上,Ironwood 顯著提升了內(nèi)存和帶寬,每塊芯片配備 192GB 高帶寬內(nèi)存(HBM),是去年發(fā)布的上一代 TPU Trillium 的六倍。每塊芯片的內(nèi)存帶寬達到 7.2 terabits/s,是 Trillium 的 4.5 倍。
在數(shù)據(jù)中心規(guī)模擴大,供電逐漸成為瓶頸的時代,Ironwood 也大幅提升了計算效率,其每瓦性能是 Trillium 的兩倍,和 2018 年推出的首款 TPU 相比高出近 30 倍。
對于推理的優(yōu)化代表了 AI 發(fā)展歷程中的一個重要轉(zhuǎn)折點。最近幾年,前沿的 AI 實驗室一直專注在構(gòu)建參數(shù)規(guī)模不斷擴大的基礎(chǔ)模型上。谷歌轉(zhuǎn)向推理優(yōu)化表明,我們正在進入一個以部署效率和推理能力為核心的新階段。
畢竟對于 AI 參與的業(yè)務(wù)而言,模型訓練的次數(shù)有限,但隨著 AI 技術(shù)應(yīng)用逐漸鋪開,推理操作每天都會發(fā)生數(shù)十億次。由于模型日趨復(fù)雜,這些業(yè)務(wù)的經(jīng)濟效益與推理成本緊密相關(guān)。
谷歌在過去八年里對于 AI 計算的需求同比增長了 10 倍,總需求量高達驚人的 1 億。如果沒有像 Ironwood 這樣的專用架構(gòu),任何摩爾定律的進步都無法滿足這一增長曲線。
尤其值得注意的是,谷歌在發(fā)布中提到了對執(zhí)行復(fù)雜推理任務(wù)而非簡單模式識別的「思維模型」的關(guān)注。這表明,谷歌認為 AI 的未來不僅在于更大的模型,還在于能夠分解問題、進行多步驟推理并模擬類人思維過程的模型。
面向下一代大模型
谷歌將 Ironwood 定位為其最先進 AI 模型的基礎(chǔ)設(shè)施,其優(yōu)化的大模型自然包括自家的 Gemini 2.5,它「原生內(nèi)置了思維能力」。
昨天,谷歌還發(fā)布了 Gemini 2.5 Flash,作為最新旗艦?zāi)P偷目s小版本,它「可以根據(jù)提示的復(fù)雜性調(diào)整推理深度」,定位于對響應(yīng)速度敏感的日常應(yīng)用。
谷歌還展示了其全套多模態(tài)生成模型,包括文本轉(zhuǎn)圖像、文本轉(zhuǎn)視頻以及新發(fā)布的文本轉(zhuǎn)音樂功能 Lyria。谷歌展示 demo 介紹了如何將這些工具結(jié)合使用,為一場音樂會制作完整的宣傳視頻。
Ironwood 只是谷歌更廣泛的 AI 基礎(chǔ)設(shè)施戰(zhàn)略的一部分,谷歌還宣布推出 Cloud WAN,這是一項托管式廣域網(wǎng)服務(wù),使企業(yè)能夠訪問 Google 的全球規(guī)模私有網(wǎng)絡(luò)基礎(chǔ)設(shè)施。
Google 還在擴展其面向 AI 工作負載的軟件產(chǎn)品,其中包括由 Google DeepMind 開發(fā)的機器學習運行時 Pathways,現(xiàn)在它允許客戶在數(shù)百個 TPU 上擴展模型服務(wù)。
提出 A2A、支持 MCP,構(gòu)建智能體協(xié)作生態(tài)
除了硬件之外,谷歌還概述了以多智能體系統(tǒng)為中心的 AI 愿景,發(fā)布了一個促進智能體發(fā)展的協(xié)議 ——Agent-to-Agent(A2A),旨在促進不同 AI 智能體之間的安全、標準化通信。
地址:https://google.github.io/A2A/#/
谷歌認為,2025 年將是 AI 方向轉(zhuǎn)型之年,生成式 AI 的應(yīng)用形式會從回答單一問題轉(zhuǎn)向通過智能體系統(tǒng)來解決復(fù)雜問題。
A2A 協(xié)議允許跨平臺、跨框架的智能體實現(xiàn)互操作,為它們提供了共同的「語言」和安全的通信渠道。這一協(xié)議可視為智能體的網(wǎng)絡(luò)層,其目標是簡化復(fù)雜工作流程中的智能體協(xié)作,使專業(yè) AI 智能體能夠協(xié)同完成各種復(fù)雜度和時長的任務(wù),從而通過協(xié)作提升整體能力。
A2A 的工作原理
谷歌在博客中對 MCP 和 A2A 兩種協(xié)議進行了比較。
MCP(模型上下文協(xié)議,Model Context Protocol)用于工具和資源管理
- 通過結(jié)構(gòu)化的輸入 / 輸出將智能體連接到工具、API 接口和資源
- Google ADK 支持 MCP 工具,使得各類 MCP 服務(wù)器能夠與智能體配合使用
A2A(智能體間協(xié)議,Agent2Agent Protocol)用于智能體之間的協(xié)作
- 在不共享內(nèi)存、資源和工具的情況下,實現(xiàn)智能體之間的動態(tài)多模態(tài)通信
- 由社區(qū)驅(qū)動的開放標準
- 可使用 Google ADK、LangGraph、Crew.AI 等工具查看示例
總的來說,A2A 與 MCP 是互補的:MCP 可以為智能體提供工具支持,而 A2A 則讓這些裝備了工具的智能體能夠相互對話和協(xié)作。
從谷歌公布的合作伙伴陣容來看,A2A 似乎有望獲得類似 MCP 的關(guān)注度。該計劃已吸引超過 50 家企業(yè)加入首批合作陣營,包括領(lǐng)先科技企業(yè)以及全球頂級咨詢和系統(tǒng)集成服務(wù)商。
谷歌強調(diào)了該協(xié)議的開放性,將其作為智能體相互協(xié)作的標準方式,不受底層技術(shù)框架或服務(wù)供應(yīng)商的限制。谷歌表示,在與合作伙伴設(shè)計協(xié)議時,堅持了以下五項關(guān)鍵原則:
1. 擁抱智能體能力:A2A 專注于使智能體能夠以其自然、非結(jié)構(gòu)化的方式進行協(xié)作,即使它們不共享記憶、工具和上下文。我們正在實現(xiàn)真正的多智能體場景,而不將智能體限制為「工具」。
2. 基于現(xiàn)有標準構(gòu)建:該協(xié)議建立在現(xiàn)有流行標準之上,包括 HTTP、SSE、JSON-RPC,這意味著它更容易與企業(yè)日常使用的現(xiàn)有 IT 堆棧集成。
3. 默認安全:A2A 設(shè)計為支持企業(yè)級身份驗證和授權(quán),在發(fā)布時與 OpenAPI 的身份驗證方案相當。
4. 支持長時間運行的任務(wù):我們設(shè)計 A2A 具有靈活性,支持各種場景,從快速任務(wù)到可能需要數(shù)小時甚至數(shù)天(當人類參與其中時)的深入研究。在整個過程中,A2A 可以向用戶提供實時反饋、通知和狀態(tài)更新。
5. 模態(tài)無關(guān):智能體世界不僅限于文本,這就是為什么我們設(shè)計 A2A 支持各種模態(tài),包括音頻和視頻流。
官方還給出了一個例子,通過 A2A 招聘流程得到顯著簡化。
在 Agentspace 等統(tǒng)一界面中,招聘經(jīng)理可指派智能體依據(jù)職位需求尋找匹配人選,該智能體會與專業(yè)領(lǐng)域智能體互動完成候選人尋源工作。用戶還可指示智能體安排面試,并啟用其他專項智能體協(xié)助背景調(diào)查,從而實現(xiàn)跨系統(tǒng)協(xié)作的全流程智能化招聘。
與此同時,谷歌也在擁抱 MCP。就在 OpenAI 宣布采用競爭對手 Anthropic 的模型上下文協(xié)議(Model Context Protocol,簡稱 MCP)幾周后,Google 也緊隨其后加入了這一行列。
剛剛,Google DeepMind 首席執(zhí)行官 Demis Hassabis 在 X 平臺上發(fā)文宣布,Google 將在其 Gemini 模型和 SDK 中添加對 MCP 的支持。不過他并未給出具體時間表。
Hassabis 表示:「MCP 是一個優(yōu)秀的協(xié)議,正在迅速成為 AI 智能體時代的開放標準。期待與 MCP 團隊和業(yè)界其他伙伴一起推進這項技術(shù)的發(fā)展?!?/span>
自 2024 年 11 月發(fā)布以來,MCP 迅速走紅,引發(fā)廣泛關(guān)注,成為連接語言模型與工具和數(shù)據(jù)的一種簡單、標準化方式。
MCP 使 AI 模型能夠從企業(yè)工具和軟件等數(shù)據(jù)源獲取數(shù)據(jù)以完成任務(wù),并訪問內(nèi)容庫和應(yīng)用程序開發(fā)環(huán)境。該協(xié)議允許開發(fā)者在數(shù)據(jù)源與 AI 驅(qū)動的應(yīng)用程序(如聊天機器人)之間建立雙向連接。
開發(fā)者可以通過 MCP 服務(wù)器開放數(shù)據(jù)接口,并構(gòu)建 MCP 客戶端(如應(yīng)用程序和工作流)來連接這些服務(wù)器。自從 Anthropic 開源 MCP 以來,多個公司已在其平臺中集成了 MCP 支持。