凌晨2點(diǎn),再次Open!奧特曼宣布:OpenAI正式支持對(duì)手MCP協(xié)議
自從昨天OpenAI將GPT-4o的原生圖像生成同步開放給免費(fèi)用戶后,今天他們又Open了一把。
就在剛剛,OpenAI對(duì)其Agents SDK進(jìn)行了重大更新,支持了對(duì)手Anthropic推出的MCP服務(wù)協(xié)議。
凌晨2點(diǎn),奧特曼便迫不及待地公布了這個(gè)消息。
圖片
「大家都挺喜歡MCP的,我們也很興奮能在我們的產(chǎn)品中支持它,」Altman說。
「今天就可以在Agents SDK里使用,ChatGPT桌面應(yīng)用和Responses API也很快支持!」
OpenAI負(fù)責(zé)API的研究員Steven Heidel還在X上貼出了一張現(xiàn)在最火的吉卜力風(fēng)格圖片,來解釋MCP的用處。
圖片展示了一個(gè)基于MCP協(xié)議的分布式系統(tǒng)架構(gòu)。
左邊有一個(gè)主機(jī)運(yùn)行MCP客戶端(例如ChatGPT等應(yīng)用),通過MCP協(xié)議與三個(gè)不同的MCP服務(wù)器(A、B、C)通信。
MCP服務(wù)器A和B分別連接到本地?cái)?shù)據(jù)源,處理本地?cái)?shù)據(jù),而MCP服務(wù)C通過Web API與互聯(lián)網(wǎng)上的遠(yuǎn)程服務(wù)C交互,獲取外部數(shù)據(jù)。
表明了MCP客戶端可以根據(jù)需求從不同的服務(wù)器獲取數(shù)據(jù)或服務(wù)。
圖片
MCP持續(xù)火爆
MCP允許AI模型從業(yè)務(wù)工具、軟件、數(shù)據(jù)庫以及應(yīng)用開發(fā)環(huán)境等來源中獲取數(shù)據(jù)完成任務(wù)。
可以使開發(fā)者能夠在數(shù)據(jù)源和AI應(yīng)用(如聊天機(jī)器人)之間建立雙向連接。
自從去年11月Anthropic把MCP服務(wù)協(xié)議開源后,幾個(gè)月來,很多像Block、Apollo、Replit這樣的公司都在自己的平臺(tái)上支持了此協(xié)議。
到了今年2月,MCP生態(tài)進(jìn)一步爆炸增長(zhǎng),已有超過1000個(gè)由社區(qū)構(gòu)建的MCP服務(wù)器可供使用。
而且這種網(wǎng)絡(luò)效應(yīng)會(huì)使MCP越來越有吸引力:通過MCP可用的工具越多,該標(biāo)準(zhǔn)的實(shí)用性就越大。
圖片
「很高興看到MCP的熱愛傳遞到了OpenAI——?dú)g迎!」Anthropic的首席產(chǎn)品官M(fèi)ike Krieger在X上發(fā)帖說。
「MCP已經(jīng)成了一個(gè)蓬勃發(fā)展的開放標(biāo)準(zhǔn),已經(jīng)有幾千個(gè)集成應(yīng)用,而且還在增加。只有當(dāng)LLM能夠連接你現(xiàn)有的數(shù)據(jù)和日常使用的軟件時(shí),它們才能發(fā)揮最大的作用?!?/span>
圖片
前段時(shí)間,霸榜開源第一的00后博士生0天復(fù)刻Manus項(xiàng)目OWL爆火。今天,CAMEL AI團(tuán)隊(duì)創(chuàng)始人李國豪表示:
看到OpenAI加入MCP生態(tài)是非常激動(dòng)的,有想過會(huì)有這一天,但沒有想到會(huì)這么快。
MCP推出已有一段時(shí)間,如今它逐步成為標(biāo)準(zhǔn),主要是因?yàn)樗峁┝藰O大的便利性,同時(shí)又是一個(gè)開放中立的協(xié)議。
MCP的意義遠(yuǎn)遠(yuǎn)超過了一個(gè)簡(jiǎn)單的協(xié)議本身,而在于推動(dòng)標(biāo)準(zhǔn)化的進(jìn)程。實(shí)際上,這個(gè)協(xié)議由誰提出并不重要。
在標(biāo)準(zhǔn)缺失的情況下,各個(gè)團(tuán)隊(duì)都在獨(dú)立開發(fā)自己的工具,如LangChain、LlamaIndex等,導(dǎo)致不同框架的Agent難以互通,不同框架的工具也難以兼容。
而有了MCP,這個(gè)問題就變得簡(jiǎn)單了。它的價(jià)值在于降低對(duì)特定框架的依賴,讓開發(fā)者只需遵循統(tǒng)一標(biāo)準(zhǔn),就能自由使用各種工具。
官方SDK文檔
隨著OpenAI在Agents SDK中加入對(duì)MCP的支持,開發(fā)者現(xiàn)在可以輕松地利用各種MCP服務(wù)器,為自己的AI智能體提供豐富的工具能力。
圖片
MCP服務(wù)器
目前,MCP規(guī)范根據(jù)傳輸機(jī)制的不同定義了兩種服務(wù)器類型:
- stdio服務(wù)器:作為應(yīng)用程序的子進(jìn)程運(yùn)行,可以理解為「本地」運(yùn)行的服務(wù)器
- HTTP over SSE服務(wù)器:遠(yuǎn)程運(yùn)行的服務(wù)器,可以通過URL與之連接
開發(fā)者可以使用MCPServerStdio和MCPServerSse這兩個(gè)類來連接這些服務(wù)器。
下面是一個(gè)使用官方MCP文件系統(tǒng)服務(wù)器的示例。
async with MCPServerStdio(
params={
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-filesystem", samples_dir],
}
) as server:
tools = await server.list_tools()
如何使用
開發(fā)者可以將MCP服務(wù)器集成到AI智能體中。
當(dāng)AI智能體每次執(zhí)行時(shí),Agents SDK會(huì)自動(dòng)在MCP服務(wù)器上調(diào)用list_tools()函數(shù)。這一過程使LLM能夠識(shí)別并獲取MCP服務(wù)器提供的各種工具。
當(dāng)LLM需要調(diào)用來自MCP服務(wù)器的某個(gè)工具時(shí),SDK會(huì)相應(yīng)地在該服務(wù)器上執(zhí)行call_tool()函數(shù)。
agent=Agent(
name="Assistant",
instructinotallow="Use the tools to achieve the task",
mcp_servers=[mcp_server_1, mcp_server_2]
)
緩存機(jī)制
每次AI智能體運(yùn)行時(shí),系統(tǒng)都會(huì)調(diào)用MCP服務(wù)器的list_tools()方法。這一過程可能會(huì)產(chǎn)生明顯的性能開銷,尤其是在使用遠(yuǎn)程服務(wù)器的情況下。
為了優(yōu)化性能,開發(fā)者可以通過在MCPServerStdio和MCPServerSse構(gòu)造函數(shù)中設(shè)置參數(shù)cache_tools_list=True來啟用工具列表自動(dòng)緩存功能。請(qǐng)注意:只有確信工具列表不會(huì)發(fā)生變化時(shí),才應(yīng)啟用此功能。
如需手動(dòng)清除緩存,可以調(diào)用服務(wù)器對(duì)象的invalidate_tools_cache()方法。
鏈路追蹤
系統(tǒng)內(nèi)置的鏈路追蹤功能能夠自動(dòng)捕獲所有MCP相關(guān)操作,主要包括:
- 向MCP服務(wù)器發(fā)起的工具列表獲取請(qǐng)求
- 函數(shù)調(diào)用過程中的所有MCP相關(guān)信息
圖片
MCP一夜成為行業(yè)標(biāo)準(zhǔn)
MCP這一概念,還是Anthropic在去年11月首次提出,全稱為「模型上下文協(xié)議」,能夠?qū)崿F(xiàn)一次構(gòu)建,讓AI深度集成。
MCP是一個(gè)開放協(xié)議,它標(biāo)準(zhǔn)化了應(yīng)用程序向LLM提供上下文的方式。你可以把MCP比作AI應(yīng)用的USB-C接口——就像USB-C為設(shè)備連接各種外設(shè)和配件提供了標(biāo)準(zhǔn)化接口一樣,MCP為AI模型連接不同的數(shù)據(jù)源和工具提供了標(biāo)準(zhǔn)化方法。
圖片
它的本質(zhì),是為了提供一個(gè)「通用接口」,好比AI世界「萬能插頭」。
圖片
也就是所說,不同AI模型/應(yīng)用能夠輕松連接到外部資源。這種標(biāo)準(zhǔn)化可以降低開發(fā)者的集成成本,同時(shí)提升了AI上下文感知力。
Agents SDK是前段時(shí)間,OpenAI為開發(fā)者準(zhǔn)備的「工具箱」,用來打造自己干活的AI智能體,比如寫郵件、整理數(shù)據(jù)。
現(xiàn)在這兩者一拍即合,意味著什么?
圖片
OpenAI員工用ChatGPT繪制吉卜力風(fēng)格跟蹤儀表板
開發(fā)者可用Agents SDK,直接通過MCP調(diào)取各種外部數(shù)據(jù)、工具,讓AI能夠變得更聰明、更實(shí)用。
而這僅僅是個(gè)開始,奧特曼透露的未來兩個(gè)令人期待的計(jì)劃,將進(jìn)一步加速AI工作流。
如果ChatGPT客戶端也能用上MCP,就會(huì)化身為超級(jí)私人助理,去年11月每個(gè)人從Claude演示中能夠獲得關(guān)鍵一瞥。
對(duì)于開發(fā)者來說,MCP加入OpenAI API,未來可以用更少代碼,干更多的事兒。
下一代AI工作流,說不定就從這兒起飛了。
參考資料: