現(xiàn)在很多人讓大模型調(diào)用外部工具,最常見的做法就是FunctionCalling。乍一看,能調(diào)起來沒問題。但真要接多個(gè)服務(wù)、跑一個(gè)完整流程,F(xiàn)unctionCalling就顯得太粗糙了——定義繁瑣、結(jié)構(gòu)不統(tǒng)一、模型換一個(gè)就得重寫一遍。本質(zhì)上,它解決的只是“能不能調(diào)用”,但沒解決“怎么標(biāo)準(zhǔn)、高效地調(diào)用”。而MCP出現(xiàn),就是為了解決這個(gè)“工程化不成體系”的問題。我認(rèn)為FunctionCalling更像是“你教模型怎么用某個(gè)函數(shù)”;而MCP,是“你把這...
1天前 261瀏覽 0點(diǎn)贊 0回復(fù) 0收藏
很多人想部署大模型,比如GLM、ChatGLM、DeepSeek、MiniCPM,一到實(shí)際部署就開始發(fā)愁:到底要不要3090?用A10行不行?這個(gè)模型說自己是7B,我電腦夠嗎?為啥有的說13G能跑,有的一跑就爆顯存?其實(shí)這些都不是玄學(xué),只要你搞清楚:模型有多大、怎么壓縮、你準(zhǔn)備怎么用,機(jī)器需求是能算出來的。給大家一個(gè)計(jì)算顯存的公式:顯存≈參數(shù)量×精度字節(jié)數(shù)×1.52(考慮運(yùn)行中額外占用)一、先把問題拆開:我們到底要算啥?按照Agent的思...
2025-04-17 07:43:16 1073瀏覽 0點(diǎn)贊 0回復(fù) 0收藏