人工智能(AI)的浪潮正以前所未有的力量重塑各個行業,其深度集成和廣泛應用已成為不可逆轉的趨勢。不論是 Web2 還是 Web3 都對 MCP 寄予了巨大的期待。但 AI 從簡單的對話窗口的“全知”發展到能處理各種問題的“全能”,中間需要模型能力本身的提升、需要更強的規劃能力,但更重要的是需要教會 AI 如何穩定使用能接觸到的工具。然而,當 AI 模型,特別是大型語言模型(LLM),試圖與外部世界——海量的數據源、多樣化的工具集以及複雜的系統——進行交互時,一個核心的挑戰浮出水面:如何建立一個標準化、安全且可信的通信橋樑?缺乏統一標準不僅導致了開發效率的低下,更在數據隱私、操作安全和結果可驗證性方面帶來了巨大風險。 正是在這一背景下,Anthropic 提出的模型上下文協議(Model Context Protocol, MCP)應運而生。模型和外部服務商之間不必再單獨開發兩者間的鏈接。通過行業統一的接口,模型和服務商僅需要接受協議標準,就能讓不同生態的應用以及不同架構的模型都直接連接,信息和智能可以不受限制的自由流動。這為 AI 的互操作性描繪了新的藍圖。 儘管插件已經為我們塑造了一個相對自由的工具生態,但仍舊是一個封閉在 OpenAI 體系內的工具,有很高的審核門檻,同時插件的說明文檔樣式並不統一,在使用時仍舊會存在不穩定的問題。 為此,Anthropic 於 2024 年 11 月開源了 MCP 協議,通過為行業不同廠家、不同結構的大語言模型提供統一的與外部真實世界同頻的接口,讓所有的應用都有機會變成更大的智能系統的一部分。MCP 標準化了模型與工具之間的交互,採用客戶端-服務器架構。MCP 服務器會公開一組工具接口並提供統一描述,MCP 客戶端可在運行時查詢可用工具並調用。其優勢在於極大地簡化了跨模型、跨工具的集成成本,理論上只需一次對 MCP 協議的適配,就能使用任意兼容的工具。MCP 的最大優勢是極大的降低了系統連接的工作量:過去如果 M 個服務要和 N 個數據源連接,一共需要進行 M×N 次接口開發,但通過 MCP 協議,只需要進行 M+N 次連接就能構建一個完整穩定的服務。這也是 MCP 生態得到認可並快速接入大量服務的原因。