在AI领域,一项新的交互标准——MCP(Model Context Protocol,模型上下文协议)正迅速崛起,其影响力在短短数月间已不容忽视。这一标准由Anthropic于去年11月推出,旨在解决大模型与数据源间安全链接的难题,并统一工具实现风格,促进跨模型共享。
4月25日,百度在Create2025 AI开发者大会上,由创始人李彦宏亲自揭晓了两大重磅模型——文心大模型4.5 Turbo与深度思考模型X1 Turbo,以及多款前沿AI应用。更为引人注目的是,百度宣布将全力支持开发者拥抱MCP标准。
MCP自诞生以来,迅速获得了业界的广泛认可。包括百度、OpenAI、Google、微软、亚马逊、Anthropic、阿里、腾讯等在内的国内外众多大厂,纷纷加入支持行列,发布各自的MCP服务。这一趋势表明,MCP正逐步确立其在AI领域的“HTTP”地位,成为不可或缺的事实标准。
百度智能云在此次大会上,更是推出了国内首个企业级MCP服务,首批即提供了超过1000个MCP Servers供企业及开发者选用。开发者还可以在千帆平台上自主开发MCP Server,并享受免费托管服务。更令人振奋的是,百度搜索将索引这些MCP Server,为它们带来更多曝光和引用机会。
为何MCP如此重要?其诞生的背景,源于大模型应用落地所面临的种种挑战。在类Chatbot场景之外,企业级场景中的大模型应用往往需要大量定制化开发。尽管百度智能云等厂商提供了便捷的大模型工具链,但总体上,大模型应用仍是一项复杂而繁琐的工作。
2025年被视为AI Agent元年,大模型不仅要具备思考能力,还要能够自主规划和执行任务。这意味着,大模型需要配备“四肢”和“五感”等能力,以完成具体任务。然而,如果每个AI应用都采用定制化开发方式,那么应用与工具之间的集成复杂度将呈指数级增长。MCP的出现,正是为了简化这一过程,通过标准化协议降低集成难度。
百度集团执行副总裁、百度智能云事业群总裁沈抖指出,大模型的应用往往不仅仅是一次简单的调用,而是需要对接各种组件和工具,进行精细的编排。有时,为了进一步提升效果,还需要对模型进行调整,定制专业模型。因此,一个应用的落地,本质上是一个复杂“系统”的构建过程。
企业级应用对稳定性和安全性的要求远高于消费级应用,容错度更低。一位大模型行业专家透露,分析2024年各行业项目后发现,项目90%的时间都耗费在应用开发上。因为模型是标准的,而应用却是千变万化的。MCP的出现,正好契合了行业对大模型应用落地的迫切需求。
百度智能云在系统级能力方面表现出色,涵盖了算力层、模型开发层和应用开发层。本次大会上,千帆平台全面升级了企业级Agent开发工具链,发布了全新推理式智能体——智能体Pro。这款智能体不仅支持快问快答,还能进行深思熟虑的回答,并支持企业定制专属智能体。
以污水宝为例,基于千帆Agentic RAG能力,智能体可以结合企业私域数据和企业知识库,制定检索策略,大幅降低模型幻觉。同时,智能体Pro还支持Deep Research深度研究模式,能够自主完成复杂任务的步骤规划、信息筛选和整理,生成结构清晰、内容丰富的专业报告。
对于开发者而言,拥抱MCP有两种路径可选:一是将自己的资源、数据和能力以MCP形式开放出来,供更多AI应用使用;二是在开发AI应用时充分利用已有的MCP Server资源,以减少开发量并提升能力。百度智能云的千帆平台作为首家支持MCP的大模型平台,正引领着这一趋势。
MCP的竞争,归根结底是平台和生态的竞争。在新技术爆发的初期,端到端的优化是实现高性能的关键。对于巨头厂商而言,不仅要构建强大的平台能力,还要营造一个繁荣的生态,以吸引更多厂商加入。百度在MCP领域采取了三步走策略:首先发布自己的MCP Server;其次支持更多企业开发和调用MCP服务;最后通过AI开放计划,为开发者提供流量入口和商业化变现途径。