MCP 服务器详解:如何把 AI 连接到您的业务工具
MCP 服务器究竟是什么#
它要解决的问题:能推理却不能行动的 AI 智能体#
一个能推理却读不到您真实数据的 AI 智能体,只能处理通用任务,其他事做不了太多。让它能访问您的 CRM、数据库和内部 API,它才真正对您重要的工作有用。
在 MCP 出现之前,把一个 AI 智能体连接到业务工具意味着为每个工具构建自定义集成:研读 API 文档、编写连接器、处理认证、格式化输出以便模型能进行推理。把这些乘以技术栈里每一个工具,您就有了一个严重的维护问题。构建 AI 工作流的大多数团队都熟悉这种感受。
MCP(Model Context Protocol)用一个标准取代了这种逐工具集成的工作。每个工具构建一个 MCP 服务器,任何兼容 MCP 的智能体就都能使用它。
一句话定义#
MCP 服务器是一个程序,它使用标准化协议把您的业务工具(CRM、数据库、ERP、内部 API)暴露给 AI 智能体,这样 AI 就能从中读取数据、通过它们触发操作,而无需为每个工具单独编写集成代码。
从 Anthropic 的协议到开放基础设施#
Anthropic 于 2024 年 11 月推出 MCP。到 2025 年 12 月 9 日,他们已将其捐赠给 Linux 基金会旗下的 Agentic AI Foundation(AAIF),该基金会由 Anthropic 与 OpenAI、Block 共同创立,AWS、Google、Microsoft、Cloudflare 和 Bloomberg 为白金成员(Linux Foundation, December 2025)。
这是一次有实质意义的转变。由一家 AI 实验室掌控的协议,是对那家实验室的押注。一个由 Linux 基金会实体治理、拥有这般成员名单的协议,在五年后仍然重要的可能性更高。治理结构能否兑现承诺是另一个问题,但跨行业的支持是真实的。截至 2025 年 12 月,生态系统拥有超过 10,000 个已发布的服务器,Python 和 TypeScript SDK 合计月下载量达到 9,700 万(Anthropic / Linux Foundation, December 2025)。Claude Agent SDK、OpenAI Agents SDK、Google ADK 和 LangGraph 都提供支持。
工具、资源与提示词#
每个 MCP 服务器都会暴露三种原始类型的某种组合。
工具:AI 可以触发的动作#
工具是可调用的函数。AI 带参数发送请求,服务器执行它并返回结果。
例如:
create_contact(name, email, company)—— 在您的 CRM 中创建记录run_query(sql)—— 执行 SQL 查询并返回结果send_message(channel, text)—— 向 Slack 频道发帖create_issue(title, body, labels)—— 在您的项目追踪系统中开一个 issue
工具是智能体行动的方式。没有它们,智能体只能思考。
资源:AI 可以读取的数据#
资源向 AI 暴露其可拉取到上下文中进行推理的数据。与工具不同,它们不执行动作,而是提供信息。
例如:
- 产品文档,供 AI 在编写代码时参考
- 客户账户数据,供支持智能体在回复前阅读
- 数据库 schema,供 AI 在写查询前了解结构
- 内部 wiki 或会议记录,用于研究型工作流
如果说工具是智能体的行动方式,资源就是它在决定做什么之前弄清事实的方式。
提示词:特定工作流的模板#
提示词是预定义模板,引导 AI 完成某项特定任务。这三者中它最少被讨论,但对于让重复性工作流变得可预测很有用。一个客户支持工具的 MCP 服务器可能包含一个 handle_refund_request 模板,指定要核对哪些数据、适用什么政策、如何组织回复。
交互实际是如何进行的#
智能体与 MCP 服务器之间的循环值得深入理解,因为实践中多数有意思的问题都出在这里。
宿主应用启动时(Claude Code、自定义智能体框架,或者您正在使用的任何东西),它会连接到已配置的 MCP 服务器。服务器立即返回一份能力清单:这是我的工具,这是我的资源,这是我的提示词模板。智能体读取这份清单后就知道自己能做什么。
从那里开始,当智能体在处理任务、需要数据或需要执行操作时,它会基于清单进行推理,选择正确的工具或资源。这并非硬编码的逻辑;智能体的 LLM 骨干会读取工具描述并决定要调用什么。它带参数发送请求,服务器在底层系统(数据库、API、文件)上执行,并返回模型可处理的结构化响应。
这个循环在单个任务中可能会运行许多次。一个研究工作流可能调用一个搜索工具、读取结果、调用一个笔记工具、检查已有笔记、决定新增什么,然后写入更新 —— 这一切都在用户看到任何内容之前完成。实践中真正棘手的地方,是工具失败、返回意外数据,或智能体选错了动作需要回退时。MCP 并不解决这些问题;它只是让您通过一个标准接口来应对,而不是定制接口。
真实案例:MCP 把 AI 连接到业务工具#
CRM 集成:Salesforce 与 HubSpot#
HubSpot 于 2025 年 6 月上线了其生产级 MCP 集成,允许 AI 客户端以自然语言查询实时 CRM 数据。Salesforce 紧随其后,到 2025 年 10 月托管 MCP 服务器进入公测(HubSpot / Salesforce, 2025)。
接入其中任一服务后,AI 智能体可以在通话前查询联系人完整的账户历史、从会议笔记创建或更新记录、把交易管道数据拉入周报,或按特定条件搜索账户,而不必让用户手动构建筛选器。
值得一提的是:AI 并不需要提前了解 CRM 的 API。它在连接时读取清单,搞清楚有哪些可用能力,然后自己组织调用。您描述您想要什么,它负责搞清楚怎么去问。
ERP 集成:Dynamics 365#
Microsoft 在 2025 年 Build 大会上推出了 Dynamics 365 的 MCP 服务器,让 AI 智能体能够在 Finance、Supply Chain 和 HR 模块之间访问日记账分录、交易校验和 KPI,无需自定义集成代码(Microsoft, November 2025)。
对财务团队来说,这是有意思的一类场景:一个能拉取 KPI、生成差异解释、标记财务数据异常的智能体 —— 无需有人先跑 SQL 查询,或在 Dynamics UI 中点来点去以提取数字。
数据库集成#
数据库类 MCP 服务器目前可能是部署最广泛的,应用场景也很直接。一家中型电商把 MCP 接入 PostgreSQL 数据库,将报表时间从两天缩短到两分钟(DEV Community / Unified.to, 2025)。
基础搭建会暴露一个 run_query 工具,加上 list_tables、describe_table 这类 schema 探索工具。智能体就能用自然语言回答问题、基于真实 schema 生成 SQL、并产出格式化报表。schema 工具的重要性超出表面意义:一个能查看真实 schema 的智能体,比基于可能已过期数月的文档工作的智能体,写出的查询要好得多。
AAA Washington 在 Salesforce MCP 服务器上部署了 Agentforce 智能体,将平均通话处理时间缩短 40%,并在无需人工介入的情况下解决 85% 的咨询(Salesforce, 2025)。
没有现成服务器的内部工具#
任何公司里最有用的工具,通常就是那些没人构建过公开连接器的:专有的订单管理系统、内部自建的工单工具、定制的分析平台。这些必须自建 MCP 服务器,别无他途。
构建工作仍然比定制 AI 集成的工作量小,因为协议负责发现、传输和响应格式化。您只需编写业务逻辑:暴露哪些工具、呈现什么数据、允许智能体修改什么。剩下的交给协议。话虽如此,「比以前工作少」和「简单」不是一回事,尤其加上认证和访问范围控制之后。
MCP 与标准 API 集成的对比#
三个真实差异,不是三个生造的类别。
第一个是发现。标准集成需要硬编码的逻辑来告诉 AI 有哪些工具、怎么使用。API 一变,您就要更新集成代码。使用 MCP 时,服务器在连接时动态公布自己的能力。给服务器加一个新工具,智能体下次连接时就能知道。
第二个是输出格式。API 响应是为应用程序设计的。原始的 CRM JSON 准确,但并非为了让模型推理而组织。MCP 服务器可以显式地为 AI 消费来格式化响应:结构化的、带标签的,并附有数据含义的上下文。这种差异体现在模型对结果推理的可靠性上。
第三个是维护。每一个自定义集成都是自己的债务。API 变了要更新,认证方式变了要更新,智能体框架升级了要更新。MCP 服务器把工具实现和智能体分离开来。底层 API 变化时更新服务器,AI 平台变化时更新智能体框架。它们按各自节奏演进。
何时使用现成服务器,何时不适用#
对于标准 SaaS 工具(Salesforce、HubSpot、GitHub、Slack、Google Workspace、Jira、Linear、Postgres、MySQL),已有社区或厂商构建的服务器可用。Anthropic 官方的 @modelcontextprotocol/ 包涵盖了大量常见集成。在自建之前先查一下注册表。
对于贵公司内部构建的任何东西、任何高度定制化的 SaaS 部署,或任何具有专有 schema 的数据系统,自定义构建是必须的。通用的 Salesforce 连接器只认识标准对象和字段。如果您的 Salesforce 实例有 40 个自定义字段、自定义对象和流程专用的记录类型,通用服务器就一无所知。
生产环境真正的要求#
让一个 MCP 服务器在演示里跑起来只要几个小时。让它在生产中稳定运行、有真实用户、并在表现不佳时承担真实后果,那是另一个项目。
认证比看起来更复杂。您需要凭证轮换、按用户的 OAuth 流程,以及对令牌过期的优雅处理。访问范围控制很容易做错:默认情况下您不会希望您的智能体对 CRM 中所有内容都有写入权限,而您授予的范围需要清晰地记录,以便您知道每个工作流实际能修改什么。
错误处理是多数自建服务器崩溃的地方。API 返回 500 时会发生什么?超时呢?响应格式略有变化时呢?智能体必须在不陷入循环、不静默失败、不对过期数据做出错误操作的情况下应对这些。
安全问题值得认真对待。研究人员在 2025 年 4 月识别出生产中存在的活跃风险:通过工具描述进行的提示词注入、过度宽松的权限范围,以及相似工具的替换攻击(Zuplo MCP Security Report, 2025)。这些主要是接触敏感数据的自建服务器的关注点,而不是标准现成服务器的关注点。但如果您在构建一个会接触客户数据、或能修改财务记录的 MCP 服务器,就必须把威胁模型想清楚。
Silverthread Labs 为需要把 AI 智能体连接到内部工具的团队构建生产级 MCP 服务器。如果您有一个系统需要被纳入 AI 工作流范围、而又没有公开服务器覆盖它,通过审计页面联系我们 讨论具体的构建方案。
常见问题#
MCP 服务器是什么,它能做什么?
MCP 服务器是一个程序,它使用标准化协议把您的业务工具暴露给 AI 智能体。它为 AI 提供一种一致的方式来发现工具能做什么、调用其函数、读取其数据,而不必为每个工具编写自定义集成代码。智能体在启动时连接到服务器,读取其能力清单,然后在任务执行过程中使用其工具和资源。
MCP 服务器如何把 AI 连接到 CRM 或数据库?
MCP 服务器用 MCP 协议把您的 CRM 或数据库包装起来。它把特定操作作为工具暴露(例如 query_contacts、create_deal),把数据作为资源暴露(例如某家公司的账户记录)。当 AI 智能体需要 CRM 数据或需要创建记录时,它通过 MCP 服务器调用相应的工具,由服务器处理实际的 API 调用或 SQL 查询并返回结构化结果。
MCP 和常规 API 集成有什么区别?
标准 API 集成需要硬编码的逻辑,精确地告诉 AI 有什么、怎么调用。MCP 服务器在连接时公布自己的能力,为 AI 消费格式化响应,可以独立于智能体框架进行更新。实际好处是维护工作更少,模型基于返回数据的推理也更可靠。
哪些业务工具支持 Model Context Protocol?
截至 2026 年初:Salesforce、HubSpot、Microsoft Dynamics 365、GitHub、Slack、Google Workspace、Jira、Linear、PostgreSQL、MySQL、MongoDB,以及许多其他通过社区构建服务器接入的工具。@modelcontextprotocol/ 包注册表和社区生态覆盖了数百个集成。没有公开服务器的工具需要自建。
我需要自定义 MCP 服务器,还是可以用现成的?
对于常见的 SaaS 工具,且使用标准配置时,现成服务器通常足够起步使用。对于内部工具、高度定制的 SaaS 部署,或需要特定数据处理或权限范围控制(超出通用服务器能力)的工作流,则需要自建。实际检验方式是:现成服务器是否真正暴露了您工作流所需的数据和操作,或者只是暴露了一个标准子集,正好缺了您在乎的那部分?
