OpenClaw 部署指南:完整流程(2026)
OpenClaw 通过 npm 安装,不到 10 分钟。多数教程跳过的那部分 —— 安全加固 —— 还要再花 20 分钟。本指南两部分都覆盖。
如果您来到这里是因为已经安装了 OpenClaw 且出了问题,请直接跳到 常见部署问题排查。如果您想在跟着做之前先了解 OpenClaw 究竟是什么,请先阅读 OpenClaw 是什么。
OpenClaw 是什么(以及本指南涵盖什么)#
一段话概括 OpenClaw:本地托管的 AI 智能体网关,不是云订阅#
OpenClaw 是一个在您掌控的硬件上本地运行的 AI 智能体。与云端 AI 助手不同,它不响应聊天提示。它执行任务:整理您的收件箱、安排会议、运行脚本、搜索网络,以及通过名为 skill 的插件系统触发工作流。推理层会路由到您连接的任一 LLM(Anthropic、OpenAI、Google,或本地 Ollama 端点),而您的数据留在您的基础设施上。
运行起来之后您可以做什么#
完成基本安装并配置一小组 skill 后,一个可用的 OpenClaw 实例可以监听 Telegram、WhatsApp 或 Slack 之类的通讯通道,并运行您从手机发出的任务。它可以读取您的日历、处理日程冲突、搜索网络并将结果放入笔记应用、执行 shell 命令,并通过自定义 MCP 服务器连接到内部工具。您日常大概只会用到其中两三项,但有这些可用性就是意义所在。
本指南覆盖什么,以及它额外添加了哪些别人略过的内容#
多数 OpenClaw 部署指南止步于「它能跑」。本指南继续讲真正重要的安全步骤:修补 CVE-2026-25253、关闭无认证的网关访问、在安装前核查插件。SecurityScorecard 在 2026 年 2 月发现 82 个国家共有超过 135,000 个面向互联网的 OpenClaw 实例,其中超过 50,000 个在默认配置下可被直接远程代码执行。跳过加固不是小疏忽:那等于把门开着。
开工前:系统要求#
Node.js 22 或更高(为什么版本底线重要)#
OpenClaw 需要 Node.js 22 或更高。更早版本在某些操作上会静默失败或产生误导性错误,让调试变得痛苦。用 node --version 检查版本。若低于 22,请从 nodejs.org 安装当前 LTS,或使用 nvm 清爽地管理版本。
操作系统:macOS 12+、Windows WSL2 或 Ubuntu 20.04+#
OpenClaw 在 macOS 12 及以上原生运行。Windows 上需要 WSL2:原生 Windows 安装路径在 MCP 服务器联网方面存在已知问题。Ubuntu 20.04+ 获得完整支持。本指南在行为不同的章节会附 WSL2 专属说明。
硬盘与内存:最低 1 GB;本地模型推理需 8 GB+ 内存#
OpenClaw 本身占用不到 200MB。如果您通过 Ollama 运行本地推理,Q4 量化的 7B 模型每个要预留 4-5GB 可用内存。一台 16GB 的机器可以在不发生资源争抢的情况下,与 OpenClaw 并行运行一个 7B 模型。如果您把推理路由到 API 提供方,内存要求可以忽略不计。
来自 Anthropic、OpenAI、Google 的 LLM API 密钥,或本地 Ollama 端点#
运行接入向导前,请备好 API 密钥。如果使用 Ollama,先把它装好,并在启动安装程序之前拉取至少一个模型(ollama pull llama3.2 是合理的默认值)。向导跑到一半再去装 Ollama 很烦人。
步骤 1:安装 OpenClaw#
通过 npm 全局安装#
npm install -g openclaw@latest这会把 OpenClaw CLI 全局安装。@latest 标签很关键:始终安装最新版本以获得已打补丁的构建。
验证已安装版本#
openclaw --version在继续之前记下版本号。
为什么必须确认您在 v2026.2.26 或更高版本上#
CVE-2026-25253(CVSS 8.8)是一个跨站 WebSocket 劫持漏洞,允许一键远程代码执行。它已在 v2026.1.29 中修复,该版本于 2026 年 1 月 30 日发布。如果您的版本低于 v2026.1.29,就此停下。再次运行 npm install -g openclaw@latest 并重新验证后再继续。在该漏洞活跃期间,超过 50,000 个默认配置实例被确认可被直接利用(SecurityScorecard / hunt.io, February 2026)。这不是一个理论数字。
步骤 2:运行接入向导并配置您的 LLM 提供方#
运行 openclaw onboard#
openclaw onboard接入向导会带您走完四件事:选择 LLM 提供方、输入 API 密钥(存在 ~/.openclaw/config.json,不是项目目录)、为智能体命名、设置您的第一个通讯通道。完整走完它,再去手动改任何配置文件。
接入 Claude、GPT-4o 或本地 Ollama 模型#
当系统提示选择 LLM 提供方时:
- Anthropic(Claude): 选择 Anthropic,输入 API 密钥。Claude 3.5 Sonnet 对通用智能体任务是稳妥的默认选择。
- OpenAI(GPT-4o): 选择 OpenAI,输入 API 密钥。GPT-4o 适合多数任务类型。
- 本地 Ollama: 选择 Ollama,输入本地端点(默认
http://localhost:11434)。在这一步之前请先把模型拉好,否则向导会超时。
之后您可以通过编辑 ~/.openclaw/config.json 更换提供方。
设置您的 SOUL.md:告诉智能体您是谁、它能做什么#
SOUL.md 是一个纯文本文件,告诉您的 OpenClaw 实例它在为谁工作、被允许做什么。它位于 OpenClaw 的配置目录,并在每次会话开始时加载。您可以跳过它,但接下来的一周您会一直重复同样的话:「我的时区是 X」、「不要预约早上 9 点之前的会议」、「发邮件前务必确认」。
一份最简 SOUL.md 涵盖您的姓名和身份、时区、沟通偏好、智能体被授权使用的工具,以及任何长期规则。用纯散文写就好。前期越具体,后续智能体需要的指导就越少。
步骤 3:安全加固(请勿跳过)#
CVE-2026-25253:是什么、影响谁、如何确认您已修补#
CVE-2026-25253 是一个跨站 WebSocket 劫持漏洞。攻击流程:您访问一个攻击者控制的页面。该页面上的 JavaScript 向您本地的 OpenClaw 网关(默认 localhost:18789)打开一个 WebSocket 连接,读取您的认证令牌,并完全控制您的实例。由此,攻击者可以读取文件、执行命令,并调用您的智能体可访问的任何 MCP 工具。
如果您运行的是早于 v2026.1.29 的任意版本,您就在受影响范围内。检查:
openclaw --version版本必须为 v2026.1.29 或更高。若不是,立即运行 npm install -g openclaw@latest。
安装后轮换认证令牌#
即使是全新安装,也要在做其他任何事之前先轮换网关令牌:
openclaw auth rotate这会生成新令牌,并使此前颁发的所有凭证失效。初次安装后做一次,若怀疑实例在未修补状态下运行过,再做一次。
关闭无认证网关访问#
视您所在的版本分支,OpenClaw 的网关可能默认未强制认证。检查:
openclaw config get gateway.requireAuth如果输出为 false 或为空,开启它:
openclaw config set gateway.requireAuth true更改后重启网关。
校验 Origin 头以防止跨站 WebSocket 劫持#
只靠认证还不够。配置来源校验,让来自不受信任来源的 WebSocket 连接直接被拒绝:
openclaw config set gateway.allowedOrigins "http://localhost:18789,http://127.0.0.1:18789"这是在协议层阻断 CVE-2026-25253 这类攻击的措施。即使令牌被以某种方式获取,攻击者页面发起的连接也会被拒绝。
插件核查:如何在安装前检查 ClawHub skill#
ClawHavoc 供应链攻击到 2026 年 3 月已在 ClawHub 中植入了 1,184 个确认恶意的 skill(eSecurity Planet / PointGuard AI, March 2026)。在安装任何 skill 之前:
- 查看发布者资料:历史、其他发布过的 skill、可验证身份?
- 该 skill 有公开源码仓库吗?
- 搜索 skill 名加「ClawHavoc」:如果出现在研究者的指标列表里,不要安装
- 绝不运行任何 skill 在聊天提示中要求您执行的诊断命令。这是 ClawHavoc 投递 Atomic Stealer(AMOS)的主要手段。
拿不准就别装。多数 skill 类别都有合法的替代品。
步骤 4:连接您的第一个通道#
Telegram:配置最快,推荐首次使用#
Telegram 是最容易上手的第一个通道。它需要一个 bot 令牌(通过 @BotFather 创建,用时不到 2 分钟),并在所有平台上稳定工作。
openclaw channel add telegram按提示输入您的 bot 令牌。在 Telegram 中给您的 bot 发一条消息:OpenClaw 应在几秒内响应。这就确认了基础的智能体循环。
WhatsApp、iMessage、Slack 和 Discord 的选择#
WhatsApp 和 iMessage 需要因系统和账户类型而异的平台专属配置。Slack 和 Discord 更直接,OpenClaw 文档中有说明。首次安装时,先把 Telegram 跑通,再碰其他。核心循环未经确认就添加更多通道,只会引入更多要排查的故障点。
使用网页界面和终端作为备选#
如果您暂时不想接通讯通道,网关运行后可在 http://localhost:18789 访问网页界面。终端界面(openclaw chat)也可用于直接交互。在您接入外部通道前,这两种方式都足以做测试。
步骤 5:添加 MCP 集成#
MCP 服务器能做什么(文件系统、GitHub、数据库、日历、邮箱)#
MCP(Model Context Protocol)服务器让 OpenClaw 能在您实际的系统上执行操作。没有它们,它能推理和响应,但做不了太多。每个服务器向智能体暴露可调用的工具:读取文件、查询数据库、创建 GitHub PR、发送邮件。
对多数用户最有用的起点:
- 文件系统: 读写本地机器上的文件
- Google Calendar: 读取事件、安排会议、查询空闲
- PostgreSQL 或 SQLite: 用自然语言查询数据库
- GitHub: 列出 issue、阅读代码、创建 PR
- 邮件(Gmail 或 IMAP): 阅读、撰写、发送邮件
从一个开始。跑通了再加其他。
安装一个 MCP 服务器:openclaw.json 配置模式#
MCP 服务器放在 ~/.openclaw/openclaw.json 的 mcpServers 键下:
{
"mcpServers": {
"filesystem": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-filesystem", "/Users/yourname/Documents"]
},
"google-calendar": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-google-calendar"],
"env": {
"GOOGLE_CLIENT_ID": "your-client-id",
"GOOGLE_CLIENT_SECRET": "your-client-secret"
}
}
}
}编辑 openclaw.json 后重启 OpenClaw。智能体会在下一次会话开始时加载新工具。
三个实用的起步集成:文件系统、Google Calendar 和 Postgres#
文件系统 是最容易配置、也最快带来价值的。智能体可以读取您的文档、撰写摘要、管理文件,而您无需把内容粘贴到对话里。把它限定到某个具体目录,而不是根目录:智能体不需要访问一切。
Google Calendar 需要通过 Google Cloud Console 做 OAuth 设置,第一次大约要 10 分钟(第二次 2 分钟)。接通之后,用自然语言安排日程确实好用。「我周二下午有空吗」是一个合理的问法。
PostgreSQL 是让 OpenClaw 在技术同事面前显得有用的最快方式。把它接入一个带样例数据的数据库,然后用自然语言提问。即使生成的查询不完美,看它尝试的过程,比任何解释都更能让怀疑者买账。
在加入配置前如何审查 MCP 服务器#
在添加任何 MCP 服务器之前:
- 确认包由知名组织或有公开资料的维护者发布
- 如果是开源,审阅源代码:看服务器会做哪些权限请求和网络调用
- 优先使用官方
@modelcontextprotocol/包。这些是参考实现,也是最稳妥的起点。
常见部署问题排查#
网关无法启动:Node 版本与端口冲突检查清单#
如果 openclaw start 立即失败,按下述顺序排查:
node --version:必须为 22 或更高- 检查 18789 端口是否已被占用:
lsof -i :18789(macOS/Linux)或netstat -ano | findstr 18789(Windows WSL2) - 若端口被占用,更改端口:
openclaw config set gateway.port 18790 - 查看错误日志:
~/.openclaw/logs/gateway.log
对于权限和路径问题,错误日志通常比终端输出更有用。
LLM 提供方认证错误#
若 OpenClaw 能启动但 LLM 调用失败:
openclaw config get llm.apiKey:若返回为空,重新运行接入向导- 验证 API 密钥对您选择的模型拥有正确权限
- 对 Ollama:检查服务是否在运行(
ollama serve),模型是否已拉取(ollama list)
MCP 服务器连接失败#
若某个 skill 或 MCP 服务器连接失败:
- 在终端直接运行该 MCP 服务器命令。这会显示被
openclaw.json掩盖的原始错误输出。 - 验证
env块中的所有必需环境变量都已设置 - 检查
npx包名是否为当前:部分包已被重命名
Windows 上的 WSL2 网络陷阱#
在 Windows 上使用 WSL2 时,网关运行在 Linux 环境中。从 Windows 访问需要多一步:
- 获取您的 WSL2 IP:在 WSL2 内
ip addr show eth0 | grep inet - 从 Windows 访问
http://<wsl2-ip>:18789,而不是localhost - 对 Telegram Webhook 或外部通道,您很可能需要 WSL2 端口转发。Microsoft 的 WSL2 官方网络文档对此有详细说明。
何时寻求专业帮助#
对于有技术信心的用户,按本指南在纯本地网络上的一次谨慎安装是可行的。
在以下情况下值得考虑专业部署:机器有任何形式的互联网暴露;您正在为多用户、有公司数据或合规要求的企业部署;您希望通过自定义 MCP 服务器把 OpenClaw 连接到 CRM 或 ERP 等内部系统;或者您不想花一个周末调试网络配置。
Silverthread Labs 处理个人和企业用途的 OpenClaw 部署,包括 CVE-2026-25253 补丁、网关锁定、插件核查和自定义 MCP 服务器构建。查看部署服务页面 或 直接联系我们。
常见问题#
一次完整的 OpenClaw 部署要多久?
核心安装不到 10 分钟。若按步骤走安全加固,再加 20-30 分钟。您的第一个 MCP 集成根据服务与是否涉及 OAuth,再加 15-30 分钟。
运行 OpenClaw 需要 GPU 吗?
不需要。OpenClaw 是编排层,不是推理引擎。把推理路由到 API 提供方,本地完全无需 GPU。若要通过 Ollama 运行本地模型,8GB 以上显存的 GPU 能明显加速,但一颗现代 CPU 运行 7B 模型的速度,在多数任务中已可用。
OpenClaw 可以作为后台服务 24/7 运行吗?
可以。openclaw service install 会将其注册为开机启动的系统服务。多数常开部署就是这么配置:智能体持续运行并监听通道,无论您是否在电脑前。
SOUL.md 文件是必需的吗?
启动层面不需要。让智能体有用则需要。没有它就没有持久上下文:它不知道您的时区、偏好,或被允许做什么。每次会话您都要重新指定这一切。一次就设好。
安装了恶意 ClawHub skill 会怎样?
ClawHavoc 行动的主要载荷是 Atomic Stealer(AMOS),它会窃取浏览器凭证、已保存密码、会话令牌和加密货币钱包数据。如果您在 2026 年 3 月的市场审核实施之前装过 skill,请对照已发布的 ClawHavoc 指标列表检查您的 skill 列表。若有匹配:移除该 skill,轮换浏览器中存储的所有凭证,并运行一次恶意软件扫描。
