本地 Docker 部署
这是官方推荐且最简单的方法,无需复杂的编程环境配置。

步骤 1:安装 Docker
这是唯一的前提条件。
- Windows/Mac:前往 Docker Desktop 官网 下载并安装。
- Linux:根据你的发行版,使用包管理器安装 Docker Engine 和 Docker Compose。 安装完成后,打开 Docker Desktop(Win/Mac)或启动 Docker 服务(Linux)。
步骤 2:获取 OpenClaw Docker 镜像
打开终端(Windows 可用 PowerShell 或 CMD,Mac/Linux 用系统终端),执行以下命令,这会从 Docker Hub 拉取已经配置好的 OpenClaw 镜像。
docker pull ghcr.io/openchatai/opencopilot-backend:latest
步骤 3:运行 OpenClaw 容器
继续在终端中运行以下命令,它会启动一个容器,并将本地的 3000 端口映射到容器的 3000 端口。
docker run -d -p 3000:3000 --name openclaw ghcr.io/openchatai/opencopilot-backend:latest
-d:后台运行。-p 3000:3000:端口映射。--name openclaw:给容器起个名字,方便管理。
步骤 4:访问并开始使用
- 打开你的浏览器。
- 在地址栏输入:
http://localhost:3000 - 你应该能看到 OpenClaw 的 Web 界面。
- 你可以直接开始使用了! 首次进入会让你设置一个知识库或直接开始对话,整个过程都在你的本地环境进行,完全无需任何注册或登录。
替代方案:从源代码运行(适合开发者)
如果你对代码感兴趣或想进行二次开发,可以克隆其开源仓库。
-
克隆仓库:
git clone https://github.com/openchatai/opencopilot.git cd opencopilot
-
配置环境:
- 根据项目
README.md的说明,设置必要的环境变量(如数据库连接、大模型 API 密钥等)。 - 安装依赖:
pip install -r requirements.txt。
- 根据项目
-
运行应用:
python app.py # 或根据项目说明使用其他启动命令
-
同样,在浏览器中访问
http://localhost:3000即可使用。
重要注意事项
-
本地模型 vs. 在线API:
- OpenClaw 本身是一个框架,它需要连接到一个大语言模型 才能工作。
- 在配置时,你需要提供 LLM 的 API 密钥(OpenAI 的 GPT, Anthropic 的 Claude,或国内的通义千问、DeepSeek等)。这部分 API 调用可能产生费用,但 OpenClaw 软件本身是免费的。
- 如果你有强大的显卡,也可以尝试配置连接本地部署的 Ollama(如 Llama3, Qwen2.5 等模型),实现真正的 “完全本地、免注册、零API费用”。
-
数据安全:所有数据(对话、上传的知识库文件)都保存在你的本地 Docker 容器或你配置的数据库中,非常安全。
-
功能限制:本地部署的版本可能没有云端 SaaS 版的一些集成功能(如团队协作、高级监控),但核心的问答、知识库、工作流功能都已具备。
要实现 OpenClaw 免注册,最推荐也最简单的方法就是:
在自己的电脑上通过 Docker 一键部署。
这样做的好处是:完全免费、完全私有、无需联网注册、数据完全自主,你只需要付出一点点搭建环境的初始时间成本。
希望这个详细的指南对你有帮助!