OpenClaw 安装及模型配置

内容目录

一、安装步骤(官方+国内适配)

0. 前置条件(必装)

  • Node.js ≥ 22(核心运行环境)

  • pnpm(可选,源码构建推荐)

  • Windows:必须用 WSL2(Ubuntu),原生Windows未测试、兼容性差

  • macOS:仅CLI/Gateway无需Xcode;构建应用需装Xcode/CLT

  • 推荐:Brave Search API密钥(网页搜索工具用)

1. 安装CLI(推荐,跨平台)

macOS/Linux

curl -fsSL https://openclaw.ai/install.sh | bash
# 或npm全局安装
npm install -g openclaw@latest
# 或pnpm
pnpm add -g openclaw@latest

Windows(PowerShell,WSL2内执行)

iwr -useb https://openclaw.ai/install.ps1 | iex
# 或npm全局安装
npm install -g openclaw@latest
# 或pnpm
pnpm add -g openclaw@latest

2. 运行新手引导(一键配置+安装后台服务)

openclaw onboard --install-daemon

引导中选择:

  • 本地/远程Gateway

  • 认证方式:OAuth(推荐) 或API密钥(Anthropic优先API密钥)

  • 渠道:WhatsApp/Telegram/Discord/Mattermost等

  • 运行时:Node(必选,WhatsApp/Telegram兼容)禁用Bun

  • 自动生成Gateway令牌(存储于gateway.auth.token

3. 启动Gateway网关

  • 已装服务:自动后台运行,查看状态

    openclaw gateway status
  • 手动前台运行(调试)

    openclaw gateway --port 18789 --verbose
  • 访问Dashboard:http://127.0.0.1:18789/

4. 快速验证(2分钟)

openclaw status
openclaw health
openclaw security audit --deep

5. 配对聊天渠道(国内优先飞书/钉钉/企业微信)

WhatsApp(需科学上网)

openclaw channels login
# 手机WhatsApp→设置→链接设备扫码

Telegram/Discord(需科学上网)

  • 向导中填入机器人令牌,首次私信获取配对码

  • 审批配对:

    openclaw pairing list telegram
    openclaw pairing approve telegram <配对码>

国内渠道(飞书/钉钉/企业微信,直连)

  • 配置对应平台API,无需翻墙,稳定性高

6. 端到端验证

# 发送测试消息(替换为目标号码/ID)
openclaw message send --target +15555550123 --message "Hello from OpenClaw"

7. 源码安装(开发用)

git clone https://github.com/openclaw/openclaw.git
cd openclaw
pnpm install
pnpm ui:build
pnpm build
# 运行引导
openclaw onboard --install-daemon
# 启动Gateway
node openclaw.mjs gateway --port 18789 --verbose

二、模型选择(国际+国内,含费用)

国际模型(需科学上网+海外支付)

提供商 模型 输入价格($/1M tokens) 输出价格($/1M tokens) 特点
Anthropic Claude 4.5 Opus 15.00 75.00 复杂推理/代码最强
Anthropic Claude 4.5 Sonnet 3.00 15.00 平衡性能与成本
Anthropic Claude 4.5 Haiku 0.80 4.00 快速、低成本
OpenAI GPT-4o 2.50 10.00 多模态全能
OpenAI GPT-4o mini 0.15 0.60 预算友好
Google Gemini 2.0 Flash 免费额度 免费可用
Ollama Llama 3.3/Mistral 免费 免费 本地部署、零成本

国内模型(直连+支付宝/微信支付,推荐)

提供商 模型 免费额度 付费价格(元/1M tokens) 特点 国内访问
阿里云百炼 Qwen3-Coder-Plus 每日2000次免费 输入0.05,输出0.1 代码生成强、国内直连 ✅ 直连
火山方舟 GLM-4.7 50万tokens 输入0.08,输出0.16 中文理解/推理强 ✅ 直连
DeepSeek DeepSeek-Coder 免费额度 输入0.03,输出0.06 超高性价比、国内直连 ✅ 直连
腾讯混元 混元Lite 免费 输入0.06,输出0.12 通用对话、国内直连 ✅ 直连

模型选择建议

  • 国内用户首选Qwen3-Coder-Plus/GLM-4.7/DeepSeek,直连、支付方便、成本低

  • 简单任务:Claude Haiku / GPT-4o mini / 混元Lite,低成本

  • 复杂代码/推理:Claude Opus / GLM-4.7 / Qwen3-Coder-Plus

  • 零成本测试:Ollama本地模型(Llama 3.3)/ Qwen免费额度

三、模型使用费用(核心开销)

1. 国际模型(月均10-150美元)

  • token消耗计费,输入+输出分开算,复杂任务成本高

  • 务必设置月度消费限额:Anthropic/OpenAI控制台可配置,避免超额

  • 示例:Claude Opus处理100万token输出,费用75美元

2. 国内模型(月均10-100元)

  • 价格仅为国际模型的1/10-1/5,且支持支付宝/微信支付

  • 免费额度充足,日常使用基本可覆盖,超出后付费成本极低

  • 示例:Qwen3-Coder-Plus处理100万token输出,费用0.1元

3. 服务器成本(可选)

  • 本地部署:无服务器费用,仅耗电脑资源(推荐≥16GB内存)

  • 云端部署:阿里云/腾讯云轻量服务器,2核2GB月费约68-99元,新用户优惠大

四、国内访问情况(核心结论)

1. OpenClaw软件本身

  • 国内可直接安装、运行,CLI、Gateway、Dashboard均无网络封锁

  • ✅ 国内服务器(阿里云/腾讯云)可一键部署,无需翻墙

2. 模型API访问(关键)

  • 国际模型(Claude/GPT-4o/Gemini):国内IP直接访问被封锁,必须科学上网+海外信用卡支付

  • 国内模型(Qwen/GLM-4.7/DeepSeek/混元)直连无压力,无需翻墙,支付便捷

3. 聊天渠道访问

  • 国内渠道(飞书/钉钉/企业微信):直连,稳定性高,推荐使用

  • 国际渠道(WhatsApp/Telegram/Discord):需科学上网才能正常使用

4. 国内最优部署方案

  1. 本地/国内云服务器安装OpenClaw

  2. 配置国内模型API(Qwen/GLM-4.7/DeepSeek)

  3. 绑定飞书/钉钉/企业微信作为聊天入口

  4. 无需翻墙,全链路国内直连,成本低、稳定性高

需要我帮你生成一份可直接复制的国内模型(Qwen/GLM-4.7)配置模板,并给出一键部署的完整命令吗?

五、使用OpenClaw命令新增本地模型(Ollama)

前提:已完成 Ollama 安装(参考前文模型选择中Ollama说明),且 Ollama 服务正常运行(ollama serve 启动),同时 OpenClaw Gateway 处于运行状态。

步骤1:确认本地Ollama模型已拉取

先通过Ollama命令拉取需要新增的本地模型(以Llama 3.3 8B为例,其他模型同理):

# 拉取Llama 3.3 8B模型(若已拉取可跳过)
ollama pull llama3.3:8b
# 查看本地已拉取的所有Ollama模型,确认模型名
ollama list

注意:记录Ollama模型名(如llama3.3:8b),后续OpenClaw命令需精准匹配。

步骤2:使用OpenClaw命令新增本地模型

通过OpenClaw CLI命令一键新增,无需手动编辑配置文件,全程交互式操作:

# 执行新增模型命令,选择本地Ollama模型
openclaw models add

步骤3:跟随交互向导完成配置(关键步骤)

执行命令后,按提示逐步选择/输入,全程中文引导,国内用户直接按以下选项操作:

  1. 选择 Provider(模型提供商):输入 ollama(或通过上下键选择Ollama),回车;

  2. 输入 Model Name(自定义模型名,如llama-3.3-8b),回车;

  3. 输入 Endpoint(Ollama默认本地地址):直接回车(默认值:http://localhost:11434/api/chat);

  4. 输入 Model ID(Ollama模型名):输入步骤1记录的模型名(如llama3.3:8b),回车;

  5. 输入 Temperature(生成随机性,0-1):输入 0.7,回车;

  6. 输入 Max Tokens(最大输出长度):根据内存配置输入(16GB内存输4096,8GB内存输2048),回车;

  7. 是否启用流式输出(Stream):输入 y(推荐),回车;

  8. 是否设为默认模型:输入 y(若需设为默认),回车;

  9. 确认配置信息:输入 y,回车,完成模型新增。

步骤4:验证新增的本地模型

新增完成后,执行以下命令验证模型是否正常关联、可调用:

# 查看OpenClaw已配置的所有模型
openclaw models list

# 发送测试消息,验证本地模型响应
openclaw message send --target test --message "你好,测试OpenClaw本地模型" --model 自定义模型名(如llama-3.3-8b)

若返回正常回复,说明本地模型已成功通过OpenClaw命令新增并可用。

补充说明(关键注意事项)

  • 若新增失败,先检查:Ollama服务是否正常运行、模型名是否与Ollama拉取的一致、Gateway是否启动;

  • 新增多个本地模型:重复执行 openclaw models add 命令,按向导选择不同Ollama模型即可;

  • 删除本地模型:执行 openclaw models delete --name 模型名,按提示确认即可。

六、OpenClaw关联飞书/钉钉/企业微信(国内直连,无需翻墙)

前提:已完成 OpenClaw 安装、本地/国内模型配置,且 OpenClaw Gateway 正常运行(openclaw gateway status 确认运行)。关联后可通过飞书/钉钉/企业微信直接调用模型,实现对话交互。

6.1 关联飞书(推荐,操作最简单、稳定性最高)

步骤1:飞书开放平台创建机器人(获取凭证)

  1. 登录飞书开放平台:https://open.feishu.cn/ → 应用开发 → 企业自建应用 → 创建 → 选择「机器人」;

  2. 应用名称填「OpenClaw」,上传图标,点击「创建」;

  3. 进入「凭证与基础信息」,复制「App ID」「App Secret」(后续配置必填);

  4. 进入「权限管理」,搜索并开通以下权限,开通后点击「启用」:
    im:message:send(发送消息)

  5. im:message:read(接收消息)

  6. user:user_info:read(获取用户信息)

  7. 进入「事件与回调」,勾选「使用长连接接收事件」,保存;

  8. 进入「版本管理与发布」,创建版本并「发布」(企业内可用,无需审核);

  9. 飞书客户端搜索「OpenClaw」,添加到个人联系人或群聊。

步骤2:OpenClaw命令关联飞书(一键配置)

飞书关联命令# 执行渠道添加命令,选择飞书
openclaw channels add

# 按交互向导输入(全程中文引导)
1. 选择渠道类型:输入 feishu 或上下键选择 Feishu
2. 输入 Channel Name(自定义,如 feishu-openclaw)
3. 输入 App ID(飞书机器人的App ID)
4. 输入 App Secret(飞书机器人的App Secret)
5. 选择默认模型(已配置的本地/Ollama模型,如 llama-3.3-8b)
6. 是否启用该渠道:输入 y
7. 确认配置:输入 y

# 重启Gateway,使配置生效
openclaw gateway restart

步骤3:验证飞书关联

飞书验证命令# 查看已关联的渠道
openclaw channels list

# 发送测试消息到飞书(替换为你的飞书账号ID)
openclaw message send --target 你的飞书用户ID --message "你好,测试飞书关联OpenClaw" --model 你的默认模型名

也可直接在飞书给「OpenClaw」机器人发消息,能正常回复即关联成功。

6.2 关联钉钉(适配企业办公场景)

步骤1:钉钉开放平台创建机器人(获取凭证)

  1. 登录钉钉开放平台:https://open-dev.dingtalk.com/ → 应用开发 → 企业内部应用 → 创建 → 选择「机器人」;

  2. 应用名称填「OpenClaw」,点击「创建」;

  3. 进入「凭证与基础信息」,复制「Client ID」(原AppKey)、「Client Secret」(原AppSecret);

  4. 进入「权限管理」,搜索并申请以下权限:
    message.send(发送消息)

  5. message.read(接收消息)

  6. user.get(获取用户信息)

  7. 进入「版本管理」,创建版本并「企业内发布」;

  8. 钉钉客户端搜索「OpenClaw」,添加到个人或群聊。

步骤2:OpenClaw命令关联钉钉

钉钉关联命令# 执行渠道添加命令,选择钉钉
openclaw channels add

# 按交互向导输入
1. 选择渠道类型:输入 dingtalk 或上下键选择 DingTalk
2. 输入 Channel Name(自定义,如 dingtalk-openclaw)
3. 输入 AppKey(钉钉的Client ID)
4. 输入 AppSecret(钉钉的Client Secret)
5. 选择默认模型(已配置的本地/Ollama模型)
6. 是否启用:输入 y
7. 确认配置:输入 y

# 重启Gateway生效
openclaw gateway restart

步骤3:验证钉钉关联

在钉钉给「OpenClaw」机器人发消息,或执行以下命令测试,能正常回复即成功:

钉钉验证命令openclaw message send --target 你的钉钉用户ID --message "你好,测试钉钉关联OpenClaw" --model 你的默认模型名

6.3 关联企业微信(适配企业内部通讯录)

步骤1:企业微信管理后台创建应用(获取凭证)

  1. 登录企业微信管理后台:https://work.weixin.qq.com/ → 应用管理 → 应用 → 创建应用;

  2. 应用名称填「OpenClaw」,上传图标,点击「创建」;

  3. 进入应用详情,复制「CorpID」「AgentId」,点击「查看」获取「CorpSecret」(需管理员授权);

  4. 进入「权限管理」,开通以下权限:message/send(发送应用消息)

  5. message/get(读取消息)

  6. user/get(获取成员信息)

  7. 应用详情底部「企业可信 IP」,添加 OpenClaw 部署设备的公网IP(本地部署填本地IP);

  8. 进入「接收消息」→ 启用 → URL 填写:http://你的IP:18789/wecom/agent,勾选所有消息事件,保存

  9. 设置「可见范围」,选择使用该应用的部门/成员,保存。

步骤2:OpenClaw命令关联企业微信

企业微信关联命令# 执行渠道添加命令,选择企业微信
openclaw channels add

# 按交互向导输入
1. 选择渠道类型:输入 wechat-work 或上下键选择 WeChat Work
2. 输入 Channel Name(自定义,如 wechat-work-openclaw)
3. 输入 CorpID(企业微信的CorpID)
4. 输入 CorpSecret(企业微信的CorpSecret)
5. 输入 AgentId(企业微信应用的AgentId,纯数字)
6. 选择默认模型(已配置的本地/Ollama模型)
7. 是否启用:输入 y
8. 确认配置:输入 y

# 重启Gateway生效
openclaw gateway restart

步骤3:验证企业微信关联

进入企业微信「工作台」→ 找到「OpenClaw」应用,发送消息;或执行以下命令测试:

企业微信验证命令openclaw message send --target 你的企业微信用户ID --message "你好,测试企业微信关联OpenClaw" --model 你的默认模型名

6.4 关联通用注意事项

  • 关联失败排查:先检查 Gateway 是否正常运行、平台侧机器人权限是否开通、IP白名单是否配置(企业微信必配);

  • 切换默认模型:关联后若需更换模型,执行 openclaw models set-default --name 模型名,重启Gateway即可;

  • 删除渠道关联:执行 openclaw channels delete --name 渠道名(渠道名即关联时自定义的Channel Name);

  • 多渠道同时关联:重复执行 openclaw channels add 命令,分别配置飞书/钉钉/企业微信即可。

(注:文档部分内容可能由 AI 生成)

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注