通过 XAI Router 接入 OpenClaw
Posted February 1, 2026 by XAI 技术团队 ‐ 5 min read
OpenClaw + XAI Router
OpenClaw 是一款可接入多渠道的个人 AI 助手。本文提供 四种方式 接入 XAI Router:
- 路径 A:Claude API 兼容(glm-4.7)
- 路径 B:OpenAI API 兼容(gpt-5.2)
- 路径 C:CLI backend(Codex CLI)
- 路径 D:CLI backend(Claude Code CLI)
请选择其中一种方式配置即可。
路径 A:Claude API 兼容(glm-4.7)
1) 设置环境变量
export XAI_API_KEY="sk-..."
2) 写入 OpenClaw 配置
将以下配置保存到 ~/.openclaw/openclaw.json:
{
"agents": {
"defaults": {
"model": { "primary": "xairouter/glm-4.7" },
"models": {
"xairouter/glm-4.7": { "alias": "glm" }
}
}
},
"models": {
"mode": "merge",
"providers": {
"xairouter": {
"baseUrl": "https://api.xairouter.com",
"apiKey": "${XAI_API_KEY}",
"api": "anthropic-messages",
"models": [
{
"id": "glm-4.7",
"name": "GLM"
}
]
}
}
}
}
要点:
api必须是anthropic-messages(Claude API 兼容协议)。baseUrl使用https://api.xairouter.com。- 模型引用为
xairouter/glm-4.7。
3) 验证
openclaw models status
看到默认模型为 xairouter/glm-4.7 即配置成功。
路径 B:OpenAI API 兼容(gpt-5.2)
1) 设置环境变量
export XAI_API_KEY="sk-..."
2) 写入 OpenClaw 配置
将以下配置保存到 ~/.openclaw/openclaw.json:
{
"agents": {
"defaults": {
"model": { "primary": "xairouter/gpt-5.2" },
"models": {
"xairouter/gpt-5.2": { "alias": "GPT-5.2" }
}
}
},
"models": {
"mode": "merge",
"providers": {
"xairouter": {
"baseUrl": "https://api.xairouter.com/v1",
"apiKey": "${XAI_API_KEY}",
"api": "openai-responses",
"models": [
{
"id": "gpt-5.2",
"name": "GPT-5.2"
}
]
}
}
}
}
要点:
api必须是openai-responses(OpenAI Responses API 兼容)。baseUrl使用https://api.xairouter.com/v1,对应/v1/responses。- 模型引用为
xairouter/gpt-5.2。
3) 验证
openclaw models status
看到默认模型为 xairouter/gpt-5.2 即配置成功。
路径 C:CLI backend(Codex CLI + /v1/responses)
1) 准备 Codex CLI
- 确保本机可以运行
codex命令。 - 让 Codex CLI 指向
https://api.xairouter.com/v1/responses。 - 认证使用
XAI_API_KEY作为 Bearer token。
说明:OpenClaw 只是调用 Codex CLI,不会改动你的 HTTP 配置。
2) 写入 OpenClaw 配置
将以下配置保存到 ~/.openclaw/openclaw.json:
{
"agents": {
"defaults": {
"model": { "primary": "codex-cli/gpt-5.2-codex" },
"models": {
"codex-cli/gpt-5.2-codex": { "alias": "Codex" }
},
"cliBackends": {
"codex-cli": {
"command": "codex",
"env": {
"XAI_API_KEY": "${XAI_API_KEY}"
}
}
}
}
}
}
要点:
codex-cli是 OpenClaw 内置 CLI backend 的 provider 名称。- 如果
codex不在 PATH,请把command改成你的绝对路径,比如"/path/to/codex"。 - 如果你的 Codex CLI 使用不同的环境变量名,请在
env里替换。 - CLI backend 为文本模式,OpenClaw 工具调用不会启用。
3) 验证
openclaw agent --message "hi" --model codex-cli/gpt-5.2-codex
能正常返回回复即配置成功。
路径 D:CLI backend(Claude Code CLI + 多模型)
1) 准备 Claude Code CLI
- 确保本机可以运行
claude命令。 - 按你的模型商要求配置 Claude Code CLI 的 endpoint 与鉴权。
- 例如 GLM-4.7 这类模型,只要 Claude Code CLI 支持,就可以作为 CLI backend 使用。
说明:OpenClaw 只是调用 Claude Code CLI,不会改动你的 HTTP 配置。
2) 写入 OpenClaw 配置
将以下配置保存到 ~/.openclaw/openclaw.json:
{
"agents": {
"defaults": {
"model": { "primary": "claude-cli/glm-4.7" },
"models": {
"claude-cli/glm-4.7": { "alias": "GLM 4.7" }
},
"cliBackends": {
"claude-cli": {
"command": "claude",
"env": {
"XAI_API_KEY": "${XAI_API_KEY}"
},
"modelAliases": {
"glm-4.7": "glm-4.7"
}
}
}
}
}
}
要点:
claude-cli是 OpenClaw 内置 CLI backend 的 provider 名称。- 如果
claude不在 PATH,请把command改成你的绝对路径,比如"/path/to/claude"。 modelAliases用于把 OpenClaw 模型名映射到 CLI 接受的模型名。- 如果你的 CLI 使用不同的环境变量名,请在
env里替换。 - CLI backend 为文本模式,OpenClaw 工具调用不会启用。
3) 验证
openclaw agent --message "hi" --model claude-cli/glm-4.7
能正常返回回复即配置成功。
常见问题
1)如果我还想保留其它模型做 fallback?
把它们加入 agents.defaults.model.fallbacks,并在 agents.defaults.models 里加入对应 allowlist。
36 元包月使用 glm-4.7,直接在 m.xairouter.com 注册开通即可。