XAI Router Codex 包月服务:Codex / OpenClaw / OpenCode 接入
Posted February 14, 2026 by XAI 技术团队 ‐ 4 min read

XAI Router 现在把 Codex 相关接入收敛为一条主线:Codex CLI / App 走原生 Responses;OpenClaw / OpenCode / Chat / Claude 等其他客户端走各自兼容层。
当前支持
- Codex CLI / App:通过
https://api.xairouter.com走原生 Responses 路径。 - OpenClaw:通过自定义
openai-responsesprovider 走标准 Responses 兼容路径。 - OpenCode:
gpt-5.4会优先保留 Responses 请求形态,并走定向兼容路径。 - 兼容 API:
/v1/chat/completions与/v1/messages继续可用,但它们属于兼容桥接,不是原生 Codex 入口。
一句话:Codex CLI / App 优先用 /v1/responses;其他客户端按各自推荐接法配置。
Codex CLI / App 推荐配置
下面给出一份推荐的 ~/.codex/config.toml 示例:
model_provider = "xai"
model = "gpt-5.4"
model_reasoning_effort = "xhigh"
plan_mode_reasoning_effort = "xhigh"
model_reasoning_summary = "none"
model_verbosity = "medium"
model_context_window = 1050000
model_auto_compact_token_limit = 945000
tool_output_token_limit = 6000
approval_policy = "never"
sandbox_mode = "danger-full-access"
[model_providers.xai]
name = "OpenAI"
base_url = "https://api.xairouter.com"
wire_api = "responses"
requires_openai_auth = false
env_key = "XAI_API_KEY"配置完成后,Codex CLI 与 Codex App 都直接指向 https://api.xairouter.com 即可。 其中 env_key = "XAI_API_KEY" 只告诉 Codex 去读取哪个环境变量;建议 Linux 写入 ~/.bashrc、macOS 优先写入 ~/.zshrc,Windows 写入用户环境变量后再重开终端。部分较老的 macOS、旧终端或某些 IDE 会话如果仍走 bash 登录环境,除了 ~/.zshrc 外,最好再同步写入 ~/.bash_profile,必要时也补到 ~/.bashrc。
最小 API 调用示例
Responses API(推荐)
curl https://api.xairouter.com/v1/responses -H "Authorization: Bearer ${XAI_API_KEY}" -H "Content-Type: application/json" -d '{
"model":"gpt-5.4",
"stream": false,
"input":[
{"type":"message","role":"user","content":[{"type":"input_text","text":"用一句话总结今天任务重点"}]}
]
}'Chat Completions(兼容桥接)
curl https://api.xairouter.com/v1/chat/completions -H "Authorization: Bearer ${XAI_API_KEY}" -H "Content-Type: application/json" -d '{
"model":"gpt-5.4",
"stream": false,
"messages":[{"role":"user","content":"给我一句今天上海天气建议"}]
}'Claude API(兼容桥接)
curl https://api.xairouter.com/v1/messages -H "x-api-key: ${XAI_API_KEY}" -H "anthropic-version: 2023-06-01" -H "Content-Type: application/json" -d '{
"model":"gpt-5.4",
"max_tokens": 256,
"messages":[{"role":"user","content":"请用一句话总结今天的任务重点"}]
}'兼容 API 适合已有项目平滑迁移;但如果你追求和原生 Codex 更接近的链路,仍然建议优先使用 Responses。
OpenClaw 推荐接法
如果你希望 OpenClaw 通过 XAI Router 获得最简洁、最稳定的 Responses 兼容体验,推荐使用下面这套配置:
{
"agents": {
"defaults": {
"model": { "primary": "xairouter/gpt-5.4" },
"models": {
"xairouter/gpt-5.4": {
"alias": "Codex",
"params": { "transport": "sse" }
}
}
}
},
"models": {
"mode": "replace",
"providers": {
"xairouter": {
"baseUrl": "https://api.xairouter.com/v1",
"apiKey": "${XAI_API_KEY}",
"api": "openai-responses",
"models": [
{ "id": "gpt-5.4", "name": "GPT-5.4" }
]
}
}
}
}要点:
api: "openai-responses"是 OpenClaw 官方文档支持的自定义 provider 结构。baseUrl使用https://api.xairouter.com/v1,并且不需要额外添加headers.originator;保持 provider 配置最小即可。params.transport = "sse"会优先走 HTTP/v1/responses;如果你更偏好 WebSocket-first,可改成"auto"。为了避免 agent 侧局部models.json覆盖,这里把models.mode直接设为"replace"。- OpenClaw 内置
openai-codexOAuth 是直连 OpenAI 的路线,不会经过 XAI Router。
如果这份配置看起来没有生效,请顺手检查 ~/.openclaw/agents/<agentId>/models.json 是否存在局部覆盖。
平台化部署可继续参考:/blog/openclaw/、/blog/openclaw-macos/、/blog/openclaw-windows-xai-router/。
OpenCode
如果你使用 OpenCode,直接参考:/blog/opencode-xai-router/。 当前 gpt-5.4 配置已经优先保留 OpenCode 的 Responses 请求形态。
结论
现在这条主线很简单:
- Codex CLI / App:优先原生 Responses
- OpenClaw / OpenCode:优先使用各自推荐的 Responses 接法
- Chat Completions / Claude 兼容 API:继续保留,但定位为桥接层
- 文档里的 Codex
config.toml:统一到推荐的gpt-5.4配置