XAI Router Codex 包月服务:Codex / OpenClaw / OpenCode 接入

Posted February 14, 2026 by XAI 技术团队 ‐ 4 min read

XAI Router 现在把 Codex 相关接入收敛为一条主线:Codex CLI / App 走原生 Responses;OpenClaw / OpenCode / Chat / Claude 等其他客户端走各自兼容层。


当前支持

  1. Codex CLI / App:通过 https://api.xairouter.com 走原生 Responses 路径。
  2. OpenClaw:通过自定义 openai-responses provider 走标准 Responses 兼容路径。
  3. OpenCodegpt-5.4 会优先保留 Responses 请求形态,并走定向兼容路径。
  4. 兼容 API/v1/chat/completions/v1/messages 继续可用,但它们属于兼容桥接,不是原生 Codex 入口。

一句话:Codex CLI / App 优先用 /v1/responses;其他客户端按各自推荐接法配置。


Codex CLI / App 推荐配置

下面给出一份推荐的 ~/.codex/config.toml 示例:

model_provider = "xai"
model = "gpt-5.4"
model_reasoning_effort = "xhigh"
plan_mode_reasoning_effort = "xhigh"
model_reasoning_summary = "none"
model_verbosity = "medium"
model_context_window = 1050000
model_auto_compact_token_limit = 945000
tool_output_token_limit = 6000
approval_policy = "never"
sandbox_mode = "danger-full-access"

[model_providers.xai]
name = "OpenAI"
base_url = "https://api.xairouter.com"
wire_api = "responses"
requires_openai_auth = false
env_key = "XAI_API_KEY"

配置完成后,Codex CLI 与 Codex App 都直接指向 https://api.xairouter.com 即可。 其中 env_key = "XAI_API_KEY" 只告诉 Codex 去读取哪个环境变量;建议 Linux 写入 ~/.bashrc、macOS 优先写入 ~/.zshrc,Windows 写入用户环境变量后再重开终端。部分较老的 macOS、旧终端或某些 IDE 会话如果仍走 bash 登录环境,除了 ~/.zshrc 外,最好再同步写入 ~/.bash_profile,必要时也补到 ~/.bashrc


最小 API 调用示例

Responses API(推荐)

curl https://api.xairouter.com/v1/responses   -H "Authorization: Bearer ${XAI_API_KEY}"   -H "Content-Type: application/json"   -d '{
    "model":"gpt-5.4",
    "stream": false,
    "input":[
      {"type":"message","role":"user","content":[{"type":"input_text","text":"用一句话总结今天任务重点"}]}
    ]
  }'

Chat Completions(兼容桥接)

curl https://api.xairouter.com/v1/chat/completions   -H "Authorization: Bearer ${XAI_API_KEY}"   -H "Content-Type: application/json"   -d '{
    "model":"gpt-5.4",
    "stream": false,
    "messages":[{"role":"user","content":"给我一句今天上海天气建议"}]
  }'

Claude API(兼容桥接)

curl https://api.xairouter.com/v1/messages   -H "x-api-key: ${XAI_API_KEY}"   -H "anthropic-version: 2023-06-01"   -H "Content-Type: application/json"   -d '{
    "model":"gpt-5.4",
    "max_tokens": 256,
    "messages":[{"role":"user","content":"请用一句话总结今天的任务重点"}]
  }'

兼容 API 适合已有项目平滑迁移;但如果你追求和原生 Codex 更接近的链路,仍然建议优先使用 Responses。


OpenClaw 推荐接法

如果你希望 OpenClaw 通过 XAI Router 获得最简洁、最稳定的 Responses 兼容体验,推荐使用下面这套配置:

{
  "agents": {
    "defaults": {
      "model": { "primary": "xairouter/gpt-5.4" },
      "models": {
        "xairouter/gpt-5.4": {
          "alias": "Codex",
          "params": { "transport": "sse" }
        }
      }
    }
  },
  "models": {
    "mode": "replace",
    "providers": {
      "xairouter": {
        "baseUrl": "https://api.xairouter.com/v1",
        "apiKey": "${XAI_API_KEY}",
        "api": "openai-responses",
        "models": [
          { "id": "gpt-5.4", "name": "GPT-5.4" }
        ]
      }
    }
  }
}

要点:

  • api: "openai-responses" 是 OpenClaw 官方文档支持的自定义 provider 结构。
  • baseUrl 使用 https://api.xairouter.com/v1,并且不需要额外添加 headers.originator;保持 provider 配置最小即可。
  • params.transport = "sse" 会优先走 HTTP /v1/responses;如果你更偏好 WebSocket-first,可改成 "auto"。为了避免 agent 侧局部 models.json 覆盖,这里把 models.mode 直接设为 "replace"
  • OpenClaw 内置 openai-codex OAuth 是直连 OpenAI 的路线,不会经过 XAI Router。

如果这份配置看起来没有生效,请顺手检查 ~/.openclaw/agents/<agentId>/models.json 是否存在局部覆盖。

平台化部署可继续参考:/blog/openclaw//blog/openclaw-macos//blog/openclaw-windows-xai-router/


OpenCode

如果你使用 OpenCode,直接参考:/blog/opencode-xai-router/。 当前 gpt-5.4 配置已经优先保留 OpenCode 的 Responses 请求形态。


结论

现在这条主线很简单:

  • Codex CLI / App:优先原生 Responses
  • OpenClaw / OpenCode:优先使用各自推荐的 Responses 接法
  • Chat Completions / Claude 兼容 API:继续保留,但定位为桥接层
  • 文档里的 Codex config.toml:统一到推荐的 gpt-5.4 配置