Claude Code 之外,OpenAI 的 Codex CLI 和 Google 的 Gemini CLI 也都开放了 base URL 配置,可以走第三方 API 中转。配法和 Claude Code 类似但有几个坑要注意。
Codex CLI
选什么中转站
Codex CLI 用 OpenAI 兼容协议(chat completions / responses API),所以挑能跑 GPT-5 / GPT-4o 的中转站。打开 中转站列表 按 codex 标签筛选,看 “GPT-5” 是否在它支持模型里。
环境变量
Codex CLI 读两个变量:
export OPENAI_BASE_URL="https://api.example.cn/v1" # 中转站 OpenAI 兼容地址
export OPENAI_API_KEY="sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx"
注意:是
OPENAI_BASE_URL,不是OPENAI_API_BASE(那是老版本变量名)。
模型选择
Codex CLI 默认走 gpt-5-codex(或 gpt-4.1-codex 等带 -codex 后缀的)。中转站不一定有这个完整名字。常见替代:
| Codex 默认 | 中转站常用替代 |
|---|---|
gpt-5-codex | gpt-5 |
gpt-4.1-codex | gpt-4o |
启动时用 codex --model gpt-5 显式指定,避开默认模型名匹配不上。
验证
codex
> 帮我写一个排序函数
如果秒出 Token 数 + 响应,OK。
常见错误
404 Not Found在请求/v1/responses— 中转站只实现了 chat completions,没实现 responses API。换一家或者降级到 chat completions。model_not_found— 用--model显式指定中转站文档里有的型号。- 流式响应延迟比官方明显高 — 中间链路延迟,能忍就忍,不能忍换更近的中转站。
Gemini CLI
Gemini CLI 默认接 Google AI Studio (generativelanguage.googleapis.com),国内访问受限。换中转站后能走稳定连接 + 跨模型一键切。
选什么中转站
中转站列表 按 gemini-cli 标签筛。你大概率会看到 PackyCode / AICodeMirror / Cubence / RightCode 这种综合型,它们都把 Gemini 2.5 Pro 和 Claude / GPT 接到同一个 key 后面。
环境变量
Gemini CLI 用:
export GEMINI_API_KEY="sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx"
export CODE_ASSIST_ENDPOINT="https://generativelanguage.api.example.cn" # 部分中转站要求
具体变量名以中转站文档为准 — Gemini CLI 比 Codex 在 endpoint 配置上更碎。常见做法是中转站文档给一段类似:
export GOOGLE_AI_GENERATIVE_LANGUAGE_ENDPOINT="https://your-relay.cn/v1beta"
或者干脆让你装 LiteLLM proxy 之类的中间层。
这是 Gemini CLI 还不够稳定的部分。如果你只是想用 Gemini 模型,更推荐通过 Cursor / Cline 这种通用 IDE 走中转站的 OpenAI 兼容路径(详见 Cursor 接入指南),比直接配 Gemini CLI 顺。
模型名
Gemini CLI 内置:
gemini-2.5-progemini-2.5-flashgemini-1.5-pro(legacy)
中转站文档列哪个就用哪个。模型名不匹配是最常见的报错原因。
切换多个中转站
如果你同时用 Claude Code / Codex CLI / Gemini CLI / Cursor,每次手改环境变量很烦。推荐:
- cc-switch — 桌面 GUI,统一切 5 个 CLI 的配置
- 自己写个
~/bin/use-relay.sh脚本,参数是中转站名
下一步
- 第一次跑通后查中转站控制台,确认调用记录 + token 计费正确
- 详见 中转站避坑指南 — Codex / Gemini 中转的”模型阉割”问题尤其常见