Deer Codex Logo Deer Codex
Codex API

给 Codex CLI 和 Codex Desktop 使用的 GPT 模型入口

Codex 类客户端更依赖 Responses API 的流式事件协议。Deer Codex 推荐为 Codex 应用选择 GPT 系列模型,并在客户端配置 OpenAI 兼容供应商、Base URL 和密钥。

Codex CLI 示例配置

model = "gpt-5.4"
disable_response_storage = true
model_context_window = 1000000
model_auto_compact_token_limit = 900000
model_reasoning_effort = "xhigh"

[model_providers.OpenAI]
name = "OpenAI"
base_url = "https://www.codexopenai.cloud/v1"
wire_api = "responses"
requires_openai_auth = true

复杂编程任务建议使用更强的 GPT 模型和合适的推理强度;普通问答、摘要和轻量任务可以按需选择更经济的模型。

推荐模型

Codex 应用优先选择 GPT 系列模型,尤其是需要代码编辑、工具调用和长上下文的场景。

推荐协议

Codex Desktop 和 Codex CLI 推荐使用 /v1/responses,而不是只支持 chat/completions 的普通通道。

排错重点

如果出现 response.completed 缺失或流式断开,通常是上游没有完整支持 Responses API。