推荐模型
Codex 应用优先选择 GPT 系列模型,尤其是需要代码编辑、工具调用和长上下文的场景。
Deer Codex
Codex 类客户端更依赖 Responses API 的流式事件协议。Deer Codex 推荐为 Codex 应用选择 GPT 系列模型,并在客户端配置 OpenAI 兼容供应商、Base URL 和密钥。
model = "gpt-5.4" disable_response_storage = true model_context_window = 1000000 model_auto_compact_token_limit = 900000 model_reasoning_effort = "xhigh" [model_providers.OpenAI] name = "OpenAI" base_url = "https://www.codexopenai.cloud/v1" wire_api = "responses" requires_openai_auth = true
复杂编程任务建议使用更强的 GPT 模型和合适的推理强度;普通问答、摘要和轻量任务可以按需选择更经济的模型。
Codex 应用优先选择 GPT 系列模型,尤其是需要代码编辑、工具调用和长上下文的场景。
Codex Desktop 和 Codex CLI 推荐使用 /v1/responses,而不是只支持 chat/completions 的普通通道。
如果出现 response.completed 缺失或流式断开,通常是上游没有完整支持 Responses API。