chat01.ai可以在codex中使用吗
Criado em: 20 de abril de 2026
Respondido usando GPT-5.4 Thinking por Chat01
Criado em: 20 de abril de 2026
Respondido usando GPT-5.4 Thinking por Chat01
chat01.ai可以在codex中使用吗
可以,但不是直接“官方内置支持 chat01.ai”,而是要看你用的是哪种 Codex:
1. 如果你说的是 Codex CLI:大概率可以。
OpenAI 的 Codex 支持自定义 model provider / base URL,所以只要 chat01.ai 提供的是 OpenAI-compatible API,就可以通过自定义 base_url 接进去。OpenAI 文档明确写了 Codex 支持自定义 provider,也支持直接改 openai_base_url。(OpenAI Developers)
2. 如果你说的是 ChatGPT 里的 Codex / Codex App / IDE 插件:不一定能直接把 chat01.ai 当模型后端接入。
官方文档里我看到的是:Codex App 支持通过 MCP 连接外部工具和上下文,但这和“把 chat01.ai 当底层模型提供商”不是一回事。(OpenAI Developers)
另外,chat01.ai 官网页面显示它有 “API”,并且它自己的一些页面也在讨论 “OpenAI-compatible API / 自定义 base URL” 这种接法,但这些不是我会当成强官方保证的来源,所以更稳妥的说法是:理论上可接,前提是它真的暴露了兼容接口并给你可用的 API key / base URL。 (chat01.ai)
你如果是想在 Codex CLI 里试,通常思路会是这种:
toml# ~/.codex/config.toml model = "你在 chat01.ai 可用的模型名" model_provider = "chat01" [model_providers.chat01] name = "chat01" base_url = "https://你的-chat01-api-base-url" env_key = "CHAT01_API_KEY"
或者在某些场景下直接改内置 OpenAI provider 的 base URL。OpenAI 文档也提到这条路。(OpenAI Developers)
结论就是:
/v1/chat/completions 或 /v1/responses 接口如果你愿意,我可以直接给你一份 可粘贴的 Codex CLI 配置模板。