chat01.ai可以在codex中使用吗

생성일: 2026년 4월 20일

답변에 사용된 모델 GPT-5.4 Thinking by Chat01

질문

chat01.ai可以在codex中使用吗

사고

undefined

사고

Thought for 11s

답변

可以,但不是直接“官方内置支持 chat01.ai”,而是要看你用的是哪种 Codex:

1. 如果你说的是 Codex CLI:大概率可以。
OpenAI 的 Codex 支持自定义 model provider / base URL,所以只要 chat01.ai 提供的是 OpenAI-compatible API,就可以通过自定义 base_url 接进去。OpenAI 文档明确写了 Codex 支持自定义 provider,也支持直接改 openai_base_url。(OpenAI Developers)

2. 如果你说的是 ChatGPT 里的 Codex / Codex App / IDE 插件:不一定能直接把 chat01.ai 当模型后端接入。
官方文档里我看到的是:Codex App 支持通过 MCP 连接外部工具和上下文,但这和“把 chat01.ai 当底层模型提供商”不是一回事。(OpenAI Developers)

另外,chat01.ai 官网页面显示它有 “API”,并且它自己的一些页面也在讨论 “OpenAI-compatible API / 自定义 base URL” 这种接法,但这些不是我会当成强官方保证的来源,所以更稳妥的说法是:理论上可接,前提是它真的暴露了兼容接口并给你可用的 API key / base URL。 (chat01.ai)

你如果是想在 Codex CLI 里试,通常思路会是这种:

toml
# ~/.codex/config.toml model = "你在 chat01.ai 可用的模型名" model_provider = "chat01" [model_providers.chat01] name = "chat01" base_url = "https://你的-chat01-api-base-url" env_key = "CHAT01_API_KEY"

或者在某些场景下直接改内置 OpenAI provider 的 base URL。OpenAI 文档也提到这条路。(OpenAI Developers)

结论就是:

  • Codex CLI:可以尝试,成功率取决于 chat01.ai 的 API 兼容度
  • Codex App / 网页版 / IDE 扩展:通常不能简单理解成“随便换成 chat01.ai 后端”
  • 最关键要确认的是 chat01.ai 是否提供:
    • API key
    • 明确的 base URL
    • 兼容的 /v1/chat/completions/v1/responses 接口

如果你愿意,我可以直接给你一份 可粘贴的 Codex CLI 配置模板

이 Q&A 공유하기