模型提供商

OpenClaw 模型提供商、本地模型与混合回退指南

很多 OpenClaw 的“安装问题”,本质上其实是模型问题:选哪个提供商更稳,哪种鉴权更安全,本地模型够不够用,以及额度或策略变化时如何优雅回退。

外部讨论里反复出现的需求

想用一页内容看明白 Codex OAuth、Anthropic API key、Ollama 的实际差异,而不是同时翻五个文档标签页。

需要本地优先或 hosted + local fallback 的可复制配置,而且不能把 tool calling 搞坏。

需要在 GPT-5 Codex 或其他高价模型开始烧额度前,就看懂配额和成本入口。

这个专题页会覆盖什么

按场景选提供商

前沿 hosted 模型适合稳定性优先,本地模型适合隐私和成本优先,混合 fallback 适合两者都要。真正的选择标准不是宣传语,而是输出质量、工具支持和运行边界。

OpenAI Codex Anthropic Ollama OpenRouter

OAuth、API Key 与策略风险

订阅鉴权看起来方便,但策略一变就容易踩坑。好的指南应该帮助用户判断什么时候选更稳的 API key 路径,怎么拆工作和个人账号,以及如何降低后续被踢下线的风险。

OAuth API Key 配置档 策略风险

本地与混合方案

很多用户想要 local-first,或者 hosted 主模型 + 本地回退。这不只是换个模型名,还涉及 base URL、原生 tool 支持以及 fallback 顺序是否可预测。

Ollama LM Studio Fallback Tool Calling

成本控制与用量可见性

用户关心哪些命令能看到 usage,哪里能看 quota,以及什么时候该把定时任务切到更便宜的模型。好的提供商内容应该把这些问题提前讲清楚。

Usage Tracking Quota Token 成本 模型路由

建议从这里开始

  1. 先选一个安全的默认提供商,再考虑第二个或第三个模型。
  2. 先决定你需要 API key、OAuth,还是本地运行时。
  3. 在接入常驻消息通道前,先配置好一个 fallback。
  4. 为每个启用的模型写清楚预期成本和失败时的回退方式。