本地模型配置

本地模型配置

本地模型适合隐私/成本控制/弱网场景,但建议保留一个云端 provider 作为兜底(例如把云端放在 fallbacks 里)。

快速开始:Ollama

  1. 安装 Ollama 并拉取模型:
ollama pull llama3.3
  1. 让 OpenClaw 识别本地 Ollama(任意值即可):
export OLLAMA_API_KEY="ollama-local"
# 或写入配置文件:
openclaw config set models.providers.ollama.apiKey "ollama-local"
  1. 选择默认模型:
{
  agents: {
    defaults: {
      model: { primary: "ollama/llama3.3" },
    },
  },
}
  1. 验证:
openclaw models list
openclaw models status

自定义地址(可选)

如果 Ollama 运行在其他主机/端口,使用显式 provider 配置(注意需要包含 /v1):

{
  models: {
    providers: {
      ollama: {
        baseUrl: "http://localhost:11434/v1",
        apiKey: "ollama-local",
      },
    },
  },
}

下一步