本地模型配置
本地模型适合隐私/成本控制/弱网场景,但建议保留一个云端 provider 作为兜底(例如把云端放在 fallbacks 里)。
快速开始:Ollama
- 安装 Ollama 并拉取模型:
ollama pull llama3.3- 让 OpenClaw 识别本地 Ollama(任意值即可):
export OLLAMA_API_KEY="ollama-local"
# 或写入配置文件:
openclaw config set models.providers.ollama.apiKey "ollama-local"- 选择默认模型:
{
agents: {
defaults: {
model: { primary: "ollama/llama3.3" },
},
},
}- 验证:
openclaw models list
openclaw models status自定义地址(可选)
如果 Ollama 运行在其他主机/端口,使用显式 provider 配置(注意需要包含 /v1):
{
models: {
providers: {
ollama: {
baseUrl: "http://localhost:11434/v1",
apiKey: "ollama-local",
},
},
},
}