vLLM
vLLM 可通过 OpenAI 兼容的 HTTP API 提供推理服务(例如 /v1/models、/v1/chat/completions)。
OpenClaw 可以通过 openai-completions API 连接 vLLM。
快速开始
- 启动 vLLM(确保暴露
/v1端点),例如:
http://127.0.0.1:8000/v1
2.(可选)设置环境变量(如果你的服务不强制鉴权,任意值也可用于启用发现流程):
export VLLM_API_KEY="vllm-local"- 设置默认模型:
{
agents: {
defaults: {
model: { primary: "vllm/your-model-id" },
},
},
}连接性检查
curl http://127.0.0.1:8000/v1/models