vLLM

vLLM 可通过 OpenAI 兼容的 HTTP API 提供推理服务(例如 /v1/models/v1/chat/completions)。 OpenClaw 可以通过 openai-completions API 连接 vLLM。

快速开始

  1. 启动 vLLM(确保暴露 /v1 端点),例如:
  • http://127.0.0.1:8000/v1

2.(可选)设置环境变量(如果你的服务不强制鉴权,任意值也可用于启用发现流程):

export VLLM_API_KEY="vllm-local"
  1. 设置默认模型:
{
  agents: {
    defaults: {
      model: { primary: "vllm/your-model-id" },
    },
  },
}

连接性检查

curl http://127.0.0.1:8000/v1/models