一、如果你是 Docker 部署(最常见)
找到你之前的docker-compose.yml,把environment部分改成下面:
yaml
environment: - TZ=Asia/Shanghai - LLM_PROVIDER=openai - LLM_BASE_URL=http://host.docker.internal:11434/v1 - LLM_API_KEY=ollama - LLM_MODEL=deepseek-coder:6.7bhost.docker.internal:容器访问本机 Ollama 的固定地址(Windows/Mac 自带,Linux 需额外配置)LLM_API_KEY:随便填ollama即可,本地不需要真实密钥LLM_MODEL:换成你本地ollama list里已有的模型名
然后重启容器:
bash
运行
docker-compose down docker-compose up -d二、如果你是 二进制 / 本地安装(改配置文件)
1. 找到配置文件
默认路径:
- Linux/Mac:
~/.openclaw/openclaw.json - Windows:
C:\Users\你的用户名\.openclaw\openclaw.json
先备份:
bash
运行
cp ~/.openclaw/openclaw.json ~/.openclaw/openclaw.json.bak2. 替换 models.providers 部分
在openclaw.json里找到"models",改成:
json
{ "models": { "providers": { "ollama": { "baseUrl": "http://127.0.0.1:11434/v1", "apiKey": "ollama-local", "api": "openai-completions", "models": [ { "id": "deepseek-coder:6.7b", "name": "DeepSeek Coder 6.7B" } ] } }, "defaultModel": "ollama/deepseek-coder:6.7b" } }3. 重启 OpenClaw
bash
运行
openclaw gateway restart三、UI 界面快速配置(不用改文件)
- 浏览器打开:http://localhost:8000(或你的网关地址)
- 右上角设置 → 模型配置 → 添加 / 选择 Ollama
- 地址填:
http://127.0.0.1:11434 - 模型名填:
deepseek-coder:6.7b(你本地有的) - 点测试连接,成功后保存
四、验证是否成功
- 确保 Ollama 已启动:
ollama run deepseek-coder:6.7b - 在 OpenClaw 里发一句:
你好 - 能正常回复,就是对接成功
五、常见坑
- Linux Docker 连不上 Ollama:把
host.docker.internal换成你本机局域网 IP(如192.168.1.100) - 模型名写错:用
ollama list核对本地模型名,必须完全一致