Key Takeaways
将 OpenClaw 接入本地 Ollama 服务,完成 Provider 配置、Agent 创建与端到端测试,跑通本地 AI 自动化基础链路。
连接 OpenClaw 与 Ollama:本地 AI Agent 链路实战
完成 Ollama 与 OpenClaw 的安装后,最后一步是把两者连接起来。本篇会给出最小可用配置和验证流程,让你快速跑通本地 AI Agent。
目标架构
plain text
OpenClaw
-> Ollama API (192.168.10.20:11434)
-> qwen2.5:14b
-> 返回结果1) 配置models,修改Openclaw配置文件 ~/.openclaw/openclaw.config
json
models: {
mode: 'merge',
providers: {
ollama: {
baseUrl: 'http://192.168.10.20:11434/v1',
apiKey: 'ollama-local',
api: 'openai-completions',
models: [
{
id: 'qwen2.5:14b',
name: 'Qwen-14b',
api: 'openai-completions',
reasoning: false,
input: [
'text',
],
cost: {
input: 0,
output: 0,
cacheRead: 0,
cacheWrite: 0,
},
contextWindow: 32768,
maxTokens: 32768,
},
],
},
'custom-192-168-10-20-11434': {
baseUrl: 'http://192.168.10.20:11434/v1',
apiKey: 'ollama-local',
api: 'openai-completions',
models: [
{
id: 'qwen2.5:14b',
name: 'qwen2.5:14b (Custom Provider)',
reasoning: false,
input: [
'text',
],
cost: {
input: 0,
output: 0,
cacheRead: 0,
cacheWrite: 0,
},
contextWindow: 16000,
maxTokens: 4096,
},
],
},
},
},核心要点是 Host 与 Model 必须和 Ollama 实际可用值一致。
2) 配置agents
json
agents: {
defaults: {
model: {
primary: 'custom-192-168-10-20-11434/qwen2.5:14b',
},
models: {
'openai-codex/gpt-5.4': {},
'custom-192-168-10-20-11434/qwen2.5:14b': {},
},
workspace: '/root/.openclaw/workspace',
compaction: {
mode: 'safeguard',
},
maxConcurrent: 4,
subagents: {
maxConcurrent: 8,
},
},
},建议先保持默认参数,先验证链路稳定,再做提示词或工具扩展。
3) 端到端测试
输入测试问题:
plain text
请解释本地运行 LLM 的优势与限制。如果你看到模型正常回复,则表示链路打通:
plain text
OpenClaw -> Ollama API -> qwen2.5:14b -> Response常见问题排查
- 连接失败:先确认
ollama serve是否在线,以及127.0.0.1:11434是否可访问。 - 模型不存在:执行
ollama list检查本地模型,必要时重新ollama pull qwen2.5:14b。 - 响应慢:优先关注本机 CPU/内存占用,必要时换更轻模型或增加硬件资源。
小结
你已经完成从模型服务到 Agent 编排的本地闭环。下一步可以把工具调用、抓取能力(如 web_fetch/web_search)和代理能力接入,扩展成完整自动化工作流。