Key Takeaways
面向 OpenClaw 新手的入门教程:在 Ubuntu 安装 Ollama、拉取 Qwen2.5:14B 并完成本地验证,为后续接入 OpenClaw 做准备。
Ubuntu 安装 Ollama:本地运行 OpenClaw 的第一步
想在本地跑通 OpenClaw + 大模型,第一步通常不是先配 Agent,而是先把本地模型服务稳定起来。本篇会用 Ubuntu 完成 Ollama 安装、服务启动、模型下载与验证,确保你能得到一个可用的本地推理端点。
为什么先装 Ollama
在 OpenClaw 场景里,Ollama 充当的是模型推理服务层。你可以把它理解成「本地可调用的 LLM API」。
完成后你将获得:
- 一个可访问的本地接口:
http://127.0.0.1:11434 - 一个可运行的模型:
qwen2.5:14b - 一个可被 OpenClaw 直接接入的本地 Provider
1) 更新系统
bash
sudo apt update
sudo apt upgrade -y2) 安装 Ollama
使用官方安装脚本:
bash
curl -fsSL https://ollama.com/install.sh | sh安装完成后检查版本:
bash
ollama --version3) 启动 Ollama 服务
bash
ollama serve默认监听地址:
plain text
http://127.0.0.1:11434快速健康检查:
bash
curl http://127.0.0.1:114344) 拉取模型(Qwen2.5:14B)
bash
ollama pull qwen2.5:14b查看本地已安装模型:
bash
ollama list5) 运行一次模型验证
bash
ollama run qwen2.5:14b可以输入测试问题:
plain text
请解释什么是本地大语言模型。能正常返回内容就说明本地模型服务已经可用。
资源建议与排障提示
- 推荐内存:16GB 起步,32GB 体验更稳定
- 系统建议:Ubuntu 20.04+
- 若下载慢:优先检查网络与模型拉取稳定性
- 若 API 不通:确认
ollama serve进程仍在运行
小结
你已经完成 OpenClaw 本地化链路的第一步:在 Ubuntu 上安装并验证 Ollama。本系列下一篇会继续安装 OpenClaw,并连接到本地模型端点。