摘要:使用 Claude、GPT 等云端 API 运行 OpenClaw 需要持续付费,且数据需上传至第三方。Ollama 是当前最流行的本地大模型运行框架,支持 Mac、Linux、Windows,一键拉取 qwen3、deepseek-r1、llama3 等开源模型,完全免费、数据不出本机。OpenClaw 官方原生支持 Ollama 作为后端,配置简单。本文详细讲解 Ollama 安装、ollama launch openclaw 一键部署、模型选择(工具调用需 14B+、推荐 qwen2.5-coder/deepseek-r1)、常见问题排查,以及混合使用场景:本地 Ollama 做主、云端 API 做备选时,配合 GreenVPN 千兆带宽加速云端访问。
为什么选择 Ollama 本地模型
Ollama 由前 Docker 团队成员开发,将大模型以「容器化」方式本地运行,支持 macOS(含 Apple Silicon)、Linux、Windows。一条 ollama run qwen3 即可拉取并启动模型,无需复杂配置。优势包括:
- 零 API 费用: 模型下载后无限次调用,适合高频使用、预算有限的用户
- 隐私无忧: 对话、文件、上下文全部留在本机,不经过任何第三方服务器
- 离线可用: 无网络时仍可对话,适合出差、弱网环境
- 模型丰富: qwen3、deepseek-r1、llama3、mistral、codellama 等主流开源模型均支持
与 Claude、GPT 等云端 API 相比,Ollama 的劣势在于:模型能力略逊于顶级商用模型;工具调用(function calling)需选择支持该能力的模型;推理速度受本机硬件限制。但对于日常对话、代码辅助、文档总结等场景,qwen3、deepseek-r1 等模型已足够好用,且完全免费。
第一步:安装 Ollama
访问 ollama.com 下载对应系统安装包。macOS 为 dmg 安装包,Linux 可执行 curl -fsSL https://ollama.com/install.sh | sh,Windows 为 exe 安装程序。安装后终端执行 ollama --version 验证。首次运行 ollama run qwen3 会自动拉取模型,模型文件较大(7B 约 4GB,14B 约 8GB),需确保磁盘空间充足。
第二步:一键部署 OpenClaw + Ollama
OpenClaw 与 Ollama 官方合作,提供一条命令完成安装与配置:
该命令会:安装最新 OpenClaw、启动安装向导、自动选择 Ollama 作为后端、引导选择模型、配置消息通道(Telegram、Discord 等)。通常 5–10 分钟完成。若已安装 OpenClaw,可运行 openclaw onboard,在向导中选择「Skip Cloud」→「Select Ollama」。选择模型时,建议优先尝试 qwen3 或 qwen2.5-coder:14b,两者对中文与工具调用支持较好。模型首次加载会从 Ollama 服务器下载,需一定时间与带宽。
模型选择建议
OpenClaw 依赖模型的「工具调用」(function calling)能力执行技能。建议选择至少 14B 参数、支持 function calling 的模型:
- 编程优化: qwen2.5-coder:14b、qwen3-coder
- 中文最强: qwen3 系列、deepseek-r1、llama3.3-Chinese
- 综合能力: glm-4、mistral-nemo
8B 模型易出现工具调用错误,不推荐。验证 Ollama:ollama ps、curl http://127.0.0.1:11434/v1/models。
硬件要求与性能优化
Ollama 本地推理对硬件有一定要求。14B 模型建议至少 16GB 内存,32B 模型需 32GB+。Apple Silicon Mac 利用 Metal 加速,M1/M2/M3 运行 qwen3、deepseek-r1 表现良好;NVIDIA GPU 用户可设置 CUDA_VISIBLE_DEVICES 指定显卡。若内存不足,可启用 swap 或选择更小模型(如 qwen2.5:7b),但工具调用能力会下降。首次加载模型较慢,后续会缓存,响应会加快。
常见问题与排查
模型无法执行工具调用: 8B 及以下模型对 function calling 支持不佳,建议换用 qwen2.5-coder:14b、qwen3、deepseek-r1 等。检查 OpenClaw 配置中 baseUrl 是否指向 http://127.0.0.1:11434。
Telegram/Discord 无响应: 确认 Ollama 与 OpenClaw 均在运行;执行 ollama ps 查看模型是否已加载;重跑 ollama launch openclaw 可重置配置。
响应太慢: 本地推理受硬件限制,可尝试更小模型或租用 GPU 云服务器。混合方案下,复杂任务切到云端 Claude/GPT 时,配合 GreenVPN 千兆带宽可显著降低延迟。
Ollama 连接被拒绝: 确认 Ollama 服务已启动,curl http://127.0.0.1:11434/api/tags 应返回模型列表。若修改过端口,需在 OpenClaw 配置中同步更新 baseUrl。
技能与扩展
Ollama 本地模型同样支持 OpenClaw 的技能系统。你可安装 Gmail、Calendar、Bash、Browser 等技能,让本地 AI 执行查邮件、排日程、跑脚本、浏览网页等操作。部分技能依赖网络(如 Gmail API),在国内需配合 GreenVPN 确保稳定访问。技能数据与模型推理均在本地完成,隐私性优于纯云端方案。
Ollama 支持多模型并存,可同时拉取 qwen3、deepseek-r1、llama3 等,在 OpenClaw 配置中按需切换。例如日常对话用 qwen2.5:7b 省资源,编程任务切到 qwen2.5-coder:14b。模型文件存储在 ~/.ollama/models,定期清理不用的模型可释放磁盘空间。更新 Ollama:ollama update;更新模型:ollama pull qwen3 会拉取最新版本。OpenClaw 与 Ollama 解耦,更新任一方不会影响另一方。
混合方案:本地 + 云端 + GreenVPN
部分用户希望本地 Ollama 做主、云端 Claude/GPT 做备选(复杂任务时切换)。云端 API 在国内需稳定网络。GreenVPN 提供 1000Mbps 千兆直连、70+ 节点、稳定十年,可显著降低 API 延迟。安装 GreenVPN 并连接后,系统代理自动生效;或为 OpenClaw 单独设置 HTTP_PROXY、HTTPS_PROXY。即使用户以 Ollama 为主,安装 Gmail、Browser 等需要访问外网的技能时,同样需要稳定网络,GreenVPN 的千兆带宽可确保技能调用流畅无阻。
GreenVPN:云端 API 加速首选
即使用 Ollama 本地跑 OpenClaw,混合使用 Claude、GPT 时仍需要稳定网络。Gmail、Browser、Calendar 等技能访问外网 API 时,国内网络常超时。GreenVPN 千兆带宽、70+ 节点、稳定十年、30 天无理由退款,是 OpenClaw 用户的首选。无论纯本地还是混合方案,GreenVPN 都能确保需要网络访问的环节稳定流畅。
- ✅ 1000Mbps 千兆带宽,API 响应快 5 倍以上
- ✅ 70+ 节点自动选择最优路线
- ✅ 稳定运行十年,99.99% 可用性
- ✅ 30 天无理由退款,零风险试用