模型推荐
2026年 OpenClaw 最佳 Ollama 本地模型推荐(针对工具调用 / Agent 任务)
2026-02-03 OpenClaw Community
OpenClaw 作为 Agent 框架,对模型的 function/tool calling 稳定性、长上下文处理、避免循环或幻觉的要求非常高。小模型(<14B)容易出问题,社区共识是至少从 14B–32B 开始,32B+ 才比较可靠。
当前最推荐的 Ollama 模型排行(2026年社区实测共识)
-
Qwen3 系列 / Qwen3-Coder(首推)
- qwen3-coder:32b 或 qwen3:32b-instruct
- 为什么最强?工具调用极稳(几乎不乱调用、不忘参数)、中文表现顶级、Agent 任务突出、性价比最高。
- 硬件需求:24–32GB VRAM(用 q4/q5 量化)
- 拉取命令:
ollama pull qwen3-coder:32b # 或更大版:ollama pull qwen3:72b-instruct-q4_K_M(需 48GB+ VRAM)
-
GLM-4.7-Flash / GLM-4.7 系列
- 30B 级别最强之一,工具调用非常精准(很多人觉得比同级 Qwen 更听话)。
- 特别适合 coding + 系统操作任务。
- 缺点:超长对话偶尔会稍迷失(因人而异)。
- 拉取:
ollama pull glm-4.7-flash
-
GPT-OSS 系列
- gpt-oss:20b / gpt-oss:120b(硬件允许时用大版)
- 专为 Agent 任务设计,工具调用干净、推理能力强。
- 实测 20B 版已很稳,120B 是顶级但吃资源。
- 拉取:
ollama pull gpt-oss:20b(或查最新 tag)
-
DeepSeek-R1 / DeepSeek-Coder-V2
- 推理和 coding 极强,工具使用也很优秀。
- 适合需要大量逻辑判断的任务。
- 拉取:
ollama pull deepseek-r1:32b或 deepseek-coder 相关变体
-
Llama 3.3:70b(或 Llama 3.2/3.1 的工具强化版)
- 通用性高,Meta 最新 SOTA 级别,工具支持不错。
- 硬件够强(48GB+ VRAM)的话是安全选择。
- 拉取:
ollama pull llama3.3:70b
快速选择表(根据你的硬件)
| 你的 VRAM | 推荐入门模型 | 预期表现 | 备注 |
|---|---|---|---|
| 8–16GB | qwen3-coder:14b 或 glm-4.7-flash | 勉强可用~不错 | 小模型易循环,需耐心调 prompt |
| 24–32GB | qwen3-coder:32b / glm-4.7 | 强烈推荐 | 大多数人的甜蜜点 |
| 40GB+ | qwen3:72b / gpt-oss:120b / llama3.3:70b | 顶级 | 接近云端强模型 |
| Mac Studio / M1 Max+ | Qwen 系列 或 GLM(Apple Silicon 优化好) | 优秀 | 避开过大模型 |
实用小技巧(让本地模型更稳定)
- 温度(temperature):设为 0 或 0.1–0.2,避免胡思乱想
- 上下文长度:OpenClaw 经常用超长 prompt,优先选 32k+ 上下文的模型(Qwen3、GLM-4.7 支持优秀)
- 工具参数乱掉:检查
~/.openclaw/workspace/TOOLS.md,部分模型需手动改 "cmd" → "command" 等关键词(常见 bug) - 速度慢 → 用 q4_K_M / q5_K_M 量化版,精度损失小但速度快很多
- 最稳组合:主模型用 qwen3-coder:32b,备用放 glm-4.7-flash,双模型切换几乎覆盖所有场景
目前社区最常见的“本地神队”是 qwen3-coder + glm-4.7-flash 搭配,几乎无死角。