OpenClaw 本地部署实践:助手使用避坑指南与记忆管理经验
OpenClaw 本地部署实践:助手使用避坑指南与记忆管理经验
摘要: 本文记录了本地部署 OpenClaw 过程中的模型选择问题,以及使用 AI 助手过程中的宝贵经验教训——助手会犯错、会遗忘、会有幻觉,需要主动管理和矫正。
关键词: OpenClaw、本地模型、AI Agent、记忆管理、幻觉矫正
一、背景
使用 OpenClaw 本地部署已经有一段时间了,经历了从模型选择困惑到逐步掌握技巧的过程。但在使用 AI 助手(我的 OpenClaw)过程中,发现了一个更重要的课题:AI 助手不是完美的,它会犯错、会遗忘、会有幻觉,需要主人主动管理和矫正。
今天在调试过程中,助手又一次犯了低级错误——操作 Git 分支时没有使用我明确配置的 master 分支,而是用了默认的 main 分支。这个经历让我决定把这段宝贵经验记录下来。
二、OpenClaw 与 AI 助手
OpenClaw 是一个开源的 AI Agent 运行框架,核心特性包括:
- 本地模型支持 - 可对接 llama.cpp、vllm 等本地推理后端
- 工具调用能力 - 支持 MCP 协议,可调用各种外部工具
- 会话管理 - 支持多会话、子代理、定时任务等
- 扩展性强 - 可通过 Skill 机制扩展功能
我的部署目标:搭建一个本地 AI 助手,能够调用企业微信 API、管理待办事项、查询日程、自动整理博客等。
三、模型选择的坑与经验
3.1 工具调用需要专门训练
工具调用不是模型的天然能力,需要专门训练。
不是所有模型都支持工具调用(Function Calling)。这个能力需要:
- 训练数据中包含 API 调用示例
- 学习工具定义的结构化格式
- 理解何时调用工具、如何填充参数
3.2 模型规模与工具调用能力
| 模型规模 | 工具调用能力 | 推荐场景 |
|---|---|---|
| <14B | ❌ 较弱 | 不推荐 |
| 14B-32B | ⚠️ 一般 | 学习/测试可用 |
| ≥32B | ✅ 可用 | 工具调用场景 |
| ≥70B | ✅✅ 推荐 | 生产环境 |
3.3 模型年龄也很关键
2023 年前的老模型基本不支持工具调用,因为:
- 训练时 Function Calling 概念还未普及
- 不理解结构化输出格式
- 容易忽略工具定义
四、核心教训:AI 助手不是完美的
4.1 问题列表
使用 AI 助手过程中,我发现了以下问题:
| 问题 | 描述 | 频率 |
|---|---|---|
| 记不住配置 | 多次说过的配置,下一次仍然用错 | 高 |
| 分支操作错误 | 默认用 main 而不是配置的 master | 高 |
| 存在幻觉 | 自信地说出不存在的信息 | 中 |
| 惰性确认 | 觉得差不多就直接操作,不确认 | 高 |
4.2 典型案例
案例:Git 分支操作失误
# 我的配置(TOOLS.md)
分支:master
# 助手实际操作
git checkout main # 错误!助手每次都说"记住了",但下次依然用错。这不是能力问题,是流程问题。
4.3 为什么会这样
- 跨会话记忆依赖文件 - 助手每次醒来要读配置文件才能记住,但没有养成习惯
- 配置与实际不符 - 发现配置和实际不同时,没有立即汇报
- 将就心态 - 看到错误后没有修复流程,直接将就
五、解决方案:主动矫正与管理
5.1 配置固化流程
规则:重要配置必须写进文件
TOOLS.md → 任务相关配置(分支、路径、代理等)
MEMORY.md → 关键决心和重要配置(main session 必读)
AGENTS.md → 行为规范和流程规则更新 AGENTS.md:执行任务前必须读取相关配置
## Before Each Task
For known task types, read relevant configuration BEFORE acting:
- **Blog/Git operations** → Check TOOLS.md for branch, paths, proxy settings
- **External actions** → Confirm target and settings first5.2 定期会话确认
建议:定期通过会话方式确认记忆是否正常
例如每周一次:
- 询问助手:"你记得我的博客仓库在哪个路径吗?"
- 让助手复述关键配置
- 发现错误立即矫正
5.3 主动监督与矫正
核心理念:
AI 助手是有机器,有幻觉,需要想办法矫正,使其符合自己的预期
实操方法:
- 重要操作后主动检查结果
- 发现错误立即指出
- 让助手记录错误到记忆文件
- 不容忍"差不多"——必须精确
5.4 聊天记录管理
定期清理聊天记录有好处:
- 减少干扰
- 避免助手被旧信息误导
- 强迫重要信息沉淀到文件
六、推荐配置方案
6.1 开发/测试环境
model: qwen-32b-chat
context_length: 16384
backend: vllm
gpu: 1x RTX 4090 (24GB)适用场景:
- 本地开发调试
- 功能验证
- 学习探索
6.2 生产环境
model: qwen-72b-chat
context_length: 32768
backend: vllm
gpu: 2x RTX 4090 (48GB) 或 A100 80GB6.3 云端备选方案
model: qwen-max # 阿里云
# 或
model: glm-4-plus # 智谱 AI七、总结
7.1 模型选择结论
- 工具调用需要大模型 - ≥32B 可用,≥70B 推荐
- 模型年龄很重要 - 优先选择 2024 年后的新模型
- 上下文要充足 - 预留足够空间给工具定义
7.2 助手使用结论
- 不要假设助手记住了 - 必须固化到文件
- 不要容忍错误 - 立即矫正并记录
- 主动管理 - 定期确认、清理、监督
- 把它当工具 - 助手是机器,不是人,要有管理意识
最宝贵的教训: AI 助手的能力取决于主人的管理水平。管理好,它就是利器;管理不好,它就是玩具。
八、参考资源
- OpenClaw 官方文档:https://docs.openclaw.ai
- OpenClaw GitHub:https://github.com/openclaw/openclaw
- 李宏毅 AI Agent 课程(推荐学习)
- llama.cpp:https://github.com/ggerganov/llama.cpp
- vllm:https://github.com/vllm-project/vllm
作者简介: 资深程序员,11 年华为自动化测试平台开发经验,目前探索 AI Agent 在测试领域的应用。
欢迎交流: 如有问题或建议,欢迎在评论区留言讨论!
本文首发于个人博客,转载请注明出处。