🏛️ 产品定位与架构 01
三者定位截然不同:Claude Code 是 Anthropic 官方编码工具,OpenClaw 是多平台消息网关先驱,Hermes Agent 是后来者的自学习闭环。
| 维度 | ⚡ Claude Code | 🦞 OpenClaw | 🧠 Hermes Agent |
|---|---|---|---|
| 开发者 | Anthropic(官方) | Peter Steinberger(社区) | Nous Research |
| 本质 | 终端/IDE 编码 Agent | 多平台消息网关 + Agent | 多平台网关 + 自学习 Agent |
| 技术栈 | TypeScript CLI | Node.js + Rust (Pi) | Python CLI + Gateway |
| 开源 | 闭源 | MIT 开源 | MIT 开源 |
| 模型绑定 | 仅 Anthropic Claude | 任意(Claude/GPT/DeepSeek/GLM/Ollama) | 任意(200+ via OpenRouter) |
| 交互方式 | 终端 / IDE / Web | 20+ 聊天平台 | 6+ 平台 + CLI |
| 设计哲学 | 「最强编码刀」 | 「最广连接网」 | 「唯一会自己长大的 Agent」 |
| GitHub Stars | N/A(闭源) | 310K+ | ~30K(2 个月) |
生态规模对比
平台接入覆盖
💾 记忆系统架构 02
三者记忆架构差异巨大——从「结构化笔记卡」到「向量金字塔」再到「闭环自学习」,构成一条清晰的进化线。
Claude Code — 结构化笔记卡
~/.claude/projects/<hash>/memory/
├── MEMORY.md ← 索引(≤200行,始终加载)
├── user_role.md ← 单条记忆
├── feedback_xxx.md ← 单条记忆
└── project_xxx.md ← 单条记忆
━━━ 工作流 ━━━━━━━━━━━━━━━━━━━
对话开始 → MEMORY.md 加载到上下文
→ 发现相关 → Read 单个文件
→ 写入时机:Agent 主动 / /remember
→ 无搜索,靠标题浏览
简单透明
硬上限控制
无语义搜索
OpenClaw — 四层金字塔
~/.openclaw/workspace/
├── SOUL.md L1 ← 人格/语气(始终注入)
├── USER.md L2 ← 用户偏好(始终注入)
├── MEMORY.md L3 ← 长期记忆(持续膨胀!)
├── HEARTBEAT.md ← 心跳检查清单
├── AGENTS.md ← 工作区指令
~/.openclaw/memory/
└── <cid>.sqlite ← 向量索引
━━━ 工作流 ━━━━━━━━━━━━━━━━━━━
请求 → 四层 全部注入 system prompt
→ 向量搜索 召回历史记忆
→ 写入:Agent 自动 / /save
→ 心跳机制定期自检
向量搜索
心跳自检
记忆膨胀
安全风险
Hermes — 闭环自学习
~/.hermes/
├── MEMORY.md ← 继承 OpenClaw 格式
├── USER.md ← 用户偏好
├── SOUL.md ← 人格定义
└── sessions.db ← FTS5 全文索引
━━━ 闭环学习 ━━━━━━━━━━━━━━━━━━
任务完成 → 自动提炼 → 写入记忆
↑ ↓
FTS5 全文检索 ← Honcho 用户建模
↑ ↓
召回历史 理解"你是谁"
↑ ↓
Periodic Nudge → 自我提醒持久化
FTS5 全文搜索
用户建模
自动学习
黑盒度高
🔬 记忆系统详解 03
逐维度拆解记忆系统的存储、检索、写入和用户建模机制。
| 维度 | ⚡ Claude Code | 🦞 OpenClaw | 🧠 Hermes Agent |
|---|---|---|---|
| 架构模式 | 文件型笔记卡 | 四层金字塔 + 向量索引 | 闭环学习 + FTS5 + 用户建模 |
| 存储格式 | Markdown 文件 | Markdown + SQLite 向量 | Markdown + SQLite FTS5 |
| 检索方式 | 索引浏览(无搜索) | 向量搜索 | 全文搜索 + LLM 摘要 |
| 用户建模 | 无 | 无 | Honcho 辩证建模 |
| 自动持久化 | 否(Agent 主动判断) | 是(+ 心跳) | 是(+ Nudge 自检) |
| 跨会话检索 | 仅 MEMORY.md | 向量搜索历史会话 | FTS5 全文检索所有历史 |
| 透明度 | 高 所有文件可读可编辑 | 中 SQLite + Markdown | 低 自动学习黑盒 |
| 增长控制 | 200 行硬上限 | 无自动压缩,持续膨胀 | LLM 摘要自动压缩 |
记忆系统雷达图
记忆始终注入的固定开销(tokens)
🧩 Skill 系统架构 04
从「预设提示词库」到「插件市场」再到「自生长的程序性记忆」——三者对 Skill 的理解完全不同。
Claude Code — 专家提示词库
- • Skill = 结构化提示词 (SKILL.md)
- •
/skill-name展开为完整 prompt - • 创建方式:手动
- • 无官方市场,无自改进
- • 调用时才注入,不用不花 token
OpenClaw — 插件市场生态
- • 三层优先级:Built-in > ClawHub > User
- • ClawHub 市场 13,000+ 技能
- • 创建方式:手动
- • 已安装技能始终注入 system prompt
- • ~20% 已标记为恶意
Hermes — 自生长程序性记忆
- • 解决问题后自动生成 Skill
- • Skill 在使用中自改进
- • 兼容 agentskills.io 开放标准
- • Skills Hub 在线分享
- • 按需加载,不预注入
📊 Skill 系统详解 05
逐维度对比 Skill 系统的创建、分发、安全和生态。
| 维度 | ⚡ Claude Code | 🦞 OpenClaw | 🧠 Hermes Agent |
|---|---|---|---|
| 创建方式 | 手动 | 手动 | 自动 + 手动 |
| 自改进 | 否 | 否 | 是 |
| 注入策略 | 按需加载 | 始终注入 | 按需加载 |
| 市场/生态 | 无官方市场 | ClawHub (13K+) | Skills Hub |
| 开放标准 | 自有格式 | 自有格式 | agentskills.io |
| 安全审核 | 无 | 白名单 + 审核工具 | 内置沙箱 |
| 核心差异 | 提示词注入 | 插件市场 | 自生长程序性记忆 |
Skill 生态规模对比
Skill 注入策略对 Token 的影响
💰 Token 消耗深度分析 06
记忆和 Skill 对 token 消耗的影响是三者成本差异的根本原因。
每次 API 调用的 Token 构成公式
总 Token = System Prompt + 记忆注入 + Skill 注入 + 当前对话 + Tool 结果 + LLM 输出
↑ 固定开销 ↑ 记忆系统决定 ↑ Skill 系统决定 ↑ 用户行为决定
~11K
Claude Code
固定开销/请求
固定开销/请求
~29K
OpenClaw
固定开销/请求
固定开销/请求
~11K
Hermes Agent
固定开销/请求
固定开销/请求
~40%
OpenClaw
固定税占比
固定税占比
| Token 来源 | ⚡ Claude Code | 🦞 OpenClaw | 🧠 Hermes Agent |
|---|---|---|---|
| System Prompt(内置) | 3-5K | 5-10K | 6K |
| 人格/指令文件 | 1-3K (CLAUDE.md) | 1-5K (SOUL.md) | 1-5K (SOUL.md) |
| 用户偏好 | — | 0.5-3K (USER.md) | 0.5-3K (USER.md) |
| 记忆索引/内容 | 2-4K (MEMORY.md) | 2-20K (MEMORY.md) | 2-5K (+Honcho 画像) |
| 心跳/自检 | — | 1-5K (HEARTBEAT.md) | 0.5-2K (Nudge) |
| Skill 描述(已安装) | 0(按需) | 3-10K+(始终) | 0(按需) |
| 记忆搜索结果 | 0.5-2K(Read 文件) | 1-5K(向量结果) | 1-3K(FTS5+LLM 摘要) |
| 始终注入合计 | ~11K (30%) | ~29K (40%) | ~11K (22%) |
单次完整任务 Token 消耗对比(「重构认证模块」)
固定开销 Token 构成饼图
成本控制策略对比
| 策略 | ⚡ Claude Code | 🦞 OpenClaw | 🧠 Hermes Agent |
|---|---|---|---|
| 预算上限 | 无内置(上下文窗口天然限制) | maxCostPerDay / maxTokensPerDay | 未明确提及 |
| 模型降级 | 不可选(绑定 Anthropic) | Fallback 链(Claude→Haiku→DeepSeek) | /model 随时切换任意模型 |
| Prompt Caching | 原生 90% 折扣 | 取决于模型提供商 | 取决于模型提供商 |
| 记忆瘦身 | 手动删除 MEMORY.md 条目 | memory index 重建 | LLM 自动摘要 |
| Skill 减负 | 不调用就不耗 token | 必须卸载不用的 Skill | 按需加载,无需卸载 |
| 上下文压缩 | 自动压缩历史 | 无内置压缩 | /compress 手动触发 |
| 成本失控风险 | 低 | 高 | 中 |
Token 效率核心结论:Claude Code 是「按需取用」——不用就不花 token,用 Prompt Caching 进一步打折;OpenClaw 是「全量预加载」——装了多少 Skill、记了多少事,每次请求都要付固定税,24/7 运行下成本极易失控;Hermes Agent 介于两者之间——按需加载 Skill + LLM 摘要压缩记忆召回,但自学习闭环(Nudge + Auto-skill)会产生额外的「隐形 API 调用」。
⚙️ Agent 执行循环 07
三者的 Agent Loop 从简单到复杂,决定了任务执行方式和并行能力。
Claude Code
用户输入
↓
System Prompt (含 CLAUDE.md + MEMORY.md)
↓
LLM 推理
↓
Tool 调用 (Read/Write/Edit/Bash/Grep/Glob)
↓
结果返回 → 继续推理 → 输出
特点:单线程 · 单会话 · 无后台
自动压缩上下文 · Prompt Caching
OpenClaw
消息平台 (Telegram/Discord/微信...)
↓
Gateway (路由 + 会话管理)
↓
四层记忆注入 → LLM 推理
↓
Skill / Tool 执行
↓
响应回平台 → 记忆更新
特点:多平台 · 多会话 · 心跳 · 子代理
DM配对 · 群组沙箱 · 工具白名单
Hermes Agent
消息平台 / CLI
↓
Gateway
↓
FTS5 搜索 + Honcho 用户建模
↓
LLM 推理 → Skill/Tool 执行
↓
经验提炼 → 自动写 Skill + 持久化
↓
Nudge 自检 → 响应回平台
特点:学习闭环 · 并行子代理 · RL 训练
Atropos RL · 轨迹导出微调 · RPC
🎯 选型指南 08
根据你的具体需求,选择最合适的工具。
| 你的需求 | 推荐 | 理由 |
|---|---|---|
| 纯编码(写代码、调试、重构) | Claude Code | 编码质量最高,模型最懂代码 |
| 全能生活助理(消息、邮件、日程) | OpenClaw | 平台接入最广,生态最大 |
| 让 AI 越来越懂你、自动积累经验 | Hermes Agent | 唯一有学习闭环的 |
| 多平台 + 编码组合 | OpenClaw + Claude Code | 社区有桥接 Skill |
| ML 研究 / 训练数据生成 | Hermes Agent | Atropos RL + 轨迹导出 |
| 数据敏感、完全离线 | OpenClaw 或 Hermes | 自托管 + 本地模型 |
| 成本敏感 | Claude Code | Prompt Caching 90% 折扣 + 按需加载 |
| 24/7 无人值守 | OpenClaw | 心跳 + Cron + 多平台推送 |
一句话总结:Claude Code 是最强编码刀,OpenClaw 是最广连接网,Hermes Agent 是唯一会自己长大的 Agent。三者的记忆和 Skill 系统从简单到复杂恰好构成一条进化线:静态笔记 → 向量搜索 → 自学习闭环。