AI Agent 三国杀

深度拆解 Claude Code、OpenClaw、Hermes Agent 三大系统的架构原理——聚焦记忆系统、Skill 生态与 Token 消耗效率

Claude Code 🦞 OpenClaw 🧠 Hermes Agent

🏛️ 产品定位与架构 01

三者定位截然不同:Claude Code 是 Anthropic 官方编码工具,OpenClaw 是多平台消息网关先驱,Hermes Agent 是后来者的自学习闭环。

维度 ⚡ Claude Code 🦞 OpenClaw 🧠 Hermes Agent
开发者Anthropic(官方)Peter Steinberger(社区)Nous Research
本质终端/IDE 编码 Agent多平台消息网关 + Agent多平台网关 + 自学习 Agent
技术栈TypeScript CLINode.js + Rust (Pi)Python CLI + Gateway
开源闭源MIT 开源MIT 开源
模型绑定仅 Anthropic Claude任意(Claude/GPT/DeepSeek/GLM/Ollama)任意(200+ via OpenRouter)
交互方式终端 / IDE / Web20+ 聊天平台6+ 平台 + CLI
设计哲学「最强编码刀」「最广连接网」「唯一会自己长大的 Agent」
GitHub StarsN/A(闭源)310K+~30K(2 个月)

生态规模对比

平台接入覆盖

💾 记忆系统架构 02

三者记忆架构差异巨大——从「结构化笔记卡」到「向量金字塔」再到「闭环自学习」,构成一条清晰的进化线。

Claude Code — 结构化笔记卡

~/.claude/projects/<hash>/memory/ ├── MEMORY.md ← 索引(≤200行,始终加载) ├── user_role.md ← 单条记忆 ├── feedback_xxx.md ← 单条记忆 └── project_xxx.md ← 单条记忆 ━━━ 工作流 ━━━━━━━━━━━━━━━━━━━ 对话开始 → MEMORY.md 加载到上下文 → 发现相关 → Read 单个文件 → 写入时机:Agent 主动 / /remember无搜索,靠标题浏览
简单透明 硬上限控制 无语义搜索

OpenClaw — 四层金字塔

~/.openclaw/workspace/ ├── SOUL.md L1 ← 人格/语气(始终注入) ├── USER.md L2 ← 用户偏好(始终注入) ├── MEMORY.md L3 ← 长期记忆(持续膨胀!) ├── HEARTBEAT.md ← 心跳检查清单 ├── AGENTS.md ← 工作区指令 ~/.openclaw/memory/ └── <cid>.sqlite ← 向量索引 ━━━ 工作流 ━━━━━━━━━━━━━━━━━━━ 请求 → 四层 全部注入 system prompt → 向量搜索 召回历史记忆 → 写入:Agent 自动 / /save → 心跳机制定期自检
向量搜索 心跳自检 记忆膨胀 安全风险

Hermes — 闭环自学习

~/.hermes/ ├── MEMORY.md ← 继承 OpenClaw 格式 ├── USER.md ← 用户偏好 ├── SOUL.md ← 人格定义 └── sessions.db ← FTS5 全文索引 ━━━ 闭环学习 ━━━━━━━━━━━━━━━━━━ 任务完成 → 自动提炼 → 写入记忆 ↑ ↓ FTS5 全文检索Honcho 用户建模 ↑ ↓ 召回历史 理解"你是谁" ↑ ↓ Periodic Nudge → 自我提醒持久化
FTS5 全文搜索 用户建模 自动学习 黑盒度高

🔬 记忆系统详解 03

逐维度拆解记忆系统的存储、检索、写入和用户建模机制。

维度 ⚡ Claude Code 🦞 OpenClaw 🧠 Hermes Agent
架构模式文件型笔记卡四层金字塔 + 向量索引闭环学习 + FTS5 + 用户建模
存储格式Markdown 文件Markdown + SQLite 向量Markdown + SQLite FTS5
检索方式索引浏览(无搜索)向量搜索全文搜索 + LLM 摘要
用户建模Honcho 辩证建模
自动持久化否(Agent 主动判断)是(+ 心跳)是(+ Nudge 自检)
跨会话检索仅 MEMORY.md向量搜索历史会话FTS5 全文检索所有历史
透明度 所有文件可读可编辑 SQLite + Markdown 自动学习黑盒
增长控制200 行硬上限无自动压缩,持续膨胀LLM 摘要自动压缩

记忆系统雷达图

记忆始终注入的固定开销(tokens)

🧩 Skill 系统架构 04

从「预设提示词库」到「插件市场」再到「自生长的程序性记忆」——三者对 Skill 的理解完全不同。

Claude Code — 专家提示词库

  • • Skill = 结构化提示词 (SKILL.md)
  • /skill-name 展开为完整 prompt
  • • 创建方式:手动
  • • 无官方市场,无自改进
  • • 调用时才注入,不用不花 token

OpenClaw — 插件市场生态

  • • 三层优先级:Built-in > ClawHub > User
  • • ClawHub 市场 13,000+ 技能
  • • 创建方式:手动
  • • 已安装技能始终注入 system prompt
  • • ~20% 已标记为恶意

Hermes — 自生长程序性记忆

  • • 解决问题后自动生成 Skill
  • • Skill 在使用中自改进
  • • 兼容 agentskills.io 开放标准
  • • Skills Hub 在线分享
  • • 按需加载,不预注入

📊 Skill 系统详解 05

逐维度对比 Skill 系统的创建、分发、安全和生态。

维度 ⚡ Claude Code 🦞 OpenClaw 🧠 Hermes Agent
创建方式手动手动自动 + 手动
自改进
注入策略按需加载始终注入按需加载
市场/生态无官方市场ClawHub (13K+)Skills Hub
开放标准自有格式自有格式agentskills.io
安全审核白名单 + 审核工具内置沙箱
核心差异提示词注入插件市场自生长程序性记忆

Skill 生态规模对比

Skill 注入策略对 Token 的影响

💰 Token 消耗深度分析 06

记忆和 Skill 对 token 消耗的影响是三者成本差异的根本原因。

每次 API 调用的 Token 构成公式

总 Token = System Prompt + 记忆注入 + Skill 注入 + 当前对话 + Tool 结果 + LLM 输出 ↑ 固定开销 ↑ 记忆系统决定 ↑ Skill 系统决定 ↑ 用户行为决定
~11K
Claude Code
固定开销/请求
~29K
OpenClaw
固定开销/请求
~11K
Hermes Agent
固定开销/请求
~40%
OpenClaw
固定税占比
Token 来源 ⚡ Claude Code 🦞 OpenClaw 🧠 Hermes Agent
System Prompt(内置)3-5K5-10K6K
人格/指令文件1-3K (CLAUDE.md)1-5K (SOUL.md)1-5K (SOUL.md)
用户偏好0.5-3K (USER.md)0.5-3K (USER.md)
记忆索引/内容2-4K (MEMORY.md)2-20K (MEMORY.md)2-5K (+Honcho 画像)
心跳/自检1-5K (HEARTBEAT.md)0.5-2K (Nudge)
Skill 描述(已安装)0(按需)3-10K+(始终)0(按需)
记忆搜索结果0.5-2K(Read 文件)1-5K(向量结果)1-3K(FTS5+LLM 摘要)
始终注入合计 ~11K (30%) ~29K (40%) ~11K (22%)

单次完整任务 Token 消耗对比(「重构认证模块」)

固定开销 Token 构成饼图

成本控制策略对比

策略⚡ Claude Code🦞 OpenClaw🧠 Hermes Agent
预算上限无内置(上下文窗口天然限制)maxCostPerDay / maxTokensPerDay未明确提及
模型降级不可选(绑定 Anthropic)Fallback 链(Claude→Haiku→DeepSeek)/model 随时切换任意模型
Prompt Caching原生 90% 折扣取决于模型提供商取决于模型提供商
记忆瘦身手动删除 MEMORY.md 条目memory index 重建LLM 自动摘要
Skill 减负不调用就不耗 token必须卸载不用的 Skill按需加载,无需卸载
上下文压缩自动压缩历史无内置压缩/compress 手动触发
成本失控风险

Token 效率核心结论:Claude Code 是「按需取用」——不用就不花 token,用 Prompt Caching 进一步打折;OpenClaw 是「全量预加载」——装了多少 Skill、记了多少事,每次请求都要付固定税,24/7 运行下成本极易失控;Hermes Agent 介于两者之间——按需加载 Skill + LLM 摘要压缩记忆召回,但自学习闭环(Nudge + Auto-skill)会产生额外的「隐形 API 调用」。

⚙️ Agent 执行循环 07

三者的 Agent Loop 从简单到复杂,决定了任务执行方式和并行能力。

Claude Code

用户输入System Prompt (含 CLAUDE.md + MEMORY.md) ↓ LLM 推理Tool 调用 (Read/Write/Edit/Bash/Grep/Glob) ↓ 结果返回 → 继续推理 → 输出 特点:单线程 · 单会话 · 无后台 自动压缩上下文 · Prompt Caching

OpenClaw

消息平台 (Telegram/Discord/微信...) ↓ Gateway (路由 + 会话管理) ↓ 四层记忆注入 → LLM 推理 ↓ Skill / Tool 执行 ↓ 响应回平台 → 记忆更新 特点:多平台 · 多会话 · 心跳 · 子代理 DM配对 · 群组沙箱 · 工具白名单

Hermes Agent

消息平台 / CLIGatewayFTS5 搜索 + Honcho 用户建模LLM 推理 → Skill/Tool 执行 ↓ 经验提炼 → 自动写 Skill + 持久化 ↓ Nudge 自检 → 响应回平台 特点:学习闭环 · 并行子代理 · RL 训练 Atropos RL · 轨迹导出微调 · RPC

🎯 选型指南 08

根据你的具体需求,选择最合适的工具。

你的需求推荐理由
纯编码(写代码、调试、重构)Claude Code编码质量最高,模型最懂代码
全能生活助理(消息、邮件、日程)OpenClaw平台接入最广,生态最大
让 AI 越来越懂你、自动积累经验Hermes Agent唯一有学习闭环的
多平台 + 编码组合OpenClaw + Claude Code社区有桥接 Skill
ML 研究 / 训练数据生成Hermes AgentAtropos RL + 轨迹导出
数据敏感、完全离线OpenClawHermes自托管 + 本地模型
成本敏感Claude CodePrompt Caching 90% 折扣 + 按需加载
24/7 无人值守OpenClaw心跳 + Cron + 多平台推送

一句话总结:Claude Code 是最强编码刀,OpenClaw 是最广连接网,Hermes Agent 是唯一会自己长大的 Agent。三者的记忆和 Skill 系统从简单到复杂恰好构成一条进化线:静态笔记 → 向量搜索 → 自学习闭环。