小火苗变声器
65.51MB · 2026-04-16
2025年,大模型爱好者的烦恼,是AI Agent框架的“百花齐放,却难称心”——LangChain 略显笨重,AutoGen 过于复杂,LlamaIndex 又偏重检索……选型,成了一个令人纠结的难题。
到了2026年,局面变了。强大的AI Agent框架层出不穷,甜蜜的烦恼升级为:这么多强者,到底该选谁?
就在大家还在争论时,OpenClaw(那只“小龙虾”)横空出世,凭借极简的操作和强大的执行力,掀起了一股“全民养虾”的热潮。可最近,另一个名字 Hermes Agent 被反复提及。截至4月15日,它在GitHub上已斩获 85k Star,大有新王登基之势,有的大模型爱好者甚至喊出口号:“爱马仕买不起,Hermes更懂你。”
两个框架,同样开源、同样支持自托管、同样能接入多平台消息……乍看之下,难分伯仲。但真正用过的人却会告诉你: “这俩根本不是一回事!” 那么,Hermes Agent 到底是什么?它和 OpenClaw 的本质差异在哪里?今天的文章笔者就和大家一起学习Hermes Agent的核心特性。
Hermes Agent 是由 Nous Research 于 2026 年 2 月开源的一款智能体框架。它的核心定位非常独特:不是传统的工具编排框架,而是一个“自我增强型 Agent 运行时”。
有人会问“现在已经有OpenClaw这个强大的Agent了,突然出来这么一个框架是干什么用的呢?”,笔者通过如下例子帮你秒懂:
你是否有过这样的经历?好不容易让 Agent 完成了一个复杂任务,可一旦重启,它就像失忆了一样,下次遇到同样的问题依然不会。任务做完了就真的做完了,仿佛什么都没发生过。
大家是否有过这样的经历?好不容易让 Agent 完成了一个复杂任务,可一旦重启,它就像失忆了一样,下次遇到同样的问题依然不会。任务做完了就真的做完了,仿佛什么都没发生过。
Hermes 就是为了解决这个“记忆与成长”的痛点而生的。 它内置了一套闭环学习机制:
Skill 文档,存入自己的 skills/ 目录据官方文档和社区实测,经过 10–20 次同类任务的反复执行,Hermes 的速度能提升 2–3 倍。这不是简单的缓存命中,而是真正的 经验积累。
除了持久的经验记忆和自动创建 Skill 之外,Hermes 同样保留了与 OpenClaw 类似的能力:
除此之外更值得关注的是,Hermes 还能将用户使用工具的调用轨迹完整导出到数据集,并集成Atropos 框架,进行强化学习训练,从而持续提升大模型调用工具的准确性。(解决了工具调用数据集生产这一大难题呀!)
要想真正理解 Hermes,必须深入它的核心架构。笔者通过分析 Hermes 的技术文档和源码,将其设计哲学抽象为以下几个要点,分享给大家。
Hermes 通过一个同步循环的中央编排引擎(代码位于 run_agent.py)统一调度四大模块:内存、记忆、工具、网关。所有消息——无论来自 CLI、T@elegrimm 还是其他平台——都会进入这个引擎,流程如下:
消息到达 → 生成任务 ID → 加载缓存的系统提示(或从内存、技能索引重建)
→ 压缩预检 → API 请求 → 工具调用(如果需要)→ 结果追加 → 循环直到完成
→ 会话存入 SQLite → 通过网关发送回复
Hermes 将陈述性记忆拆分为两个文件,且刻意限制容量,迫使 Agent 只保留最有价值的信息:
| 文件 | 字符上限 | 内容 | 类比 |
|---|---|---|---|
| MEMORY.md | 2,200 | 环境事实、项目约定、学到的经验 | Agent 的工作笔记 |
| USER.md | 1,375 | 用户偏好、沟通风格、期望、工作习惯 | Agent 对用户的画像 |
两者合计约 3,600 字符——这个限制是故意的,强迫 Agent 只保留最有价值的信息。
所有用户与 Hermes 的会话都会存入本地 SQLite 数据库,并使用 FTS5(SQLite 自带的全文搜索引擎,效率远高于 LIKE 模糊查询)建立全文索引。
当需要检索历史时,Hermes 不会把整段对话塞进上下文,而是:
session_search 检索相关片段这就是 Hermes 最受好评的设计——Skills。Agent 可以在与用户的对话中自动总结出可复用的操作指令集,存于 ~/.hermes/skills/ 目录下。
更妙的是:这些自动生成的 Skill 全部遵循 agentskills.io 规范,可以跨兼容的 Agent 迁移使用。
前三层记忆都需要 Agent“主动写点什么”。第四层则完全不同:它不等待显式写入,而是在后台默默给你画像。
这一层名为 Honcho,是一个可选的用户建模层,架在所有记忆之上。它采用辩证建模思路,在 12 个身份层中同时建模“你”与“智能体”的互动关系,跨会话悄悄记录你的偏好、说话风格、专业领域,并随时间不断更新。
如前所述,Hermes 的核心机制是运行时的自进化闭环,能够在与用户的对话中自动沉淀可复用的 Skill。其基本流程如下:
| 步骤 | 动作 | 触发条件 | 输出 |
|---|---|---|---|
| ① 引导 | SKILLS_GUIDANCE 注入 system prompt | 代码硬编码 / 用户触发 | Agent 的“保存意识” |
| ② 创建 | skill_manage(action='create') | 5+ 工具调用 / 修复错误 / 走通新流程 | SKILL.md 文件 |
| ③ 索引 | prompt_builder 自动扫描技能目录 | 会话启动时 | system prompt 中的技能索引 |
| ④ 执行 | skill_view() 加载完整内容 | Agent 根据用户任务匹配 | 按步骤执行任务 |
| ⑤ 修复 | skill_manage(action='patch') | 执行中发现问题 | 更新对应的 SKILL.md |
值得一提的是,Hermes 更新已有 Skill 时优先使用 patch(只传递旧文本和替换内容),而非全量重写——既节省 Token,又降低“把好用的部分改崩”的风险。
大模型的上下文窗口有限,长对话容易溢出。Hermes 的 ContextCompressor 采用分层压缩算法:
吸取了前期 OpenClaw 暴露的各种问题,Hermes 在设计上采用零信任默认策略:
Hermes 的网关与 OpenClaw 有本质不同。在 OpenClaw 中,网关只管消息投递,与 Agent 是相互独立的两个个体;而在 Hermes 中,网关是中央编排循环的一部分。
它不仅通过独立适配器对接 CLI、T@elegrimm、Discord、Slack、WhatsApp、Signal、邮件等,还通过一个会话路由层进行统一汇总。正因为网关与循环、会话路由是统一的,Hermes 能提供跨平台的无缝体验——你在 T@elegrimm 上问的问题,最后甚至可以在终端中继续同一个话题。
Hermes 的子智能体机制设计得十分彻底。每个子智能体都拥有:
子代理的上下文与父代理丝毫不冲突,父代理只需拿到执行结果即可。这种隔离比很多框架的“同上下文分支”要彻底得多,是真正的“真隔离”。
Hermes Agent 问世后,网络上讨论最多的问题就是:它和 OpenClaw 到底哪个更强? 这节内容,笔者从六个维度进行硬核对比,帮大家理清思路。
| 框架 | 架构风格 | 核心逻辑 |
|---|---|---|
| Hermes | Agent‑First | Agent 本体是核心,消息网关只是“表面之一”。更像一个通用 Agent,顺便支持 T@elegrimm、Discord 等渠道。 |
| OpenClaw | Gateway‑First | 消息网关是单一真相源,所有消息从 50+ 渠道汇入网关,再路由到 Agent。更像智能助理的操作系统。 |
| 框架 | 设计哲学 | 核心目标 |
|---|---|---|
| Hermes | 成长(Growth) | “Agent 应该越用越聪明”——自我学习、Skill 进化、深度个性化是系统设计的核心目标。 |
| OpenClaw | 治理(Governance) | “平台边界必须清晰”——会话隔离、工具策略、权限治理、多用户支持是核心考量。 |
| 框架 | 执行模式 | 适用场景 |
|---|---|---|
| Hermes | 单 Agent 深度 + 子代理委派并行 | 强调“一个超级大脑”的连续性,适合个人深度助理或复杂任务链条。 |
| OpenClaw | Hub‑and‑Spoke 多 Agent 协作 | 多 Agent 通过网关协调,更适合团队协作、多角色分工场景。 |
| 维度 | Hermes | OpenClaw |
|---|---|---|
| LLM 支持 | 200+(OpenRouter、Nous Portal、Ollama 等) | 200+(OpenRouter、OpenAI、Anthropic 等) |
| 消息渠道 | 7 个核心渠道(TG、Discord、Slack、WhatsApp、Signal、Email、CLI) | 50+ 渠道(含 QQ、LINE、飞书、Teams 等) |
| Skill 生态 | 自生成 + 公共目录 | 5,700+ ClawHub 社区 Skill |
| MCP 支持 | 原生 + Server 模式 | 原生 |
| 框架 | 记忆架构 | 特点 |
|---|---|---|
| Hermes | 4 层架构(会话历史 + 用户画像 + FTS5 全文搜索 + 程序性 Skill) | 语义密度高,支持自动学习与跨会话画像 |
| OpenClaw | Markdown 文件 + SQLite | 人类可读、易调试,但语义检索能力相对基础 |
| 框架 | 部署难度 | 安全记录与设计 |
|---|---|---|
| Hermes | 一行命令搞定,部署成本接近零 | Docker 后端采用只读根文件系统,默认零信任检查,安全加固较完善 |
| OpenClaw | 本地 / Docker 为主,部署简单 | 2026 年已曝出多个 CVE(令牌泄露、提示注入、RCE),安全事件相对较多 |
通过前面的学习,大家应该已经掌握了 Hermes 的核心特性。这一节,笔者直接给出明确的适用场景和建议。
答案是:可以,而且聪明人已经在这么做了。
Hermes 官方提供了 hermes claw migrate 命令,可以直接导入 OpenClaw 的配置(人格文件、记忆、Skill、消息配置),迁移成本极低。
推荐的混合架构思路:
两者互补,而不是非此即彼。如果你已经在一个框架上投入了精力,不妨用另一个作为增强层——这可能才是 2026 年最强 Agent 架构的“隐藏答案”。
从 2025 年的“选型困难”,到 2026 年的“强者对决”,AI Agent 框架的进化速度远超想象。Hermes Agent 的出现,不是要简单地“取代”OpenClaw,而是为开发者提供了一条全新的路径:让 Agent 拥有真正的长期记忆与自我进化能力。
人工智能时代,对于我们程序员来说,也是一个难得的机会窗口。我们不仅是 Agent 的使用者,更可以发挥技术所长,成为 Agent 的创造者。
笔者的大模型 Agent 开发专栏——《深入浅出 LangChain & LangGraph AI Agent 智能体开发》 ——一直在持续更新。该专栏基于笔者在实际项目中的深度使用经验,系统讲解如何使用 LangChain / LangGraph 开发智能体,目前已更新 43 讲,并会持续补充实战与拓展内容。无论你是否接触过 LangChain,只要对 AI Agent 开发感兴趣,都欢迎关注我的掘金账号,或关注我的同名微信公众号 「大模型真好玩」。 每期分享涉及的代码,可在公众号私信回复 「LangChain智能体开发」 免费获取。
框架会迭代,Star 数会变化,但“让 Agent 持续成长”这个理念,才刚刚开始。