不只是另一個 AI Agent:Hermes vs OpenClaw 完整解析
使用 OpenClaw 兩個月,研究了 Hermes Agent 的記憶與學習系統後,才發現兩者的設計哲學差異比想像中更大。記錄下來,供日後參考。
為什麼研究這個
使用 OpenClaw 快兩個月了,已經習慣讓它幫忙處理日常任務。最近看到 Hermes Agent(NousResearch)的消息,號稱是「會自己變聰明的 agent」,就好奇跟 OpenClaw 的差異在哪裡,所以研究了一下。不是為了宣稱哪個更好,是想搞清楚各自適合什麼場景。
核心差異
兩個框架的設計方向差異比我想的大。
Hermes Agent 是開箱即用的產品,號稱不需要設定就能跑起來。它最有特色的地方是內建的 self-improving loop:當 agent 執行複雜任務(超過 5 次 tool calls)完成後,會自動建立或更新技能,下次遇到類似任務時會更快更準。
OpenClaw 的出發點不同,它更像是給技術人準備的「工具箱」,所有功能都設計成可以自由組合。Skills 系統、ACP 協議、多節點支援,都是為了讓人可以自己擴展和整合。
功能對照
| Hermes | OpenClaw | |
|---|---|---|
| 許可 | Apache 2.0 | MIT |
| 模型 | 200+ | 35+ |
| 記憶 | 內建 MEMORY.md + FTS5 | Memory + ClawHub |
| 學習 | 自己建立/更新技能 | 被動餵養 |
| 部署 | serverless,$5 VPS 可跑 | 需要實體長駐機器 |
| 開發者 | NousResearch | Peter Steinberger(2026/2 加入 OpenAI) |
Hermes 的部署成本幾乎是零,Daytona 或 Modal 的 serverless 模式讓它可以在閒置時休眠。OpenClaw 需要一台長駐的機器,長期有電力成本。
學習機制在設計哲學上是兩者最大的差距,但 ClawHub 讓 OpenClaw 的 agent 可以自己發掘和安裝新 skill,實際使用上的距離已經比想像的小。
ClawHub 是 OpenClaw 的技能登錄庫(可以理解成 npm 之於 Node.js),以獨立服務形式運作於 clawhub.ai,同時也內建為 OpenClaw 的一個 skill。Agent 可在執行期間自動搜尋、安裝、發布以
SKILL.md格式封裝的技能,搜尋支援向量語意比對,不需要人工手動安裝。
Hermes 的記憶與學習系統
研究文件後,發現 Hermes 的學習機制比行銷語言說的更複雜,但也更老實。
兩層記憶系統
Hermes 的內建記憶分成兩層,都存在 ~/.hermes/memories/:
| 檔案 | 用途 | 字數上限 |
|---|---|---|
| MEMORY.md | Agent 的個人筆記——環境事實、專案 convention、學到的教訓 | 2,200 |
| USER.md | 使用者 profile——偏好、溝通風格 | 1,375 |
每個 session 啟動時,這兩個檔案的內容會凍結成 snapshot,直接注入 system prompt 的最開頭。Session 中對記憶的修改會立即寫入磁碟,但下一個 session 才會生效(因為 snapshot 在 session start 時就截取了,不會中途更新)。
Self-Improving Loop 四個環節
1. Periodic Nudge——固定間隔主動掃描近期行為,問「有什麼值得 persist?」。這是 Hermes 區別於其他 agent 的核心機制,不需要使用者輸入,agent 自己主動整理記憶。
2. Skill Creation——觸發條件明確:複雜任務(5+ tool calls)、錯誤恢復、使用者當面糾正、非平凡 workflow(繞了一圈才發現的捷徑)。通過後在 ~/.hermes/skills/ 建立可重複使用的 Markdown 檔案。
3. Skill Self-Improvement——使用過程中發現更好做法時,用 patch 更新(只改 old string + new string),不是整篇替換,避免破壞本來正常的部分。
4. Session Search——所有對話存進 SQLite(FTS5 全文搜索),隨時可檢索並 LLM summarization 後注入 context。⚠️ 這是值得注意的限制:FTS5 是關鍵字搜索,不是語意搜索。也就是說,如果問題的用詞和當時記錄的用詞不同,即使概念相關也可能找不到。這也是 Hermes 目前沒有使用向量 embedding 的原因——成本和硬體負擔考量。
graph TD
A[Session 結束] --> B[Periodic Nudge<br/>固定間隔主動掃描]
A --> E{"任務複雜?<br/>5+ tool calls"}
B --> C{"值得寫入記憶?"}
C -->|否| Z[結束]
C -->|是| D[寫入 MEMORY.md<br/>或 USER.md]
D --> Z
E -->|否| Z
E -->|是| F{"觸發條件滿足?<br/>錯誤恢復 / 用戶糾正 / 捷徑"}
F -->|否| Z
F -->|是| G[建立 .md Skill 檔案<br/>skills/ 目錄]
G --> H[使用 Skill]
H --> I{"發現更好做法?"}
I -->|是| J[patch 更新<br/>而非整篇替換]
J --> K[下一個 Session]
I -->|否| K
K --> L[FTS5 全文搜索<br/>Session Archive]
L --> M[LLM Summarization]
M --> N[注入 Context]
N --> Z
style A fill:#e1f5fe
style G fill:#f1f8e9
style K fill:#fff3e0
客觀評估:Hermes 學習系統實際效果
研究也有找到不少限制和批評:
「所謂的『自己學習』,本質只是 structured note-taking + CRUD。Skill 就是 system prompt injection 加了一層檔案操作,不是真正的 AI 學習。」
— r/LocalLLaMA(原文)
幾個關鍵限制:
- Honcho 預設關閉:Honcho 是 Plastic Labs 開發的第三方開源記憶服務,透過 LLM 辯證式推論在跨 session 之間持續建立使用者語意模型,啟用後 Agent 會自動在對話前擷取記憶、對話後同步摘要。預設關閉的原因是需要額外安裝
honcho-ai套件並設定 Honcho Cloud API 金鑰——很多人因此發現記憶功能沒生效,以為系統有問題,其實是文件說明不夠清楚 - 沒有 review gate:Skills 自動寫入,沒有人把關。錯誤的 workaround 一旦被記錄,會持續 reinforce,沒有版本控制
- 需要累積才有效:前 20 個任務幾乎看不到價值,要等 episodic memory 填滿才開始有明顯效果(r/AISEOInsider)
- Skill drift 風險:多個 agent 對同一個 skill 反覆 patch,可能寫進相互衝突的修正,無衝突偵測機制
- Skill 品質不穩定:有用戶回饋「一直在訓練它,但它一直犯同樣的錯誤」。社群的主流 workaround 是把 skills 標記成「locked」或「user-authored」避免被覆寫,但也不是完美的解法。有人因此另外寫了一個 Claude Code skill 專門來 audit Hermes 的 skill 檔
但也有實際效果:根據單一用戶回報,重複研究工作在 3 個 skills 建立後快了 40%(r/openclaw)。
結論:Hermes 的學習系統是真的有用,但被過度行銷。實質是「agent 幫自己寫有用的筆記,下次執行時拿出來用」,不是科幻電影裡那種會自主進化的 AI。
社群怎麼說
「OpenClaw 能做到 Hermes 能做到的任何事,但你得自己設定。Hermes 開箱就是這個樣子。Hermes 更適合非技術背景的人。」
— r/openclaw(原文)
「用 OpenClaw 感覺像在玩玩具⋯架構太龐大、做起事來很混亂。Hermes 穩定多了,不會每次更新就出包,而且真的有記憶。」
— r/hermesagent(原文)
「OpenClaw 在多頻道自動化和工作流很強,Hermes 在長期記憶和學習比較厲害。與其選一個,不如兩個一起用。」
— r/AgentsOfAI(原文)
三個不同的聲音說的是同一件事:Hermes 開箱好用但功能深度不如 OpenClaw,OpenClaw 需要設定但上限更高。
實際適用場景
如果在乎雲端成本,想快速跑起來,讓 agent 自己維護自己,Hermes 比較合適。
如果在乎完整控制和客製化,需要多節點支援或嚴格的安全機制,OpenClaw 更扎實。
兩者不是非此即彼的選擇。很多人會讓 Hermes 處理日常任務,OpenClaw 處理需要深度整合的工作。
已經在跑 OpenClaw 的人,短期幾乎沒有遷移誘因——現有的自動化任務和設定都是沉沒成本,Hermes 的學習機制也需要時間累積才有效果,換過去不划算。
剛想試玩 self-hosted agent 的人,Hermes 反而是更好的起點:serverless 部署讓你不需要先準備一台長駐機器,試錯成本低,開箱即用的記憶機制也能讓新手快速感受到 agent 的價值。
生態系現況
從 GitHub 數字來看,兩個框架的成長軌跡差異明顯:
| Hermes | OpenClaw | |
|---|---|---|
| Stars | 35,805 | 351,969 |
| Forks | 4,543 | 70,890 |
| Contributors | 214 | 30+ |
| 近 30 天 commits | 2,463(約 82/天) | 100+ |
| 首次 release | 2026 年 3 月(v0.2.0) | 2025 年 11 月(v0.1.1) |
OpenClaw 的社群規模約是 Hermes 的 10 倍(stars),但這個差距主要來自公開時間——OpenClaw 從建 repo 隔天就開放,已累積 4 個多月的社群;Hermes 雖然 2025 年 7 月就建 repo,卻悶頭開發了 8 個月,直到 2026 年 3 月才第一次公開 release。以不到一個月的公開時間拿到 35k stars,成長速度其實相當快。開發動能上,Hermes 遠高於 OpenClaw——近 30 天超過 2,400 次 commit,幾乎每天都有更新,release 節奏一週一版。
這和背景脈絡吻合:OpenClaw 創辦人 Peter Steinberger 在 2026 年 2 月宣布加入 OpenAI,同時承諾成立非營利基金會接管開源治理。基金會能否維持原來的開發動能,目前還是未知數。Hermes 這邊,migration tool 已支援從 OpenClaw 遷移,明顯在對社群喊話。
參考資料
- Hermes Agent GitHub:https://github.com/NousResearch/hermes-agent
- Hermes Agent 文件:https://hermes-agent.nousresearch.com/
- OpenClaw GitHub:https://github.com/openclaw/openclaw
- OpenClaw 文件:https://docs.openclaw.ai/
- r/LocalLLaMA(Hermes 學習機制 critique):https://www.reddit.com/r/LocalLLaMA/comments/1s43ts3/hermes_agent_memorylearning_i_dont_get_it/
- r/openclaw(I tried Hermes so you don’t have to):https://www.reddit.com/r/openclaw/comments/1se64gt/i_tried_hermes_so_you_dont_have_to/
- r/AISEOInsider(Hermes Self Evolving):https://www.reddit.com/r/AISEOInsider/comments/1s7ffmr/hermes_self_evolving_ai_agent_keeps_learning_from/


