云霞资讯网

九卦 | “龙虾”的逆袭:OpenClaw技术浅解

作 者 | 张云迪来 源 | 九卦金融圈API涨价463%背后,谁是推手?在“小龙虾”热力爆表的当下,3月11日,腾讯云

作 者 | 张云迪

来 源 | 九卦金融圈

API涨价463%背后,谁是推手?

在“小龙虾”热力爆表的当下,3月11日,腾讯云突宣布 AI 模型涨价400%,混元系列模型输入价格涨幅高达463%,智谱 GLM-5等公测模型将于3月13日结束免费转为商用。此次涨价紧随行业趋势:OpenAI 于3月6日将 GPT-5.4输入价格上调42.9%至2.5美元/百万 token,智谱 AI 则已于2月12日打响国产大模型涨价"第一枪",GLM Coding Plan 套餐涨幅30%起、海外 API 最高涨100%。

而掀动 AI 成本飙升的这只“龙虾”,正是2026年开年以来全球开源社区最炙手可热的明星:OpenClaw。从一个奥地利开发者的周末项目,到 GitHub 全球第一的软件项目,OpenClaw 只用了不到四个月时间,他到底有什么“黑能力”?

架构革命:Gateway-Node-Channel 三层解耦

OpenClaw 之所以能从一个简单的聊天工具进化为“数字员工”,关键在于其精巧的系统架构。它并没有将 AI 与操作环境强耦合,而是采用了一种 Gateway-Node-Channel 三层架构,以 WebSocket 为通信总线,将控制平面、设备执行与消息渠道彻底解耦。

这套架构的核心在于分工明确:

Gateway(网关)是整个系统的“大脑”。它作为中央控制平面,负责维护 WebSocket 服务、管理 Session、调度 Agent。默认情况下,它只绑定本地回环地址(127.0.0.1),所有流量在本地闭环,这种“Loopback-First”的设计天然规避了直接暴露在公网的风险。

Node(节点)则是“手脚”。它是设备端的执行节点,负责在本地执行具体操作,如调用摄像头、录屏、执行系统命令。Gateway 和 Node 可以在同一台机器上运行,实现了 AI 思考与实体操作的分离。

Channel(通道)是连接用户的桥梁。它负责接入 WhatsApp、Telegram、Discord、飞书、钉钉等20多个主流即时通讯平台。用户在任何平台的指令,都会被 Channel 接收,经由 Gateway 路由给 Agent 处理,最后再由 Node 执行具体动作。

这种三层解耦的设计,不仅保证了系统的稳定性和安全性,更赋予了 OpenClaw 极强的扩展性。用户可以根据需要随时接入新的消息渠道,或者在需要执行本地任务时启动 Node,而 Gateway 作为核心控制中枢则可以7x24小时稳定运行,持续积累记忆和上下文。

记忆进化:从“金鱼记忆”到“四层记忆系统”

普通 ChatGPT 最大的痛点在于“记不住”。会话一结束,上下文就消失,每次对话都像是在和陌生人重新开始。而 OpenClaw 通过一套四层记忆架构,实现了 AI 记忆的持久化和连续性。

这四层记忆由内而外构建了一个完整的认知闭环:

1.  SOUL(灵魂层):定义了 Agent 不可变的人格内核(“是谁”),永久保存在 `SOUL.md` 文件中,不会随对话改变。这是 Agent 的身份基石。

2.  TOOLS(工具层):动态记录当前可用的工具和技能列表,会根据任务需求按需加载。

3.  USER(用户层):这是长期记忆的核心,存储用户的偏好、历史决策和重要事实。它被持久化保存在 `MEMORY.md` 文件中,并结合向量数据库支持语义搜索。这意味着,即使隔了很久,Agent 也能根据语义关联回忆起之前的对话内容。

4.  Session(会话层):负责保存当前对话的实时上下文,当 Token 接近上限时,系统会触发“Pre-Compaction”机制,将重要信息压缩并保存到长期记忆中,避免关键信息丢失。

这套记忆系统,让 Agent 真正拥有了“长期记忆”和“性格”,不再是一次性的聊天工具,而是能够伴随用户成长的、有连续性的智能体。

设计哲学:反 MCP 与“Unix 哲学”的回归

在所有 AI Agent 框架都在忙着集成 Anthropic 提出的 MCP(模型上下文协议)时,OpenClaw 却做了一个令人意外的选择:故意不支持 MCP。创始人 Peter Steinberger 的观点非常鲜明:“我的前提是 MCP 是垃圾,不能 scale。你知道什么能 scale?CLI。Unix。”

这背后体现的是 OpenClaw 回归 Unix 哲学的设计理念:小工具、可组合、文本流。在 OpenClaw 看来,Agent 连接世界的终极接口不需要是复杂的协议,只要 Agent 能运行命令行(CLI),就能操作一切。因此,它的核心工具只有4个:Read、Write、Edit、Bash。这不是功能缺失,而是刻意为之。更少的工具意味着更短的系统提示词、更少的 Token 消耗、更快的响应。对于确实需要 MCP 的场景,OpenClaw 通过内置的 mcporter 技能桥接,强制 Agent 自己扩展能力,而非消费预构建的 MCP 工具集。

这种“自我扩展能力”也是 OpenClaw 看起来更聪明的关键。它可以在运行时写、重载、测试自己的扩展。遇到不会的操作,它会自己写一个 Skill 来完成;发现 Skill 有 bug,它会修改并重载。这种在循环中持续改进自身工具链的能力,让 Agent 具备了真正的进化潜力。

安全与成本:繁荣背后的现实挑战

技术上的先进性并不意味着落地之路一帆风顺。OpenClaw 在引爆社区的同时,也暴露了其作为新兴技术所必须面对的严峻挑战。

首先是安全危机。作为能够执行真实命令的系统,OpenClaw 曾遭遇过严重的安全漏洞(CVE-2026-25253),攻击者可以远程在实例上执行任意代码。更令人担忧的是发生在2026年初的“ClawHavoc”供应链攻击,ClawHub 上约20%的技能被确认为恶意,攻击者通过篡改 Agent 的记忆文件,试图“洗脑”并控制这些智能体。

其次是成本陷阱。OpenClaw 的多轮推理和多工具调用机制,使其 Token 消耗可能是传统聊天的几十倍甚至上百倍。“一觉醒来收到$1,100 API 账单”的案例并非危言耸听。用户必须学会像配置投资组合一样配置“Fallback 链”:用昂贵的 Claude Sonnet 处理复杂任务,用低价的 DeepSeek-V3应对日常对话,用免费的 GLM Flash 处理心跳检测,并设置严格的每日预算上限。

国产化落地:云厂商的“模型军备竞赛”

尽管挑战重重,但 OpenClaw 在中国的落地速度令人惊叹。主流云厂商迅速推出的一键部署方案,极大地降低了技术门槛。

阿里云、腾讯云、火山引擎等平台纷纷入局。火山引擎甚至推出了19.8元/月的“服务器+模型”组合套餐,被视为综合性价比最高的方案。这场竞争的核心,逐渐从服务器硬件转向了背后的“大脑”——AI 大模型。OpenClaw 支持从国际顶尖的 Claude、GPT 到国产的 DeepSeek、智谱 GLM-5等十余家模型提供商,用户可以根据预算和任务需求灵活选择和切换。

从技术架构到设计哲学,从记忆系统到安全挑战,OpenClaw 用不到四个月的时间,完成了一次对 AI Agent 范式的完整定义与重塑。它证明了,当 AI 拥有了持久的记忆、灵活的工具调用能力和安全的执行环境,它就能从“聊天框”里走出来,成为真正嵌入我们数字生活的“数字员工”。这不仅是开源项目的胜利,更是 AI 从云端概念走向落地服务的关键一步。

特别申明:本文技术总结及截图均来源于花叔的“openclaw橙皮书”PDF