OpenClaw 3.22 最猛升级:底层架构大换血,全网等了 9 天

就爱百科 百科资讯 3

断更 9 天,大的终于来了!就在刚刚,OpenClaw 迎来 3.22 最大版本升级,插件架构大换血,GPT-5.4 登场,安全防护再升级。

连续 9 天 GitHub 停更,OpenClaw 终于憋出了一个王炸!

刚刚,Peter Steinberger 重磅官宣 ——OpenClaw「2026.3.22-beta.1」预览版上线。

3.22 版本最引人注目的是,对「插件系统」进行了彻底的重构 ——

全新公开插件 SDK(openclaw / plugin-sdk/*)上线,彻底废弃了旧有的扩展 API。

同时,OpenClaw 官方确认了将 ClawHub 插件作为分发的首选渠道,显著提升了生态的纯净度。

安全,也是这一次的重头戏。针对 Windows 用户,系统新增了拦截,对执行环境进行了加固。

GitHub 地址:https://github.com/ openclaw / openclaw / releases / tag/v2026.3.22-beta.1

值得一提的是,OpenClaw 模型配置也升级到了 GPT-5.4。

此外,UI 交互、长对话压缩机制、Android 端深色模式,以及多平台通知逻辑也得到了精细化修复。

OpenClaw 新版一出世,全网陷入了狂欢,许多人跃跃欲试。

如今的龙虾,变得更强了!

停更 9 天,OpenClaw 新版引爆全网

这一次的更新,绝非是小打小闹,而是一次深入底层架构的大修。

早在预告阶段,OpenClaw 之父一张龙虾镇场图,暗示了 9 天未更的大动作。

今天这个重磅升级,终于让所有人见识到了什么才是真大招!

一句话帮你抓住这次更新的核心:

1. 插件系统换骨:旧 API 一刀切,新 SDK 全面接管,ClawHub 成官方首选分发渠道

2. 安全大修:Windows 凭证泄露、环境变量注入、Unicode 审批伪装,十多个漏洞一次性封堵

3. 模型阵营扩军:GPT-5.4 默认上位,MiniMax M2.7 整合,Anthropic Vertex 正式接入

4. 体验逐帧打磨:Android 深色模式、飞书交互卡片、Telegram 话题自动命名、长对话压缩机制迭代

插件系统大重构,旧时代正式翻篇

这次 3.22 最核心的变化,一句话概括 ——OpenClaw 的插件生态,换骨了。

旧的 openclaw / extension-api 被彻底移除,没有兼容层,没有过渡期,一刀切。

取而代之的是,全新的 openclaw / plugin-sdk/* 模块化接口。

这个改动有多狠?所有已有的第三方插件,只要还在用旧 API,全部需要迁移。

官方甚至连旧有的 nano-banana-pro 图像生成技能包装器都一并干掉了,统一走 agents.defaults.imageGenerationModel 路径。

与此同时,插件安装的默认来源也变了。以前执行 openclaw plugins install,系统直接从 npm 拉包。

现在,ClawHub 成为首选 —— 只有 ClawHub 上找不到的包,才会回退到 npm。

之所以要这么做,是因为 npm 本质上是个通用包管理器,谁都能发包,质量参差不齐;而 ClawHub 则是 OpenClaw 官方维护的插件市场,审核更严、来源更可控。

插件生态的「净化运动」,正式开始了。

更值得关注的是「生态」兼容性扩展。

3.22 新增了对 Claude、Codex、Cursor 三大主流开发工具插件包的发现与安装支持,能把外部插件包里的 Skills 自动映射到 OpenClaw 的技能体系中。

也就是说,以后你在 Cursor 里用的好用插件,有可能直接搬进 OpenClaw 跑起来。

从一个封闭的工具框架,到一个能吸纳外部生态的开放平台 —— 这一步,迈得非常果断。

安全加固:这次补的全是要命的洞

如果说插件重构是面向未来的布局,安全修复就是对当下最紧迫的回应。

3.22 一口气打了十多项安全补丁,其中几个相当关键。

第一个大洞:Windows 上的 SMB 凭证泄露。

之前攻击者可以通过构造特殊的 file://或 UNC 路径,在媒体加载环节触发 Windows 自动发起 SMB 认证握手。

这时,你的龙虾以为自己正要加载一张图片,但实际上却是在把你的 Windows 登录凭证往外送。

3.22 在核心媒体加载和沙盒附件路径中全面拦截了这类远程路径。

第二个:执行环境沙盒加固。

新版直接封锁了 MAVEN_OPTS、SBT_OPTS、GRADLE_OPTS 等 JVM 注入路径,堵住了 GLIBC_TUNABLES 利用通道,还拦截了.NET 的 DOTNET_ADDITIONAL_DEPS 依赖劫持。

简单说,主流构建工具链的环境变量注入攻击,一次性全堵上了。

第三个:Unicode 零宽字符审批伪装。

之前有人发现可以用不可见的韩文填充码位(Hangul Filler)来伪装执行命令的审批提示,让操作者在审批时看不到真实的命令内容。3.22 在网关和 macOS 原生审批界面中全面转义了这类字符。

第四个:语音通话 Webhook 的预认证防护。

旧版本允许未认证的调用者以 1MB/30 秒的大缓冲窗口消耗服务器资源。新版把预认证的 body 读取限制压到 64KB/5 秒,并限制了单 IP 的并发预认证请求数。

对公网部署的用户来说,这一版不是「建议更新」,是「必须更新」。

模型生态再扩张:GPT-5.4 打头阵

模型层面,3.22 做了几个实打实的升级。

默认 OpenAI 模型正式切换到 GPT-5.4,同时预置了 gpt-5.4-mini 和 gpt-5.4-nano 的前向兼容支持,模型一上线就能无缝接入。

MiniMax 方面,默认模型从 M2.5 升级到 M2.7,还合并了此前分离的 API 和 OAuth 两个插件入口,统一成单一的 minimax 插件,配置复杂度大幅降低。

另一个亮点是 Anthropic Vertex 正式接入 —— 现在可以通过 Google Vertex AI 直接调用 Claude 模型,包括 GCP 认证和自动发现。

对已经在 Google Cloud 上跑业务的团队来说,这条路径的价值不言而喻。

此外,xAI 的 Grok 目录同步到了最新版本,Z.AI 的 GLM 也更新到了 4.5/4.6 系列,Mistral 的定价元数据终于不再显示「零成本」的误导信息。

OpenClaw 作为「模型路由器」的定位,正在被越来越多的一线大模型厂商认可。

多平台体验:每个细节都在打磨

这类更新不炸眼球,但用起来最有感。

Android 端终于支持了跟随系统的深色模式,从引导页到聊天页到语音页全覆盖。Control UI 新增了「圆角滑块」,用户可以自定义界面的圆角程度,从锐利到全圆自由调节。

Telegram 那边动作不小,新增了 DM 论坛话题的自动重命名 ——

首条消息进来后,系统会用 LLM 生成一个有意义的话题标签,不再是一串无意义的 ID。还支持了静默错误回复模式,机器人的报错信息可以选择不发出通知提示音。

飞书的升级同样值得一提。

新增了结构化交互审批卡片和快捷操作启动卡片,支持了当前会话的 ACP 和子智能体绑定,还补上了推理流(Reasoning Stream)的渲染 —— 思考过程以 Markdown 引用块的形式实时显示在同一张卡片里。

浏览器集成方面,旧的 Chrome 扩展中继路径被彻底移除,转而支持通过 userDataDir 直接连接 Brave、Edge 等 Chromium 内核浏览器。

沙盒系统也迎来了架构升级,新增了可插拔的后端支持,首批上线了 OpenShell 和 SSH 两个后端,沙盒管理不再绑定 Docker 单一方案。

Agent 引擎:压缩更聪明,调度更从容

Agent 层面有几个值得单独说的点。

长对话压缩机制(Compaction)做了多轮迭代。

新版在压缩过程中会自动延长运行截止时间,避免大型会话压缩到一半被超时杀掉。

压缩后还会自动修复孤立的 tool_result 块,不让历史记录中的残余数据炸掉后续的 Anthropic 请求。空会话的压缩也终于不会陷入死循环了。

默认 Agent 超时时间从 600 秒,直接拉到了 48 小时。

跑长任务的 ACP 会话,终于不用再被 10 分钟的默认限制卡脖子。

还有一个贴心的新功能:/btw 命令。在对话过程中,你可以随时用 / btw 插入一个「旁白问题」,AI 会快速回答但不影响当前会话的上下文。

就像跟同事开会时,侧过身低声问一句题外话,问完继续开会。

9 天沉默,换来的是什么?

9 天,一次大版本。

这种更新节奏说明一件事:OpenClaw 团队已经过了「堆功能冲 Star」的阶段,开始认真做工程了。

从升级点中不难看出,这是一款产品在同一时间,朝着「可信赖的 AI 智能体平台」这个目标,做了一次全面收拢。

这些升级可能不会出现在宣传海报上,但它们决定了谁敢把 OpenClaw 拉进生产环境。

敢用,比好用更难。

Peter Steinberger 和他身后那群全球极客,显然已经想明白了这件事。

龙虾不睡觉。?

参考资料:

  • https://x.com/steipete/status/2036020395200090484?s=20