3 月 16 日 GTC 上,NVIDIA 发布了 NemoClaw——一个企业级运行时,用 NVIDIA 的 OpenShell 容器隔离包装 OpenClaw。卖点:让 AI 智能体带上企业需要的安全护栏。
这是一步重要的棋。NVIDIA 意识到 AI 智能体安全不是锦上添花——而是企业部署的拦路石。NemoClaw 通过添加容器级隔离、经 NVIDIA 基础设施的托管推理和 OpenClaw 原生缺乏的安全控制来解决这个问题。
有意思的角度在这里:ZeroClaw 已经通过 Rust 的内存安全和 deny-by-default 权限模型提供了进程级安全。把 ZeroClaw 跑在 NVIDIA 的 OpenShell 里给你两层防护——语言级安全套在容器级隔离里面。在两个不同架构层面实现的纵深防御。
NVIDIA OpenShell 提供什么
OpenShell 是 NVIDIA Agent Toolkit 的运行时组件。它为 AI 智能体创建沙箱执行环境:
容器隔离。 智能体在隔离容器中运行,除非显式授权否则不能访问宿主文件系统、网络或其他进程。即使智能体代码被攻破,攻击者也被限制在沙箱内。
托管推理。 OpenShell 通过 NVIDIA 的优化运行时路由模型推理,使用 TensorRT-LLM 做 GPU 加速推理。比通用模型服务更快,支持 NVIDIA 的 NIM 微服务做企业模型部署。
安全策略。 OpenShell 执行可配置的安全策略——网络白名单、文件系统限制、资源限额和审计日志。这些策略定义在智能体外部,智能体不能修改自己的限制。
预热池。 预置的沙箱环境消除冷启动延迟。新的智能体会话启动时,OpenShell 直接交出一个预热好的沙箱,而不是从头创建。
为什么 ZeroClaw + OpenShell 比 OpenClaw + NemoClaw 更好
NemoClaw 是为 OpenClaw 设计的。但容器里的 OpenClaw 还是有 OpenClaw 的问题:
- •仅运行时就 200MB+ 内存占用
- •Node.js 垃圾回收暂停导致延迟尖峰
- •容器内 1,200+ 个 npm 依赖
- •技能在容器内仍然拥有完整的进程级权限
OpenShell 加了一个外层安全壳,但内层仍然是宽松的。攻破 NemoClaw 容器内 OpenClaw 技能的攻击者仍然可以读取 OpenClaw 进程能访问的任何文件、执行进程能运行的任何命令、访问环境中的任何凭据——全在容器边界之内。
ZeroClaw 放在 OpenShell 里给你两层:
外层(OpenShell): 容器隔离、网络限制、文件系统沙箱、资源限额。
内层(ZeroClaw): Rust 内存安全(没有缓冲区溢出、释放后使用、数据竞争),deny-by-default 白名单(工具只能访问显式允许的路径和端点),基于 trait 的扩展(没有运行时代码加载)。
OpenShell 内的 ZeroClaw 扩展被攻破后,既不能逃出扩展的能力授权(内层),也不能逃出容器(外层)。两个独立的安全边界,攻击者必须依次突破。
部署架构
``` [NVIDIA OpenShell 容器] +-- ZeroClaw 二进制 (3.4MB) | +-- Provider: NVIDIA NIM 端点 (TensorRT-LLM 加速) | +-- 记忆: 加密 SQLite | +-- 工具: deny-by-default 白名单 | +-- 频道: 配置的消息平台 +-- 模型推理 | +-- NVIDIA NIM 微服务 (GPU 加速) +-- OpenShell 安全策略 +-- 网络: 仅白名单端点 +-- 文件系统: 除智能体数据目录外只读 +-- 资源: CPU/内存限额 +-- 审计: 所有操作记录 ```
设置
安装 NVIDIA Agent Toolkit:
```bash pip install nvidia-agent-toolkit ```
创建使用 ZeroClaw 代替 OpenClaw 的 NemoClaw 配置:
```bash nemoclaw init --runtime zeroclaw --model nim://llama-3.1-70b ```
这会生成 OpenShell 清单,把 ZeroClaw 二进制下载到容器模板里,并配置 NVIDIA NIM 端点做模型推理。
启动智能体:
```bash nemoclaw start ```
OpenShell 配置一个沙箱容器,在里面启动 ZeroClaw,连接 NIM 推理服务,应用安全策略。ZeroClaw 低于 10ms 的启动意味着容器配置好之后智能体几乎立即就绪。
性能影响
添加容器隔离总有性能成本。问题是多大。
- •冷启动:8ms
- •内存:4.8MB 空闲
- •推理路由开销:0.5ms
- •冷启动:180ms(容器配置)/ 预热池 12ms
- •内存:28MB(容器开销 + ZeroClaw)
- •推理路由开销:2ms(NIM 端点延迟)
- •冷启动:8-12 秒(容器 + Node.js 启动)
- •内存:450MB+(容器 + OpenClaw + node_modules)
- •推理路由开销:2ms(相同 NIM 端点)
ZeroClaw + OpenShell 比 OpenClaw + NemoClaw 少用 16 倍内存,启动快 40-100 倍。在运行几十个智能体实例的企业 Kubernetes 集群上,这直接转化为基础设施成本节省。
谁需要这个
ZeroClaw + OpenShell 组合特别适合:
- •受监管行业,容器级隔离是合规要求
- •多租户部署,不同用户的智能体必须彼此隔离
- •企业 Kubernetes 环境,智能体作为容器化工作负载管理
- •GPU 加速推理,NVIDIA NIM 比通用模型服务有显著性能优势
个人使用、家庭部署或小团队,ZeroClaw 独立运行提供了足够的安全性而不需要容器开销。当组织安全策略要求或部署规模足以支撑基础设施投入时,OpenShell 层才体现价值。