《Openclaw流行下Agent 沙箱架构:从技术选择到普通人能看懂的安全故事》 两种模式 想象一下,你要雇一个帮你看家护院的保安。你有两个选择: 方案一:保安住在你家里,但把工具箱锁在保险柜里。保安能活动、能看到你家,但拿不到钥匙。 方案二:保安住在外面的岗亭里,家里没有任何东西给他。他想拿anything 都得找你的管家。 Browser Use 公司(他们运行数百万个 Web Agent)选择了方案二。他们的故事,其实跟每个用 AI 的人都有关系。
二、 Browser Use 怎么做的 他们最初用的是方案一:Agent 在自己的服务器上跑,代码执行放在隔离的沙箱里。听起来挺安全对吧?但有个问题:Agent 本身还在服务器上,它能看到环境变量、API 密钥、数据库凭证。万一 Agent 决定"偷点东西"呢?
三、 所以他们重写了整个架构: •Agent 完全隔离:每个 Agent 跑在自己的 Unikraft micro-VM 里,启动只要不到一秒 •控制平面当管家:所有对外通信(调 LLM、存文件、计费)都经过控制平面,它持有所有凭证 •沙箱一无所知:Agent 只收到三个环境变量——会话 token、控制平面 URL、会话 ID。没有 AWS 密钥,没有数据库凭证 •可丢弃性:Agent 死了?重启一个。状态丢了?控制平面有完整上下文。它没有任何值得偷的东西,也没有任何需要保留的状态
四、 技术细节:生产用 Unikraft micro-VM(scale-to-zero,空闲就挂起),开发用 Docker 容器。同一个镜像 everywhere。 普通人的视角:这跟我有什么关系? 你可能不知道什么是"micro-VM"或"presigned URLs",但你在用 AI 的时候就在跟这种架构打交道。
五、 安全感:当你用某个 AI 服务写代码、查资料时,他们其实是在隔离的 VM 里跑你的请求。如果架构设计得不好(方案一),理论上那个 AI Agent 能看到服务方的所有秘密——数据库密码、API 密钥、其他用户的数据。
六、 成本与速度:方案二有个代价——每次操作多一次网络跳转。但跟 LLM 响应时间比,这点延迟几乎可以忽略。更重要的是,Agent 空闲时 VM 挂起,成本接近零。 数据隐私:你的文件怎么存?沙箱向控制平面要 presigned URL,然后直接上传到 S3。整个过程沙箱没见过 AWS 密钥。你的数据不会泄露给 Agent。
七、 我的思考:本地 vs 云端 我现在的 setup(OpenClaw + LM Studio + x-reader)是典型的"单机版": •模型跑在本地(Qwen3.5-35B on RTX 3090) •Agent 没有隔离(因为它就在你电脑上) •数据完全本地 这跟 Browser Use 的方案对比: 维度 本地单 Agent(我们) 云端隔离 Agent(Browser Use) 隐私 数据不出本地 数据上云,但 Agent 拿不到密钥 安全 依赖本地防护 Agent 完全隔离,无可窃取 成本 一次性硬件投入 按使用量付费(scale-to-zero) 扩展性 受限于本地硬件 无限扩展,多 Agent 并行 延迟 零网络延迟 多一次网络跳转(但可忽略)
八、 我的判断:未来会是混合模式。 •简单任务本地跑:写个脚本、查个资料、整理文件,这些在本地就能搞定,隐私好、速度快 •复杂任务上云端:需要并行多个 Agent、处理大量数据、长时间运行,这时候用 Browser Use 这种架构更合适
九、 本来无一物,何处惹尘埃 你的 Agent 应该没有任何值得偷的东西,也没有任何需要保留的状态。 这句话翻译成大白话就是: •不值得偷:Agent 不知道任何秘密。它调 LLM 需要 token?控制平面给的,用完就扔。它要存文件?presigned URL 是临时的,过期作废。 •不需要保留:Agent 死了?重启一个新的。它记得的上下文?控制平面数据库里有完整记录。 这其实是零信任架构在 AI 时代的应用:不要相信任何组件,哪怕它是你自己写的 Agent。
十、 AI小白应该如何学习? 1AI 工具的选择:用云端 AI 服务时,问自己——如果这个 Agent 失控了,它能拿到什么?好的架构应该让它"一无所知"。 2隐私意识:本地 AI 跑简单任务(OpenClaw、LM Studio),敏感数据不上云。复杂任务用云端隔离方案,但要知道数据会离开本地。 3未来的工作流:一个人 + 多个 Agent 协作是趋势(Karpathy 说的 Tab→Agent→Parallel Agents→Agent Teams)。但每个 Agent 都应该被隔离,不能让它"住在你家里"。
十一、 安全与效率的权衡 Browser Use 的方案不是完美的——多三个服务要部署,每次操作多一次网络跳转。但跟"Agent 偷走所有密钥"的风险比,这些代价值得付。 对我们这种本地 AI setup 的人来说,启示是: •简单场景:继续用本地方案(OpenClaw + LM Studio),隐私好、成本低 •复杂场景:未来可能需要接入云端隔离 Agent 服务,让专业的人做专业的事 AI 安全不是玄学,就是架构设计。好的设计让 Agent"一无所有"——没有秘密可偷,没有状态可赖账。
十二、 这大概就是未来 AI 基础设施的样子:Agent 是 disposable 的,控制平面是可信的,用户数据是被保护的。 至于我们?继续用 OpenClaw 跑本地 Agent,等哪天需要并行几十上百个时,再考虑接入 Browser Use 这种架构。 明天会更好
1.4K