Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
"La arquitectura sandbox de agentes de Openclaw bajo popularidad: desde elecciones tecnológicas hasta historias de seguridad comprensibles para la gente común"
Dos modos
Imagina contratar a un guardia de seguridad para cuidar tu hogar. Tienes dos opciones:
Opción 1: El guardia de seguridad vive en tu casa, pero guarda la caja de herramientas en la caja fuerte. Los guardias de seguridad pueden moverse y ver tu casa, pero no pueden conseguir las llaves.
Opción 2: El guardia de seguridad vive en la cabina de vigilancia exterior y no hay nada para él en casa. Si quiere conseguir cualquier cosa, tiene que encontrar a tu ama de llaves.
Browser Use (que ejecuta millones de agentes web) eligió la Opción 2. Sus historias son realmente relevantes para todos los que usan IA.

II.
Cómo hacerlo con el uso del navegador
Inicialmente usaron la Opción 1: el agente se ejecutaba en su propio servidor y la ejecución del código se colocaba en un sandbox aislado. Suena seguro, ¿verdad? Pero hay un problema: el propio agente sigue en el servidor y puede ver variables de entorno, claves de API, credenciales de base de datos. ¿Y si el agente decide "robar algo"?
III.
Así que reescribieron toda la arquitectura:
• Aislamiento Completo del Agente: Cada Agente se ejecuta en su propia micro-VM Unikraft y arranca en menos de un segundo
•Plano de control como steward: Toda la comunicación externa (LLM, almacenamiento de archivos, facturación) pasa por el plano de control, que contiene todas las credenciales
• El sandbox no sabe nada: el agente solo recibe tres variables de entorno: token de sesión, URL del plano de control, ID de sesión. Sin claves de AWS, sin credenciales de base de datos
• Desechabilidad: ¿Está muerto el agente? Reinicia uno. ¿Pérdida de estatus? El plano de control tiene todo el contexto. No tiene nada que robar ni un estado que mantener
4.
Detalles técnicos: Micro-VM Unikraft para producción (escala a cero, suspendida cuando está inactiva), contenedor Docker para desarrollo. El mismo espejo en todas partes.
Perspectiva de la gente común: ¿Qué tiene esto que ver conmigo?
Puede que no sepas qué es una "micro-VM" o "URLs prefirmadas", pero estás tratando con esta arquitectura cuando trabajas con IA.
5.
Sensación de seguridad: Cuando usas un servicio de IA para escribir código y comprobar datos, en realidad están ejecutando tu solicitud en una máquina virtual aislada. Si la arquitectura no está bien diseñada (Opción 1), el Agente de IA puede ver teóricamente todos los secretos del lado del servicio: contraseñas de la base de datos, claves API y datos de otros usuarios.
6.
Coste y velocidad: La opción 2 tiene un precio: un salto más en la red por operación. Sin embargo, comparado con el tiempo de respuesta de los LLM, esta latencia es casi insignificante. Además, la máquina virtual se queda colgada cuando el agente está inactivo y el coste es casi nulo.
Privacidad de datos: ¿Cómo almacenas tus archivos? El sandbox pide al plano de control una URL prefirmada y la sube directamente a S3. Todo el sandbox no veía las claves de AWS. Tus datos no se filtran al agente.
VII.
Mis impresiones: On-premises vs. Cloud
Mi configuración actual (OpenClaw + LM Studio + x-reader) es una típica "versión independiente":
• El modelo se ejecuta localmente (Qwen3.5-35B en RTX 3090)
• El agente no está aislado (porque está en tu ordenador)
• Los datos son completamente locales
Esto se compara con el plan de Browser Use:
Dimensiones
Agente local (EE. UU.)
Agente de aislamiento en la nube (uso del navegador)
Privacidad
Los datos no son locales
Los datos se suben a la nube, pero el agente no puede obtener la clave
Seguridad
Confía en la protección en las instalaciones
Los agentes están completamente aislados y no pueden ser robados
Coste
Inversión puntual en hardware
Pago por uso (escala a cero)
Escalabilidad
Limitado por hardware local
Escalado ilimitado, paralelismo multiagente
Retraso
Latencia de red cero
Un salto más en la red (pero insignificante)
VIII.
Mi veredicto: el futuro será un modelo híbrido.
• Tareas sencillas ejecutadas localmente: escribir un script, comprobar un dato, organizar archivos, esto puede hacerse localmente, con buena privacidad y rapidez
• Tareas complejas en la nube: Cuando es necesario ejecutar múltiples agentes en paralelo, procesando grandes cantidades de datos y funcionando durante mucho tiempo, es más adecuado usar el uso del navegador
9.
No hay nada en primer lugar, ¿dónde está el polvo?
Tu agente no debería tener nada que robar ni ningún estado que mantener.
Esta frase se traduce al vernáculo:
• No merece la pena robar: Los agentes no conocen ningún secreto. ¿Se requiere un token para los LLMs? El plano de control lo da, tíralo cuando se acabe. ¿Quiere guardar archivos? La URL prefirmada es temporal, caduca y se vuelve inválida.
• No hay necesidad de esperar: ¿Agente muerto? Reinicia uno nuevo. ¿El contexto que recuerda? Los registros completos están disponibles en la base de datos del plano de control.
Esta es en realidad la aplicación de la arquitectura Zero Trust en la era de la IA: no confíes en ningún componente, ni siquiera si es un agente escrito por ti mismo.
10.
¿Cómo deberían aprender los novatos en IA?
1. Elección de herramientas de IA: Al utilizar servicios de IA en la nube, pregúntate: ¿qué puedo conseguir si este agente se descontrola? Una buena arquitectura debería hacer que "no sepa nada".
2. Conciencia de la privacidad: La IA local ejecuta tareas sencillas (OpenClaw, LM Studio) y los datos sensibles no se suben a la nube. Las tareas complejas están aisladas en la nube, pero hay que saber que los datos salen de las instalaciones locales.
3Flujos de trabajo futuros: La colaboración entre una persona + varios agentes es la tendencia (Karpathy dice Tab→Agent→Agentes Paralelos→Equipos de Agentes). Pero todos los agentes deberían estar en cuarentena y no permitirse "vivir en tu casa".
XI.
El equilibrio entre seguridad y eficiencia
La solución de Browser Use no es perfecta: tres servicios más por desplegar y un salto de red más por operación. Pero comparado con el riesgo de que "el agente roba todas las llaves", estos agentes se pagan ellos mismos.
Para quienes somos sistemas nativos de IA, la iluminación es:
• Escenario sencillo: Seguir usando la solución local (OpenClaw + LM Studio), que ofrece buena privacidad y bajo coste
• Escenarios complejos: En el futuro, puede ser necesario acceder al servicio de agente de aislamiento en la nube para permitir que profesionales realicen tareas profesionales
La seguridad de la IA no es metafísica, es diseño de arquitectura. Un buen diseño deja a los agentes "sin nada": sin secretos que robar ni estatus en el que apoyarse.
XII.
Probablemente así será el futuro de la infraestructura de IA: los agentes son desechables, los planos de control son de confianza y los datos de los usuarios están protegidos.
¿Y nosotros? Sigue usando OpenClaw para ejecutar agentes locales y, cuando necesites ejecutar decenas o cientos de paralelos algún día, considera acceder a la arquitectura de Uso del Navegador.
Mañana será mejor
1.41K
Populares
Ranking
Favoritas
