《Openclaw populaire Agent Sandbox Architectuur: van technische keuzes tot een beveiligingsverhaal dat gewone mensen begrijpen》 Twee modi Stel je voor dat je een beveiligingsagent inhuurt om op je huis te passen. Je hebt twee keuzes: Optie één: de beveiligingsagent woont bij jou thuis, maar houdt zijn gereedschapskist in een kluis. De beveiligingsagent kan zich verplaatsen en je huis zien, maar kan de sleutel niet krijgen. Optie twee: de beveiligingsagent woont in een buitenpost, zonder enige spullen in je huis. Als hij iets wil, moet hij je huismeester om hulp vragen. Browser Use Company (zij draaien miljoenen Web Agents) koos voor optie twee. Hun verhaal heeft eigenlijk te maken met iedereen die AI gebruikt.
Twee, Hoe gebruik je de browser? Ze gebruikten aanvankelijk optie één: de Agent draait op zijn eigen server, de code-uitvoering vindt plaats in een geïsoleerde sandbox. Klinkt veilig, toch? Maar er is een probleem: de Agent zelf is nog steeds op de server, hij kan de omgevingsvariabelen, API-sleutels en database-inloggegevens zien. Wat als de Agent besluit om "iets te stelen"?
Drie, Dus hebben ze de hele architectuur herschreven: • Agent volledig geïsoleerd: elke Agent draait in zijn eigen Unikraft micro-VM, opstarten duurt minder dan een seconde • Besturingsvlak als huismeester: alle externe communicatie (LLM aanroepen, bestanden opslaan, facturering) gaat via het besturingsvlak, dat alle certificaten beheert • Sandbox weet niets: Agent ontvangt slechts drie omgevingsvariabelen - sessie token, besturingsvlak URL, sessie ID. Geen AWS-sleutels, geen database-inloggegevens • Wegwerpbaarheid: Agent dood? Start er een opnieuw. Status kwijt? Het besturingsvlak heeft de volledige context. Het heeft niets dat het waard is om te stelen, en geen status die bewaard moet worden.
Vier, Technische details: productie met Unikraft micro-VM (scale-to-zero, inactief als het niet in gebruik is), ontwikkeling met Docker-containers. Hetzelfde beeld overal. Perspectief van de gewone man: wat heeft dit met mij te maken? Je weet misschien niet wat "micro-VM" of "presigned URLs" zijn, maar wanneer je AI gebruikt, heb je al met deze architectuur te maken.
V. Veiligheidsgevoel: Wanneer je een bepaalde AI-dienst gebruikt om code te schrijven of informatie op te zoeken, draaien ze jouw verzoeken eigenlijk in een geïsoleerde VM. Als de architectuur slecht is ontworpen (optie één), kan die AI-agent theoretisch gezien alle geheimen van de dienstverlener zien - databasewachtwoorden, API-sleutels, gegevens van andere gebruikers.
Zes, Kosten en snelheid: optie twee heeft een prijs - elke keer dat je een netwerkoverstap maakt. Maar vergeleken met de responstijd van LLM is deze vertraging bijna verwaarloosbaar. Belangrijker is dat de VM in de wachtstand gaat wanneer de Agent inactief is, waardoor de kosten bijna nul zijn. Gegevensprivacy: hoe worden jouw bestanden opgeslagen? De sandbox vraagt een presigned URL aan het controlepaneel en uploadt deze vervolgens rechtstreeks naar S3. Gedurende het hele proces heeft de sandbox de AWS-sleutels nooit gezien. Jouw gegevens worden niet aan de Agent onthuld.
Zeven, Mijn overweging: lokaal vs. cloud Mijn huidige setup (OpenClaw + LM Studio + x-reader) is typisch een "standalone versie": • Model draait lokaal (Qwen3.5-35B op RTX 3090) • Agent is niet geïsoleerd (omdat hij op je computer staat) • Gegevens volledig lokaal Dit in vergelijking met de Browser Use-oplossing: Dimensies Lokaal enkele Agent (wij) Cloud-geïsoleerde Agent (Browser Use) Privacy Gegevens blijven lokaal Gegevens gaan naar de cloud, maar Agent krijgt de sleutels niet Veiligheid Afhankelijk van lokale bescherming Agent volledig geïsoleerd, niets te stelen Kosten Eenmalige hardware-investering Betalen per gebruik (scale-to-zero) Schaalbaarheid Beperkt door lokale hardware Onbeperkte schaalbaarheid, meerdere Agents parallel Vertraging Geen netwerklatentie Een extra netwerkhop (maar te verwaarlozen)
Acht, Mijn oordeel: de toekomst zal een hybride model zijn. • Eenvoudige taken lokaal uitvoeren: een script schrijven, informatie opzoeken, documenten ordenen, dit kan lokaal worden gedaan, privacy is goed, snelheid is snel. • Complexe taken in de cloud: wanneer meerdere Agenten parallel moeten werken, grote hoeveelheden data moeten verwerken en langdurig moeten draaien, is een architectuur zoals Browser Use geschikter.
Negen, Oorspronkelijk is er niets, waar komt het stof vandaan? Je Agent zou niets moeten hebben dat het waard is om te stelen, en er is ook geen status die bewaard moet blijven. In gewone taal betekent dit: • Niet waard om te stelen: de Agent weet geen geheimen. Het vraagt tokens van de LLM? Die worden gegeven door het controlepaneel, en als ze gebruikt zijn, worden ze weggegooid. Moet het bestanden opslaan? Presigned URL's zijn tijdelijk en vervallen na verloop van tijd. • Niet nodig om te bewaren: is de Agent dood? Start een nieuwe op. Wat het zich herinnert van de context? Het controlepaneel heeft een volledige registratie in de database. Dit is eigenlijk de toepassing van een zero-trust architectuur in het AI-tijdperk: vertrouw geen enkele component, zelfs niet je eigen geschreven Agent.
Tien, Hoe moet een AI-beginner leren? 1. Keuze van AI-tools: wanneer je gebruikmaakt van cloud-AI-diensten, vraag jezelf af - als deze Agent de controle verliest, wat kan hij dan krijgen? Een goede architectuur zou ervoor moeten zorgen dat hij "niets weet". 2. Privacybewustzijn: lokale AI voor eenvoudige taken (OpenClaw, LM Studio), gevoelige gegevens gaan niet naar de cloud. Voor complexe taken gebruik je cloud-isolatieoplossingen, maar je moet weten dat gegevens je lokale omgeving verlaten. 3. Toekomstige workflows: een persoon + meerdere Agents samenwerken is de trend (Karpathy's Tab→Agent→Parallel Agents→Agent Teams). Maar elke Agent moet geïsoleerd zijn, je moet niet toestaan dat hij "bij jou thuis woont".
Elf, De afweging tussen veiligheid en efficiëntie De Browser Use-oplossing is niet perfect - er moeten drie extra diensten worden ingezet, en elke operatie vereist een extra netwerkstap. Maar in vergelijking met het risico dat "Agent alle sleutels steelt", zijn deze kosten de moeite waard. Voor mensen zoals wij met een lokale AI-setup is de boodschap: • Eenvoudige scenario's: blijf de lokale oplossing gebruiken (OpenClaw + LM Studio), goede privacy, lage kosten • Complexe scenario's: in de toekomst kan het nodig zijn om cloud-geïsoleerde Agent-diensten te integreren, zodat professionals hun vak kunnen uitoefenen. AI-veiligheid is geen mystiek, het is architectuurontwerp. Een goed ontwerp zorgt ervoor dat de Agent "niets heeft" - geen geheimen om te stelen, geen status om op terug te vallen.
Twaalf, Dit is waarschijnlijk hoe de toekomstige AI-infrastructuur eruit zal zien: Agenten zijn wegwerpbaar, het controlevlak is betrouwbaar, en gebruikersgegevens zijn beschermd. Wat ons betreft? Blijf lokale Agenten draaien met OpenClaw, en als we op een dag tientallen of honderden parallel moeten draaien, dan overwegen we om een architectuur zoals Browser Use aan te sluiten. Morgen wordt beter
1,4K