Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Dette er sannsynligvis det første virkelige arbeidet på OpenClaw 🔥
MetaClaw: Bare snakk med agenten din og la det utvikle seg automatisk.
Github:
De fleste AI-agenter blir frosset i det øyeblikket de sendes ut. Hver feil de gjør, vil de gjøre igjen i morgen. MetaClaw fikser det.
Det er et online RL-lag bygget oppå OpenClaw som lar agenter lære av sine egne interaksjoner — ingen GPU-klynge, ingen offline-datasett, ingen ingeniørteam nødvendig.
Løkken er enkel: hver samtale loggføres som en treningsbane. Når agenten feiler, analyserer den hva som gikk galt og foreslår en ny gjenbrukbar ferdighet. LoRA-oppdateringer trener asynkront i bakgrunnen. Neste gang en lignende situasjon oppstår, hentes den relevante ferdigheten automatisk inn i prompten.
Agenten samler ikke bare samtaler. Den bygger opp kapasitet.
Det som skiller dette fra finjustering: det finnes ingen human labeling-pipeline, ingen batch-treningskjøringer, ingen distribusjonssyklus. Forbedringen skjer kontinuerlig, usynlig, i produksjonen. Interaksjon → læring → forbedring, i en sløyfe.
Ingen offline-datasett. Ingen koding kreves. Ingen GPU-klynge.
Det som er verdt å være oppmerksom på: dette gjør hver brukerinteraksjon til et treningssignal. Agenten du bruker på dag én, er ikke den agenten du har på dag tretti. Den har blitt formet av alt den tok feil og fikset.
Flott arbeid av @HuaxiuYaoML!
Topp
Rangering
Favoritter
