Toto je pravděpodobně první práce na reálném životě na OpenClaw 🔥 MetaClaw: Prostě mluv se svým agentem a nech to vyvíjet se automaticky. Github: Většina AI agentů je zmrazena hned po odeslání. Každou chybu, kterou udělají, udělají zítra znovu. MetaClaw to napravuje. Je to online RL vrstva postavená na OpenClaw, která umožňuje agentům učit se z vlastních interakcí — žádný GPU cluster, žádný offline dataset, žádný inženýrský tým nepotřebuji. Smyčka je jednoduchá: každý rozhovor je zaznamenán jako tréninková trajektorie. Když agent selže, analyzuje, co se pokazilo, a navrhne novou znovupoužitelnou dovednost. LoRA se aktualizuje asynchronně na pozadí. Při další podobné situaci se příslušná dovednost automaticky vyhledá v promptu. Agent nejen sbírá konverzace. Akumuluje schopnosti. Co to odlišuje od jemného ladění: neexistuje lidský označovací pipeline, žádné dávkové trénovací běhy, žádný cyklus nasazení. Zlepšení probíhá nepřetržitě, neviditelně, ve výrobě. Interakce → učení → zlepšování, pořád dokola. Žádný offline dataset. Není potřeba žádné programování. Žádný GPU cluster. Část, na kterou stojí za to si dát pozor: promění každou uživatelskou interakci v tréninkový signál. Agent, kterého nasadíte první den, není ten, kterého máte třicátý den. Bylo to formováno vším, co udělalo špatně a opravilo. Skvělá práce od @HuaxiuYaoML!