Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Este é provavelmente o primeiro trabalho de RL sobre o OpenClaw 🔥
MetaClaw: Basta falar com o seu agente e deixá-lo evoluir automaticamente.
Github:
A maioria dos agentes de IA fica congelada no momento em que é lançada. Cada erro que cometem, eles o cometerão novamente amanhã. O MetaClaw resolve isso.
É uma camada de RL online construída sobre o OpenClaw que permite que os agentes aprendam com suas próprias interações — sem cluster de GPU, sem conjunto de dados offline, sem equipe de engenharia necessária.
O ciclo é simples: cada conversa é registrada como uma trajetória de treinamento. Quando o agente falha, ele analisa o que deu errado e propõe uma nova habilidade reutilizável. As atualizações do LoRA treinam de forma assíncrona em segundo plano. Na próxima vez que uma situação semelhante surgir, a habilidade relevante é recuperada automaticamente para o prompt.
O agente não acumula apenas conversas. Ele acumula capacidade.
O que torna isso diferente do ajuste fino: não há pipeline de rotulagem humana, não há execuções de treinamento em lote, não há ciclo de implantação. A melhoria acontece continuamente, invisivelmente, em produção. Interação → aprendizado → melhoria, em um ciclo.
Sem conjunto de dados offline. Sem codificação necessária. Sem cluster de GPU.
A parte que vale a pena prestar atenção: isso transforma cada interação do usuário em um sinal de treinamento. O agente que você implanta no primeiro dia não é o mesmo agente que você tem no trigésimo dia. Ele foi moldado por tudo o que errou e corrigiu.
Ótimo trabalho de @HuaxiuYaoML !
Top
Classificação
Favoritos
