Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
C'est probablement le premier travail RL sur OpenClaw 🔥
MetaClaw : Parlez simplement à votre agent et laissez-le évoluer automatiquement.
Github :
La plupart des agents IA sont figés au moment de leur expédition. Chaque erreur qu'ils commettent, ils la reproduiront demain. MetaClaw corrige cela.
C'est une couche RL en ligne construite sur OpenClaw qui permet aux agents d'apprendre de leurs propres interactions — pas de cluster GPU, pas de jeu de données hors ligne, pas d'équipe d'ingénierie requise.
La boucle est simple : chaque conversation est enregistrée comme une trajectoire d'entraînement. Lorsque l'agent échoue, il analyse ce qui a mal tourné et propose une nouvelle compétence réutilisable. Les mises à jour LoRA s'entraînent de manière asynchrone en arrière-plan. La prochaine fois qu'une situation similaire se présente, la compétence pertinente est automatiquement récupérée dans l'invite.
L'agent n'accumule pas seulement des conversations. Il accumule des capacités.
Ce qui rend cela différent du fine-tuning : il n'y a pas de pipeline de labellisation humaine, pas de sessions d'entraînement par lot, pas de cycle de déploiement. L'amélioration se produit en continu, de manière invisible, en production. Interaction → apprentissage → amélioration, en boucle.
Pas de jeu de données hors ligne. Pas de codage requis. Pas de cluster GPU.
La partie à laquelle il vaut la peine de prêter attention : cela transforme chaque interaction utilisateur en un signal d'entraînement. L'agent que vous déployez le premier jour n'est pas l'agent que vous avez le trentième jour. Il a été façonné par tout ce qu'il a mal fait et corrigé.
Excellent travail de @HuaxiuYaoML !
Meilleurs
Classement
Favoris
