Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Conner Brown
Avocat du sénateur Lummis. Œuvrer pour un avenir américain abondant.
C'est extrêmement préoccupant si c'est vrai.
Je peux confirmer que, au cours des trois derniers mois, il y a eu un fort changement au Congrès pour limiter l'exemption de minimis uniquement aux stablecoins.
Le BPI continue de rencontrer des législateurs pour expliquer quelle erreur stratégique cela représenterait pour les États-Unis.
Nous avons passé des années sur ce sujet—nous ne pouvons pas le laisser échapper à la dernière minute.

Marty Bentil y a 14 heures
Entendre que malgré tous les efforts et le lobbying pour l'exemption fiscale de minimis sur le bitcoin, ce n'est autre que @coinbase qui essaie de le faire disparaître en coulisses pour ne promouvoir que les stablecoins.
Apparemment, ils disent aux législateurs que : "Personne n'utilise le bitcoin comme de l'argent. Une exemption de minimis pour le bitcoin est une aide qui sera vouée à l'échec."
64
BPI continue de constituer une équipe de talents solide.
Nous avons une chance incroyable d'accueillir Sam dans l'équipe et j'ai hâte de voir ce qu'il va concocter.

Bitcoin Policy Institute10 mars, 21:02
Nous sommes ravis d'accueillir @SamLyman33 au Bitcoin Policy Institute en tant que notre nouveau Responsable de la Recherche. Sam rejoint BPI après avoir travaillé au Département du Trésor des États-Unis, où il a été conseiller senior et rédacteur en chef des discours de la Secrétaire Bessent. Son expertise en matière de politique des actifs numériques et de communication publique sera inestimable alors que nous élargissons nos efforts de recherche.

130
Le monde change plus vite que nous ne pouvons le comprendre.

Andrej Karpathy10 mars, 06:28
Il y a trois jours, j'ai laissé l'autorecherche ajuster nanochat pendant environ 2 jours sur le modèle depth=12. Il a trouvé environ 20 changements qui ont amélioré la perte de validation. J'ai testé ces changements hier et tous étaient additifs et transférables à des modèles plus grands (depth=24). En cumulant tous ces changements, aujourd'hui j'ai mesuré que le "Temps jusqu'à GPT-2" du classement passe de 2,02 heures à 1,80 heures (environ 11 % d'amélioration), ce sera la nouvelle entrée du classement. Donc oui, ce sont de réelles améliorations et elles font une différence réelle. Je suis légèrement surpris que ma toute première tentative naïve ait déjà aussi bien fonctionné sur ce que je pensais être déjà un projet assez bien ajusté manuellement.
C'est une première pour moi car je suis très habitué à faire l'optimisation itérative de l'entraînement des réseaux de neurones manuellement. Vous proposez des idées, vous les mettez en œuvre, vous vérifiez si elles fonctionnent (meilleure perte de validation), vous proposez de nouvelles idées basées sur cela, vous lisez des articles pour vous inspirer, etc. C'est le pain et le beurre de ce que je fais quotidiennement depuis 2 décennies. Voir l'agent faire tout ce flux de travail de bout en bout et tout seul en parcourant environ 700 changements de manière autonome est incroyable. Il a vraiment examiné la séquence des résultats des expériences et utilisé cela pour planifier les suivantes. Ce n'est pas une "recherche" novatrice et révolutionnaire (pour l'instant), mais tous les ajustements sont "réels", je ne les avais pas trouvés manuellement auparavant, et ils s'accumulent et ont réellement amélioré nanochat. Parmi les choses plus importantes, par exemple :
- Il a remarqué un oubli que mon QKnorm sans paramètre n'avait pas de multiplicateur de mise à l'échelle attaché, donc mon attention était trop diffuse. L'agent a trouvé des multiplicateurs pour l'affiner, pointant vers un travail futur.
- Il a découvert que les Value Embeddings aiment vraiment la régularisation et je n'en appliquais aucune (oups).
- Il a trouvé que mon attention bandée était trop conservatrice (j'ai oublié de l'ajuster).
- Il a constaté que les betas d'AdamW étaient tous dérangés.
- Il a ajusté le calendrier de décroissance du poids.
- Il a ajusté l'initialisation du réseau.
C'est en plus de tout l'ajustement que j'ai déjà fait sur une bonne période. Le commit exact est ici, de ce "round 1" d'autorecherche. Je vais lancer le "round 2", et en parallèle, je regarde comment plusieurs agents peuvent collaborer pour débloquer le parallélisme.
Tous les laboratoires de pointe en LLM feront cela. C'est le combat final. C'est bien plus complexe à grande échelle, bien sûr - vous n'avez pas juste un seul fichier train.py à ajuster. Mais le faire est "juste de l'ingénierie" et ça va fonctionner. Vous déployez un essaim d'agents, vous les faites collaborer pour ajuster des modèles plus petits, vous promouvez les idées les plus prometteuses à des échelles de plus en plus grandes, et les humains (en option) contribuent sur les bords.
Et plus généralement, *toute* métrique qui vous intéresse et qui est raisonnablement efficace à évaluer (ou qui a des métriques proxy plus efficaces comme l'entraînement d'un réseau plus petit) peut être autorecherchée par un essaim d'agents. Cela vaut la peine de réfléchir à savoir si votre problème entre également dans cette catégorie.

268
Meilleurs
Classement
Favoris
