La pré-formation du modèle Frontier est de plus en plus concentrée La puissance de calcul requise pour un entraînement à la pointe de la technologie double tous les 6 à 10 mois, excluant quiconque sauf les grands laboratoires : OpenAI, Google, Meta, et une poignée d'autres avec des budgets GPU de plusieurs milliards de dollars Templar émerge comme l'un des défis les plus crédibles à cette concentration et ils viennent de réaliser la plus grande course de pré-formation décentralisée, JAMAIS Vous DEVEZ prêter attention aux alternatives décentralisées open source @NousResearch a également publié son Hermes Agent qui est surnommé "le prochain OpenClaw" L'entraînement de modèles décentralisés deviendra plus important que vous ne le pensez ; c'est le moment de vous éduquer Nous avons publié un rapport @KhalaResearch sur Bittensor le mois dernier qui couvrait Templar (je mettrai le lien ci-dessous)