Das Pre-Training des Frontier-Modells konzentriert sich zunehmend Die Rechenleistung, die für das Training auf dem neuesten Stand der Technik erforderlich ist, verdoppelt sich alle 6 bis 10 Monate, wodurch nur noch die großen Labore wie OpenAI, Google, Meta und eine Handvoll anderer mit Milliarden-Dollar-GPU-Budgets wettbewerbsfähig bleiben. Templar entwickelt sich zu einer der glaubwürdigsten Herausforderungen für diese Konzentration und hat gerade den größten dezentralen Pre-Training-Lauf, EVER, abgeschlossen. Du MUSST auf offene, dezentrale Alternativen achten. @NousResearch hat auch seinen Hermes-Agenten veröffentlicht, der als "der nächste OpenClaw" bezeichnet wird. Dezentralisiertes Modelltraining wird größer werden, als du denkst; jetzt ist die Zeit, dich zu informieren. Wir haben letzten Monat einen Bericht von @KhalaResearch über Bittensor veröffentlicht, der Templar behandelt (ich werde unten verlinken).