Förutbildning inom Frontier-modellen är alltmer koncentrerad Den beräkning som krävs för toppmodern träning fördubblas var sjätte till tionde månad, vilket gör att alla utom de stora laboratorierna: OpenAI, Google, Meta och ett fåtal andra med miljardbudgetar för GPU:er blir dyra Templar håller på att bli en av de mest trovärdiga utmaningarna för den koncentrationen och de har precis slutfört den största decentraliserade förträningsrundan NOSIN, NÅGONSIN Du MÅSTE vara uppmärksam på open source-decentraliserade alternativ @NousResearch släppte också sin Hermes Agent som kallas "nästa OpenClaw" Decentraliserad modellträning kommer att bli större än du tror; Nu är det dags att utbilda sig själv Vi publicerade en @KhalaResearch rapport om Bittensor förra månaden som täckte Templar (jag länkar nedan)