O pré-treinamento do modelo Frontier está cada vez mais concentrado O poder computacional necessário para o treinamento de ponta dobra a cada 6 a 10 meses, excluindo qualquer um que não sejam os grandes laboratórios: OpenAI, Google, Meta e um punhado de outros com orçamentos de GPU de bilhões de dólares A Templar está emergindo como um dos desafios mais credíveis a essa concentração e eles acabaram de completar o maior treinamento descentralizado de pré-treinamento, NUNCA Você PRECISA prestar atenção às alternativas descentralizadas de código aberto @NousResearch também lançou seu Hermes Agent, que está sendo chamado de “o próximo OpenClaw” O treinamento de modelos descentralizados se tornará maior do que você pensa; agora é a hora de se educar Publicamos um relatório da @KhalaResearch sobre o Bittensor no mês passado que cobriu a Templar (vou linkar abaixo)