O pré-treinamento do modelo Frontier está cada vez mais concentrado A computação necessária para treinamento de última geração dobra a cada 6 a 10 meses, prelevando qualquer um que não seja os grandes laboratórios: OpenAI, Google, Meta e alguns outros com orçamentos bilionários de GPUs Templar está emergindo como um dos desafios mais confiáveis para essa concentração e eles acabaram de completar a maior sequência descentralizada de pré-treinamento de todos os tempos Você PRECISA prestar atenção em alternativas descentralizadas e de código aberto @NousResearch também lançou seu Hermes Agent, que está sendo apelidado de "o próximo OpenClaw" O treinamento descentralizado de modelos vai se tornar maior do que você imagina; Agora é a hora de se informar Publicamos um relatório @KhalaResearch sobre Bittensor no mês passado que abordava Templar (vou colocar o link abaixo)