El preentrenamiento del modelo Frontier está cada vez más concentrado El cálculo necesario para la formación de última generación se duplica cada 6 a 10 meses, dejando fuera de los grandes laboratorios: OpenAI, Google, Meta y algunos otros con presupuestos de GPU de miles de millones Templar está emergiendo como uno de los retos más creíbles para esa concentración y acaban de completar la mayor partida descentralizada de preentrenamiento de la historia NECESITAS prestar atención a alternativas descentralizadas y de código abierto @NousResearch también lanzó su Hermes Agent, que está siendo apodado "el próximo OpenClaw" El entrenamiento descentralizado de modelos será más grande de lo que crees; Ahora es el momento de informarte El mes pasado publicamos un informe @KhalaResearch sobre Bittensor que trataba sobre Templar (enlazaré más abajo)