El preentrenamiento del modelo Frontier se está concentrando cada vez más La computación requerida para el entrenamiento de última generación se duplica cada 6 a 10 meses, excluyendo a todos menos a los grandes laboratorios: OpenAI, Google, Meta y un puñado de otros con presupuestos de GPU de mil millones de dólares Templar está surgiendo como uno de los desafíos más creíbles a esa concentración y acaban de completar la mayor ejecución de preentrenamiento descentralizado, NUNCA NECESITAS prestar atención a las alternativas descentralizadas de código abierto @NousResearch también lanzó su Agente Hermes, que está siendo apodado "el próximo OpenClaw" El entrenamiento de modelos descentralizados se volverá más grande de lo que piensas; ahora es el momento de educarte Publicamos un informe de @KhalaResearch sobre Bittensor el mes pasado que cubría Templar (enlazaré abajo)