Frontier模型的预训练正日益集中 最先进的训练所需的计算能力每6到10个月翻一番,除了主要实验室(如OpenAI、Google、Meta以及少数拥有十亿美元GPU预算的公司)外,其他人都难以承担 Templar正在成为对这种集中化最具可信度的挑战之一,他们刚刚完成了有史以来最大的去中心化预训练运行 你需要关注开源的去中心化替代方案 @NousResearch还发布了其Hermes Agent,称其为“下一个OpenClaw” 去中心化模型训练将比你想象的更大;现在是自我教育的时候了 我们上个月发布了一份关于Bittensor的@KhalaResearch报告,涵盖了Templar(我会在下面链接)