Frontier 模型的預訓練越來越集中 最先進的訓練所需的計算能力每 6 到 10 個月翻倍,讓除了主要實驗室(如 OpenAI、Google、Meta 及少數幾個擁有十億美元 GPU 預算的公司)之外的任何人都無法負擔 Templar 正在成為對這種集中化最具可信度的挑戰之一,他們剛剛完成了有史以來最大的去中心化預訓練運行 你需要關注開源的去中心化替代方案 @NousResearch 也發布了其 Hermes Agent,這被稱為「下一個 OpenClaw」 去中心化模型訓練將變得比你想的更大;現在是時候讓自己受教育了 我們上個月發布了一份關於 Bittensor 的 @KhalaResearch 報告,涵蓋了 Templar(我會在下面鏈接)