フロンティアモデルの事前学習はますます集中しています 最先端のトレーニングに必要な計算量は6〜10ヶ月ごとに倍増し、OpenAI、Google、Meta、そして数十億ドル規模のGPU予算を持つ大手研究所以外の誰も買い物できません テンプラーはその集中に対する最も信頼できる挑戦の一つとして浮上しており、彼らは史上最大規模の分散型事前訓練を完了したばかりです オープンソースの分散型代替案に注意を払う必要があります @NousResearchまた、「次のOpenClaw」と称されるHermes Agentもリリースしました 分散型モデルトレーニングは思っている以上に大きくなります。今こそ自分を学ぶ時です 先月、テンプラーについて@KhalaResearchレポートを発表しました(下にリンクを貼ります)