Попереднє навчання моделей Frontier стає дедалі більш концентрованим Обчислювальна потужність, необхідна для найсучаснішого навчання, подвоюється кожні 6–10 місяців, що коштує будь-кого, крім основних лабораторій: OpenAI, Google, Meta та кількох інших з мільярдними бюджетами GPU Templar стає одним із найсерйозніших викликів для цієї спеціалізації, і вони щойно завершили найбільший децентралізований попередній тренувальний забіг В ІСТОРІЇ Вам ПОТРІБНО звертати увагу на відкриті децентралізовані альтернативи @NousResearch також випустив свого Hermes Agent, який отримав назву «наступний OpenClaw» Децентралізоване навчання моделей стане більшим, ніж ви думаєте; Зараз час навчитися Минулого місяця ми опублікували @KhalaResearch звіт про Bittensor, який охоплював Templar (посилання нижче)