Предварительное обучение модели Frontier становится все более сосредоточенным Вычислительные мощности, необходимые для обучения на уровне современных технологий, удваиваются каждые 6-10 месяцев, что делает это недоступным для всех, кроме крупных лабораторий: OpenAI, Google, Meta и нескольких других с миллиардными бюджетами на GPU Templar становится одним из самых серьезных вызовов этой концентрации, и они только что завершили крупнейший в истории децентрализованный запуск предварительного обучения Вам НУЖНО обратить внимание на открытые децентрализованные альтернативы @NousResearch также выпустила своего агента Hermes, который называют "следующим OpenClaw" Децентрализованное обучение моделей станет больше, чем вы думаете; сейчас самое время получить знания Мы опубликовали отчет @KhalaResearch о Bittensor в прошлом месяце, в котором рассматривался Templar (ссылку приведу ниже)