Il pre-addestramento del modello Frontier è sempre più concentrato La potenza di calcolo richiesta per l'addestramento all'avanguardia raddoppia ogni 6-10 mesi, escludendo chiunque tranne i grandi laboratori: OpenAI, Google, Meta e un pugno di altri con budget per GPU da miliardi di dollari Templar sta emergendo come una delle sfide più credibili a questa concentrazione e hanno appena completato il più grande run di pre-addestramento decentralizzato, MAI Devi prestare attenzione alle alternative decentralizzate open source @NousResearch ha anche rilasciato il suo Hermes Agent, che viene soprannominato "il prossimo OpenClaw" L'addestramento di modelli decentralizzati diventerà più grande di quanto pensi; è il momento di informarti Abbiamo pubblicato un rapporto di @KhalaResearch su Bittensor il mese scorso che copriva Templar (metterò il link qui sotto)