Frontier-modellens fortrening blir stadig mer konsentrert Beregningen som kreves for toppmoderne trening dobles hver 6. til 10. måned, noe som utkonkurrerer alle andre enn de store laboratoriene: OpenAI, Google, Meta og noen få andre med milliard-dollar GPU-budsjetter Templar fremstår som en av de mest troverdige utfordringene for denne konsentrasjonen, og de har nettopp fullført den største desentraliserte pre-treningsrunden, NOENSINNE Du MÅ være oppmerksom på åpne og desentraliserte alternativer @NousResearch ga også ut sin Hermes Agent, som nå kalles «den neste OpenClaw». Desentralisert modelltrening vil bli større enn du tror; Nå er tiden inne for å utdanne deg Vi publiserte en @KhalaResearch rapport om Bittensor forrige måned som dekket Templar (jeg legger ut lenken nedenfor)