De pre-training van het Frontier-model is steeds meer geconcentreerd De rekenkracht die nodig is voor state-of-the-art training verdubbelt elke 6 tot 10 maanden, waardoor alleen de grote laboratoria zoals OpenAI, Google, Meta en een handvol anderen met miljard-dollar GPU-budgetten het zich kunnen veroorloven Templar komt naar voren als een van de meest geloofwaardige uitdagingen voor die concentratie en ze hebben net de grootste gedecentraliseerde pre-training run, OOIT, voltooid Je MOET aandacht besteden aan open-source gedecentraliseerde alternatieven @NousResearch heeft ook zijn Hermes Agent uitgebracht, die wordt bestempeld als “de volgende OpenClaw” Gedecentraliseerde modeltraining zal groter worden dan je denkt; nu is het tijd om jezelf te onderwijzen We hebben vorige maand een rapport van @KhalaResearch over Bittensor gepubliceerd, dat Templar behandelde (ik zal hieronder linken)