Det är därför vi behöver öppna benchmarks för lokal AI. Annars övergår det i tribalism och namnklack. Vi kommer att publicera den största databasen med öppna benchmarks för lokal AI, testade på 1 000+ verkliga hårdvaruuppställningar. Varje enhet, varje sammankoppling, olika modeller/kvantiseringar. Vi har ett kontor fullt av hårdvara: varje M-chip Mac, varje iPhone, varje RTX, DGX Spark, Strix Halo, Pi, ... Generellt har Apple Silicon överlägsen minnesenhetsekonomi och GPU:er har överlägsen beräkningsenhetseffektivitet. Vad som är bäst beror på arbetsbelastningen och samtidigheten. Sanningen (som kommer att framgå av de öppna benchmarkarna) är att det bästa är en kombination av de två – lägg dina minneskrävande minnesbundna saker på Macarna, datorbundna på GPU:erna.