C'est pourquoi nous avons besoin de références ouvertes pour l'IA locale. Sinon, cela se transforme en tribalisme et en insultes. Nous allons publier la plus grande base de données de références ouvertes pour l'IA locale, testée sur plus de 1 000 configurations matérielles réelles. Chaque appareil, chaque interconnexion, différents modèles/quantifications. Nous avons un bureau rempli de matériel : chaque Mac avec puce M, chaque iPhone, chaque RTX, DGX Spark, Strix Halo, Pi, … En général, le silicium d'Apple a une économie d'unités de mémoire supérieure et les GPU ont une économie d'unités de calcul supérieure. Ce qui est le meilleur dépend de la charge de travail et de la concurrence. La vérité (qui sera évidente dans les références ouvertes) est que le meilleur est une combinaison des deux - mettez vos tâches gourmandes en mémoire sur les Macs, et les tâches liées au calcul sur les GPU.