Hanya pengingat lembut bahwa tidak ada yang boleh menggunakan ollama > lebih lambat dari llama.cpp di windows > lebih lambat dari MLX di Mac > slop pembungkus yang tidak berguna > pencuri kode literal alternatif? > lmstudio > llama.cpp > exllamav2/v3 > vllm > sglang > trt-llm Secara harfiah apa pun lebih baik daripada Ollama