Doar o reamintire blândă că nimeni nu ar trebui să folosească Ollama > mai lent decât llama.cpp pe Windows > mai lent decât mlx pe Mac > învelitoare inutilă > hoți de cod la propriu Alternative? > lmstudio > llama.cpp > exllamav2/v3 > vllm > sglang > TRT-LLLM Literalmente orice e mai bun decât Ollama