po prostu delikatne przypomnienie, że nikt nie powinien używać ollama > wolniejszy niż llama.cpp na Windows > wolniejszy niż mlx na Mac > bezużyteczny wrapper > dosłowni złodzieje kodu alternatywy? > lmstudio > llama.cpp > exllamav2/v3 > vllm > sglang > trt-llm dosłownie cokolwiek jest lepsze niż ollama