🚨Nikt nie jest gotowy na ten dokument. Każdy LLM, którego używasz, GPT-4.1, Claude, Gemini, DeepSeek, Llama-4, Grok, Qwen ma wadę, której nie naprawiło żadne skalowanie. Nie potrafią odróżnić starych informacji od nowych. Ciśnienie krwi pacjenta: 120 w triage. 128 dziesięć minut później. 125 przy wypisie. "Jakie jest najnowsze odczyt?" Każdy człowiek: "125, oczywiście." Każdy LLM, gdy wystarczająco dużo aktualizacji się nagromadzi: błędny. Nie czasami błędny. 100% błędny. Zero dokładności. Całkowita halucynacja. Każdy model. Bez wyjątków. Odpowiedź znajduje się na samym końcu wejścia. Tuż przed pytaniem. Nie ma potrzeby szukać. Model po prostu nie może puścić starych wartości. 35 modeli testowanych przez badaczy z UVA i NYU. Wszystkie 35 podąża za dokładnie tą samą matematyczną krzywą śmierci. Dokładność spada logarytmicznie do zera, gdy gromadzą się przestarzałe informacje. Brak plateau. Brak regeneracji. Po prostu prosta linia do całkowitej porażki. Pożyczyli koncepcję z psychologii poznawczej zwaną proaktywną interferencją, gdzie stare wspomnienia blokują przypomnienie nowych. U ludzi ten efekt osiąga plateau. Nasze mózgi uczą się tłumić szum i koncentrować na tym, co aktualne. LLM nigdy nie osiągają plateau. Spadają, aż całkowicie się psują. Badacze próbowali wszystkiego: "Zapomnij o starych wartościach" - ledwo ruszyło wskaźnik Chain-of-thought - ten sam upadek...