🚨Niemand ist auf dieses Papier vorbereitet. Jedes LLM, das du verwendest – GPT-4.1, Claude, Gemini, DeepSeek, Llama-4, Grok, Qwen – hat einen Fehler, den kein Maß an Skalierung behoben hat. Sie können alte Informationen nicht von neuen Informationen unterscheiden. Der Blutdruck eines Patienten: 120 bei der Triage. 128 zehn Minuten später. 125 bei der Entlassung. "Was ist der letzte Wert?" Jeder Mensch: "125, offensichtlich." Jedes LLM, sobald genug Updates sich ansammeln: falsch. Nicht manchmal falsch. 100% falsch. Null Genauigkeit. Vollständige Halluzination. Jedes Modell. Keine Ausnahmen. Die Antwort steht ganz am Ende des Inputs. Direkt vor der Frage. Keine Suche nötig. Das Modell kann einfach die alten Werte nicht loslassen. 35 Modelle wurden von Forschern der UVA und NYU getestet. Alle 35 folgen genau derselben mathematischen Todeskurve. Die Genauigkeit sinkt logarithmisch auf null, während veraltete Informationen sich ansammeln. Kein Plateau. Keine Erholung. Nur eine gerade Linie zum totalen Versagen. Sie haben ein Konzept aus der kognitiven Psychologie entlehnt, das proaktive Interferenz heißt – alte Erinnerungen blockieren den Abruf neuer. Bei Menschen hat dieser Effekt ein Plateau. Unser Gehirn lernt, das Rauschen zu unterdrücken und sich auf das Aktuelle zu konzentrieren. LLMs haben niemals ein Plateau. Sie sinken, bis sie komplett versagen. Die Forscher haben alles versucht: "Vergiss die alten Werte" – hat kaum etwas bewirkt. Chain-of-Thought – derselbe Zusammenbruch....