🚨Personne n'est prêt pour ce document. Chaque LLM que vous utilisez, GPT-4.1, Claude, Gemini, DeepSeek, Llama-4, Grok, Qwen a un défaut qu'aucune quantité d'échelle n'a corrigé. Ils ne peuvent pas faire la distinction entre les anciennes informations et les nouvelles informations. La pression artérielle d'un patient : 120 à l'évaluation. 128 dix minutes plus tard. 125 à la sortie. "Quelle est la dernière mesure ?" N'importe quel humain : "125, évidemment." Chaque LLM, une fois que suffisamment de mises à jour s'accumulent : faux. Pas parfois faux. 100% faux. Zéro précision. Hallucination complète. Chaque modèle. Aucune exception. La réponse se trouve à la toute fin de l'entrée. Juste avant la question. Pas besoin de chercher. Le modèle ne peut tout simplement pas se défaire des anciennes valeurs. 35 modèles testés par des chercheurs de l'UVA et de la NYU. Tous les 35 suivent exactement la même courbe de déclin mathématique. La précision chute de manière logarithmique jusqu'à zéro à mesure que les informations obsolètes s'accumulent. Pas de plateau. Pas de récupération. Juste une ligne droite vers un échec total. Ils ont emprunté un concept de la psychologie cognitive appelé interférence proactive, où les anciens souvenirs bloquent le rappel des nouveaux. Chez les humains, cet effet atteint un plateau. Nos cerveaux apprennent à supprimer le bruit et à se concentrer sur ce qui est actuel. Les LLM n'atteignent jamais de plateau. Ils déclinent jusqu'à ce qu'ils se brisent complètement. Les chercheurs ont tout essayé : "Oubliez les anciennes valeurs" - à peine un changement Chaîne de pensée - même effondrement...