🚨Ніхто не готовий до цієї роботи. Кожна LLM, яку ви використовуєте, GPT-4.1, Claude, Gemini, DeepSeek, Llama-4, Grok, Qwen має недолік, який жодне масштабування не виправляє. Вони не можуть відрізнити стару інформацію від нової. Артеріальний тиск пацієнта: 120 під час сортування. 128 через десять хвилин. 125 при виписці. "Які останні показники?" Будь-яка людина: «125, очевидно.» Кожна LLM, коли накопичується достатньо оновлень: неправильно. Іноді не помиляється. На 100% неправильно. Нульова точність. Повна галюцинація. Кожна модель. Без винятків. Відповідь лежить у самому кінці введення даних. Прямо перед питанням. Пошуки не потрібні. Модель просто не може відпустити старі значення. 35 моделей, протестованих дослідниками з UVA та NYU. Усі 35 слідують однаковій математичній кривій смерті. Точність падає лог-лінійно до нуля у міру накопичення застарілої інформації. Немає плато. Відновлення немає. Просто пряма лінія до повного провалу. Вони запозичили концепцію з когнітивної психології, яка називається проактивною інтерференцією: старі спогади блокують пригадування нових. У людей цей ефект фіксується на плато. Наш мозок вчиться пригнічувати шум і зосереджуватися на поточному. LLM ніколи не плато. Вони занепадають, поки не зламаються повністю. Дослідники перепробували все: "Забудь старі цінності" — ледве зрушило ситуацію Ланцюг думок — той самий колапс...