🚨Ingen er klare for denne oppgaven. Hver LLM du bruker har GPT-4.1, Claude, Gemini, DeepSeek, Llama-4, Grok, Qwen en svakhet som ingen skala har fikset. De kan ikke skille gammel informasjon fra ny informasjon. En pasients blodtrykk: 120 ved triage. 128 ti minutter senere. 125 ved utskrivelse. "Hva er den siste målingen?" Ethvert menneske: «125, selvfølgelig.» Hver LLM, når nok oppdateringer hoper seg opp: feil. Ikke noen ganger feil. 100 % feil. Null nøyaktighet. Fullstendig hallusinasjon. Hver modell. Ingen unntak. Svaret ligger helt på slutten av inputen. Rett før spørsmålet. Ingen leting nødvendig. Modellen klarer bare ikke å gi slipp på de gamle verdiene. 35 modeller testet av forskere fra UVA og NYU. Alle 35 følger nøyaktig samme matematiske dødskurve. Nøyaktigheten faller log-lineært til null etter hvert som utdatert informasjon akkumuleres. Ingen platå. Ingen bedring. Bare en rett linje til total fiasko. De lånte et konsept fra kognitiv psykologi kalt proaktiv interferens – gamle minner blokkerer gjenkalling av nye. Hos mennesker flater denne effekten ut. Hjernen vår lærer å undertrykke støyen og fokusere på det som er aktuellt. LLM-er flater aldri ut. De forverres til de bryter helt sammen. Forskerne prøvde alt: «Glem de gamle verdiene» – endret knapt nålen Tankekjede – samme kollaps...