Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨Ingen är redo för den här artikeln.
I varje LLM du använder GPT-4.1, har Claude, Gemini, DeepSeek, Llama-4, Grok, Qwen en brist som ingen skalning har fixat.
De kan inte skilja gammal information från ny information.
En patients blodtryck: 120 vid triage. 128 tio minuter senare. 125 vid utskrivning.
"Vad är det senaste som har blivit avtryckt?"
Vilken människa som helst: "125, uppenbarligen."
Varje LLM, när tillräckligt många uppdateringar samlas på hög: fel. Inte ibland fel. 100% fel. Noll noggrannhet. Fullständig hallucination. Varje modell. Inga undantag.
Svaret ligger längst bak i inmatningen. Precis innan frågan. Ingen letande behövs.
Modellen kan helt enkelt inte släppa de gamla värderingarna.
35 modeller testade av forskare från UVA och NYU. Alla 35 följer exakt samma matematiska dödskurva. Noggrannheten sjunker loglinjärt till noll när föråldrad information samlas på hög.
Ingen platå. Ingen återhämtning. Bara en rak linje till total kollaps.
De lånade ett koncept från kognitiv psykologi som kallas proaktiv interferens – gamla minnen blockerar återkallelse av nya. Hos människor planar denna effekt ut. Våra hjärnor lär sig att dämpa bruset och fokusera på det som är aktuellt.
LLM:er platåar aldrig ut. De försämras tills de går sönder helt.
Forskarna försökte allt:
"Glöm de gamla värderingarna" – det förändrades knappt
Tankekedja – samma kollaps...

Topp
Rankning
Favoriter
