Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨Ingen er klare for denne oppgaven.
Hver LLM du bruker har GPT-4.1, Claude, Gemini, DeepSeek, Llama-4, Grok, Qwen en svakhet som ingen skala har fikset.
De kan ikke skille gammel informasjon fra ny informasjon.
En pasients blodtrykk: 120 ved triage. 128 ti minutter senere. 125 ved utskrivelse.
"Hva er den siste målingen?"
Ethvert menneske: «125, selvfølgelig.»
Hver LLM, når nok oppdateringer hoper seg opp: feil. Ikke noen ganger feil. 100 % feil. Null nøyaktighet. Fullstendig hallusinasjon. Hver modell. Ingen unntak.
Svaret ligger helt på slutten av inputen. Rett før spørsmålet. Ingen leting nødvendig.
Modellen klarer bare ikke å gi slipp på de gamle verdiene.
35 modeller testet av forskere fra UVA og NYU. Alle 35 følger nøyaktig samme matematiske dødskurve. Nøyaktigheten faller log-lineært til null etter hvert som utdatert informasjon akkumuleres.
Ingen platå. Ingen bedring. Bare en rett linje til total fiasko.
De lånte et konsept fra kognitiv psykologi kalt proaktiv interferens – gamle minner blokkerer gjenkalling av nye. Hos mennesker flater denne effekten ut. Hjernen vår lærer å undertrykke støyen og fokusere på det som er aktuellt.
LLM-er flater aldri ut. De forverres til de bryter helt sammen.
Forskerne prøvde alt:
«Glem de gamle verdiene» – endret knapt nålen
Tankekjede – samme kollaps...

Topp
Rangering
Favoritter
