Trend Olan Konular
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨Kimse bu gazeteye hazır değil.
Kullandığınız her LLM, GPT-4.1, Claude, Gemini, DeepSeek, Llama-4, Grok, Qwen gibi her LLM'de hiçbir ölçeklendirmenin düzeltemediği bir kusur var.
Eski bilgiyi yeni bilgiden ayırt edemezler.
Bir hastanın tansiyonu: Triage'da 120. 128 on dakika sonra. Tahliye sırasında 125.
"Son okuma nedir?"
Herhangi bir insan: "125, tabii ki."
Her LLM, yeterince güncelleme biriktiğinde: yanlış. Bazen yanlış değil. %100 yanlış. Sıfır doğruluk. Tam bir halüsinasyon. Her model. İstisna yok.
Cevap girdinin en sonunda yer alıyor. Sorudan hemen önce. Arama gerekmiyor.
Model eski değerlerden vazgeçemiyor.
UVA ve NYU araştırmacıları tarafından test edilen 35 model. Hepsi 35 kişi tam olarak aynı matematiksel ölüm eğrisini takip eder. Doğruluk, eski bilgiler biriktikçe log-lineer olarak sıfıra düşer.
Plato yok. Hiçbir iyileşme yok. Tam başarısızlığa doğru bir çizgi.
Bilişsel psikolojiden proaktif müdahale olan eski anıların yenilerini hatırlamayı engelleme adlı bir kavramı ödünç aldılar. İnsanlarda bu etki sabit kalır. Beynimiz gürültüyü bastırmayı ve akıma odaklanmayı öğrenir.
LLM'ler asla dağılmaz. Tamamen kırılana kadar azalırlar.
Araştırmacılar her şeyi denedi:
"Eski değerleri unut" - iğneyi zar zor hareket ettirdi
Düşünce zinciri- aynı çöküş...

En İyiler
Sıralama
Takip Listesi
