トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨誰もこの新聞に準備ができていません。
GPT-4.1、Claude、Gemini、DeepSeek、Llama-4、Grok、Qwenを使うすべてのLLMには、どんなスケーリングでも修正できない欠陥があります。
古い情報と新しい情報を見分けることができません。
患者の血圧:トリアージ時120。128、10分後。退院時125。
「最新の数値は?」
人間なら誰でも:「125、もちろん。」
どのLLM(大文字モデル)でも、十分なアップデートが積み重なれば間違いです。時々間違っているわけではありません。完全に間違いです。正確さはゼロです。完全な幻覚だ。すべてのモデルです。例外はない。
答えは入力の一番最後にあります。質問の直前です。探す必要はなかった。
モデルは古い価値観を手放せないのです。
UVAとNYUの研究者によって35台のモデルがテストされました。35人すべてがまったく同じ数学的死の曲線に従っています。古い情報が蓄積されると、正確さは対数線形でゼロに落ちます。
停滞期もありません。回復はできません。ただ完全な失敗へのまっすぐな道だ。
彼らは認知心理学から「積極的干渉」という概念を借用し、古い記憶が新しい記憶の想起を妨げるというものでした。人間では、この効果は停滞します。脳は雑音を抑え、現在の流れに集中することを学びます。
LLMは決して停滞しません。彼らは完全に壊れるまで拒否し続けます。
研究者たちはあらゆることを試みました:
「古い価値観は忘れろ」――ほとんど変化はなかった
思考の連鎖 - 同じ崩壊...

トップ
ランキング
お気に入り
