🚨BREAKING: OpenAI sa att varje uppdatering gör ChatGPT smartare. Stanford bevisade motsatsen. GPT-4:s noggrannhet på matteuppgifter sjönk från 97,6 % till 2,4 % på bara tre månader. Och ingen har berättat det för dig. Forskare vid Stanford och UC Berkeley följde ChatGPT:s faktiska prestanda över tid. Samma prompts. Samma uppgifter. Olika resultat. Modellen som nästan klarade mattefrågorna i mars hade fel 97 av 100 gånger i juni. Kodgenereringen kollapsade också. I mars fungerade över 50 % av GPT-4:s kod perfekt på första försöket. I juni gjorde endast 10 % det. Samma frågor. Dramatiskt sämre svar. Varje tyst uppdatering OpenAI släppte gjorde produkten du betalar 20 dollar i månaden för tyst sämre än det du faktiskt använder den för. Forskarna testade GPT-3.5 och GPT-4 inom matematik, kodning, medicinska undersökningar, resonemang och känsliga frågor. Driften var massiv och oförutsägbar. Vissa uppgifter förbättrades. Andra föll ner för ett stup. Och det fanns inget sätt för dig att veta vilket som var vilket, eftersom OpenAI aldrig avslöjade vad som hade förändrats. Här blir det personligt. Om du använde ChatGPT för kod i mars och det fungerade, och sedan försökte samma sak i juni och det gick sönder, skyllde du förmodligen på dig själv. Du trodde att du hade fått fel uppmaning. Du försökte igen. Du slösade timmar på att felsöka dina egna frågor. Men det var inte du. Modellen hade tyst förändrats under dig. OpenAI:s produktchef gick på X och sa "vi har inte gjort GPT-4 dummare." Stanfords data säger något annat. 97,6 % till 2,4 % är inte en fråga om åsikt. Varje företag som bygger på ChatGPT:s API, varje student som är beroende av det för skolarbete, varje utvecklare som använder det för att leverera kod står på en mark som skiftar utan förvarning. Du litade på det igår. Det förändrades över en natt. Ingen har sagt det till dig. Du inbillar dig inte. ChatGPT blir dummare. Stanford bevisade det.