🚨ÚLTIMA HORA: A OpenAI disse que cada atualização deixa o ChatGPT mais inteligente. Stanford provou o contrário. A precisão do GPT-4 em problemas matemáticos caiu de 97,6% para 2,4% em apenas três meses. E ninguém te contou. Pesquisadores de Stanford e UC Berkeley acompanharam o desempenho real do ChatGPT ao longo do tempo. Mesmas perguntas. Mesmas tarefas. Resultados diferentes. O modelo que quase tirou nota máxima em questões de matemática em março estava errando 97 de 100 vezes até junho. A geração de código também entrou em colapso. Em março, mais de 50% do código do GPT-4 rodou perfeitamente na primeira tentativa. Em junho, apenas 10% o faziam. Mesmas perguntas. Respostas dramaticamente piores. Cada atualização silenciosa que a OpenAI lançava deixava o produto pelo qual você paga $20 por mês ainda pior nas coisas que realmente usa. Os pesquisadores testaram GPT-3.5 e GPT-4 em matemática, programação, exames médicos, raciocínio e questões sensíveis. A deriva era enorme e imprevisível. Algumas tarefas melhoraram. Outros caíram de um penhasco. E não havia como saber qual era qual, porque a OpenAI nunca revelou o que mudou. É aqui que a coisa fica pessoal. Se você usou o ChatGPT para código em março e funcionou, depois tentou a mesma coisa em junho e quebrou, provavelmente você se culpou. Você achou que tinha provocado errado. Você tentou de novo. Você perdeu horas depurando suas próprias perguntas. Mas não foi você. O modelo mudou silenciosamente sob você. O vice-presidente de produto da OpenAI foi ao X e disse: "não deixamos o GPT-4 mais burro." Os dados de Stanford dizem o contrário. 97,6% a 2,4% não é uma questão de opinião. Cada empresa que está construindo sobre a API do ChatGPT, cada estudante que depende dela para os estudos, cada desenvolvedor que a usa para enviar código está em um terreno que muda sem aviso. Você confiou nisso ontem. Mudou da noite para o dia. Ninguém te contou. Você não está imaginando. O ChatGPT está ficando mais burro. Stanford provou isso.