🚨СРОЧНО: OpenAI говорил вам, что каждое обновление делает ChatGPT умнее. Стэнфорд доказал обратное. Точность GPT-4 в решении математических задач упала с 97,6% до 2,4% всего за три месяца. И никто вам об этом не сказал. Исследователи из Стэнфорда и UC Berkeley отслеживали фактическую производительность ChatGPT с течением времени. Одни и те же подсказки. Одни и те же задачи. Разные результаты. Модель, которая почти идеально решала математические вопросы в марте, ошибалась 97 из 100 раз к июню. Генерация кода также рухнула. В марте более 50% кода GPT-4 работало идеально с первой попытки. К июню только 10% работало. Одни и те же вопросы. Резко ухудшенные ответы. Каждое тихое обновление, которое OpenAI выпустил, делало продукт, за который вы платите 20 долларов в месяц, тихо хуже в тех вещах, для которых вы его действительно используете. Исследователи тестировали GPT-3.5 и GPT-4 по математике, программированию, медицинским экзаменам, логике и чувствительным вопросам. Изменения были огромными и непредсказуемыми. Некоторые задачи улучшились. Другие упали в пропасть. И у вас не было способа узнать, что именно изменилось, потому что OpenAI никогда не раскрывал, что изменилось. Вот где это становится личным. Если вы использовали ChatGPT для кода в марте, и это работало, а затем попробовали то же самое в июне, и это не сработало, вы, вероятно, винили себя. Вы думали, что неправильно задали вопрос. Вы пробовали снова. Вы потратили часы на отладку своих собственных вопросов. Но это были не вы. Модель тихо изменилась под вами. Вице-президент OpenAI по продуктам вышел в X и сказал: "мы не сделали GPT-4 тупее." Данные Стэнфорда говорят об обратном. 97,6% до 2,4% — это не вопрос мнения. Каждый бизнес, строящийся на API ChatGPT, каждый студент, полагающийся на него для учебы, каждый разработчик, использующий его для написания кода, стоит на земле, которая меняется без предупреждения. Вы доверяли ему вчера. Он изменился за ночь. Никто вам не сказал. Вы не воображаете. ChatGPT становится тупее. Стэнфорд это доказал.