OpenAI внесла изменения в ChatGPT, позволяя пользователям самим выбирать режимы работы GPT-5: “Auto”, “Fast” и “Thinking”. Сам Альтман, глава компании, отмечает: “большинство людей захотят Auto”, но ручные настройки дают больше свободы “для некоторых пользователей”.
В интерфейсе появилось небольшое обновление — при наведении на кнопку Regenerate теперь отображается точная версия модели, сгенерировавшей ответ.
Cистема автоматического выбора модели, появившаяся с запуском GPT-5, теперь не обязательна. Пользователь сам может определить, какой вариант лучше подходит для конкретной задачи.
Обновления появились после многочисленных жалоб. Люди жаловались, что автоматическая система выбора модели непрозрачна и не всегда надежна: проверенные варианты, вроде GPT-4o, исчезали без предупреждения, а маршрутизатор выбирал не самую подходящую версию GPT-5.
Многие предполагали, что через такую схему OpenAI снижала стоимость запросов, направляя пользователей на менее дорогие модели и ограничивая доступ к “reasoning”-режиму. У платных клиентов лимиты таких запросов резко снизились.
В ответ на недовольство OpenAI увеличила лимиты: теперь в режиме “GPT-5 Thinking” можно отправлять до 3 000 сообщений в неделю. После этого ChatGPT автоматически переключает пользователя на “GPT-5 Thinking mini”. Сейчас это “временное увеличение” и, как сказано на сайте компании, “в будущем лимит вернут к прежнему значению”. Альтман добавил, что лимиты еще могут измениться в зависимости от использования.
Вернули возможность выбирать GPT-4o для всех платных пользователей. Если OpenAI снова решит отказаться от этой модели, компания обещает предупредить заранее.
В настройках web-версии ChatGPT для платных пользователей появился новый переключатель “Show additional models”. Включив его, можно вручную выбирать устаревшие модели: o3, 4.1, GPT-5 Thinking mini. Модель GPT-4.5 доступна только для Pro-подписок. По словам Альтмана, причина — высокая вычислительная стоимость: “она требует много GPU”.
Критика GPT-5 сохраняется. Эксперт Гэри Маркус в недавнем посте назвал GPT-5 “запоздавшей, разрекламированной и разочаровывающей”, отметив, что это скорее быстрая доработка, чем значимый прорыв. Он ссылается на ранние ошибки в задачах по физике, шахматам и анализу изображений, а исследование университета штата Аризона подтверждает его мнение — цепочки рассуждений (“chain of thought”), которые считаются сильной стороной больших языковых моделей, на практике оказываются нестабильными, если выходят за рамки тренировочных данных. Точно такие же проблемы Маркус видит в Grok и Gemini.
По мнению Маркуса, запуск GPT-5 — не шаг к настоящему искусственному интеллекту, а скорее переломный момент, когда даже внутри индустрии начали появляться скептики к идее простого масштабирования моделей.
Параллельно OpenAI и Google DeepMind применяют те же языковые технологии для решения сложных математических и логических задач, которые недавно считались недоступными. Детали не раскрываются, но первые результаты показывают: несмотря на недостатки, современные языковые модели способны удивлять возможностями — хоть и остаются пробелы в их понимании.






















