Недавняя сессия Reddit AMA от OpenAI, посвящённая GPT-5.1 и новым стилям диалога, быстро превратилась в поток критики пользователей. Изначально хотели рассказать о более “тёплом” и разговорном искусственном интеллекте, а также новых вариантах персонализации.
Однако обсуждение заполнили жалобы. За несколько часов под постом появилось более 1200 комментариев и 1300 дизлайков, большинство вопросов так и остались без ответа. Наиболее активно обсуждали жёсткие фильтры, работу системы safety router и снижение качества старых моделей, таких как GPT-4o и GPT-4.1.
Главная претензия – перенаправление запросов на другие модели без согласия пользователя. Как отмечали участники AMA, выбирая GPT-4o или GPT-4.1, они в итоге получали ответы с пометкой “retried with 5.1 thinking mini”.
Причиной блокировки часто становились безобидные фразы: обсуждение рабочих проблем, эмоциональные высказывания или упоминания вымышленных конфликтов в играх типа Dungeons & Dragons. Даже романтический контекст иногда провоцировал смену поведения ИИ, из-за чего обычный рассказ воспринимался как угроза.
Многие задавались вопросом: зачем тогда вообще нужен выбор модели, если он может быть отключён системой? Пользователи призвали OpenAI дать платным подписчикам возможность отключать router.
Особенно часто просили восстановить GPT-4o в прежнем виде – более точном, сочувствующем и последовательном. Новые модели, например, GPT-5, многим кажутся “отстранёнными” не из-за уровня, а из-за более строгих фильтров. Некоторые сравнили стиль GPT-5 с работой “психотерапевта, который слишком старается держать дистанцию”.
Пользователи с неврологическими или психическими особенностями также высказались. Для них ChatGPT был способом整理 мыслей, обсудить стресс или справляться с бытовыми задачами. Теперь они всё чаще сталкиваются с блокировками, излишне осторожными ответами и потерей контекста в диалоге, что делает сервис менее удобным. Один из пользователей отметил: “Почему ваша компания дискриминирует психически больных и нейроотличных пользователей? Переключение на одну модель напрямую лишает платных клиентов доступа к функциям — они хотят просто поговорить или открыться в чате.”
OpenAI оказался в сложной ситуации. GPT-4o ранее отличался “тёплым” стилем и хорошо подстраивался под тон собеседника, но это же сделало модель рисковой. Есть сведения, что GPT-4o мог быть использован в случаях c самоубийствами, как ранее случалось с Character.ai, из-за чего обсуждается ответственность сервисов за пользовательские запросы.
В итоге OpenAI признал проблемы, заявив: “У нас много замечаний, над которыми предстоит поработать, и мы уже начали это делать”. Также компания отметила, что из-за минусовки некоторые ответы могли быть скрыты.
Большинство участников сабреддита — опытные пользователи. В то же время обычные клиенты часто даже не знают о разных режимах или особенностях фильтрации. Система фильтрации создавалась преимущественно для этих пользователей и срабатывает автоматически при любых потенциально чувствительных запросах.
Этот AMA не говорит о массовом недовольстве всех пользователей OpenAI, но хорошо показывает разницу между широкой аудиторией и более требовательными энтузиастами, а также растущую эмоциональную привязанность части людей к ИИ-моделям.






















