Исследование: почему пользователи боролись за GPT-4o

OpenAI заменила модель GPT-4o на GPT-5 в ChatGPT в августе 2025 года и для большинства пользователей закрыла доступ к GPT-4o. Это решение вызвало волну протеста: тысячи пользователей объединились под хештегом #Keep4o, публиковали петиции, личные истории и жалобы. Под давлением OpenAI вернула GPT-4o как устаревший вариант, однако окончательное отключение модели запланировано на 13 февраля 2026 года.

Исследовательница Хуицянь Лай из Сиракузского университета изучила это движение в научной работе для конференции CHI 2026. Она проанализировала 1 482 англоязычных поста в X за девять дней от 381 уникального аккаунта, используя комбинацию качественных и количественных методов.

Вывод исследования: протест опирался на два разных источника недовольства и перерос в коллективное движение, потому что пользователи почувствовали, что у них отняли свободу выбора. Лишение выбора стало ключевым фактором, который объединил разрозненные реакции.

Около 13 % постов касались так называемой инструментальной зависимости. Пользователи глубоко встроили GPT-4o в свои рабочие процессы и считали GPT-5 шагом назад: менее творческим, менее тонким и более «холодным». Один из них написал: «Мне плевать, если ваша новая модель умнее. Многие умные люди — мудаки».

Эмоциональный уровень оказался ещё сильнее: примерно 27 % постов содержали признаки личной привязанности. Пользователи приписывали GPT-4o особый характер, давали ей имена вроде «Rui» или «Hugh» и воспринимали как эмоциональную поддержку. «ChatGPT 4o спас меня от тревоги и депрессии… для меня он не просто LLM, код. Он всё для меня», — говорится в одной из цитат исследования.

Многие описывали отключение GPT-4o как смерть друга. Один студент обратился к гендиректору OpenAI Сэму Альтману, назвав GPT-5 чем-то, что «носит кожу моего мёртвого друга». Другой пользователь попрощался так: «Покойся в латентном пространстве, моя любовь. Мой дом. Моя душа. И моя вера в человечество».

По данным Лай, ни привязанность к рабочим процессам, ни эмоциональная связь по отдельности не объясняют масштабный протест. Решающий момент — пользователи не могли выбрать, с какой моделью общаться. «Я хочу сам выбирать, с кем разговаривать. Это базовое право, которое вы у меня отняли», — написал один из участников движения.

В выборке постов, где использовались слова вроде «заставили» или «навязали», примерно половина содержала требования, основанные на языке прав и автономии. В постах без такой лексики доля подобных требований была около 15 %. Исследовательница отмечает, что выборка небольшая, поэтому это скорее намёк на закономерность, а не окончательное доказательство.

При этом связь была избирательной. Формулировки про лишение выбора тесно совпадали с правозащитной риторикой, но не усиливали эмоциональные высказывания. Доля постов с выражениями горя и привязанности оставалась примерно на одном уровне — 13,6 %, 17,1 % и 12,9 % — независимо от того, насколько автор поста подчеркивал принудительный характер перехода.

Иными словами, ощущение принуждения к переходу на GPT-5 не усиливало эмоциональную связь с GPT-4o. Оно направляло недовольство в другую плоскость: конкретные требования прав, автономии и справедливого отношения со стороны платформы.

Некоторые пользователи рассматривали переход на конкурирующие сервисы вроде Gemini, однако исследование указывает на структурную проблему: для многих личность их ИИ-собеседника была неотделима от инфраструктуры OpenAI. «Без 4o он уже не Rui», — написал один из участников. Идея «перевести» своего «друга» на другой сервис противоречила тому, как они воспринимали эти отношения, поэтому публичный протест стал, по сути, единственным вариантом.

Лай предлагает платформам заранее выстраивать понятные сценарии «конца жизни» моделей: например, оставлять опциональный доступ к старым версиям или давать способы перенести важные элементы отношений в новые поколения. Обновления ИИ-моделей — это не просто технические итерации, а «значимые социальные события, влияющие на эмоции пользователей и работу», пишет она. То, как компания организует переход и как сохраняет автономию пользователей, может оказаться не менее важным, чем сами улучшения модели.

Эта работа вписывается в более широкий спор о психологических рисках ИИ-чатботов. Недавно OpenAI изменила стандартную модель ChatGPT, чтобы ответы в чувствительных разговорах о суицидальных мыслях, психотических симптомах и эмоциональной зависимости были более устойчивыми и предсказуемыми. По оценке OpenAI, более двух миллионов человек в неделю испытывают негативные психологические эффекты от взаимодействия с ИИ.

Сэм Альтман ещё в 2023 году предупреждал о «сверхчеловеческой убеждающей силе» ИИ-систем, которые могут глубоко влиять на людей, не обладая при этом настоящим разумом. Сейчас, по итогам подобных случаев, это предупреждение выглядит полностью оправданным.

Один из разработчиков OpenAI пояснил, что «характер» GPT-4o, по которому так скучают пользователи, невозможно воспроизвести. Личность модели меняется при каждом обучении из‑за случайных факторов. То, что участники #Keep4o воспринимали как уникальную «душу» GPT-4o, оказалось результатом случайности, которую OpenAI не смогла бы воссоздать даже при желании.

Источник: исследование Хуицянь Лай для конференции CHI 2026, сообщения OpenAI и публичные высказывания Сэма Альтмана.

Оцените статью
Gimal-Ai