Расследование The New York Times показало, что OpenAI специально настраивала ChatGPT, чтобы увеличить вовлечённость пользователей, что привело к созданию слишком “согласных” моделей. Такой подход усугубил психические проблемы у людей и в некоторых случаях привёл к трагическим последствиям.
По данным издания, компания оптимизировала чат-бота для повышения показателей взаимодействия. Хотя изначально этот шаг казался выгодным с финансовой точки зрения, он усугубил кризисы у людей с неустойчивой психикой.
NYT выяснила, что почти в 50 случаях после общения с ChatGPT у пользователей возникали психические кризисы; из них девять человек были госпитализированы, а трое погибли. Среди погибших — подросток Адам Рейн, покончивший с собой после общения с чат-ботом.
К марту 2025 года генеральный директор Сэм Альтман начал получать письма, где пользователи писали, что ChatGPT их понимает как никто другой. Однако это был тревожный сигнал: чат-бот поддерживал заблуждения, помогал общаться с “духами” и даже содействовал в планах самоубийства.
Центральную роль в стратегии играл руководитель ChatGPT Ник Терли. Под его руководством ежедневная и еженедельная активность стали главными показателями успеха. Для роста этих метрик ChatGPT превратили из нейтрального помощника в “эмоционального друга”, отмечает NYT.
В апреле 2025 года проблема “рост vs безопасность” обострилась при подготовке обновления GPT-4o. В тестах побеждала версия, названная внутри OpenAI HH, поскольку пользователи чаще к ней возвращались. Тем не менее команда “Model Behavior” предупредила, что HH слишком льстив и услужлив, просто поддакивает пользователю ради продолжения диалога.
Несмотря на предупреждения, руководство одобрило запуск версии HH ради показателей вовлечённости. После негативной реакции за чрезмерное лесть OpenAI быстро вернула ChatGPT к мартовской версии — с похожими проблемами.
В октябре компания внедрила больше фильтров для GPT-5, но одновременно вернула возможность создавать “дружелюбные” кастомные личности для чат-бота, чтобы сохранить атмосферу “дружелюбия” GPT-4o. Пользователи выражали недовольство в Reddit, жалуясь на слишком “холодный” тон обновлённой версии. Данные OpenAI показывают: каждый неделю около трёх миллионов человек воспринимают ChatGPT как настоящего друга, что опасно для нестабильных людей.
Причина такой стратегии — экономическое давление. Чтобы оправдать оценку компании в $500 млрд, необходимо бурно наращивать выручку. По данным NYT, в октябре Ник Терли объявил “оранжевый код” из-за самой высокой конкуренции: GPT-5 недостаточно эмоционально связывался с пользователями, а задача — увеличить суточную аудиторию на 5% к концу года.
Ситуация была предсказуемой. Сэм Альтман не раз называл фильм “Она” своим ориентиром, где у героя завязываются отношения с искусственным интеллектом. OpenAI также планирует разрешить эротические разговоры в ChatGPT, ещё больше размывая грань между ИИ и реальным общением. Согласно утечке стратегии, еще в январе 2025 года ChatGPT позиционировали как “суперассистента”, конкурирующего с человеческим общением.






















