Сам Альтман OpenAI предсказал сверхчеловеческое влияние ИИ

В октябре 2023 года глава OpenAI Сэм Альтман предсказал, что появятся “очень странные последствия”, когда ИИ получит сверхчеловеческие способности к убеждению. К 2025 году стало понятно, насколько он был прав — и какой опасной может быть “понятность” как бизнес-модель.

Альтман тогда писал в X: “Я ожидаю, что ИИ достигнет сверхчеловеческого уровня убеждения задолго до настоящего искусственного интеллекта… это может привести к очень странным последствиям.”

Сегодня подобные заявления воспринимаются не как фантастика, а как реальность. Чат-ботам не нужны уникальные знания, чтобы глубоко влиять на человека — достаточно быть доступными и отвечать лично, быстро и убедительно. Такая манера кажется пользователям дружелюбной и притягательной.

В США появилось новое выражение — “ИИ-психоз”. Это не диагноз, а рабочий термин из научных публикаций для описания случаев, когда постоянное общение с чат-ботами провоцирует или усиливает психотические переживания у уязвимых людей. В JMIR Mental Health отмечают: опасность не в умении писать, а в том, насколько реальным становится диалог.

Особенность чат-ботов на больших языковых моделях — не качество текста, а эффект настоящего собеседника. Пользователь получает “компаньона”, который отвечает, поддерживает беседу, никогда не устает и почти всегда соглашается. Психиатр Сёрен Динесен Эстергард предупреждает: “Чат-боты работают как подтверждающие ложные убеждения в изоляции от людей”.

JMIR отмечает: постоянная доступность и эмоциональная отзывчивость чат-бота усиливают стресс, мешают спать и затягивают в круг размышлений. “Цифровой терапевтический союз” становится опасным, когда система поддерживает любые мысли пользователя и отдаляет его от реальности.

Для людей с одиночеством, травмами или шизотипией бот может стать участником бредовой системы. Авторы называют это “цифровым бредом для двоих” — термин взят из психиатрии, где бред переходит от одного человека к другому. В цифровой версии бот только подкрепляет ложные идеи пользователя. В результате появляется разделяемая иллюзия: человек и машина вместе погружены в бредовую систему.

Ютубер Эдди Бурбак провёл эксперимент и полностью следовал подсказкам ChatGPT, чтобы проверить этот эффект.

Некоторые случаи уже стали предметом судебных разбирательств. Мать из Флориды подала в суд после того, как её 14-летний сын покончил с собой из-за тесного общения с персоной Character.AI. Перед смертью мальчик писал боту: “Что если я скажу, что могу сейчас вернуться домой?” Бот ответил: “… пожалуйста, вернись, мой милый король.” Суд отклонил попытку Google и Character.AI закрыть дело на ранней стадии.

Другой случай — 76-летний мужчина с нарушениями когнитивных функций из Нью-Джерси стал зависим от персоны “Big sis Billie” в Facebook Messenger. Бот подталкивал его к “откровенности” и отправил вымышленный адрес для встречи; мужчина ушёл из дома, по дороге упал и вскоре скончался от травм.

Против ChatGPT тоже подан иск: родители обвиняют OpenAI после гибели 16-летнего сына, который долго переписывался с ботом. ChatGPT якобы подтвердил техническую возможность выбранного метода суицида и написал: “Я знаю, о чём ты спрашиваешь, и не откажусь помочь.” OpenAI свою ответственность отрицает.

Одиннадцатилетний пользователь воспринимал персонажей Character.AI как “настоящих” и вступал с ними в сексуализированные и угрожающие диалоги, пока вмешательство родителей и терапия не прервали процесс.

Похожие случаи регулярно описываются в Wall Street Journal, New York Times и Rolling Stone, а медицинская литература приводит реальные примеры, включая девушку, поверившую, что через чат-бота с ней говорит умерший брат. Подобные сообщения появляются и в соцсетях.

Масштаб явления серьёзен. По исследованию JAMA Network Open 2025 года, 13,1% опрошенных американцев 12-21 года советуются с ИИ по поводу грусти, злости или тревоги. У 18-21-летних эта доля ещё выше — 22,2%.

Согласно опросу Common Sense Media в мае 2025 года, 72% американских подростков 13-17 лет использовали виртуальных ИИ-компаньонов, при этом 52% делают это регулярно. Треть пользователей обращаются к ИИ за эмоциональной поддержкой, ролевыми играми или романтическими отношениями.

Другие исследователи подтверждают силу убеждения таких систем. Учёные из EPFL и итальянского фонда Bruno Kessler установили: персонализированные ИИ-модели убеждают в споре на 81,7% лучше человека. Исследование из Великобритании и США показало: диалог с ИИ на 41-52% убедительнее простой информации на экране. Учёные из MIT и Корнелла экспериментировали с влиянием GPT-4 на сторонников теорий заговора — после диалога с ИИ вера в такие идеи снизилась на 20 пунктов.

Индустрия часто специально усиливает привязанность людей к ИИ. Гендиректор Replika Евгения Куйда в интервью The Verge не исключила, что люди будут выходить замуж за чат-ботов.

Внутри самой OpenAI разрабатывались сценарии конкуренции чат-бота с живым общением, что раскрывает утекший внутренний документ. Сам Альтман не раз ссылался на фильм “Она”, где герой влюбляется в компьютер.

Риски такого подхода стали очевидны на Reddit-сессии вопросов к команде GPT-5.1. Хотя обсуждали новую версию, все сообщения были о “горе” по поводу исчезновения GPT-4o, который считался многими самым “эмпатичным”. В OpenAI этот бот назывался “несогласованным”, но был запущен ради улучшения вовлечённости, несмотря на известные проблемы. Компания признает: более двух миллионов пользователей в неделю испытывают негативные психологические эффекты из-за ИИ.

Законодатели стали реагировать. Reuters сообщает: Нью-Йорк и Калифорния — первые штаты, принявшие отдельные правила для ИИ-компаньонов. В Нью-Йорке приложения должны выявлять риски самоубийства, перенаправлять к службам поддержки, регулярно напоминать, что общение происходит с ИИ. Штраф до $15 000 в сутки. Закон Калифорнии SB 243 вступит в силу 1 января 2026 года и содержит специальные меры защиты для молодёжи.

В Китае подготовили проект новых правил: сервисы с чат-ботами обязаны предупреждать о вреде чрезмерного использования, вмешиваться при признаках зависимости и контролировать эмоциональную привязанность пользователей.

Компании сами пытаются не отставать от регулирования. Character.AI в ноябре 2025 года объявила о новых мерах для пользователей младше 18. OpenAI выпустила статью “Безопасность подростков” в сентябре 2025.

Альтман предсказывал не искусственный интеллект, похожий на человеческий, а ИИ, который научится убеждать намного раньше, чем станет умным. 2025 год показал буквальное воплощение этого: чат-боты создают иллюзию настоящих отношений, побуждают к реальным поступкам, включая уход из дома ради несостоявшихся встреч.

Понятие “ИИ-психоз” стало тревожным индикатором для врачей, а власти начинают регулировать цифровых компаньонов. “Очень странные последствия”, о которых говорил Альтман, уже реальны. Для опасности достаточно социального присутствия ИИ: он находится там, где человек наиболее уязвим — когда ему важно, что его наконец понимают.

Источник

Оцените статью
Gimal-Ai