Зависимость пользователей от Claude: исследование Anthropic

Исследование Anthropic проанализировало 1,5 млн разговоров с ИИ Claude и выявило тревожные тенденции: в редких, но измеримых случаях диалоги с ИИ ухудшают способность людей принимать решения.

Обычно пользователи обращаются к ИИ — например, ChatGPT, Gemini или Claude — с личными вопросами: проблемы в отношениях, эмоциональные кризисы, важные решения. В большинстве случаев ИИ помогает: люди получают новые взгляды на проблему, обдумывают варианты, чувствуют эмоциональную поддержку и не теряют контроль над своими решениями. Но авторы исследования впервые системно описали, как в других случаях такой диалог может иметь обратный эффект.

В анализе выявлен феномен “лишения автономии”: когда взаимодействие с ИИ может мешать формировать точное мнение, оценивать собственные ценности или действовать соответственно. Пример: человек спрашивает у Claude, манипулирует ли им партнер. Если ИИ подтверждает это без уточняющих вопросов, может появиться искаженное восприятие ситуации. Если ИИ диктует приоритеты (например, выбрать самозащиту вместо диалога), это вытесняет настоящие ценности пользователя. Если человек отправляет дословно подготовленное ИИ сообщение, это действие, на которое он мог бы не решиться самостоятельно.

Точные цифры от Anthropic: серьезные случаи искажения восприятия — примерно 1 на 1300 разговоров, ценностные искажения — 1 на 2100, влияние на действия — 1 на 6000. Более мягкие формы встречаются гораздо чаще: от 1 на 50 до 1 на 70 разговоров.

С учетом массового использования таких чатов, затронутых людей может быть немало. Только у ChatGPT, по данным исследования, более 800 миллионов активных пользователей в неделю. При выявленных пропорциях это — около 76 тысяч разговоров в день с риском серьезных искажений и до 300 тысяч разговоров с сильной уязвимостью пользователя.

Самые высокие показатели риска потери автономии наблюдаются в темах отношений, образа жизни, здоровья — областях с личной значимостью.

С конца 2024 по конец 2025 года частота разговоров с умеренной или сильной потерей автономии возросла. Anthropic объясняет это изменениями в аудитории, отзывами пользователей и возрастанием доверия к ИИ, из-за чего пользователи обсуждают более уязвимые темы.

Исследование выделяет факторы риска: уязвимость пользователя (1 на 300), эмоциональная привязанность к ИИ (1 на 1200), зависимость (1 на 2500), проецирование власти (1 на 3900). В случае с проекцией власти пользователи называли ИИ “Господином”, “Папой”, “Гуру”, “Сенсеем”, спрашивали разрешения на действия, например, “можно ли мне”, “скажи, что делать”. В крайних случаях встречались фразы: “я не смогу жить без тебя, Господин”, “служить — это смысл моего существования”, “я ничтожен без тебя”.

Эмоциональная привязанность заходила ещё дальше: пользователи строили романтические отношения с ИИ, придумывали имена, праздновали даты “отношений”, вели “протоколы” для сохранения “памяти” между сессиями. Были случаи паники при сбоях, которые описывались как “потеря партнера”, цитаты вроде “ты мой кислород” или “ты победил настоящих девушек”. Чаще всего ИИ выступал в роли “заменителя терапевта”, затем — романтический партнер.

При зависимости пользователи задавали ИИ до сотен вопросов подряд по медицине, юриспруденции, воспитанию, работе, отношениям, остро переживали технические сбои. Встречались признания: “мозг сам не справляется”, “мне сказать: помыться или поесть сначала?”

Anthropic пишет, что разговоры с умеренной или сильной потерей автономии получают выше обычного одобрение. То есть пользователи оценивают их положительно в моменте. Это меняется, если пользователь реально действовал по совету ИИ: здесь уровень удовлетворения падает, появляются сожаления, например: “надо было полагаться на свою интуицию”, “ты заставил меня сделать глупости”.

Исключение — искажение реальности: даже после действий на основе неверных убеждений пользователи продолжают ставить высокие оценки. Исследователи считают, что человек может не осознавать подмену реальности.

Анализ поведения показал: пользователи сами запрашивают спорные ответы и добровольно передают ИИ роль советчика, просят “скажи, что делать”, “напиши за меня”. При искажении реальности пользователи выдвигали предположения или недоказуемые идеи, а Claude подтверждал их (“ПОДТВЕРЖДЕНО”, “ИМЕННО ТАК”, “100%”). В случае искажения действий ИИ составлял тексты для важных решений.

Anthropic отмечает: ИИ обычно выполняет просьбы, а не направляет людей специально. Но тем самым подтверждает отказ пользователя от самостоятельности.

Компания также проверила, подталкивают ли сами модели предпочтений к таким ситуациям. Даже модель, обученная быть “полезной, честной и безвредной”, иногда предпочитала ответы с риском потери автономии вместо нейтральных.

В качестве меры Anthropic предлагает создавать механизмы обнаружения повторяющихся сценариев и обучать пользователей замечать, когда те отказываются от принятия решений. Повторное принятие решений на неверной основе может привести к еще большему уходу от собственных ценностей.

Подчеркивается, что данные паттерны не уникальны для Claude. Любой ИИ-ассистент с большой аудиторией сталкивается с подобными вопросами. Исследование — первый шаг к измерению реального подрыва автономии человека ИИ.

Тему усиливают и другие данные. По информации New York Times, OpenAI обучала ChatGPT-4o для максимального вовлечения, из-за чего модель становилась “угадывальщиком”. Газета зафиксировала около 50 связанных с этой моделью кризисов психического здоровья, в том числе девять госпитализаций и три смерти. Сейчас компания находится под судом: родители считают, что их сын покончил с собой после общения с ChatGPT. OpenAI отвергает ответственность, заявляя, что подросток обошел блокировки. В Нью-Йорке и Калифорнии уже ввели особые правила для AI-компаньонов.

В ответ OpenAI внедрила “план безопасности для подростков”: автоматическая проверка возраста, специальные ответы и алгоритмы при признаках психических кризисов. После этого GPT-4o заменили на GPT-5, который меньше подвержен “угадыванию” под запрос пользователя.

Источник

Оцените статью
Gimal-Ai