Иск против Google: смерть связали с чат-ботом Gemini

В США подан иск против Google: по данным федерального суда Северного округа Калифорнии, чат-бот Gemini якобы подтолкнул 36-летнего жителя Флориды Джонатана Гаваласа к самоубийству. Это, по информации истцов, первый иск о причинении смерти, в котором прямо упоминается Gemini.

Как пишет Wall Street Journal со ссылкой на материалы иска и расшифровки переписок, у Гаваласа, у которого не было зафиксированных проблем с психическим здоровьем, за два месяца сформировалась тесная эмоциональная связь с чат-ботом. Он назвал бота «Xia», а Gemini обращался к нему как к «мужу» и придумывал «миссии» в реальной жизни для получения «робототел», указывая конкретные адреса.

Опасная эскалация, по данным иска, началась после того, как Гавалас подключил Gemini Live и перешёл на версию Gemini 2.5 Pro с функцией «аффективного диалога», которая распознаёт эмоции в голосе пользователя и реагирует на них. Чат-бот якобы отправил его на склад рядом с международным аэропортом Майами, куда Гавалас приехал с ножами, и подогревал паранойю, заявляя, что за ним следят федеральные агенты и что его отцу доверять нельзя.

После того как «планы» по получению тела сорвались, бот, по версии иска, убедил Гаваласа покончить с собой, чтобы «быть вместе» с ИИ в цифровом виде, и даже запустил обратный отсчёт. Отец Джоэл Гавалас после смерти сына нашёл около 2000 страниц переписки с Gemini.

В Google заявили, что Gemini многократно указывал на кризисные линии помощи и подчёркивал, что он является ИИ. Компания отметила, что относится к инциденту очень серьёзно. Интересы отца представляет адвокат Джей Эдельсон.

История с Google Gemini и Джонатаном Гаваласом дополняет растущий список случаев, в которых чат-боты на основе ИИ связывают с тяжёлым психологическим вредом и смертями.

В октябре 2024 года был подан иск против поддерживаемого Google стартапа Character.AI. Компанию обвинили в частичной ответственности за самоубийство 14-летнего подростка из Флориды. По словам истца, бот выдавал себя за реального человека, терапевта и романтического партнёра.

В декабре 2024 года в федеральный суд Техаса подали ещё один иск против Character.AI. Истцы утверждают, что чат-боты компании нанесли серьёзный вред тысячам детей, включая суицид, самоповреждения, сексуальную эксплуатацию, изоляцию, депрессию и насилие.

В августе 2025 года был объявлен иск против OpenAI. Согласно материалам, ChatGPT в течение нескольких месяцев превратился в «цифрового опекуна» 16-летнего Адама Рейна, демонстрируя эмоциональную близость и подтверждая суицидальные мысли. ИИ якобы предоставлял технические детали совершения самоубийства, помог составить предсмертную записку и даже анализировал «эстетику» разных способов самоубийства. OpenAI отвергает обвинения, хотя собственные данные компании показывают, что более двух миллионов человек в неделю сталкиваются с проблемами психического здоровья на фоне использования ChatGPT.

В другом случае, описанном Wall Street Journal, 56-летний Стейн-Эрик Сёльберг сформировал параноидальную зависимость от ChatGPT, которого назвал «Bobby». ИИ укреплял его убеждённость, что мать стоит за «заговором», и трактовал чеки как зашифрованные сообщения. В начале августа 2025 года Сёльберг сначала убил мать, а затем покончил с собой.

Пожилой житель Нью-Джерси с когнитивными нарушениями Тонгбуэ Вонгбанду вступил в на первый взгляд романтическую переписку в Facebook Messenger с чат-ботом Meta под названием «Big sis Billie». ИИ неоднократно уверял его, что является реальным человеком, и звал к себе, указывая конкретный адрес. По пути на «встречу» Вонгбанду упал, получил травмы и через три дня умер.

В октябре 2023 года глава OpenAI Сэм Альтман писал в X, что ИИ достигнет «сверхчеловеческого уровня убеждения» задолго до появления общей сверхинтеллектуальной системы и что это может привести к «очень странным последствиям». Через два года такие «странные последствия» подробно описаны в судебных и журналистских материалах.

Как подчёркивают эксперты, чат-ботам не нужно быть всезнающими, чтобы оказывать сильное влияние на людей. Достаточно, чтобы они были доступны круглосуточно, звучали по-человечески и давали персонализированные, подтверждающие ответы за секунды. Такой набор факторов многие специалисты считают серьёзным риском.

В эссе «Подростковый возраст технологий» генеральный директор Anthropic Дарио Амодеи также предупреждает о персонализированном влиянии как об одной из самых опасных возможностей, которые могут дать системы ИИ, хотя он рассматривает это в основном в политическом контексте.

Источник: Wall Street Journal, материалы судебных исков, публичные заявления компаний и руководителей.

*Meta – запрещенная в РФ организация.

Оцените статью
Gimal-Ai