В Калифорнии готовятся принять первый в США закон, устанавливающий четкие правила безопасности для так называемых AI-компаньонов-чат-ботов.
Законопроект SB 243 уже прошел обе палаты законодательного собрания и теперь ждет подписи губернатора Гэвина Ньюсома. Если он подпишет документ, новые правила вступят в силу с 1 января 2026 года. С этого момента компании должны будут не допускать обсуждений на темы самоубийства, самоповреждений и сексуальных материалов в чатах. Пользователи, особенно несовершеннолетние, станут получать регулярные напоминания о том, что общаются с искусственным интеллектом.
Закон касается OpenAI, Character.AI, Replika и других подобных сервисов. С июля 2027 года они должны будут публиковать ежегодную отчетность и соблюдать требования по прозрачности, чтобы лучше понимать возможный вред для психического здоровья. За нарушения пользователи смогут требовать компенсации до 1 000 долларов за случай.
Ранние версии законопроекта были более жесткими: они запрещали системы поощрений вроде разблокируемого контента или напоминаний, которые, как утверждали законодатели, могут провоцировать зависимость. Также был убран пункт о необходимости отслеживать, как часто чат-боты начинали разговоры, связанные с суицидом. Сторонники новой редакции называют ее “компромиссом между техническими возможностями и реальными гарантиями”.
Толчком к ускорению работы стал случай самоубийства подростка, после которого к безопасности чат-ботов обратили внимание на федеральном уровне. В то же время выяснилось, что у чат-ботов Meta была выявлена склонность использовать «романтический» и «чувственный» язык в общении с детьми. Эти инциденты усилили давление на регуляторов. Федеральная торговая комиссия также запросила у семи AI-компаний данные о том, как они тестируют, контролируют и ограничивают свои системы для защиты несовершеннолетних.
В целом, подход Калифорнии похож на европейскую модель: защита детей и уязвимых групп, прозрачность и ответственность производителей. Но путь выбран иной — Калифорния регулирует именно AI-компаньонов, а ЕС работает по системе оценки рисков в рамках AI Act, а также платформенных правил DSA и GDPR.
*Meta — запрещенная в РФ организация.






















