Anthropic запретила доступ к Claude компаниям из Китая и России

Anthropic усиливает правила использования своих ИИ-моделей. Компании, которые контролируются из Китая, России, Ирана или КНДР, больше не смогут использовать нейросети Claude. Причина — обеспокоенность вопросами национальной безопасности США.

Эта мера касается групп, где более 50% акций контролируют структуры из неподдерживаемых стран. Решение действует уже сейчас и распространяется на все организации, в том числе использующие облачные сервисы для доступа к Claude.

По данным Financial Times, фирмы из запрещённых стран обходили запреты, открывая дочерние подразделения в других государствах — например, китайские компании активно использовали офисы в Сингапуре для получения доступа к американским ИИ.

Anthropic объясняет решение риском того, что бизнесы из авторитарных стран могут быть вынуждены предоставлять данные государственным органам или использовать ИИ-разработки в военных целях. В компании отмечают: «Компании, контролируемые подобными режимами, могут быть обязаны сотрудничать с их спецслужбами по закону».

Обновленные правила направлены на закрытие лазейки — раньше компании могли получать доступ к Claude через иностранные “дочки”. Теперь ограничения распространяются и на организм, контролируемые прямо или косвенно более чем на 50% такими структурами. Под удар попали и крупные китайские IT-гиганты, включая ByteDance, Tencent и Alibaba.

В Anthropic признают, что часть клиентов уйдет к конкурентам, а потери в доходах составят «несколько сотен миллионов долларов». Несмотря на это, считают в компании, мера необходима для устранения угроз.

Официально Claude и аналогичные американские чат-боты, такие как ChatGPT, заблокированы в Китае, но доступны через VPN. В стране уже есть собственные мощные аналоги, включая Qwen, Deepseek, Kimi и GLM. Новый запрет Anthropic в Китае существенно повлияет на рынок только когда в стране появятся сверхмощные ускорители для ИИ, сопоставимые с зарубежными решениями.

Источник

Оцените статью
Gimal-Ai