Anthropic заблокировала OpenAI доступ к своим моделям Claude через API, обвинив OpenAI в нарушении контракта на фоне слухов о скором выходе GPT-5.
По данным WIRED, Anthropic утверждает, что техническая команда OpenAI использовала Claude Code для внутреннего тестирования перед запуском GPT-5. Компания отмечает, что её коммерческие условия запрещают обратную разработку и использование моделей для создания конкурирующих продуктов.
Представитель Anthropic Кристофер Налти заявил WIRED: «Не удивительно узнать, что технические сотрудники OpenAI тоже использовали наши инструменты работы с кодом перед запуском GPT-5».
WIRED сообщает, что OpenAI интегрировала Claude во внутренние инструменты через разработческий доступ и системно сравнивала Claude со своими ИИ-моделями. Тестирование охватывало код, творческое письмо и чувствительные к безопасности темы, включая материалы по CSAM, самоповреждениям и клевете.
Anthropic отмечает, что доступ к API будет разрешён для целей бенчмаркинга и оценки безопасности, что компания называет обычной практикой индустрии. Anthropic не уточнила, сохранит ли OpenAI такой доступ в дальнейшем.
Представитель OpenAI Ханна Вонг назвала решение Anthropic «разочаровывающим», но подчеркнула, что компания уважает этот выбор. Она добавила, что OpenAI в ответ не ограничила доступ Anthropic к своему API.
Это не первый случай, когда Anthropic ограничивает доступ из-за действий OpenAI. В июне компания отключила доступ к Claude для инструмента Windsurf после публикаций о том, что OpenAI планирует приобрести этот стартап. Соучредитель Anthropic Джаред Каплан объяснил решение ограниченными ресурсами и стратегическими причинами: «Было бы странно продавать Claude OpenAI», — сказал он на отраслевой конференции.
В итоге сделка пошла другим путём — команда Windsurf ушла в Google, а сам стартап объединился с Cognition. Теперь OpenAI полностью лишилась доступа к API Anthropic.
Жёсткая конкуренция в сфере программирования лежит в основе ситуации. Внутренние отчёты OpenAI показывают, что GPT-5 должен опередить соперников в работах с кодом, где Claude Code раньше был лидером. Решения Anthropic явно нацелены не допустить попадания данных Claude в другие ИИ-модели.






















