Пентагон признал Anthropic риском цепочки поставок

Новые материалы The New York Times и The Atlantic описывают финальные часы переговоров между Anthropic и Пентагоном. Ключевые точки конфликта: массовый сбор данных о гражданах США, спор вокруг размещения ИИ в облаке и параллельная сделка Пентагона с OpenAI.

По данным The Atlantic, утром в пятницу Anthropic узнала, что команда министра обороны Пита Хегсета готова пойти на важную уступку. Из черновиков контракта должны были убрать расплывчатые формулировки вроде «as appropriate», которые давали возможность пересматривать обязательства позже.

Однако уже во второй половине дня стало ясно, что главный разногласие сохраняется: Пентагон намеревался использовать ИИ Anthropic для анализа массивов данных о гражданах США. По информации The New York Times, технический директор Пентагона Эмиль Майкл, ранее топ-менеджер Uber, настаивал на праве собирать и обрабатывать неклассифицированные коммерческие данные, включая геолокацию и историю браузера. The Atlantic добавляет к этому запросы к чат-ботам, историю поиска Google, данные GPS-перемещений и транзакции по картам, которые можно было бы сопоставлять между собой.

Anthropic предложила другой вариант: предоставить свои модели Агентству национальной безопасности (NSA) для работы с засекреченной информацией по закону FISA, а взамен получить юридически обязывающую гарантию, что неклассифицированные коммерческие данные американцев останутся запретной зоной. Пентагон отказался от такой схемы.

24 февраля министр обороны Пит Хегсет вызвал гендиректора Anthropic Дарио Амодеи на встречу в Пентагоне. По данным The New York Times, разговор длился меньше часа и проходил в напряжённой обстановке. В конце Хегсет выдвинул ультиматум: если Anthropic не согласится до 17:01 пятницы, компанию признают «Supply Chain Risk» — риском для цепочки поставок оборонного ведомства. Он также пригрозил применить закон Defense Production Act, который позволил бы принудить Anthropic к сотрудничеству, но позже от этой угрозы отказались.

В последние минуты перед дедлайном Эмиль Майкл потребовал личного разговора с Амодеи во время звонка с руководством Anthropic. Ему ответили, что Амодеи совещается с топ-менеджерами и просит больше времени. Майкла это не устроило. В 17:14 Хегсет официально объявил Anthropic «Supply Chain Risk» и приказал всем военным подрядчикам, поставщикам и партнёрам разорвать связи с компанией. Ранее этот статус применяли только к иностранным компаниям и никогда — к американской.

Три ключевые фигуры истории давно знакомы по Кремниевой долине. Амодеи и глава OpenAI Сэм Альтман, оба 40 лет, когда‑то работали вместе в OpenAI и теперь считаются жёсткими конкурентами. Эмиль Майкл стал техническим директором Пентагона в мае 2025 года, до этого он уже работал в ведомстве специальным помощником при администрации Обамы и возглавил переговоры с Anthropic.

Во время переговоров Майкл публично атаковал Амодеи в X, назвав его «лжецом» с «комплексом бога» и написав, что тот якобы «хочет ничего, кроме как лично контролировать вооружённые силы США и готов рисковать безопасностью страны». По сведениям источников The New York Times, Майкл в итоге сделал ставку на Альтмана, который активно выстраивал отношения с администрацией Трампа.

Президент Дональд Трамп, судя по публикациям, заранее готовил эскалацию конфликта. В пятницу утром он сообщил Хегсету, что уже подготовил пост в Truth Social, в котором критикует Anthropic и требует от госведомств прекратить партнёрства с компанией в течение шести месяцев. Трамп опубликовал пост в 15:47, пока переговоры ещё шли. После этого диалог сторон всё же продолжился.

Помимо споров о наблюдении за гражданами, важной темой стали автономные вооружения. По данным The Atlantic, Anthropic не выступила с категорическим запретом на использование своих моделей в автономном оружии и даже предложила сотрудничать с Пентагоном по повышению надёжности таких систем. Позиция компании заключалась в том, что её модели пока недостаточно устойчивы: как беспилотные автомобили в ряде ситуаций уже безопаснее людей, так и боевые дроны теоретически могут стать точнее человеческого оператора. Но, по оценке Anthropic, текущий уровень технологий не гарантирует безопасность, и раннее применение может угрожать гражданскому населению и союзным войскам.

В ходе обсуждений возникла идея держать модели ИИ в облаке, а не встраивать их напрямую в вооружение. Anthropic рассмотрела и отвергла этот подход. Аргумент компании: в современной военной инфраструктуре граница между облаком и полем боя размыта. Боевые дроны могут подключаться к дата-центрам через сетевую инфраструктуру. Программа Пентагона Joint Warfighting Cloud Capability как раз направлена на приближение вычислительных ресурсов к зоне боевых действий. Поэтому с точки зрения Anthropic, неважно, размещён ли ИИ на сервере AWS в Вирджинии или прямо в зоне конфликта, если он фактически принимает решения на поле боя.

OpenAI, напротив, использует такую облачную архитектуру как аргумент в переговорах с Пентагоном. Компания утверждает, что размещение ИИ только в облаке «полностью» исключает применение в автономном оружии, поскольку для этого якобы необходимы системы на периферии (edge). Anthropic анализировала тот же вариант и сочла его недостаточным.

По данным The New York Times, уже 25 февраля, на следующий день после ультиматума Амодеи, Сэм Альтман позвонил Эмилю Майклу. В течение суток стороны наметили общий контур соглашения. OpenAI согласилась, что её ИИ может использоваться «для всех законных целей», но добилась права самостоятельно внедрять технические ограничения на основе внутренних принципов безопасности.

Это особенно заметно на фоне того, что в начале той же недели Альтман публично заявлял: OpenAI также не позволит использовать свои модели в автономном оружии, фактически демонстрируя солидарность с Anthropic. Вечером пятницы, около 22:00, когда юристы Anthropic уже готовили иск к Пентагону, Альтман по телефону с Майклом согласовывал финальные детали сделки. Затем он объявил о соглашении в X, а Хегсет репостнул его сообщение со своего личного аккаунта.

В субботу Альтман отвечал на вопросы в X и сформулировал позицию так: OpenAI не стремится оценивать конкретные законные военные операции, но хочет использовать свои компетенции для проектирования безопасной системы.

Бывшая глава направления по геополитике в OpenAI Сара Шокер, работавшая там около трёх лет и ушедшая в июне 2025 года, даёт более сдержанную оценку конфликта. По её мнению, ни у одной из ведущих компаний в ИИ нет последовательной политики использования технологий для военных целей. Условия использования намеренно оставляют пространство для трактовок, чтобы руководство сохраняло свободу манёвра.

В записи на Substack Шокер отмечает, что требования Anthropic по сути совпадают с действующим правом США. Директива Минобороны 3000.09 уже предписывает обеспечивать «соразмерный уровень участия человека» при применении автономных систем вооружений. Шокер объясняет жёсткую линию Пентагона, в том числе, демонстрацией силы: согласие на условия Anthropic создало бы прецедент для дальнейших переговоров с ИИ-компаниями.

Особенно критично Шокер оценивает формулировку OpenAI о запрете использования её технологий для «наведения» (direct) автономных систем вооружений. По её словам, такое слово даёт широкое поле для интерпретаций: OpenAI теоретически может допустить, что её модели станут частью автономного оружия, если они не принимают окончательное решение об атаке.

По мнению Шокер, позиция Амодеи также не выглядит полностью принципиальной. В заявлении от 26 февраля он фактически оставил возможность в будущем поддержать полностью автономные системы без участия человека — если технологии станут достаточно устойчивыми. Когда Шокер пришла в OpenAI в 2021 году, в компании действовал полный запрет на военное применение. К 2024 году этот запрет смягчили и заменили на более расплывчатые формулировки.

Anthropic объявила, что подаст в суд из‑за присвоения ей статуса «Supply Chain Risk». По данным The New York Times, американские спецслужбы, включая ЦРУ, которое уже использует технологии Anthropic, неофициально пытаются добиться компромисса между сторонами. Некоторые действующие и бывшие чиновники по-прежнему рассчитывают на соглашение.

Во время пилотной программы Пентагона в прошлом году Anthropic была единственной ИИ-компанией, которая предоставила свои модели для работы с засекреченными системами.

Источник: The New York Times, The Atlantic.

Оцените статью
Gimal-Ai