Пентагон и компания Anthropic не могут договориться о правилах использования искусственного интеллекта. По информации Reuters, конфликт связан с условиями контракта на сумму до 200 миллионов долларов. Anthropic требует гарантий, что её ИИ не будут использовать для автономного управления оружием без контроля человека или для наблюдения за гражданами США.
Пентагон отвергает подобные ограничения. В январском меморандуме по стратегии ИИ ведомство указало, что намерено использовать коммерческие ИИ-системы вне зависимости от пожеланий производителей, если это не нарушает законы США.
Глава Anthropic Дарио Амодеи заявил в блоге, что искусственный интеллект должен помогать обороне страны “за исключением случаев, когда это сделает нас похожими на наших автократических противников”. Он также назвал смерть граждан США на протестах против иммиграционной политики в Миннеаполисе “ужасом”. Эти события вызывают опасения у части Кремниевой долины по поводу использования ИИ государством для силовых действий, пишет Reuters.
Anthropic сотрудничает с компанией Palantir, которая работает напрямую с ICE — агентством, замешанным в инцидентах в Миннеаполисе.
Reuters отмечает, что для полноценного использования ИИ Anthropic военные всё равно нуждаются в помощи инженеров компании. Модели Anthropic изначально обучены на отказ от вредных действий, и их требуется дорабатывать для армии.
Сейчас Anthropic готовится к IPO и уже делает крупные ставки на сферу национальной безопасности.






















