Anthropic отказалась выполнить требования Пентагона
Генеральный директор компании-разработчика искусственного интеллекта (ИИ) Anthropic Дарио Амодеи 26 февраля опубликовал заявление, в котором отказался пойти на ультиматум Министерства обороны США.
«Я глубоко верю в критически важную роль ИИ в защите Соединенных Штатов и других демократий», — написал Амодеи и подчеркнул, что компания никогда не возражала против военных операций США и не пыталась ограничивать использование своих технологий в оперативном порядке. Однако именно в двух случаях руководство Anthropic считает применение ИИ недопустимым: слежка за гражданским населением и для создания оружия, способного принимать решения об уничтожении цели без участия человека.
В узком ряде случаев мы убеждены, что ИИ способен подорвать, а не укрепить демократические ценности. Некоторые способы применения выходят за рамки того, что сегодняшние технологии могут делать надежно и безопасно. Мы не можем с чистой совестью выполнить их требование.
Дарио Амодеи
генеральный директор компании Anthropic
Пентагон в ответ на запросы СМИ заявил, что никогда не обсуждал с компанией-разработчиком искусственного интеллекта возможность создания автономного оружия или организацию массовой слежки, так как это незаконно.
Однако, по данным The Washington Post, военное ведомство отказалось прописать соответствующие запреты в контракте с Anthropic, ограничившись размытой формулировкой об «ответственном соблюдении законодательства». По словам представителя компании, «использованная фраза была подана как компромисс и сопровождалась юридическими оговорками, позволяющими игнорировать гарантии по желанию».

Фото: Zuma / TASS
Представитель Пентагона Шон Парнелл назвал нарратив «фейком, который распространяют левые в СМИ». По данным CBS News, главный технологический директор Пентагона Эмиль Майкл назвал Амодеи «лжецом» после того, как компания отвергла последнее предложение ведомства. Примирительных сигналов со стороны Белого дома не поступало.
Как развивался конфликт между Anthropic и Пентагоном
Осенью 2024 года Anthropic первой среди американских ИИ-компаний получила допуск к работе в засекреченных сетях Министерства обороны США. Работа шла в партнерстве с компанией Palantir, специализирующейся на аналитике данных, а также с облачной платформой Amazon Web Services. Claude получил аккредитацию уровня Impact Level 6, который является наивысшим уровнем доступа для коммерческого программного обеспечения в Пентагоне. Всего к лету 2025 года Министерство обороны подписало контракты стоимостью до $200 млн каждый с четырьмя ИИ-компаниями: Anthropic, Google, OpenAI и xAI Илона Маска.
Поводом для конфликта стала операция американского спецназа по захвату 3 января 2026 года бывшего президента Венесуэлы Николаса Мадуро. По данным Axios и The Wall Street Journal, в ходе операции военные использовали чат-бот Claude от Anthropic через платформу Palantir. О том, как именно применяли ИИ, точно не сообщается.
Сотрудники Anthropic сообщили Palantir, что такая деятельность может нарушить действующее соглашение. Когда об обеспокоенности в ИИ-компании услышал Пентагон, он расценил это как попытку вмешаться в проведение операции. Однако в компании отрицают, что когда-либо возражали против конкретных военных действий.
Вскоре американские военные потребовали снять все ограничения на использование чат-бота Claude в военных целях. В середине февраля переговоры зашли в тупик. Заместитель министра обороны Эмиль Майкл объявил, что стороны не могут найти консенсус по вопросу о том, может ли Anthropic иметь право ограничивать применение Claude уже после того, как стала доверенным подрядчиком Пентагона.
Для выхода из тупика, по данным Axios и NPR, министр обороны Пит Хегсет 25 февраля провел переговоры с Дарио Амодеи. По их итогу Anthropic поставили ультиматум согласиться с условиями американских военных до 17:01 27 февраля. В противном случае стартап ожидают санкции:
- признание компании «угрозой цепочке поставок». Такой статус фактически означает внесение фирмы в черный список подрядчиков федерального правительства США. Все оборонные подрядчики, сотрудничающие с Пентагоном, будут обязаны подтвердить отказ от технологий Anthropic;
- применение против нее Закона об оборонном производстве (Defense Production Act, DPA). Он был принят еще в 1950 году в разгар Корейской войны и наделяет государство чрезвычайными полномочиями обязать частные компании выполнять требования, признанные важными для национальной безопасности без согласия самой компании.
Как признается сам Дарио Амодеи, варианты противоречат друг другу, так как в первом случае Claude становится угрозой национальной безопасности, а в другом — признается незаменимым инструментом для ее защиты.
Издание Lawfare отмечает, что закон создавался для принудительного производства стали и военной техники и его распространение на искусственный интеллект может быть оспорено в суде. При этом действие DPA истекает 30 сентября 2026 года и потребует повторного утверждения Конгрессом. Если конфликт Пентагона и Anthropic станет затяжным, то поставить точку в нем может американский Конгресс.
Битва Пентагона с Anthropic — это война за контроль над ИИ в военной сфере
Конфликт разворачивается на фоне курса администрации президента США Дональда Трампа по внедрению ИИ в армию. В январе 2026 года Хегсет подписал меморандум об переориентации «армии на искусственный интеллект». Документ потребовал в течение 180 дней внести во все контракты Пентагона формулировку о праве использовать системы «для любых законных целей» без ограничений со стороны разработчиков. В меморандуме указывалось, что «риски недостаточной скорости внедрения перевешивают риски несовершенного соответствия законодательству», а разработка ИИ должна охватывать все — «от планирования военных кампаний до управления системами уничтожения».

Фото: Alex Brandon / AP / TASS
OpenAI, xAI и Google пересмотрели свои контракты в соответствии с требованиями меморандума. Однако ни одна из этих систем не имеет допуска уровня IL-6, а значит, не может работать в полностью засекреченных сетях. По данным Axios, Claude «остается единственной передовой ИИ-моделью, функционирующей в засекреченных сетях Пентагона».
Монополия на доступ к секретным данным и обеспечила Anthropic рычаги давления: по признанию одного из высокопоставленных чиновников Министерства обороны, «единственная причина, по которой мы еще разговариваем с этими людьми, — нам они нужны, и нужны прямо сейчас».
Однако вакантное место уже хотят занять конкуренты Anthropic. Так, Google уже согласилась с условием о «любом законном применении», однако ее переход в засекреченный контур потребует времени и ресурсов. xAI Илона Маска в конце февраля получила допуск к работе в секретных сетях с чат-ботом Grok, также согласившись на все условия Пентагона.
Вероятно, именно с конкуренцией связано решение разработчика Claude 24 февраля, то есть в тот же день, что и был сделан ультиматум Хегсета, опубликовать третью версию своей политики по ответственному использованию алгоритмов (Responsible Scaling Policy, RSP). Из документа было удалено обязательство компании никогда не обучать более мощные модели, если соответствующие меры безопасности для их контроля еще не разработаны.
Как сообщает Time, главный научный директор Anthropic Джаред Каплан объяснил изменение тем, что «в условиях стремительного прогресса ИИ имеет смысл давать односторонние обязательства… особенно если конкуренты рвутся вперед».
Политическая среда сместилась в сторону приоритизации конкурентоспособности ИИ и экономического роста, тогда как дискуссии, ориентированные на безопасность, пока не получили значимой поддержки на федеральном уровне.
из текста Responsible Scaling Policy
При этом представитель компании настаивает, что обновление политики безопасности «никак не связано» с переговорами с Пентагоном. Критики, однако, указывают, что оба события произошли одновременно, и новая политика оставляет Anthropic гораздо менее связанной собственными обязательствами в области безопасности.
Примечательно, что Anthropic была основана в 2021 году выходцами из OpenAI, в том числе самим Дарио Амодеи, который покинул прежнее место работы именно из-за того, что OpenAI, по его словам, ставила скорость выше безопасности.
Независимые эксперты Lawfare настаивают, что конфликт обнажил слабое место американского законодательства. Правила применения ИИ в военных целях должны быть закреплены законом и определяться мнением Пентагона или отдельной частной компании. В связи с этим текущее противостояние может стать важным прецедентом в области применения ИИ.
Фото обложки: Patrick Sison / AP / TASS