Пентагон требует от Anthropic снять ограничения на использование ИИ в военных целях
Министерство обороны США выдвинуло ультиматум американской компании Anthropic, разработчику искусственного интеллекта Claude. Об этом сообщают американские СМИ. Военное ведомство требует от стартапа полностью снять внутренние ограничения на использование своих технологий в оборонных целях. В случае отказа к вечеру пятницы Пентагон грозит применить санкции.
Во вторник министр обороны США Пит Хегсет провел встречу с генеральным директором Anthropic Дарио Амодеи. Военные потребовали включить в совместные с компанией контракты формулировку, которая разрешает «любое законное применение» нейросетей. На данный момент Claude является единственной ИИ-моделью, допущенной к работе в совершенно секретных правительственных сетях (в партнерстве с Palantir и Amazon).
Пентагон установил дедлайн до 17:01 27 февраля. К этому времени компания должна согласиться на новые условия работы.
Руководство Anthropic настаивает на сохранении собственной политики безопасности. Компания обозначила две «красные линии»: запрет на использование искусственного интеллекта для массовой слежки за американскими гражданами и отказ от применения своих алгоритмов в создании полностью автономного оружия, способного наносить удары без участия человека. В Anthropic подчеркивают, что законодательство пока не поспевает за развитием ИИ, а сами технологии еще недостаточно надежны для передачи им права на применение силы.
Катализатором конфликта стала недавняя операция спецназа США по захвату бывшего президента Венесуэлы Николаса Мадуро. Модель Claude использовалась в ходе этой операции для разработки, по данным WSJ, чуть ли не всей операции. Доступ к ней был передан через инфраструктуру подрядчика Palantir. До Пентагона дошли слухи, что Anthropic выражала недовольство этим фактом, хотя на встрече Амодеи категорически отверг, что компания пыталась вмешиваться в ход операции.

Фото: Alex Brandon / AP / TASS
Несмотря на попытки сгладить углы, Пит Хегсет предупредил, что военные не позволят частным корпорациям диктовать условия американской армии. В качестве рычагов давления Пентагон озвучил две взаимоисключающие угрозы.
- Применение Закона об оборонном производстве (Defense Production Act, DPA) от 1950 года. Он позволит правительству принудить Anthropic предоставить технологии военным на условиях Пентагона.
- Внесение в список «угроз для цепочек поставок» (Supply Chain Risk). Мера применялась к компаниям из враждебных для США государств. Например, в них входит китайская Huawei или российская Kaspersky. Если это произойдет, то разработчик ИИ потеряет контракт с Пентагоном на $200 млн, а все компании, которые работают с американским правительством, будут обязаны отказаться от Claude, чтобы продолжить работать с Белым домом.
По мнению юристов и экспертов, озвученному в американских СМИ, применение таких мер к отечественному поставщику программного обеспечения в истории США не было.
Возможная потеря правительственного контракта вряд ли станет критическим ударом по финансам Anthropic. На фоне конфликта с властями стало известно, что стартап привлек рекордные $30 млрд инвестиций от фондов GIC и Coatue. Сегодня компанию оценивают в $380 млрд. Годовая выручка компании превысила $14 млрд, а ИИ-инструмент для программистов Claude Code должен принести фирме более $2,5 млрд ежегодно. Кроме того, стартап активно расширяет свое присутствие в корпоративном секторе, представив на этой неделе новые ИИ-решения для инвестиционного банкинга и кадрового делопроизводства.
Тем не менее конкуренты готовы оперативно занять место Anthropic в секретных сетях Пентагона. По данным источников, компания xAI Илона Маска уже согласилась на формулировку «любое законное применение» для своей модели Grok и планирует интегрировать ее в военные системы. Аналогичные переговоры об отказе от антивоенных ограничений в обмен на допуск к секретным данным Минобороны активно ведут Google и OpenAI.