Почему Anthropic подала в суд на Пентагон
Компания Anthropic подала иск против Пентагона, нескольких федеральных ведомств и чиновников администрации Дональда Трампа. Накануне Белый дом включил разработчика ИИ-модели Claude в список компаний, представляющих «угрозу для цепочки поставок». Это статус ставит под вопрос сотрудничество с ней: теперь при работе с Пентагоном поставщикам и подрядчикам придется подтверждать, что они не используют технологии Anthropic. СМИ отмечают, что ранее «угрозой для цепочки поставок» признавали только компании из стран-противников США.

В своем иске Anthropic обвиняет власти США в попытке разрушить бизнес из-за отказа подчиняться требованиям Пентагона — конфликт между администрацией Трампа и разработчиком Claude разгорелся еще в феврале из-за расхождений во взглядах на то, как именно ИИ может применяться в военных целях. Теперь компания требует признать присвоение статуса «угрозы для цепочки поставок» незаконным — в документе говорится, что Белый дом превысил свои полномочия и нарушил конституционные права.
Эти действия беспрецедентны и незаконны. Конституция не позволяет правительству использовать свою огромную власть для наказания компании за ее защищенную законом свободу слова. Ответчики стремятся уничтожить экономическую ценность, созданную одной из самых быстрорастущих частных компаний в мире, лидера в области ответственного развития новой технологии, имеющей жизненно важное значение для страны.
иск Anthropic
Руководители Anthropic утверждают, что включение компании в «черный список» может нанести ущерб деловой репутации и по итогам 2026 года привести к сокращению выручки на несколько миллиардов долларов. Финансовый директор Кришна Рао уверен: если решение властей США останется в силе, последствия для бизнеса будет «практически невозможно обратить вспять». Некоторые партнеры уже принимают меры: например, один из клиентов Anthropic, предоставляющий финансовые услуги, приостановил переговоры по сделке стоимостью $15 млн. Еще один партнер с «многомиллионным годовым контрактом» перешел от разработчика Claude к конкурирующей ИИ-модели, что стоило Anthropic потери ожидаемого дохода в размере более $100 млн.
Reuters отмечает, что противостояние Anthropic и Пентагона — очередная проверка масштабов контроля администрации Трампа над бизнесом. В зависимости от итогов разбирательства станет очевидно, за кем останется последнее слово в использовании искусственного интеллекта — за правительством или разработчиками технологии. В Anthropic, к слову, заявили, что судебный иск не исключает возможности возобновления переговоров с Белым домом и достижения мирового соглашения. В Пентагоне судебный процесс комментировать отказались.
В чем суть конфликта Anthropic с Пентагоном
До недавнего времени Anthropic была одним из самых «тихих» игроков ИИ-рынка, пишет The Guardian. Несмотря на то, что компания быстро развивается и оценивается примерно в $350 млрд, она редко фигурирует в громких конфликтах и заголовках СМИ, как это случалось, например, с OpenAI Сэма Альтмана и xAI Илона Маска. Так было до тех пор, пока Anthropic не стала центральным действующим лицом в борьбе с Министерством обороны США: компания, которая с осени 2024-го работает в засекреченных сетях ведомства, настаивала на соблюдении этических ограничений и отказе от использования Claude для слежки за гражданским населением и создания автономного летального оружия (то есть такого, которое способно принимать решения об уничтожении цели без участия человека). По данным The Washington Post, военное ведомство отказалось прописать соответствующие запреты в контракте с Anthropic.
Глава Пентагона Пит Хегсет тогда же обвинил Anthropic в «высокомерии и предательстве» страны. Тем не менее вооруженные силы США продолжают использовать Claude для координации ударов по Ирану.
Компания Anthropic продолжит предоставлять свои услуги военному ведомству в течение не более чем шести месяцев. Мы обеспечим плавный переход к более качественному и патриотичному сервису. Американские военные никогда не станут заложниками идеологических капризов бигтеха. Это решение является окончательным.
Пит Хегсет
Следом о сделке с Пентагоном объявил глава OpenAI Сэм Альтман. Он подчеркнул, что Минобороны США «продемонстрировало глубокое уважение к безопасности и желание сотрудничать». Это стоило компании по меньшей мере двух топ-менеджеров — они покинули OpenAI после ее соглашения с Пентагоном, сославшись на расхождение ценностей. Глава Anthropic Дарио Амодеи во внутреннем письме сотрудникам, которое опубликовало издание The Information, назвал Сэма Альтмана «лжецом», а причиной конфликта с Пентагоном счел отказ «льстить президенту как диктатору». Правда, позже Амодеи извинился за эти слова и сказал, что содержание письма «не отражает реальные взгляды компании». Дональд Трамп тем временем утверждает, что «уволил Anthropic как собак», и запрещает властям США использовать технологии компании.
Кто поддержал Anthropic
Через несколько часов после того, как Anthropic подала иск против Пентагона, в поддержку компании высказались 37 ведущих исследователей и инженеров ИИ. Среди них в том числе сотрудники Google DeepMind и OpenAI. В обращении, внесенном в судебный реестр, утверждается, что подобные меры администрации США наносят удар по технологическому лидерству и конкурентоспособности страны в научной сфере. Ограничивая работу одного игрока рынка, Белый дом «снижает потенциал индустрии в целом», считают эксперты.
Мы создаем, обучаем и изучаем крупномасштабные системы искусственного интеллекта, которые обслуживают широкий круг пользователей и заказчиков, в том числе в таких областях, как национальная безопасность, правоохранительная деятельность и военные операции. Мы говорим не как представители какой-либо отдельной компании, а как профессионалы, обладающие непосредственным знанием того, что могут и чего не могут эти системы и что поставлено на карту, когда их внедрение выходит за рамки правовых и этических рамок.
заявление в поддержку Anthropic
Эксперты прокомментировали «красные линии», обозначенные Anthropic. В обращении говорится, что данные об американских гражданах уже собираются по камерам, соцсетям и банковским транзакциям, но пока не существует ИИ-инструмента, способного «преобразовать этот обширный набор данных в единую систему наблюдения в режиме реального времени». Появление такой технологии может привести к «серьезным рискам для демократического управления» страной. А склонность искусственного интеллекта к «галлюцинациям» (выдумывать несуществующие факты) означает, что человеку необходимо контролировать системы вооружения и принимать решения до того, как «смертоносный боеприпас будет запущен по живым целям».
Фото обложки: Cfoto / Imago / TASS