Судья заблокировал ярлык цепочки поставок антропического происхождения Пентагона?

Федеральный судья временно приостановил громкий спор вокруг цепочки поставок антропика, подчеркнув растущую напряженность между правительством США и крупными вендорами ИИ.

Судья блокирует усилия Пентагона по внесению Anthropic в черный список

В четверг окружной федеральный судья в Калифорнии временно запретил Пентагону маркировать Anthropic как риск для цепочки поставок и распорядился федеральным ведомствам прекратить использование ее систем ИИ. Это решение стало последней сюжетной переменой в месячной вражде, и вопрос остается нерешенным: теперь у правительства есть семь дней на апелляцию.

Кроме того, Anthropic добивается второго дела, оспаривающего ту же самую маркировку по другой правовой теории, которое пока не было решено. До завершения этих разбирательств компания фактически остается персоной нон грата во многих структурах федерального правительства, несмотря на вмешательство судьи.

Спор по контракту перерастает в войну культур вокруг ИИ

Ставки в этом деле были понятны с самого начала: насколько далеко правительство может заходить, наказывая компанию, которая отказывается «играть по правилам» в отношении чувствительных вопросов политики. При этом Anthropic собрала необычно широкую коалицию высокопоставленных сторонников, включая бывших авторов AI-политики президента Дональда Трампа, которые редко встают на сторону платформ из Силиконовой долины.

Однако 43-страничное мнение судьи Риты Лин указывает, что лежащая в основе проблема по сути является спором по контракту, который не требовал взрывного раздувания в более широкую войну культур. Судья пришла к выводу, что правительство обошло установленные процедуры для урегулирования подобных споров, а затем подлило масла в огонь постами в соцсетях, которые позже противоречили позициям, занятым в суде.

Пентагон, по сути, дал понять, что хотел политического противостояния, наложенного поверх реальной войны в Иране, которая началась за считанные часы после того, как некоторые ключевые посты вышли в эфир. Такое переплетение правовых, политических и военных повесток тяжело легло на оценку суда по материалам дела.

Использование Claude внутри Пентагона и рост напряженности

Согласно документам, поданным в суд, правительство использовало Claude от Anthropic в 2025 году, не поднимая значимых претензий. В тот период компания пыталась соблюсти баланс между своим брендом как разработчиком ИИ, ориентированным на безопасность, и своей ролью подрядчика в сфере обороны, двигаясь по тому, что один из документов описал как «брендинговый канат».

Сотрудникам оборонного ведомства, получавшим доступ к Claude через Palantir, пришлось принять политику использования, специфичную для государства. В подтвержденном под присягой заявлении сооснователь Anthropic Джаред Каплан сказал, что эта политика «запрещала массовую слежку за американцами и применение летальной автономной войны», хотя он не предоставил суду полный текст. Только когда Пентагон попытался заключить контракт напрямую с Anthropic, на поверхности появились серьезные разногласия.

Сначала твит, потом оправдание: публичные угрозы Трампа и Хегсетта

Больше всего судью возмутило то, что после того как спор стал публичным, действия правительства выглядели больше как наказание, чем как простое решение разорвать связи. Кроме того, прослеживался устойчивый шаблон: сначала твит, потом — юрист.

27 февраля президент Трамп опубликовал в Truth Social сообщение, в котором сослался на «Leftwing nutjobs» в Anthropic и потребовал от каждого федерального агентства прекратить использование ее ИИ. Вскоре после этого министр обороны Пит Хегсетт повторил эту позицию, заявив, что он поручит Пентагону маркировать компанию как риск для цепочки поставок.

Формальное внесение компании в такой перечень требует от министра обороны следовать определенной последовательности действий, предусмотренных законом. Однако судья Лин установила, что Хегсетт эти шаги не завершил. Так, письма в профильные парламентские комитеты утверждали, что были оценены менее радикальные меры и сочтены невозможными, но они не приводили никаких фактических деталей в поддержку этого утверждения.

Правительство также утверждало, что ярлык «риск цепочки поставок» необходим, потому что Anthropic может развернуть «kill switch», чтобы отключить свои системы. Однако в ходе допроса адвокаты признали, что, согласно мнению суда, доказательств такой возможности нет. Это несоответствие дополнительно подорвало позицию Пентагона.

Юридические полномочия против политического месседжа

Пост Хегсетта в соцсетях утверждал, что «Ни один подрядчик, поставщик или партнер, ведущий дела с вооруженными силами США, не может проводить какую-либо коммерческую деятельность с Anthropic». Позже собственные юристы правительства во вторник признали, что у министра на самом деле нет полномочий, чтобы установить такое всеобъемлющее запретительное решение.

Судья и юристы Министерства юстиции согласились, что тотальный запрет Хегсетта имел «абсолютно никакого правового эффекта». Однако агрессивный тон этих публикаций привел судью Лин к выводу, что у Anthropic есть обоснованная жалоба по Первой поправке. Суд установил, что чиновники фактически попытались публично наказать компанию за ее «идеологию» и «риторику», а также за то, что они называли ее «самонадеянностью» в отказе идти на компромисс.

Маркировка Anthropic как риска цепочки поставок, писал судья, будет равнозначна клеймению ее как «саботажника» правительства США. Она сочла доказательств недостаточными для поддержки такого обвинения и, соответственно, издала в прошлый четверг распоряжение, приостановившее эту маркировку: суд запретил Пентагону применять ее и запретил правительству исполнять все широкие обещания, сделанные Хегсеттом и Трампом.

«Разрушительное» решение и второй иск в DC

Дин Болл, помогавший вырабатывать политику в области ИИ в администрации Трампа и подавший бриф в поддержку Anthropic, назвал решение «разрушительным решением для правительства». Он сказал, что суд пришел к выводу: Anthropic, вероятно, одержит победу почти по всем своим теориям, согласно которым действия правительства были незаконными и неконституционными.

Ожидается, что администрация подаст апелляцию на решение калифорнийского суда. В то же время Anthropic добивается отдельного дела в Вашингтоне, DC, где поднимаются аналогичные утверждения, но приводится другая часть закона, регулирующего риски цепочки поставок. Вместе эти дела могут определить, насколько далеко федеральные чиновники могут заходить, отвечая реталиациями против вендоров ИИ, чьи взгляды им не нравятся.

Паттерн публичной риторики и юридические доводы «задним числом»

Судебные документы описывают устойчивый паттерн, при котором публичные заявления высокопоставленных должностных лиц и президента не соответствовали тому, что требует закон в споре по контракту. Кроме того, юристам правительства неоднократно приходилось строить правовые обоснования постфактум после более ранних атак в соцсетях на компанию.

Лидеры Пентагона и Белого дома знали, что преследование наиболее крайнего варианта неизбежно спровоцирует судебные разбирательства. 27 февраля Anthropic публично пообещала оспорить любую маркировку «риск цепочки поставок» — за несколько дней до того, как 3 марта правительство официально подало обозначение. Этот таймлайн показывает, что даже на фоне вспыхнувшей войны в Иране руководство решило двигаться дальше.

В течение первых пяти дней конфликта чиновники и наблюдали за военными ударами, и собирали доказательства, чтобы представить Anthropic как саботажника. Однако судья отметил, что Пентагон мог просто прекратить ведение бизнеса с компанией, сделав это куда менее драматично и куда более стандартными, традиционными шагами закупок.

Последствия для Anthropic и для более широкой индустрии ИИ

Даже если в итоге Anthropic выиграет оба дела, это решение ясно показывает, что в Вашингтоне все еще есть неформальные способы оттеснить компанию от будущей работы в структурах правительства. Оборонные подрядчики, зависящие от Пентагона по доходам, сейчас имеют мало стимулов партнерствовать с Anthropic, даже если ее никогда официально не внесут в список рисков цепочки поставок.

«Думаю, можно безопасно сказать, что у правительства есть механизмы, с помощью которых оно может оказывать определенную степень давления, не нарушая закон», — сказал Чарли Буллок, старший научный сотрудник Института права и ИИ. При этом он подчеркнул, что многое зависит от того, насколько администрация вовлечена в наказание Anthropic из‑за этого спора.

Судя по данным и доказательствам на данный момент, администрация выделяет высшему уровню время и внимание, чтобы выиграть то, что по сути является войной культур вокруг ИИ. В то же время Claude, похоже, настолько важен для операций Пентагона, что сам президент Трамп сказал, что Министерству обороны нужно шесть месяцев, чтобы вывести его из использования. Это противоречие подрывает тезис, что маркировка риска цепочки поставок, связанная с антропиком, была исключительно про безопасность.

Ограничения рычагов правительства над вендорами ИИ

Дело также подчеркивает усилия Белого дома, которые направлены на то, чтобы требовать политической лояльности и идеологического соответствия от ведущих компаний в сфере ИИ. Однако конфликт с Anthropic раскрывает пределы этого рычага — по крайней мере, когда публичные угрозы сталкиваются с правилами закупок, предусмотренными законом, и конституционными гарантиями.

Кроме того, этот спор дает четкий сигнал другим вендорам ИИ, создающим инструменты для национальных агентств безопасности. Агрессивная публичная риторика может не выдержать судебной проверки, если она не подкреплена доказательствами и формальным процессом. Похоже, суды готовы пресекать такую линию более строго по мере того, как ИИ становится неотъемлемой частью оборонных операций США.

Пока что Anthropic остается в шатком положении: с юридической поддержкой благодаря сильному раннему решению, но при этом коммерчески уязвимой для тихого внесения в черные списки в рамках оборонной экосистемы. Итог параллельных дел повлияет не только на ее собственное будущее, но и на очертания власти правительства в эпоху ИИ.

Если у вас есть информация об использовании ИИ военными, вы можете передать ее безопасно через Signal (username jamesodonnell.22).

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Горячее на Gate Fun

    Подробнее
  • РК:$2.27KДержатели:2
    0.00%
  • РК:$2.37KДержатели:2
    1.04%
  • РК:$2.24KДержатели:1
    0.00%
  • РК:$2.24KДержатели:1
    0.00%
  • РК:$2.25KДержатели:1
    0.00%
  • Закрепить