Синтез9 апреля 2026 г. в 01:022

Суд США отклонил иск Anthropic против Пентагона по вопросу внесения в черный список

На фоне продолжающегося судебного разбирательства компания Anthropic ограничила доступ к своей новой модели ИИ из соображений безопасности.

Федеральный апелляционный суд в Вашингтоне вынес решение, которое стало значимым этапом в противостоянии администрации США и разработчиков искусственного интеллекта. Суд отказался приостановить действие решения Пентагона о включении компании Anthropic в черный список поставщиков, что фактически закрывает для нее доступ к государственным оборонным контрактам.

По данным Devdiscourse, министр обороны США Пит Хегсет ранее присвоил компании статус «риска для цепочки поставок в сфере национальной безопасности». Это решение было принято на фоне масштабной военной эскалации на Ближнем Востоке, где 8 апреля было достигнуто соглашение о прекращении огня между США и Ираном.

Представители Anthropic, известной разработкой ИИ-помощника Claude, оспорили действия ведомства в судебном порядке. Юристы компании утверждают, что правительство превысило свои полномочия, а сама процедура внесения в черный список нарушила конституционные права разработчика, так как компания не получила возможности оспорить обвинения в свой адрес. В свою очередь, администрация Трампа настаивает на необходимости жесткого контроля над технологиями в условиях, когда вопросы кибербезопасности и защиты данных становятся критически важными для национальной безопасности.

Данный судебный прецедент подчеркивает растущее напряжение между технологическим сектором и государственными структурами США. На фоне заявлений Пита Хегсета об итогах операции, правительство стремится минимизировать риски, связанные с использованием сторонних разработок в чувствительных оборонных системах. Для Anthropic решение суда влечет за собой серьезные финансовые и репутационные последствия, ставя под угрозу долгосрочное сотрудничество с государственными органами.

Эксперты отмечают, что текущее разбирательство может стать определяющим для будущей политики закупок в сфере искусственного интеллекта. Судебный процесс продолжается, и его исход будет иметь долгосрочное влияние на баланс между дискреционными полномочиями государственных агентств и этическими нормами в разработке технологий. На текущий момент юридическая позиция Пентагона остается устойчивой, несмотря на попытки компании добиться пересмотра ограничений.

Обновлено 9 апреля в 02:12

Обновлено 9 апреля 2026 года: Федеральный апелляционный суд в Вашингтоне в среду отказал компании Anthropic в требовании приостановить действие статуса «риска для цепочки поставок», присвоенного Пентагоном. Как сообщает The Economic Times, это решение стало промежуточным успехом администрации США, хотя и не является окончательным вердиктом по существу дела.

Ситуация осложняется наличием противоречивого судебного прецедента: 26 марта федеральный судья в Калифорнии заблокировал аналогичное решение Пентагона, усмотрев в действиях ведомства признаки неправомерного давления на компанию из-за её позиции по вопросам этики ИИ. В текущем процессе Anthropic оспаривает действия министра обороны Пита Хегсета, который ввел ограничения после отказа компании разрешить использование чат-бота Claude в системах наблюдения и автономных вооружениях.

Исполняющий обязанности генерального прокурора Тодд Бланш приветствовал решение суда, заявив, что «военная власть и оперативный контроль принадлежат главнокомандующему и Министерству войны, а не технологической компании». Со своей стороны, представители Anthropic выразили уверенность в том, что в конечном итоге суд признает статус «риска для цепочки поставок» незаконным. Министерство юстиции США настаивает, что ограничения связаны исключительно с отказом компании принять контрактные условия, что создает риски для безопасности военных систем в процессе эксплуатации.

Обновлено 9 апреля в 10:12

Обновлено 9 апреля 2026 года: На фоне исключения Anthropic из числа поставщиков Пентагона, оборонное ведомство США начало активно диверсифицировать круг своих технологических партнеров. Как сообщает Devdiscourse, отказ от услуг одного крупного разработчика вынудил министерство обороны обратить внимание на малые компании, специализирующиеся на ИИ.

В частности, эксперты отмечают рост интереса к таким фирмам, как Smack Technologies и EdgeRunner AI. По данным издания, военные уже проводят переговоры о потенциальных контрактах с этими разработчиками. В качестве примера смены стратегии приводится сотрудничество Smack Technologies с Корпусом морской пехоты США, где внедрение нового программного прототипа направлено на ускорение производственных процессов. В Пентагоне подчеркивают, что отказ от Anthropic был продиктован стремлением минимизировать риски, связанные с чрезмерной зависимостью от одного поставщика, и необходимостью соответствия более высоким стандартам безопасности.

Обновлено 9 апреля в 18:18

Обновлено 9 апреля 2026 года: Компания Anthropic объявила об ограничении публичного доступа к своей новой модели искусственного интеллекта Claude Mythos Preview. Как сообщает The Hill, разработчик принял решение не выпускать модель в широкий доступ, аргументируя это тем, что технология на данном этапе представляет чрезмерную опасность для общественности. В настоящее время доступ к системе предоставлен лишь узкому кругу технологических партнеров, включая Microsoft, Apple, CrowdStrike и Amazon Web Services.

Данный шаг компании совпал по времени с продолжающимся юридическим спором с Пентагоном относительно включения Anthropic в черный список поставщиков оборонных услуг. Ранее министр обороны США Пит Хегсет обосновал это решение рисками для цепочки поставок в сфере национальной безопасности.

AnthropicПентагонИИСШАсудебные разбирательства