Министерство обороны США (Пентагон) в среду, 4 марта 2026 года, официально уведомило компанию Anthropic о включении её в список «рисков для цепочки поставок». Это решение, о котором в четверг сообщили СМИ, фактически запрещает оборонным подрядчикам использовать ИИ Claude в продуктах для правительства. Основанием для такого беспрецедентного шага против американской компании стал отказ Anthropic изменить свою политику допустимого использования (Acceptable Use Policy) по требованию военных.

Конфликт назревал несколько недель. Пентагон, в частности министр обороны Пит Хегсет, требовал от Anthropic ослабить внутренние ограничения, чтобы позволить использовать Claude для двух ключевых целей: создания автономных летальных вооружений (убийственных роботов) без прямого человеческого контроля и проведения массовой слежки. Anthropic, чья корпоративная конституция и политика безопасности являются её ключевыми маркетинговыми отличиями, настаивала на сохранении этих «красных линий». Переговоры зашли в тупик, и после публичного отказа Anthropic пойти на уступки в прошлый четверг Пентагон привёл в исполнение свою угрозу.

Технически статус «риска для цепочки поставок» обычно применяется к иностранным компаниям, связанным с недружественными государствами. В случае с Anthropic Пентагон впервые публично использует этот инструмент против отечественного разработчика. В своём заявлении министр Хегсет даже пошёл дальше, заявив, что контракты будут разорваны с любыми подрядчиками, ведущими «любую коммерческую деятельность» с Anthropic, даже вне рамок оборонных проектов. Сам ИИ Claude, согласно отчётам, уже глубоко интегрирован в некоторые системы, например, в инструменты анализа разведданных, которые, как сообщается, сыграли роль в недавней успешной операции США.

Генеральный директор Anthropic Дарио Амодеи в ответном заявлении в корпоративном блоге подтвердил получение уведомления и назвал действия Пентагона юридически сомнительными. «Мы не видим иного выбора, кроме как оспорить это в суде», — написал он. Компания готова отстаивать право частной компании устанавливать этические ограничения на использование своих технологий. Пентагон, со своей стороны, настаивает, что такие жёсткие ограничения со стороны коммерческой структуры недопустимы для национальной безопасности и ставят под сомнение суверенитет государства.

Этот прецедент имеет огромное значение для всей индустрии ИИ. Он ставит фундаментальный вопрос о балансе власти между государством и технологическими компаниями в вопросах этики и безопасности. Если позиция Пентагона возобладает, другие разработчики ИИ, включая крупных игроков, могут столкнуться с аналогичным давлением с требованием предоставить военным и спецслужбам неограниченный доступ к своим моделям. Для пользователей и бизнеса это означает риск дальнейшей фрагментации ИИ-рынка на «военные» и «гражданские» модели, а также потенциальное замедление инноваций из-за судебной неопределённости.

Перспективы конфликта теперь зависят от суда. Антропик, скорее всего, будет оспаривать правомерность применения к ней статуса «риска для цепочки поставок» и чрезмерно широкую трактовку этого правила министром Хегсетом. Параллельно Пентагон и администрация президента Трампа установили шестимесячный срок для удаления Claude из государственных систем, что будет технически сложной задачей. Исход этого противостояния определит новые правила игры на стыке передовых технологий, государственного регулирования и корпоративной этики на годы вперёд.