В первой половине 2023 года подразделение Пентагона, занимающееся цифровым и искусственным интеллектом, провело серию экспериментов с моделями OpenAI. Тестирование включало работу с большими языковыми моделями (LLM), такими как GPT-4, через облачный сервис Microsoft Azure Government. Этот сервис предназначен специально для государственных учреждений США и имеет необходимые сертификаты безопасности. Ключевой деталью является то, что на момент проведения этих испытаний в политике допустимого использования OpenAI явно значился запрет на деятельность, связанную с «военными и оборонными целями». Запрет был официально снят компанией только в январе 2024 года.

Этот инцидент ставит под сомнение реальную эффективность саморегулирования ведущих AI-компаний и прозрачность их взаимодействия с государственными структурами. OpenAI, позиционировавшая себя как осторожный и этичный разработчик, прямо запрещала использование своих моделей для разработки оружия, нанесения вреда людям или для «военных и оборонных» применений. Однако партнёрство с Microsoft, которая активно продаёт свои облачные и AI-услуги правительству и армии США, создало юридический и технический «обходной путь». Фактически, Пентагон получил доступ к мощным AI-моделям через инфраструктуру крупного подрядчика, что формально могло не нарушать условия прямого лицензионного соглашения с конечным пользователем.

Технически доступ осуществлялся через API OpenAI, развёрнутый в изолированном облаке Microsoft Azure Government. Это означает, что специалисты Пентагона могли интерактивно работать с моделями, настраивая их для решения специфических задач. Среди потенциальных областей испытаний, о которых сообщается, — обработка естественного языка для анализа огромных массивов документов, синтез отчётов по данным разведки, а также помощь в написании кода для кибербезопасности. Microsoft, как интегратор, предоставляла платформу и, вероятно, техническую поддержку, в то время как OpenAI, согласно её прежним заявлениям, не должна была напрямую участвовать в подобных военных проектах.

Реакция компаний была сдержанной. Представитель OpenAI подтвердил, что политика использования была изменена в январе 2024, и теперь компания запрещает только разработку оружия или нанесение вреда, но разрешает работу с некоторыми государственными агентствами, включая военные, в таких сферах, как киберзащита. В Microsoft заявили, что их работа с OpenAI и правительством США соответствует всем применимым законам и нормам, подчеркнув, что они постоянно консультируются с партнёрами по вопросам политики. Эксперты по этике ИИ и правозащитники выразили серьёзную озабоченность, назвав это классическим случаем «смещения цели»: изначальные строгие этические запреты постепенно размываются под давлением бизнес-интересов и государственного спроса.

Для индустрии это сигнал о том, что декларируемые этические принципы в сфере ИИ могут быть гибкими, особенно когда в игру вступают крупные государственные контракты и стратегическое партнёрство с IT-гигантами. Пользователи и разработчики, доверявшие OpenAI как компании с «безопасным» подходом, могут пересмотреть свои ожидания. Ситуация также обнажает сложную цепочку ответственности: когда мощная модель ИИ поставляется как услуга через партнёра, контроль над её конечным использованием значительно ослабевает. Это создаёт прецедент для других AI-стартапов, которые могут столкнуться с аналогичным давлением со стороны своих инвесторов и партнёров по интеграции.

Перспективы теперь связаны с последствиями скандала и новой политикой OpenAI. Будет ли компания проводить аудит прошлых проектов, реализованных через Microsoft? Как она будет контролировать использование своих моделей в военных целях новыми клиентами? Открытым остаётся вопрос, знало ли руководство OpenAI о тестировании Пентагоном её технологий до изменения политики. Этот случай неизбежно усилит призывы к внешнему, законодательному регулированию военного применения ИИ, так как саморегулирование компаний доказало свою уязвимость. Гонка AI-вооружений между крупными державами продолжается, и технологии ведущих лабораторий, даже с изначальными запретами, всё активнее в неё втягиваются.