В центре драматической эволюции в сфере оборонного ИИ находятся два ключевых лица — Дарио Амодеи, глава Anthropic, и Пит Сэгсетх, министр обороны США. Их противостояние не было просто разногласием по техническим параметрам, оно выросло в глубокую дискуссию о том, как управлять разумными системами, когда они могут принимать решения, влияющие на безопасность миллионов человек.
Anthropic, одна из ведущих компаний в области разработки крупномасштабных ИИ-моделей, ранее получила контракты от Пентагона. Однако в ходе переговоров по внедрению своих технологий в военные системы, компания настаивала на двух фундаментальных ограничениях: отказе от использования моделей для массовой домашней слежки и от разработки полностью автономных вооружённых систем. Эти требования, по мнению Амодеи, являются не просто предпосылками, а необходимыми для сохранения доверия к ИИ как к инструменту, который должен быть под контролем человека.
Сэгсетх, в свою очередь, воспринял эти ограничения как угрозу для оперативной гибкости и масштабируемости военных решений. Он утверждал, что такие «редкие» условия могут привести к утрате стратегической эффективности и замедлению реагирования на угрозы. В ответ на это, он инициировал официальный приказ — запретить всем военным подразделениям и поставщикам использовать технологии Anthropic. Действие было немедленным: с этого момента ни один поставщик, партнер или контрактный участник не мог вести коммерческие операции с компанией.
Это решение стало не просто административным шагом — оно ознаменовало переход от технического обсуждения к полной политической развязке. Пентагон теперь рассматривает Anthropic не как партнера, а как потенциальный рисковый элемент в цепочке поставок, угрожающий национальной безопасности. Важно подчеркнуть, что в первоначальном заявлении президента Трампа не было упоминания о таком статусе, однако через несколько часов после его публикации министр обороны подтвердил этот шаг, делая его официальным и неотвратимым.
После этого вступили в игру и другие игроки в этой сфере. Открытая ИИ-компания OpenAI, ранее поддерживавшая позицию Anthropic, включила в свой внутренний документы аналогичные «красные линии» — отказ от использования ИИ в системах домашнего контроля и в автономных вооружённых системах. Это позволило усилить позицию, что эти принципы не являются исключением, а частью более широкой этической парадигмы в разработке ИИ.
Но в кратчайшие сроки после запрета на Anthropic, OpenAI объявила о новых переговорах с Пентагоном. По данным издания «Нью-Йорк таймс», обсуждение началось ещё в среду, и в итоге было достигнуто соглашение, в котором сохраняются те же принципы — запрет на использование ИИ для слежения и автономных вооружённых систем. Таким образом, технологическая ниша, которую Anthropic пыталась занять, была быстро перехвачена другим игроком, не теряя при этом этической основы.
«Мы не сдаёмся. Мы продолжаем защищать интересы наших пользователей и военных, не компромиссируя с принципами, которые делают ИИ достоверным и надёжным инструментом.» — Дарио Амодеи
Этот эпизод демонстрирует, как в условиях высокой стратегической важности даже небольшие разногласия могут перерасти в системные изменения. Потеря Anthropic не была просто сменой поставщика — это отражение более глубокой трансформации в подходах к разработке и внедрению ИИ в военные структуры. В то же время, такие решения не могут быть универсальными: они зависят от политической воли, уровня доверия к технологиям и готовности к компромиссам.
Ограничения, введённые в ходе этого конфликта, показывают, что даже при наличии высокой производительности ИИ-моделей, их применение в военных сферах требует строгой этической и правовой оценки. В будущем, подобные барьеры могут стать стандартом, особенно если в них включены не только технические, но и социальные последствия. Однако, если в условиях кризиса или угрозы гибкость становится приоритетом, эти границы могут быть временно смягчены — и тогда возникает риск потери контроля над системами, которые в прошлом были описаны как «умные» и «независимые».














