Нет предела «демократического» цинизма. Компания Кремниевой долины Anthropic, чья модель ИИ Claude была главной в разработке операции «Эпическая ярость» - нападения на Иран 28 февраля и убийства Верховного лидера Ирана Али Хаменеи, выступает сейчас как непримиримый борец за права американского народа.
Antropic подала в суд на Пентагон из-за присвоения им статуса «риска для национальной безопасности»
Этот шаг был предпринят после того, как Трамп приказал ведомствам прекратить использование ИИ компании Anthropic на фоне ожесточенного спора о том, как чат-бот Claude может быть использован в военных действиях.
9 марта компания Anthropic подала в суд на администрацию Трампа, призвав федеральных судей в Сан-Франциско и Вашингтоне отменить правительственный указ, запрещающий военным подрядчикам сотрудничать с компанией, занимающейся разработкой ИИ, на том основании, что это представляет угрозу национальной безопасности.
Десятки сотрудников конкурирующих лабораторий ИИ, включая главного научного сотрудника Google Джеффа Дина, подали ходатайство в поддержку Anthropic, что отражает то, как эта борьба ощущается во всей технологической индустрии.
«Эти действия беспрецедентны и незаконны», — написали адвокаты Anthropic в иске, поданном в Сан-Франциско. «Конституция не позволяет правительству использовать свою огромную власть для наказания компании за ее защищенную законом свободу слова».
На прошлой неделе Министерство обороны официально присвоило компании, занимающейся разработкой ИИ, статус, представляющий угрозу для цепочки поставок, — ярлык, обычно присваиваемый китайским и российским фирмам, подозреваемым в пособничестве иностранным шпионам. Этот шаг последовал за всё более ожесточёнными переговорами о том, как технология компании может быть использована в военных действиях, при этом Anthropic добивалась гарантий того, что модель Claude не будет использоваться для массового внутреннего наблюдения или для питания полностью автономного оружия. Беспрецедентный шаг Пентагона был предпринят даже в то время, когда инструменты Anthropic играли центральную роль в бомбардировочной кампании президента США Дональда Трампа в Иране.
Пентагон отказался комментировать иск.
В судебных документах компания Anthropic заявила, что администрация превысила свои законные полномочия и нарушила права компании, гарантированные Первой поправкой к Конституции США, на обсуждение ограничений военного применения ИИ. Компания подала два иска, оспаривая два разных закона, которые правительство использует для объявления ИИ угрозой.
«Компания Anthropic была основана на убеждении, что технологии ИИ должны разрабатываться и использоваться таким образом, чтобы максимально приносить пользу человечеству, и ее главный основополагающий принцип заключается в том, что наиболее эффективные системы ИИ должны быть также самыми безопасными и ответственными», — написали юристы компании в иске, поданном в окружной суд США Северного округа Калифорнии.
«Компания Anthropic подала этот иск, потому что федеральное правительство приняло ответные меры против нее за выражение этого принципа».
Марк Цзя, профессор права в Джорджтаунском университете, заявил, что у компании Anthropic есть высокие шансы на успех в суде, поскольку закон, на который опирается Министерство обороны, был разработан для борьбы с компаниями, связанными с иностранными противниками.
«Абсурдно со стороны правительства утверждать, что Anthropic — это именно та компания, на которую распространяется действие этого закона, когда Министерство обороны неоднократно стремилось получить услуги Anthropic для нужд национальной обороны», — написал Цзя в электронном письме, имея в виду министерство под предпочтительным названием администрации Трампа.
Эта борьба прокатилась по Кремниевой долине, поднимая вопросы о том, какие ограничения разработчики ИИ должны иметь возможность накладывать на свои технологии при сотрудничестве с правительством. Представители администрации и Министерства обороны потребовали свободы использования систем ИИ в любых законных целях, утверждая, что последнее слово должно оставаться за правительством.
После того как генеральный директор Anthropic Дарио Амодей отказался согласиться, Трамп в феврале заявил, что приказывает федеральным ведомствам прекратить сотрудничество с компанией Claude. Министр обороны Пит Хегсет пошел еще дальше, заявив, что вводит далеко идущий запрет на любую работу компании с военными подрядчиками.
Однако за кулисами на прошлой неделе обе стороны продолжали переговоры. Представители технологической и оборонной отраслей лоббировали обе стороны с целью деэскалации конфликта, предупреждая о волновых последствиях, которые возникнут, если ведущую американскую компанию объявят угрозой безопасности в отрасли, где лаборатории искусственного интеллекта, технологические гиганты и производители оборудования тесно связаны друг с другом и с Пентагоном.
По словам представителя министерства обороны, переговоры наконец завершились 5 марта — на следующий день после того, как новостной сайт о технологиях The Information опубликовал едкую внутреннюю служебную записку, в которой Амодей заявил, что администрация выступает против компании, «потому что мы не восхваляли Трампа в диктаторском стиле». По словам представителя министерства обороны и второго источника, знакомого с ходом переговоров, утечка этой записки способствовала окончательному срыву переговоров.
«Это сорвало переговоры», — сказал второй источник, говоривший на условиях анонимности, описывая частные переговоры. Амодей принес извинения за меморандум в своем заявлении.
Компания Anthropic заявила, что действия правительства имели немедленные последствия для нее, утверждая, что они поставили под угрозу сотни миллионов долларов. Согласно жалобе компании, некоторые партнеры Anthropic, являющиеся также федеральными подрядчиками, усомнились в возможности дальнейшего сотрудничества с компанией.
Этот случай также оказал влияние на отрасль и в других аспектах. 9 марта более трех десятков инженеров, ученых и исследователей, работающих в конкурирующих компаниях в области ИИ — Google и OpenAI, — опубликовали юридическое заключение в поддержку Anthropic.
Сотрудники, разрабатывающие программное обеспечение Google Gemini и OpenAI ChatGPT и подписавшие брифинг от своего имени, утверждали, что решение Пентагона создало непредсказуемость в отрасли, подорвало конкурентоспособность Америки и подавило законные и важные дискуссии о внедрении ИИ. Среди подписавших был Дин, главный научный сотрудник Google и многолетний руководитель работы компании в области ИИ.
«Заставляя замолчать одну лабораторию, правительство снижает потенциал отрасли в разработке инновационных решений», — говорится в докладе.
Сотрудники отметили, что представляют весь спектр политических взглядов, но едины в убеждении, что должны быть установлены ограничения на использование ИИ для создания автономного оружия и массового наблюдения.
«Само существование такой возможности в руках правительства — даже если она никогда не будет применена против конкретного человека — меняет характер общественной жизни в демократии», — заявили они. Этот доклад был подготовлен Лабораторией действий «Искусственный интеллект за демократию» при некоммерческой организации Protect Democracy Project, которая борется с ростом автократии в американских институтах.
В настоящее время военные продолжают полагаться на Claude в проведении наступления на Иран. Инструмент ИИ встроен в военную интеллектуальную систему Maven, которая помогает командирам анализировать разведывательные данные и определять цели для нанесения ударов. В преддверии военной кампании система предложила сотни целей с точными координатами и ранжировала их по степени важности, как сообщали The Washington Post* (09.03.2026) источники, знакомые с системой. Она также значительно ускоряет планирование и помогает оценивать последствия ударов, сказал один из источников.
Представители Министерства обороны заявили, что осознают свою зависимость от этой системы, а Трамп сказал, что предусматривает поэтапный вывод из эксплуатации инструментов Anthropic в течение шести месяцев.
В долгосрочной перспективе конкуренты смогут вытеснить Anthropic, даже если компания одержит победу в суде. Пока официальные лица называли компанию изгоем, её главный конкурент, OpenAI, завершал соглашение о работе с секретными сетями Пентагона. OpenAI заявила, что ей удалось обеспечить защиту в отношении наблюдения и автономного оружия, согласившись при этом со стандартом «всех законных применений», которого добивались официальные лица.
Хегсет назвал компанию Anthropic «риском для цепочки поставок» после того, как Трамп приказал правительству отказаться от услуг фирмы, занимающейся ИИ.
Компания Anthropic отказалась выполнить ультиматум Пентагона с требованием отменить внутренние правила, гарантирующие защиту от использования ее ИИ для создания смертоносного автономного оружия или для массового внутреннего наблюдения.
Накануне войны с Ираном министр обороны США назвал компанию Anthropic, занимающуюся разработкой ИИ, «угрозой национальной безопасности в цепочке поставок», запретив практически любой компании, ведущей бизнес с Пентагоном, сотрудничать с ней после того, как она отказалась выполнить требование Министерства обороны об удалении внутренних ограничений для своей модели ИИ.
«На этой неделе компания Anthropic продемонстрировала мастер-класс по высокомерию и предательству, а также показала хрестоматийный пример того, как не следует вести дела с правительством Соединенных Штатов или Пентагоном», — написал Пит Хегсет на X. «Наша позиция никогда не менялась и никогда не изменится: Министерство обороны должно иметь полный, неограниченный доступ к моделям Anthropic для любых ЗАКОННЫХ целей в защиту Республики».
Твит Хегсета последовал за агрессивным заявлением президента США Дональда Трампа, в котором тот приказал всему федеральному правительству «немедленно прекратить» использование технологий компании Anthropic.
«Левые фанатики из Anthropic совершили КАТАСТРОФИЧЕСКУЮ ОШИБКУ, пытаясь оказать давление на Министерство обороны и заставить его подчиняться условиям службы вместо нашей Конституции», — написал Трамп в Truth Social. «Их эгоизм ставит под угрозу ЖИЗНИ АМЕРИКАНЦЕВ, наших солдат и нашу национальную безопасность».
Трамп заявил, что некоторые правительственные учреждения, такие как Пентагон, пройдут шестимесячный период «постепенного прекращения деятельности», в течение которого, по его словам, компании Anthropic «лучше бы взять себя в руки и оказать помощь … иначе я использую всю власть президента, чтобы заставить их подчиниться, и за этим последуют серьезные гражданские и уголовные последствия».
5 марта генеральный директор Anthropic Дарио Амодей опубликовал заявление, в котором говорится, что компания «не может с чистой совестью удовлетворить просьбу Пентагона» отказаться от политики компании, касающейся использования ее ИИ для смертоносных автономных операций или массового внутреннего наблюдения.
Представитель Пентагона Шон Парнелл заявил, что Министерство обороны «не заинтересовано» в использовании ИИ ни для одной из этих задач, но выразил недовольство наличием каких-либо ограничений.
«Вот о чём мы просим: разрешите Пентагону использовать модель Anthropic для всех законных целей», — заявил Парнелл 5 марта. «Это простая, разумная просьба, которая предотвратит ситуацию, когда Anthropic ставит под угрозу критически важные военные операции и потенциально подвергает риску наших военнослужащих. Мы не позволим НИ ОДНОЙ компании диктовать условия принятия оперативных решений».
Компания Anthropic заявила, что тесно сотрудничала с военными, и отметила: «Мы никогда не высказывали возражений против конкретных военных операций и не пытались ограничивать использование наших технологий произвольным образом».
«Однако в узком круге случаев мы считаем, что ИИ может скорее подорвать, чем защитить демократические ценности. Некоторые области применения также просто выходят за рамки того, что современные технологии могут безопасно и надежно делать», — сказал он, имея в виду автономное оружие и внутреннее наблюдение.
Далее в письме он сказал: «В обязанности Министерства входит выбор подрядчиков, наиболее соответствующих их видению. Но, учитывая существенную ценность, которую технология Anthropic предоставляет нашим вооруженным силам, мы надеемся, что они пересмотрят свое решение».
«Мы твердо убеждены в необходимости продолжения сотрудничества с Министерством и нашими военнослужащими — с соблюдением двух запрошенных нами гарантий», — говорится в письме. «Если Министерство решит отказаться от услуг Anthropic, мы будем работать над обеспечением плавного перехода к другому поставщику, избегая любых сбоев в текущем военном планировании, операциях или других важных задачах».
Упоминание Трампом шестимесячного периода поэтапного вывода из эксплуатации отражает проблему, связанную с тем, что технология ИИ Anthropic, в частности ее модель Claude AI, по сообщениям, глубоко интегрирована в федеральное правительство, в том числе в Пентагон, где она используется на секретном уровне.
Anthropic была одной из четырех технологических компаний, получивших летом 2025 года контракты на сумму до 200 миллионов долларов каждая на адаптацию своих популярных приложений генеративного ИИ для военного применения.
Публичное противостояние между компанией, занимающейся ИИ, и Пентагоном вовлекло в конфликт других ключевых игроков технологической отрасли, таких как Илон Маск из xAI и Алекс Карп из Palantir, которые встали на сторону Пентагона, а также компанию OpenAI, которая, как сообщается, заявила, что разделяет «красные линии» Anthropic.
Позже Сэм Альтман из OpenAI опубликовал в интернете сообщение о том, что его компания достигла соглашения с Министерством обороны об использовании своих технологий ИИ в секретных сетях, после того как, по его словам, Министерство обороны «продемонстрировало глубокое уважение к безопасности».
Как сообщает Axios*, сегодня высокопоставленные сенаторы из Комитета по вооруженным силам направили письмо в Пентагон, призывая чиновников урегулировать спор.
В своем твите 6 марта Хегсет заявил, что компания Anthropic «продолжит предоставлять Министерству войны свои услуги в течение периода не более шести месяцев, чтобы обеспечить плавный переход к более качественному и патриотичному обслуживанию».
«Американские военнослужащие никогда не станут заложниками идеологических прихотей крупных технологических компаний. Это решение окончательное».
Стартапы, которые пытаются создать ИИ, специально предназначенный для военных целей
Битва между компанией Anthropic, занимающейся разработкой моделей ИИ, и Пентагоном выявила огромный разрыв между тем, какие инструменты ИИ нужны военным, и тем, что на самом деле производят такие компании, как Anthropic, xAI и OpenAI: инструменты ИИ для использования всеми, а не только военными. Несколько стартапов, созданных или финансируемых ветеранами, стремятся заполнить этот пробел. Их концепция: ИИ для войны должен обладать базовым пониманием войны. Он не должен уверенно давать ответы с низкой степенью достоверности только для того, чтобы угодить пользователю. И он должен работать даже тогда, когда высокотехнологичный противник обрывает его связь с облаком.
Разрыв в потребностях
Среди неприятных истин, которые выявляет конфликт между компанией Anthropic и Министерством обороны, — то, что Пентагон испытывал серьезные опасения по поводу самих языковых моделей, их потенциальной способности вызывать галлюцинации и того, что они могут «не следовать инструкциям».
Однако Пентагон всё равно разрешил широкое внедрение модели Anthropic, стремясь предоставить операторам хотя бы некоторые инструменты генеративного ИИ. Сообщается, что она сыграла роль в операции «Полуночный молот», рейде, в результате которого был захвачен президент Венесуэлы Николас Мадуро, хотя представители Пентагона отказались это подтвердить.
После рейда представители Anthropic связались с Palantir, чтобы узнать, использовались ли их модели ИИ в этой операции, заявил 6 марта заместитель министра обороны по исследованиям и разработкам Эмиль Майкл. Майкл сказал, что это был «момент, когда все руководство Пентагона осознало, насколько мы потенциально зависимы от поставщика программного обеспечения, у которого нет другой альтернативы». Он добавил, что это вызвало ряд опасений, в том числе то, что Anthropic может закрыть доступ к моделям в подобных ситуациях.
По словам одного из представителей компании Anthropic, у самой компании были аналогичные опасения: они считали, что военным небезопасно полагаться на их модели в боевых ситуациях.
Ещё одним недостатком современных передовых моделей ИИ — Claude от Anthropic, Gemini от Google, ChatGPT от OpenAI и Grok от xAI — является необходимость подключения к облаку. Это делает их ненадёжными для современных войск и непригодными для автономного оружия будущего.
Компания OpenAI косвенно признала это ограничение, когда недавно объявила о своей сделке по развертыванию своих систем в секретных сетях Пентагона, хотя и описала эту невозможность развертывания крупных базовых моделей на поле боя как «гарантию» от той ненадежности, которая беспокоила представителей Anthropic.
«Наш контракт ограничивает развертывание только облачным API», — пояснила Катрина Маллиган, руководитель направления национальной безопасности в OpenAI, в интервью X. «Автономные системы требуют вывода данных на периферии сети. Ограничивая развертывание только облачным API, мы можем гарантировать, что наши модели не могут быть напрямую интегрированы в системы вооружения, датчики или другое операционное оборудование».
Дальнейший путь
В то время как Пентагон шумно отвергал компанию Anthropic, армия готовилась представить новую инициативу по устранению этого пробела. Проект Aria, анонсированный 5 марта, призван помочь армии разработать и внедрить новые модели и инструменты ИИ «для решения реальных оперативных проблем», то есть, специально разработанные для того, чтобы помочь солдатам выполнять свою работу.
«Это также является целью нового поколения стартапов в области ИИ, возглавляемых людьми с военным опытом и занимающихся разработкой инструментов для поля боя, которым не нужно связываться с внешним миром», - пишет Defense One (10.03.2026).
Одна из таких компаний — Smack Technologies, которая 9 марта объявила о привлечении 32 миллионов долларов инвестиций для строительства так называемой «передовой лаборатории национальной безопасности».
Эндрю Маркофф, бывший боец спецподразделения морской пехоты и соучредитель компании Smack, утверждает, что его ИИ обучается на наборах данных, имеющих отношение к боевым действиям, а не на неспециализированных данных, используемых в моделях Claude, Gemini и других передовых разработках.
«Не существует учебного комплекта для Третьей мировой войны, верно?» — сказал Маркофф в телефонном разговоре с журналистами на прошлой неделе. «Невозможно построить систему обучения с подкреплением… если у вас нет глубоких экспертных знаний в данной области и большого количества специалистов в этой области. Нет короткого пути к кодированию хороших человеческих априорных знаний, и его нет в доктринальных руководствах».
Он назвал рейд в Венесуэле хорошим примером операций, масштабирование которых с помощью ИИ могло бы быть улучшено в конфликте с более развитым противником.
«Умножьте это на 100 и масштабируйте. У вас есть цели, которые вы хотите поразить, у вас есть датчики, которые вы пытаетесь направить на эти цели, чтобы выяснить, что происходит. И для осуществления ударов у вас есть ударные платформы и эскортные корабли, которые собираются со всего мира с очень подробными требованиями к последовательности действий; например, задача А должна произойти за X секунд до задачи Б. И все это зависит от того, что происходит в какой-то другой момент времени X. Таким образом, все эти факторы должны совпасть в глобальном масштабе, в очень сжатые сроки».
Но Маркофф сказал, что коммерческие модели обработки больших данных не предназначены для подобных задач. Модели, подобные Claude, «не имеют возможности оптимизировать процесс между этими целями. И у них нет возможности выполнять детальные расчеты во времени и пространстве, проводить геопространственные рассуждения, основанные на физике, принимать решения о том, какие боеприпасы должны находиться - где и когда, взаимодействовать с какими датчиками и в какое время. У них нет такой возможности».
Это подтвердил и Джейсон Ратже, бывший офицер ВВС по вопросам закупок и соучредитель Управления стратегического капитала Министерства обороны, который сейчас возглавляет подразделение по работе с государственным сектором в webAI .
«Передовые модели, такие как Claude, созданы для ответа на миллионы различных вопросов от миллиардов пользователей. Военным организациям часто требуется нечто иное, системы, настроенные для решения конкретных оперативных задач, таких как планирование логистики, техническое обслуживание оборудования, анализ разведывательной информации или поддержка принятия оперативных решений», — сказал Ратже.
Ограничения, связанные с потребностями в облачных технологиях, не менее важны. «Многие из современных передовых моделей разработаны как централизованные сервисы для огромных коммерческих пользовательских баз, требующие самых современных чипсетов и высокопроизводительной инфраструктуры центров обработки данных, а также потребляющие огромное количество энергии. Это имеет смысл для потребительских приложений, но у военных организаций часто совершенно другие требования», — сказал он. «Оборонные организации требуют суверенитета: контроля над моделью, данными и инфраструктурой, на которой она работает».
Компания Smack Technologies разрабатывает два пакета программных продуктов: один, работающий по принципу хорошо известных моделей генеративного ИИ, но обученный на основе военной разведки и опыта операторов; и другой, предназначенный для работы на удаленных полях сражений.
Шерман Уильямс, ветеран ВМС и основатель AIN Ventures, инвестировал в ряд стартапов двойного назначения и оборонной отрасли. Он признает, что ни один стартап в области ИИ не сможет превзойти одну из ведущих моделей по таким показателям, как тесты на логическое мышление. Но «модель, которая на 85% так же эффективна, но работает в сети (с заблокированными, прерванными, прерывистыми и ограниченными возможностями) на тактическом уровне, превосходит GPT-5 в центре обработки данных, до которого невозможно добраться».
Даже доступные центры обработки данных уязвимы, как показал случай с атакой Ирана на объект AWS в Бахрейне. «Эти центры обработки данных важны, но они также уязвимы. Контекст важнее, чем контрольные показатели».
«Новое поколение стартапов в области ИИ, ориентированных на Министерство обороны, не пытается превзойти OpenAI в обучении», — сказал он. «Они создают стек адаптации и развертывания, который делает модели с открытым исходным кодом пригодными для использования в секретных условиях. Безопасная тонкая настройка, специализированные модели для развертывания на периферии разведки, наблюдения, рекогносцировки, управления и контроля».
Уильямс говорит, что наблюдает «сильный спрос со стороны военных заказчиков, особенно SOCOM и INDOPACOM», которые уже более года активно используют ИИ на уровне штабов.
Он добавил, что покупатели и пользователи из Министерства обороны хотят доверять создателям своих инструментов ИИ, и что связь легче установить с основателями, которые знакомы с военными операциями.
Но простое использование разработанного опытными специалистами ИИ не решает более широкую проблему больших языковых моделей: они говорят уверенно, когда не должны, и часто подстраивают свои ответы под пользователей или даже лгут.
Пит Уокер, отставной командующий ВМС и главный директор по инновациям в компании IntelliGenesis, занимающейся разработкой ИИ и кибербезопасностью в оборонной сфере, заявил, что масштабные передовые модели часто дают ответы, которые хотят услышать пользователи.
«Способ построения этих моделей, и одна из причин их большого размера, заключается в том, что они поощряют диалог», — а это значит, что они побуждают пользователей глубже погружаться в интересующие их области по конкретным темам, а не вести с ними откровенные беседы. Уокер, имеющий докторскую степень в области когнитивных наук, приводит результаты рецензируемых исследований, подтверждающие эти утверждения.
Поэтому его компания работает над разработкой структуры для больших языковых моделей, основанной на контрфактическом мышлении — представлении альтернативных точек зрения, чтобы бросить вызов предположениям пользователей, а не просто подтвердить предположения, которые пользователь выдвинул при постановке первоначального вопроса. Он описывает это как попытку заставить модель думать: «Эй, вы говорите, что если А, то В, но что, если это не А, или что, если это не В? Что это подразумевает?» И поэтому я думаю, что это те области исследований, которые нам необходимы».

двойной клик - редактировать изображение






