Пентагон использовал Claude для ударов по Ирану и заключил соглашение с создателем ChatGPT. Как нейросети стали важным оружием в современных войнах?
Фото: VIA REUTERS
Взрыв в Иране.
В мире

Пентагон использовал Claude для ударов по Ирану и заключил соглашение с создателем ChatGPT. Как нейросети стали важным оружием в современных войнах?

Отдел новостей

Новая газета. Европа

Для планирования ударов по Ирану командование армии США на Ближнем Востоке задействовало чат-бот Claude от компании Anthropic, сообщило издание Wall Street Journal. Это произошло уже после того, как Пентагон поссорился с компанией-создателем ИИ-инструмента, а Дональд Трамп запретил правительственным учреждениям применять его в работе. Более того, в тот же день создатель ChatGPT и главный конкурент Anthropic — компания OpenAI — объявила о начале сотрудничества с Министерством войны США. В 2026 году нейросети выглядят неотъемлемой частью военных конфликтов. «Новая-Европа» рассказывает, как Белый дом и Пентагон усиливают внешние позиции за счет привлечения технологических корпораций и как искусственный интеллект меняет ход современных войн.

Как армия США использует Claude? И почему создатель чат-бота поссорился с американскими властями?

Массовое использование искусственного интеллекта в американской армии продвигает министр войны (обороны) США Пит Хегсет. Именно под его руководством, по данным Wall Street Journal, Пентагон задействовал Claude от Anthropic в похищении президента Венесуэлы Николаса Мадуро. После этого Anthropic осудила использование Claude Пентагоном, сославшись на внутренние правила: они запрещают применять чат-бот для разработки вооружений, разведки или насильственных действий.

С тех пор компания конфликтует с американским правительством. Так, 28 февраля Хегсет обвинил Anthropic в высокомерии и предательстве и добавил, что «американские военнослужащие никогда не станут заложниками идеологических прихотей крупных технологических корпораций». Еще жестче высказался президент Трамп, назвавший Anthropic «леворадикальной ИИ-компанией, которой управляют люди, не имеющие представления о реальном мире».

Тем не менее, даже несмотря на официальный запрет со стороны Трампа, Пентагон продолжает использовать Claude. Как заявляют источники WSJ, Claude помогал планировать ракетные удары против иранских объектов, анализировал информацию от разведки и проводил симуляции военных действий. Использовалась ли нейросеть и после начала операции, непонятно.

Со стороны может показаться, что конфликт между Anthropic и американским правительством исключительно идеологический и касается только этических норм использования ИИ в военной сфере. Однако это не так: Anthropic еще в июле 2025-го подписала соглашение о сотрудничестве с Пентагоном на 200 миллионов долларов.

Директор по цифровым технологиям и искусственному интеллекту Министерства войны США Даг Мэтти открыто заявил, что компания разработает ИИ-инструмент, который поможет американской армии получить преимущество над соперничающими державами.

Осенью 2025 года руководство Anthropic выразило обеспокоенность тем, как Белый дом собирается использовать Claude во внешней политике. А источники издания Semafor рассказали, что принципиальная позиция главы компании Дарио Амодеи о том, что применять нейросети в военных целях не следует, раздражает Белый дом.

Также Anthropic запретила ФБР, Секретной службе и другим ведомствам использовать Claude для слежки и получении разведданных, хотя официально предоставляла свои услуги американским ведомствам для «национальной безопасности». Ситуацию усложняет и то, что именно эта нейросеть, по оценкам Semafor, лучше других справляется со сложными военными задачами.

Пентагон не может одномоментно отказаться от использования Claude, несмотря на требования Трампа и Хегсета. Источники издания Defence One, близкого к руководству армии США, сообщают, что у специалистов Министерства войны слишком многое завязано именно на нейросети Anthropic. На переход в другие сервисы понадобится как минимум несколько месяцев, а отказаться от Claude сейчас Пентагон попросту не может.

Судя по всему, Амодеи вряд ли согласится пойти на уступки администрации Трампа. В своем январском эссе на личном сайте он пояснил, что ИИ полезен и необходим для демократии, но для него есть черта, которую не готов переступить. «Мы не можем игнорировать потенциальную возможность злоупотребления этими технологиями со стороны самих демократических правительств», — заявил глава Anthropic.

После конфликта с Anthropic Пентагон заключил соглашение с OpenAI. ИИ уже на службе армии США?

Американские военные обратили внимание на развитие искусственного интеллекта еще в 2014 году, при администрации Барака Обамы. Тогда Пентагон предупреждал, что в будущем появятся роботизированные виды вооружений, которые смогут самостоятельно выбирать цели для обстрелов и ракетных атак. В 2017-м ведомство забеспокоилось из-за инвестиций Китая в американские ИИ-стартапы: оно стало опасаться возможного влияния КНР на оборону США. А в 2023 году министерство заговорило о необходимости использования ИИ в военных целях — и через год уже использовало собственную нейросеть Maven для авиаударов по Сирии.

Однако Пентагон с самого начала не планировал самостоятельно заниматься разработкой специализированных нейросетей. Еще в марте 2018-го ведомство предложило американским корпорациям сотрудничать в военной сфере, а в августе того же года объявило развитие искусственного интеллекта своим приоритетом.

На место Anthropic Пентагон уже нашел замену — OpenAI с ChatGPT. Компания уже начала внедрять свои нейросети в закрытую военную сеть и договорилась о ключевых принципах сотрудничества. Как рассказал глава OpenAI Сэм Альтман, у ChatGPT для Пентагона есть только два ограничения — запрет на массовую слежку внутри США и использование нейросети для управления оружием массового поражения. По словам Альтмана, Министерство войны согласилось на эти условия, а сама OpenAI хочет, «чтобы у защищающих США людей были лучшие инструменты для защиты».

Другие корпорации, сотрудничающие с министерством, — Google и Microsoft. Первая принимала участие в создании нейросети Maven и подписала контракт о внедрении сервиса Gemini в сеть Пентагона. В феврале 2026 года сотрудники Google из отдела Deepmind отправили письмо своему руководству о недопустимости военного сотрудничества с американским правительством. Microsoft же еще в 2018 году объявил о соглашении с Пентагоном и прописывает военную сферу как одну из ключевых в стратегии развития своего ИИ Copilot. В 2025 году компания уволила инженера Джо Лопеса, открыто выступившего против политики руководства.

Еще один ключевой поставщик услуг для министерства — миллиардер Илон Маск с его компанией xAI, известной по чат-боту Grok. О сотрудничестве Маска с Пентагоном сообщил лично министр войны Пит Хегсет. Grok используют для анализа секретных данных, разработки оружия и симуляции военных операций. Издание The Washington Post объясняет, что технологические корпорации США вынуждены идти на сотрудничество с Пентагоном из-за нежелания попасть в немилость администрации Трампа.

Существует риск, что отказ от контракта приведет к политическим преследованиям и финансовым проблемам. Поэтому Илону Маску, Сэму Альтману и главам Google и Microsoft необходимо выставлять себя лояльными патриотами, чтобы не потерять состояние.

Как армии других стран используют нейросети?

Главную угрозу для Вашингтона представляет Китай, который уже в 2025-м признал необходимость внедрения ИИ для национальной и международной безопасности. Главная техническая корпорация страны Tencent, инвестирующая в нейросети DeepSeek и Kimi, уже попала в список Пентагона как компания, создающая нейросети для Министерства национальной обороны КНР. Еще до этого китайские ученые из Национального университета обороны создали первого в мире виртуального командующего войсками, который полностью копирует стратегию настоящих генералов.

При администрации Джо Байдена председатель КНР Си Цзиньпин открыто заявлял о необходимости ограничивать использование ИИ в военной сфере — например, не допускать нейросети к управлению ядерными боеголовками. Изменилась ли его позиция с приходом Трампа, неизвестно.

Другие страны также активно создают ИИ в целях обороны. Так, КНДР уже создала нейросети для кибернетических атак и получения разведданных. Для обороны искусственный интеллект развивают Южная Корея и Япония. Изучает использование ИИ в военных целях и Евросоюз — правда, у него еще нет собственных разработок.

Дальше всех, помимо США, в разработке военного ИИ продвинулись Индия и Израиль. Первая использовала собственные нейросети Trinetra, Sanjay и Edge AI, чтобы находить цели для ракетных атак в ходе столкновения с Пакистаном в 2025 году, — причем ИИ успешно справлялся с идентификацией в 94% случаях. Согласно журналистским расследованиям, с 2023-го армия обороны Израиля использовала для определения целей атак в Секторе Газа свою нейросеть, которая, по данным СМИ, допускала ошибки (впрочем, ЦАХАЛ утверждал, что система представляет собой не перечень целей, а базу данных, и отмечал, что армия старается снизить ущерб гражданскому населению).

В 2025-м выяснилось, что израильские военные разработали ИИ для анализа разведданных по Палестине, в основе которого лежали облачные технологии Microsoft. После этого корпорация ограничила доступ к своим сервисам.

***

Нейросети уже прочно вошли в обиход военных ведомств по всему миру. Бывший офицер Сил самообороны Японии Коитиро Такаги еще в 2022 году писал, что ИИ представляют особенную опасность для мировой безопасности из-за отсутствия моральных ограничителей и крайне быстрой реакции — например, нейросеть может запустить боеголовки за считанные секунды, не дожидаясь приказа руководства. Эксперт пришел к выводу, что даже самым совершенным нейросетям нужно регулирование со стороны людей, чтобы предотвращать конфликты. В будущем нейросети будут важным подспорьем для военных руководителей по всему миру, как минимум из-за возможности быстрого и качественного анализа данных, предсказывает заместитель министра войны США Эмиль Майкл.

В том же 2025 году более пессимистичный прогноз дал глава ИИ-отдела Microsoft Мустафа Сулейман. По его мнению, искусственный интеллект в будущем может стать таким могущественным, что его придется останавливать военным вмешательством. Смогут ли в таком случае военные руководители обойтись без помощи ИИ, вопрос отдельный.