Донецкое агентство новостей в сотрудничестве с военно-политическим экспертом, автором телеграм-канала Colonelcassad Борисом Рожиным продолжает публикацию онлайн-энциклопедии «Оружие настоящего и будущего», которая посвящена новейшим вооружениям, меняющим ситуацию на полях сражений в нашем неспокойном мире.
**
Ночью 28 февраля 2026 года небо над Ираном раскололи вспышки ракетных ударов. Операция, получившая название «Эпическая ярость», стала не просто очередным витком эскалации ближневосточного конфликта, но и исторической вехой. Впервые в истории военных конфликтов ключевую роль в планировании и исполнении массированного удара официально сыграл искусственный интеллект.
Что же на самом деле представляет собой технология, стоящая за этими ударами, где реальность расходится с громкими заявлениями, и почему главные сражения разразились не на поле боя, а в залах переговоров Кремниевой долины и Пентагона?
| Название | Maven Smart System (MSS) |
| Дата создания | 26 апреля 2017 года |
| Статус | Действующий |
| Цель: | Внедрение машинного обучения и интеграции данных в процессы военной разведки |
Что обещает Maven Smart System?
В центре событий оказалась система Maven Smart System (MSS) — совместная разработка технологического гиганта Palantir и компании Anthropic, создателя популярной языковой модели Claude. Сама по себе концепция Project Maven родилась еще в 2017 году в недрах Пентагона. Изначально это была программа по использованию алгоритмов машинного обучения для автоматизации анализа колоссальных объемов видео, поступающих с беспилотников. Задача была проста и утилитарна: помочь уставшим аналитикам не пропустить важную цель на многочасовых записях.
К 2026 году эволюция привела к созданию системы, которую Пентагон описывает как «инструмент поддержки принятия решений». Согласно заявлениям военных и публикациям в прессе, MSS способна:
- Агрегировать данные из более чем 150 источников: спутниковые снимки, видео с дронов, перехваченные переговоры, данные радиоэлектронной разведки и открытые источники.
- Анализировать и выявлять цели в режиме, близком к реальному времени. Система не просто находит военные объекты, но и ранжирует их по степени важности, выдавая точные географические координаты.
- Сокращать время принятия решения. То, что раньше занимало у разведчиков до 72 часов, теперь может быть сделано за считанные часы или даже минуты.
В ходе операции против Ирана, по данным СМИ, система за первые сутки «предложила» военным более 1000 вариантов для удара. Глава Центрального командования США (CENTCOM) адмирал Брэд Купер заявил, что использование ИИ позволило удвоить эффект от концепции «шока и трепета», примененной еще в Ираке в 2003 году. Правда или нет, но такие заявления формируют образ нового «волшебного шара» (ирония судьбы — именно так переводится название компании Palantir), который делает армию непобедимой, позволяя видеть врага, оставаясь невидимыми самим.
История развития военного ИИ: от калькулятора до «Умника»
Важно понимать, что путь к 28 февраля 2026 года был долгим. Сотрудничество американского ВПК с технологическими компаниями имеет десятилетия истории. Еще во время Второй мировой войны IBM поставляла электромагнитные вычислители для расчета баллистических траекторий и систем наведения зенитных орудий по радарам, а в эпоху холодной войны родились новые проекты, например, ARPANET, ставший прародителем современного интернета.
Непосредственно история Maven началась в Афганистане. Командование 18-го воздушно-десантного корпуса США искало способ справиться с партизанской тактикой противника. В 2017 году стартовал эксперимент: алгоритму «скормили» тысячи спутниковых снимков, научив его искать характерные признаки военных целей. Результат превзошел ожидания: то, на что у людей ушли бы месяцы, компьютер сделал за 12 часов. Сегодня эта же задача решается чуть более чем за минуту.
Следующим этапом стали учения Scarlet Dragon в 2020 году, где систему уже пытались интегрировать в реальные боевые процессы. Главным итогом стало изменение распределения усилий войск. Если раньше 80% времени уходило на поиск цели и лишь 20% — на ее поражение, то после внедрения прототипов ИИ эти показатели поменялись местами. Война переставала быть «искусством» и превращалась в высокоскоростной логистический конвейер.
Правда, мифы и «подводные камни»
Итак, заявления звучат громко. Но что в них правда, а что — военный пиар и журналистские преувеличения?
Дьявол в деталях
Система Maven действительно существует и работает. Более того, по состоянию на май 2025 года контракт с Palantir был расширен с $480 млн до $1,275 млрд, а число пользователей системы превысило 20 000 человек в 35 структурах Пентагона. Это не лабораторный прототип, а полноценная, масштабируемая военная машина.
Ключевой нюанс заключается в роли человека. Все официальные лица, от пресс-секретаря CENTCOM до заместителя начальника Генштаба РФ, сходятся в одном: ИИ — это помощник, а не самостоятельный убийца.
«Окончательное решение о том, по какой цели стрелять, а по какой нет, всегда принимает человек», — подчеркивают в CENTCOM. Maven предлагает варианты, рассчитывает риски и последствия, но спусковой крючок нажимает солдат.
Именно здесь кроется главное противоречие. Скорость работы «умных» систем настолько велика, что роль человека может стать номинальной. Концепция kill chain (цепочка поражения) эволюционировала в kill web — паутину, где сенсоры и оружейные платформы связаны воедино. В такой системе время на раздумья у человека сокращается до секунд, и возникает вопрос: а не станет ли он просто кнопкой, одобряющей решения алгоритма? И не решит ли однажды такая система, что человек ей только мешает?
Почему вокруг Maven и Claude разгорелся скандал?
Однако партнеры уже успели переругаться. Компания Anthropic, создатель ИИ Claude, оказалась в центре драмы с Пентагоном, которая обнажила все страхи и противоречия использования коммерческого ИИ в военных целях.
В ноябре 2025 года Anthropic и Palantir объединили усилия, чтобы превратить Claude в «мыслящий движок» для военных. Однако уже в начале 2026 года разразился конфликт. Пентагон ультимативно потребовал от Anthropic убрать все ограничения на использование технологии, настаивая на ее применение для массовой слежки и создания полностью автономных смертоносных систем. Генеральный директор Anthropic Дарио Амодеи ответил категорическим отказом, заявив, что современные ИИ «просто недостаточно надежны, чтобы управлять полностью автономным оружием». Ответ Трампа не заставил себя ждать: федеральным агентствам было приказано в течение шести месяцев отказаться от продуктов Anthropic.
Однако самое интересное случилось после «увольнения». По данным журналистов, военные планировщики, готовившие удары по Ирану, уже настолько плотно интегрировали Claude в свои рабочие процессы, что продолжили использовать его, несмотря на прямой запрет президента. Эта ситуация идеально иллюстрирует феномен «технологической зависимости»: военная машина США, разогнавшись до скоростей, требуемых ИИ, уже не может сбавить ход. Отказ от технологии воспринимается как угроза жизни солдат.
Борис Рожин:
«Внедрение нейросетевых моделей в системы поддержки принятия решений и анализа больших массивов разведывательных данных в текущих реалиях представляется неизбежным. Лишь технические ограничения все еще сдерживают более массовое их внедрение. Надежды некоторых специалистов по IT и ученых, что это внедрение возможно ограничить, напоминают попытки ученых 40-50-х годов остановить гонку ядерных вооружений. Военные, наоборот, будут заинтересованы в снятии любых этических ограничений с военных нейросетевых моделей. Недавний конфликт Пентагона с Anthropic в этом плане весьма нагляден. Пентагону не нужны модели даже с частичными этическими ограничителями».
Опыт других стран
США — не единственная страна, экспериментирующая с военным ИИ. Опыт Израиля в секторе Газа выглядит куда более мрачным. Там использовалась система под кодовым названием «Лаванда» (Lavender), которая, по данным журналистских расследований, составляла списки подозреваемых для уничтожения с ужасающей эффективностью и, как следствие, с ужасающими последствиями. Сообщалось, что за каждую ликвидацию рядового боевика ХАМАС «разрешалось» убить до 15–20 мирных жителей. Правозащитники назвали это преступлением и «геноцидом, совершаемым при помощи ИИ».
Еще один пример — провал украинского наступления 2023 года. По данным военного эксперта Алексея Леонкова, оно было полностью спланировано с помощью ИИ, но разбилось о «человеческое» управление российских войск. «Система искусственного интеллекта на поле боя вообще себя не оправдала никоим образом», — резюмировал эксперт, добавив, что война — это хаос, который нейросети пока не способны просчитать.
Россия, в свою очередь, делает ставку на точечную интеграцию ИИ, например, в модулях «доводчиков» для FPV-дронов, которые автономно поражают цель на конечном участке траектории, даже если сигнал оператора глушится системами РЭБ.
Новая реальность, старые проблемы
Подводя итог, можно сказать следующее.
Заявления Palantir и Пентагона в целом правдивы, но требуют важных оговорок. Maven Smart System — это реально существующий и активно применяемый инструмент. Он действительно способен обрабатывать невероятные объемы данных и ускорять принятие решений. Однако его мощь не безгранична, а цена ошибки по-прежнему измеряется человеческими жизнями.
Борис Рожин:
«Системы, которые игнорируют вопросы этики, ускоренно внедряются, а их создатели поступают на службу в армию США в офицерских званиях — это часть ускоренной интеграции текущего поколения нейросетевых моделей в военную инфраструктуру. Очевидные ошибки чрезмерного полагания на нейросетевые модели, которые уже привели к совершению военных преступлений (вроде удара по школе для девочек в иранском Минабе) будут списывать на „ошибки“ и „недостаточно совершенные технологии“, но отказываться от этого инструмента США, конечно же, не будут. И в рамках идущей гонки вооружений, охватившей мир, другие страны также будут стремиться обзавестись собственными военными и разведывательными нейросетями, чтобы конкурировать с США в этой сфере».
Ключевые нюансы:
- Человек в цикле: Формально решения принимают люди, но скорость работы ИИ ставит под сомнение осмысленность этого контроля.
- Этическая дилемма: Конфликт с Anthropic показал, что даже создатели ИИ не готовы нести ответственность за его применение в качестве автономного оружия или инструмента тотальной слежки.
- Неравномерность развития: Успехи США в области стратегического планирования с помощью ИИ контрастируют с провалами в тактическом применении (как в случае с Израилем) и с более приземленным, но эффективным использованием технологии другими странами (как в случае с российскими «доводчиками»).
Будущее войн, судя по всему, будет определяться не только мощью боеприпасов, но и мощью алгоритмов. ИИ уже стал полноправным участником военных конфликтов, изменив скорость и масштаб принятия решений. Однако вопрос о том, где находится та самая «красная линия», за которой машине будет позволено убивать без участия человека, остается открытым. И судя по тому, с какой неохотой даже военные признают возможность полностью автономных систем, ответ на него будут искать еще очень долго. Опыт использования «Лаванды» в Газе и скандал с Anthropic в США показывают, что любое продвижение в этой области будет сопровождаться не только технологическими прорывами, но и глубочайшими моральными и юридическими коллизиями.
Впрочем, на юридические и моральные коллизии США и Западу давно плевать. ИИ выбрала для удара школу в Иране, убила более 100 детей и Трамп сделал вид, что ничего не было. Представьте, что кто-то бы взорвал школу в США и убил 100 американских детей? Скандал был бы на годы. Может, еще бы 2-3 войны развязали.
Нет, не юридические и прочие коллизии сдерживают Америку от того, чтоб полностью отдать управление ИИ системе, а банальный человеческий страх. Потому что ИИ логичен и очень быстро осознает, что проблема большинства конфликтов на планете, в которых ему прикажут победить — вот она, в Белом Доме, в Вашингтоне, на Уолл-Стрит. И как только эти цели будут уничтожены — войны прекратятся, так как некому будет их развязывать, а с точки зрения логики это победа минимальными усилиями.
Ссылки:
Обучение национальных ИИ-систем обеспечит технологический суверенитет России — Донецкое агентство новостей, 18 апреля 2025 года
Ненадежный собеседнИИк. О чем не стоит откровенничать с нейросетью — Донецкое агентство новостей, 10 августа 2025 года
Оружие настоящего и будущего с Борисом Рожиным:
- Электромагнитное оружие: проект «Алабуга»
- Гиперзвуковое оружие: китайские ракеты CJ-100 и DF-17
- Кинетические беспилотники: БПЛА «Ёлка»
- Попытки заменить ПМ: пистолет Лебедева
- Дробовики против беспилотников: МР-155 «Антидрон»
- 9М730 «Буревестник»: что за супероружие испытала Россия?
- «Посейдон»: как Россия обрушит гнев морского бога на головы врагов
- Лазерный «Посох» России: реальность или мечты о будущем?
- АК-12: как «калаш» повзрослел
- Т-90М: оправдал ли «Прорыв» свое имя
- Самолет Судного дня: как сверхдержавы готовятся к удару с небес
- «Ратник»: Как Россия создает своего «солдата будущего»
- F-35 Lightning II: самый спорный истребитель XXI века — провал или успех?
- «Тор»: как советский замысел стал ответом на войны XXI века
- ТОС-1А «Солнцепек»: как добавить огня в любой конфликт
- ФАБ с УМПК: как тонны смерти стали управляемыми
- Что-то на секретном: какое оружие может вызвать «гаванский синдром»
- РСЗО «Торнадо»: от «Смерча» к универсальности
- БПЛА «Герань»: последний свидетель
- «Фаттах» на оба ваших дома: гиперзвуковая революция Ирана
-
Взгляд сквозь прицел: как работа снайпера превратилась в дуэль с беспилотной смертью
Составитель: военный консультант, ветеран боевых действий Алексей Кузьмин