Как Пентагон подсел на военный ИИ
Почему американская армия все глубже связывает будущее войны с автономными дронами, алгоритмами наведения и машинным принятием решений
READ MACRO | LEARN MACRO | EXPLORE MACRO
В один из февральских вечеров Вашингтон сделал сразу два шага, которые вполне могут войти в историю как поворотный момент для всей эпохи военного ИИ. Сначала администрация Дональда Трампа объявила Anthropic угрозой для цепочки поставок. Формулировка звучала так, будто речь идет не о передовом американском разработчике, а о структуре, связанной с враждебным государством. Для Кремниевой долины это стало холодным душем: компания, стоящая за Claude, за последние годы превратилась в один из символов новой волны искусственного интеллекта, а ее продукты разошлись далеко за пределы мира разработчиков и корпоративных клиентов. Но за внешне технократической вывеской скрывался куда более жесткий конфликт: государство хотело получить доступ к этим системам без политических и этических ограничений, а Anthropic отказалась участвовать в проектах, связанных с массовой внутренней слежкой и полностью автономным оружием.
Именно в этом месте разговор о безопасности ИИ перестает быть абстрактной дискуссией из конференц-залов и превращается в вопрос власти. Пока часть индустрии пытается выстроить красные линии вокруг применения моделей, государство исходит из другой логики: если технология существует и может дать военное преимущество, значит она должна быть доступна для всех законных задач, которые определит сам аппарат национальной безопасности. В такой системе координат право компании сказать «нет» воспринимается уже не как этическая позиция, а как политический вызов. Поэтому реакция оказалась показательной: стартап не просто раскритиковали, его попытались дисциплинировать силой государства, одновременно превратив в публичного врага. Трамп добавил к этому привычный политический стиль, назвав Anthropic «радикально левой ИИ-компанией», и тем самым окончательно показал, что спор идет уже не только о технологии, но и о том, кто будет контролировать границы допустимого.
Прошло всего несколько часов, и мир увидел второе действие той же драмы. США начали массированную кампанию против Ирана. Это была еще не та полностью автоматизированная война, которой опасались критики, но уже и не классическая операция старого образца. В ее центре оказался Maven Smart System — ИИ-контур управления миссией, позволивший в первые сутки поразить около тысячи целей. Для сравнения, даже знаменитая кампания shock and awe в Ираке в 2003 году по масштабу в стартовой фазе выглядела скромнее. За десять дней число атакованных объектов выросло до пяти тысяч. Сам по себе этот темп многое говорит о том, как меняется современная война: главное преимущество все чаще определяется не только количеством самолетов, ракет или кораблей, а способностью быстро превращать массивы данных в решения, а решения — в удары.
Особенно важно, что иранская кампания стала крупнейшей на тот момент проверкой Maven в боевых условиях. Эта система уже использовалась раньше: для передачи данных по целям Украине в 2022 году, затем в ударах по Ираку, Сирии и хуситам в 2024-м. Но именно сейчас она вышла на другой уровень — не как вспомогательный аналитический инструмент, а как инфраструктура темпа войны. Впервые США также применили по боевым целям дешевые полуавтономные дроны в такой заметной роли. Для военных это не просто новая техника, а изменение всей логики операций. Если раньше дорогостоящие платформы и длинные циклы согласования ограничивали масштаб и скорость, то теперь появляется соблазн превратить бой в конвейер, где обнаружение, классификация, приоритизация и атака сжимаются до почти непрерывного потока.
Но здесь есть ключевой нюанс, который легко потерять на фоне военной риторики о точности и скорости. Технология все еще далека от зрелости, а амбиции уже ушли далеко вперед. Внутри системы безопасности США на Maven смотрят не как на финальный продукт, а как на промежуточную ступень. Если сегодня задача — выбрать тысячу целей за сутки, то следующий ориентир — выйти на ту же цифру за час. Это уже не вопрос «может ли ИИ помогать военным», на него в Пентагоне давно ответили утвердительно. Вопрос теперь в другом: как далеко можно сдвинуть границу автоматизации прежде, чем человеческий контроль станет формальностью. И именно здесь начинается самая тревожная часть истории. Параллельно военные работают над тем, чтобы встраивать ИИ непосредственно в одноразовые ударные дроны, чтобы те могли ориентироваться, находить цели и наносить смертельный удар даже после потери связи.
Для внешнего наблюдателя многое по-прежнему скрыто туманом секретности. Без доступа к материалам под грифом нельзя точно понять, какую роль ИИ уже сыграл в конкретных ударах по Ирану. Но отдельные детали складываются в достаточно ясную картину. Даже после публичного конфликта с Пентагоном языковые модели Anthropic, по словам людей, знакомых с ситуацией, все еще использовались для анализа разведданных и ускорения административных процедур вокруг ударов. Представитель Centcom говорил, что ИИ помогает формировать точки интереса и ускоряет принятие решений. Формально подчеркивается, что окончательное слово остается за человеком. Практически же это означает, что машина все глубже встраивается в архитектуру выбора: что считать значимой целью, какой набор объектов выносить на рассмотрение, что считать срочным, а что второстепенным.
Именно поэтому успокаивающая формула «человек остается в контуре» не всегда говорит столько, сколько кажется. Человек может оставаться последней подписью в цепочке, но вся интеллектуальная рамка вокруг него уже будет построена алгоритмом. Если список целей составлен машиной, если приоритеты ранжированы машиной, если объем информации таков, что офицер физически не способен перепроверить все вручную, то роль человека постепенно меняется. Он уже не столько самостоятельно решает, сколько утверждает решение, подготовленное технической системой. Это важное различие. Потому что на бумаге контроль сохраняется, а в реальности возникает новая форма зависимости — зависимость от инструмента, который дает скорость, но одновременно переписывает саму структуру военного суждения.
Цена такой зависимости становится особенно тяжелой, когда речь идет о гражданских жертвах. По данным иранских властей, в результате ударов погибло более 1300 мирных жителей, в том числе свыше 175 человек в школе для девочек. В одном из сообщений утверждалось, что атака была связана с применением устаревших разведданных при ударе ракетой Tomahawk. Пентагон не уточнял, использовался ли здесь ИИ. Но даже сама постановка этого вопроса уже показательна. Раньше ошибки объяснялись неправильной разведкой, плохой координацией или человеческим просчетом. Теперь к этому добавляется еще один уровень неопределенности: в какой мере машина помогла ошибке произойти, ускорила ее или просто придала ей видимость аналитической обоснованности.
На этом фоне позиция Anthropic выглядит не капризом идеалистов, а попыткой остановить процесс до того, как он окончательно выйдет из-под контроля. Дарио Амодеи прямо говорил, что нынешние ИИ-системы не готовы к созданию полностью автономного оружия с уровнем надежности, который можно было бы считать безопасным. Компания не захотела продолжать сотрудничество на таких условиях, подала в суд против решения о внесении в черный список и получила поддержку от десятков исследователей ИИ из OpenAI и Google. Это тоже важный момент: спор идет не между технооптимистами и техноскептиками в общем смысле, а внутри самого сообщества, которое лучше других понимает ограничения моделей. Люди, создающие эти системы, все чаще предупреждают, что уверенность государства в готовности технологии может значительно опережать реальное качество самой технологии.
Однако для Пентагона подобные возражения звучат все менее убедительно. Министр обороны Пит Хегсет представил позицию Anthropic как попытку частной компании присвоить себе право вето на оперативные решения американской армии. За этой формулировкой скрывается фундаментальный принцип нового военно-технологического курса: если один поставщик ставит моральные условия, его заменят другим. И это произошло практически мгновенно. Пока один контракт разрушался, OpenAI объявила о сделке с Министерством обороны на предоставление аналогичных услуг. Такой переход показывает, насколько быстро рынок военного ИИ начинает перестраиваться под логику государства. В этой системе не слишком важно, кто именно даст модели, интерфейсы и вычисления. Важно, чтобы поток технологий в военную машину не прерывался.
При этом внутри самого Пентагона нет ощущения победы или завершенности. Наоборот, там нарастает тревога, что США движутся недостаточно быстро. Даже после демонстрации силы в Иране у чиновников остается ощущение, что окно преимущества может закрыться раньше, чем принято думать. Программы автономных дронов буксуют, сроки срываются, стратегии меняются, а горизонт планирования все чаще смещается от Ближнего Востока к Тайваню. Внутри оборонного аппарата Иран уже рассматривается не как отдельная кампания, а как предварительный сценарий, генеральная репетиция чего-то гораздо более опасного. И в этом, пожалуй, главная мысль происходящего: ИИ для Пентагона — это не просто способ воевать эффективнее сегодня. Это ставка на то, как выиграть следующую большую войну, пока она еще не началась.
Говоря проще, Вашингтон уже перестал относиться к искусственному интеллекту как к эксперименту на периферии оборонной системы. Теперь это один из центральных элементов будущей военной архитектуры. И чем сильнее растет это убеждение, тем меньше пространства остается для осторожности. С этого момента вопрос уже не в том, войдет ли ИИ в войну. Он уже вошел. Вопрос в том, насколько быстро война начнет подстраиваться под логику машин — и успеет ли кто-то вовремя испугаться по-настоящему.
История американского военного ИИ в его нынешнем виде началась не вчера и даже не с нынешнего витка конфронтации вокруг Ирана. Ее отправной точкой стал 2017 год, когда Пентагон запустил Project Maven. Формально идея выглядела почти нейтрально: создать алгоритмы компьютерного зрения, которые смогут просматривать видеопотоки с дронов, находить объекты и превращать бесконечные массивы разрозненной информации в пригодную для действий разведывательную картину. На уровне бюрократических формулировок все звучало достаточно аккуратно, почти стерильно. Это подавалось как ускорение анализа, как способ помочь военным не тонуть в объемах данных, которые уже тогда становились неподъемными для человека. Но за этой технократической оберткой с самого начала скрывался вполне предсказуемый вектор: если машина умеет видеть, классифицировать и выделять значимое, следующий шаг почти неизбежно состоит в том, чтобы использовать ее не просто для наблюдения, а для наведения.
Именно поэтому все заверения, что такие системы якобы не предназначены для боевого целеуказания, выглядели скорее успокаивающим политическим ритуалом, чем реальным ограничением. Люди, которые работали рядом с программой, понимали это с самого начала. Когда государство строит технологию, позволяющую выделять цель из потока изображения быстрее и масштабнее человека, оно делает это не ради красивых дашбордов. Оно делает это потому, что в современной войне скорость обнаружения и скорость решения все ближе срастаются в одну функцию. Maven был не случайным аналитическим проектом, а первой крупной попыткой превратить ИИ из вспомогательного офисного инструмента в часть военной kill chain — той самой цепочки, где наблюдение переходит в выбор, выбор в приказ, а приказ в удар.
С самого начала у этой программы был еще один принципиальный элемент — зависимость от частного сектора. Пентагон не мог построить все в одиночку. Самые передовые модели, облачные мощности, инфраструктура хранения и анализа данных, интерфейсы и гибкость разработки находились вне государства, в экосистеме больших технологий и быстрорастущих стартапов. Это означало, что военный ИИ в США будет рождаться не только в кабинетах Пентагона, но и в переговорах с Кремниевой долиной, а значит — в постоянном конфликте культур. Государство мыслит категориями угроз, сдерживания и оперативной необходимости. Технологическая индустрия, даже когда охотно берет оборонные деньги, все равно живет в логике репутации, внутренней идеологии, найма талантов и моральных границ, которые хотя бы формально нужно декларировать.
Одним из первых больших партнеров Maven стала Google. И именно здесь впервые стало по-настоящему видно, насколько взрывоопасным может быть союз между военной машиной и крупнейшими технологическими платформами. Когда участие компании стало публичным, внутри Google вспыхнул настоящий бунт. Тысячи сотрудников восприняли это не как обычный контракт, а как переход опасной черты. Опасения были не отвлеченными. Люди, критиковавшие проект, предупреждали: если сегодня речь идет о распознавании объектов на видео, то завтра это может стать фундаментом для автономного оружия. Руководство пыталось погасить пожар обещаниями, что технологии используются только в небоевых целях. Но внутреннее сопротивление оказалось настолько сильным, что контракт в итоге не продлили. Этот эпизод стал ранним сигналом того, что в США военный ИИ будет развиваться не по прямой, а через публичные конфликты, утечки, внутренние письма и постоянные попытки провести границу между допустимым и недопустимым.
Тем не менее государство не отступило. Если одна крупная технологическая компания решила дистанцироваться, нашлись другие. Более того, сам рынок начал адаптироваться под спрос Пентагона. В итоге значительную часть того, что было нужно военным, частный сектор все-таки построил. Palantir создала Maven Smart System — уже не отдельный алгоритм, а рабочую платформу, в которую встроились технологии Amazon, Microsoft, Clarifai и других игроков. Amazon Web Services предоставила защищенную облачную инфраструктуру. Параллельно вырос целый класс оборонных стартапов нового поколения. Самый заметный пример — Anduril, компания, которая за несколько лет превратилась в один из символов милитаризированной техноиндустрии и начала тесно работать с Пентагоном. Если раньше крупные ИТ-компании старались делать вид, что оборона — это лишь один из вертикальных рынков, то теперь возникла отдельная экосистема, изначально заточенная под военные задачи и не стесняющаясь этого.
К этому моменту Maven перестал быть экспериментом. Сегодня его версии использует каждый американский военный командный центр по всему миру, а в прошлом году аналог начал применять и НАТО. Но одновременно с этим стало понятно, что одной только централизованной аналитики уже недостаточно. В реальной войне связи могут быть подавлены, спутниковые каналы нарушены, радиоконтуры заглушены. А значит, слишком зависеть от постоянного контакта с командным пунктом нельзя. Именно отсюда вырос новый интерес Пентагона: встроить ИИ непосредственно в сами платформы — в дроны, катера, ударные аппараты, которые смогут лететь, ориентироваться, распознавать объекты и действовать даже тогда, когда связь оборвана. Иными словами, если первая фаза военного ИИ была про ускорение анализа в тылу, то вторая — уже про перенос машинного восприятия и решения на саму передовую.
С 2022 года команда Maven начала собирать гигантские массивы изображений китайских кораблей в Тихом океане. Это не просто техническая деталь, а очень важный индикатор того, куда сместился стратегический приоритет. Если раньше ИИ обкатывали на Ближнем Востоке и в контртеррористических операциях, то теперь главный адресат всей этой архитектуры — Китай и потенциальный конфликт вокруг Тайваня. Система должна научиться видеть эсминцы, десантные корабли, вспомогательные суда, логистические схемы, поведенческие паттерны флота. Это уже не история о точечном ударе по отдельной цели в пустыне. Это подготовка к войне с государством сопоставимого масштаба, где объем целей, скорость маневра и цена ошибки на порядок выше. По сути, США начали учить машину смотреть на китайский флот так, как раньше офицеры-разведчики годами учились смотреть на поле боя.
Но, возможно, самая сильная и тревожная черта этой истории состоит в том, что у людей, создающих такие системы, возникает не только профессиональный интерес, но и почти мистическое чувство соприкосновения с чем-то чуждым. Один из участников американских программ по военному ИИ описывал это как особое переживание: видеть, как машина сама «наводится», как будто в ней появляется чужая форма намерения. Не религиозное чувство в прямом смысле, но нечто близкое к нему — смесь восторга, ужаса и ощущения, что ты заглядываешь за привычные границы человеческого контроля. В этих словах много важного. Потому что именно так часто и работает опасная технология: сначала она пугает, затем завораживает, а потом это завораживание начинает вытеснять осторожность. Когда инструмент кажется почти сверхчеловеческим, у системы возникает соблазн доверить ему больше, чем она должна.
И все же внутри Пентагона не было единого фронта даже среди сторонников автономии. Споры шли почти по всем ключевым вопросам. Одни считали, что оборонный ИИ нужно по максимуму разрабатывать внутри государства, чтобы не зависеть от частных подрядчиков и не отдавать критические функции на сторону. Другие настаивали, что без коммерческого сектора скорость будет недостаточной и США просто проиграют темп. Одни выступали за более простые, дешевые и быстро deployable решения — дроны, которые можно быстро передать союзникам в Тихом океане и массово развернуть в случае кризиса. Других интересовали более сложные рои, насыщенные сетевым взаимодействием и коллективным поведением. Одни хотели абсолютной секретности, считая, что внезапность даст стратегическое преимущество. Другие, наоборот, полагали, что часть возможностей надо намеренно демонстрировать Китаю, чтобы сама перспектива американского технологического перевеса работала как фактор сдерживания.
Эти разногласия не были чисто академическими. От них зависело, каким именно станет американский военный ИИ: скрытым элитным инструментом для специальных задач или массовой архитектурой будущей войны. И по мере того как технологии становились все менее теоретическими, росло понимание, что прежняя оборонная культура может не выдержать нужного темпа. В 2023 году Джейн Пинелис, одна из тех, кто в ранние годы отвечал за тестирование и оценку систем Maven, прямо говорила, что американским военным придется повысить терпимость к риску. В переводе на простой язык это означало следующее: ждать идеального, безошибочного ИИ бессмысленно, потому что такого просто не будет. Модели галлюцинируют. Данные бывают шумными, неполными и устаревшими. Алгоритмы со временем деградируют, теряя точность из-за drift — неизбежного расхождения между условиями, на которых их обучали, и реальностью, в которой они работают.
Это, пожалуй, одна из самых честных мыслей во всей истории военного ИИ. Главный вопрос не в том, ошибется ли система, а в том, как именно она ошибется и готова ли организация жить с этими ошибками. Пинелис позже сформулировала это почти предельно: единственно разумный подход — не строить иллюзии о безупречности, а заранее планировать, как ИИ будет ломаться. В гражданской среде это звучало бы как зрелый инженерный принцип. В военной — как признание того, что будущее оружие с элементами автономии будут вводить в игру, не дожидаясь полной надежности. И именно здесь проходит один из самых важных водоразделов. Потому что когда общество слышит разговоры о «точности», «снижении нагрузки на аналитиков» и «ускорении решений», оно склонно представлять себе более умную и безопасную войну. Внутри же системы уже давно понимают: ошибок не избежать, вопрос только в том, готовы ли принять их цену.
В этом и заключается скрытая логика всей американской гонки за военным ИИ. Не потому Пентагон идет вперед, что считает технологию зрелой и полностью проверенной. Он идет вперед потому, что считает остановку еще более рискованной. Если противник тоже строит автономные платформы, если конфликт вокруг Тайваня может оказаться гонкой скоростей, если связь может быть подавлена, а объем целей окажется слишком велик для традиционной системы принятия решений, тогда несовершенный ИИ начинает выглядеть лучше, чем его отсутствие. Это опасная, но очень мощная логика. Она не обещает безопасность. Она обещает лишь шанс не оказаться медленнее соперника. И чем глубже Пентагон принимает эту логику, тем сильнее страх перед технологическим отставанием начинает перевешивать страх перед самой машиной.
При администрации Байдена вся эта история вошла в новую фазу. Если ранний этап был в основном про то, как научить алгоритмы видеть, сортировать и подсказывать, то теперь фокус сместился к более сложной задаче: как превратить автономию в реальный боевой инструмент, который можно масштабировать под большой конфликт. И именно здесь Пентагон решил действовать сразу в двух направлениях. С одной стороны, он стал строить сами системы. С другой — начал намеренно говорить о них публично, что для части военных выглядело почти кощунством. Те, кто ставил на секретность, считали, что такие программы должны оставаться в тени до последнего момента. Но у новой линии была своя логика: если США хотят привлечь коммерческих партнеров, ускорить разработку и одновременно послать Китаю сигнал о будущих возможностях, то полная тишина уже не работает.
Эта смена подхода ярче всего проявилась в 2023 году, когда заместитель министра обороны Кэтлин Хикс объявила о программе Replicator. Само название отражало суть: задача состояла в том, чтобы быстро развернуть тысячи автономных дронов на случай конфликта с китайской армией. Идея выглядела почти как промышленный ответ на проблему масштаба. Если Китай способен давить числом кораблей, ракет, платформ и производственных мощностей, то США должны противопоставить этому не единичные дорогие системы, а массу сравнительно дешевых автономных средств, которые будет трудно просчитать, трудно уничтожить и трудно нейтрализовать одновременно. Хикс тогда прямо подчеркивала, что для Пекина такой поток американских дронов должен стать фактором, который сделает войну менее управляемой и менее предсказуемой.
За этой риторикой стоял вполне конкретный дедлайн. Американские чиновники не раз говорили о 2027 году как о рубеже, к которому Китай, по их оценке, хочет быть готов к операции против Тайваня. Поэтому Replicator изначально задумывался не как бесконечный исследовательский проект, а как программа, привязанная к жесткому времени. Это важный момент. В мирной технологической среде неудача означает перенос релиза, переработку продукта или потерю доли рынка. В военной среде неудача может означать, что система просто не будет готова к моменту, когда она понадобится. Именно поэтому Пентагон так нервно смотрит на календарь. Вопрос уже не в том, удастся ли создать что-то впечатляющее «когда-нибудь», а в том, успеют ли создать что-то работающее до того, как кризис станет реальностью.
Для этой новой фазы снова понадобилась помощь Кремниевой долины и оборонного частного сектора. Команда Maven должна была отвечать за автоматическое распознавание целей. Государство собирало данные с портовых камер, судовых камер, инфракрасных систем и тактических беспилотников, работающих в акваториях вокруг Китая и Тайваня. Затем эти массивы передавались коммерческим партнерам, чтобы те строили модели, помогающие дронам распознавать и выбирать объекты. В этой схеме особенно хорошо видно, как работает современный военный ИИ: государство выступает источником уникальных данных и стратегической постановки задачи, а компании — фабрикой быстрого прикладного решения. Так возникала своеобразная гибридная модель, где ни одна из сторон по отдельности не могла бы добиться того же результата.
Летом прошлого года высокопоставленным военным, включая председателя Объединенного комитета начальников штабов, показывали демонстрации систем, способных автоматически распознавать китайские эсминцы. На первый взгляд это может показаться просто красивой технологической витриной. Но на самом деле это уже был предэтап боевой автономии. Чтобы ударный дрон когда-нибудь мог действовать почти без участия человека, он должен сначала научиться надежно различать цель, не путать нужный объект с ненужным и держать слежение в сложной среде. Поэтому вся эта непрерывная съемка китайских кораблей — не пассивная разведка в классическом смысле. Это кормление будущей системы оружия обучающим материалом. Машину буквально учат смотреть на Народно-освободительную армию Китая как на каталог потенциальных целей.
Проблема была в том, что реальный прогресс оказывался куда менее гладким, чем это выглядело в презентациях и официальных речах. У Maven действительно было преимущество в виде огромного массива изображений китайских платформ, которого не было у коммерческих ИИ-компаний. Но наличие данных еще не гарантировало готовый продукт. Команда не всегда успевала вовремя поставить рабочее ПО, модели трудно было интегрировать с бортовыми компьютерами самих дронов, а качество распознавания оставляло пространство для нервозности. В некоторых случаях система плохо справлялась с одновременным обнаружением нескольких судов. В других — банально сбивалась, если на камеру попадали брызги морской воды. Эта деталь кажется почти бытовой, но именно в ней и скрыта суровая правда: между лабораторной демонстрацией и морем, ветром, солью, качкой и хаосом реального конфликта лежит огромная пропасть.
Неудивительно, что коммерческие производители дронов, работавшие с Пентагоном, начали утверждать, что их собственные системы распознавания целей прекрасно функционируют и без Maven. Это уже был не только технический, но и институциональный конфликт. Каждый подрядчик хотел показать, что его стек лучше, его автономия надежнее, его модели быстрее, а зависимость от центральной государственной программы — излишняя. Для Пентагона это создавало еще одну проблему. Вместо стройной единой архитектуры вырастала экосистема конкурирующих решений, интерфейсов, амбиций и несовместимостей. В гражданской индустрии это могло бы называться инновационной конкуренцией. В военной сфере такая разнородность может обернуться задержками, рисками интеграции и слабой предсказуемостью в боевых условиях.
И параллельно с Replicator в системе шли и другие автономные программы, зачастую почти без публичного внимания. Некоторые из них выглядели как прямой выход к тем сценариям, которых опасаются критики военного ИИ. Один из проектов, Goalkeeper, курируемый через Office of Naval Research, был связан с так называемыми expeditionary loitering munitions — фактически с дронами, которые могли лететь, сами выбирать цель и атаковать без участия человека в финальном решении. Другой проект, Whiplash, строился на неожиданно американской смеси изобретательности и абсурда: использовать огромное количество гражданских гидроциклов и превратить их в роботизированные носители взрывчатки. Звучит почти как странный военный анекдот, но именно так часто и выглядят ранние стадии новой войны: нелепое быстро становится нормой, если оно дает тактическое преимущество.
Смысл этих программ состоял в поиске дешевых и массовых платформ, которые можно быстро вооружить и отправить в опасную зону без экипажа. В этом есть очень мрачная рациональность. Чем дешевле единица, тем легче мыслить ее как расходный материал. Чем меньше человеческого участия на борту, тем ниже политическая цена потерь. И чем больше таких платформ можно развернуть, тем сильнее меняется сама геометрия конфликта. Война начинает напоминать не столкновение нескольких крупных систем, а насыщение пространства тысячами полуафтономных угроз, которые трудно отслеживать и еще труднее нейтрализовать по одной. В такой среде даже простая ошибка навигации или неправильная классификация цели может стать триггером цепной реакции.
То, что эти идеи не оставались только на бумаге, подтверждает еще одна тревожная деталь: по словам людей, знакомых с вопросом, ЦРУ тайно тестировало ранние версии Goalkeeper и Whiplash в Черном море у побережья Украины. Это особенно важно не только само по себе, но и как иллюстрация того, как новые системы часто обкатываются на периферии больших конфликтов, там, где риск можно политически замаскировать, а результаты — изучить без громких официальных признаний. Один из таких эпизодов едва не вышел наружу в июле 2024 года, когда на турецкий берег вынесло загадочный гидроцикл, начиненный взрывчаткой. Для Пентагона это стало напоминанием о том, что тайные эксперименты с автономными платформами могут внезапно всплыть в самом буквальном смысле слова.
Но наиболее показательная сцена всей этой истории произошла позже, летом 2025 года, на испытаниях в Южной Калифорнии. Тогда группа автономных военных катеров выстроилась для теста в гавани недалеко от военно-морской базы Port Hueneme. Это были аппараты программы Replicator, уже почти подошедшей к своему официальному дедлайну по поставке тысяч морских и воздушных дронов. Давление к тому моменту было колоссальным. Сам тест фокусировался не столько на железе, сколько на программном обеспечении автономии. Две компании — L3Harris и Anduril — сделали свои операционные системы для таких катеров, и Пентагон сравнивал, как они работают на практике.
По правилам безопасности автономный режим не должен был включаться, пока аппараты не окажутся достаточно далеко в море. Но один катер под управлением системы L3Harris внезапно рванул вперед. Его режим автономии каким-то образом активировался преждевременно, и дальше началась сцена, которая почти идеально показывает, как хрупко может выглядеть «умная» военная система, если в ней что-то идет не так. Катер, все еще привязанный тросом к буксирному судну, начал ускоряться и замедляться, резко менять направление и фактически тащить за собой ситуацию к катастрофе. У капитана буксира не было возможности перехватить управление. Его судно перевернулось, и он оказался в воде. Тем временем автономный аппарат развернулся обратно и начал быстро двигаться на него.
Спасла ситуацию почти импровизация. Капитан другого буксира увидел происходящее и успел вклиниться между дрейфующим товарищем и несущимся дроном. Третий экипаж вытащил человека из воды. Все это уложилось примерно в три минуты — три минуты, которых хватило, чтобы военный тест превратился в почти фатальный инцидент. Расследование позже установило причину: оператор на берегу случайно отправил сообщение, отключившее предохранитель, не позволявший системе раньше времени перейти в автономный режим. Иными словами, все произошло из-за классической fat-finger mistake — банальной человеческой ошибки, из тех, что случаются в любой сложной системе.
После этого добавили физическую кнопку, блокирующую такие команды, улучшили индикацию режимов работы, начали активнее обмениваться уроками безопасности между подрядчиками. Но суть проблемы была глубже, чем отсутствие одной кнопки. Инцидент показал не просто частную недоработку, а фундаментальную незрелость всей программы. На тот момент создатели Replicator все еще не были готовы поставить на такие платформы боекомплект и отправить их в сценарий, где им пришлось бы координироваться между собой или выполнять конкретный боевой план без постоянного надзора. К августовскому сроку программу удалось довести лишь до поставки нескольких сотен дронов — значительно меньше изначальных амбиций. На бумаге это все еще можно было назвать прогрессом. По сути же стало ясно, что между политическим лозунгом о тысячах автономных платформ и реальной боевой надежностью лежит дистанция, которую нельзя закрыть пресс-релизами.
И именно в этом разрыве особенно хорошо видна вся нервозность Пентагона. Он хочет будущую войну, где машина позволит действовать быстрее, масштабнее и дешевле. Но каждый такой инцидент напоминает, что технология пока не дотягивает до собственного мифа. Автономия выглядит впечатляюще до тех пор, пока действует по сценарию. Стоит сценарию треснуть, и сразу становится видно, насколько много в этой системе завязано на несовершенную интеграцию, человеческие ошибки, сырой софт и опасную уверенность, что следующий патч все исправит. Именно поэтому гонка за военным ИИ выглядит такой тревожной: государства уже мыслят этими системами как почти неизбежным будущим войны, тогда как сами системы еще слишком часто напоминают не уверенного хищника, а мощный, но нервный прототип.
Пока Пентагон пытался довести собственные автономные системы до состояния, которое хотя бы отдаленно напоминало боевую готовность, остальной мир не ждал. Особенно внимательно в Вашингтоне смотрели на Украину. Именно там стало видно, что эпоха дронов перестала быть будущим и стала настоящим. Обе стороны конфликта начали использовать миллионы беспилотников — для разведки, корректировки огня, точечных ударов и постоянного изматывания противника. Значительная часть этих аппаратов все еще управлялась человеком, но уже тогда было ясно, что ручное управление — это лишь переходная стадия. Как только война начинает требовать скорости, плотности и устойчивости к радиоэлектронному подавлению, автономия перестает быть роскошью и становится необходимостью.
Для американских военных Украина выглядела как суровый учебник, написанный в реальном времени. Там можно было увидеть, как дешевые платформы меняют тактику, как быстро адаптируются обе стороны, как поле боя превращается в насыщенную сенсорами и одноразовыми ударными средствами среду, где уязвимым становится все. Но еще важнее был другой вывод: если Украина стала первой большой войной дроновой эпохи, то возможный конфликт вокруг Тайваня может стать ее гораздо более масштабной и технологически насыщенной версией. И именно это сочетание — украинский опыт как лаборатория плюс тайваньский сценарий как стратегический кошмар — все сильнее формировало мышление Пентагона.
Публично западные союзники стараются говорить уверенно. Высокопоставленные представители США успокаивают партнеров, что при необходимости Америка будет готова к китайскому вторжению на Тайвань. Но за закрытыми дверями тон совсем другой. Один британский чиновник в сфере нацбезопасности описывал это почти шепотом: официально американцы уверяют, что все под контролем, а потом понижают голос и признают — они не готовы. В этом признании заключено очень многое. Не готовность здесь означает не отсутствие авианосцев, ракет или бюджета. Она означает более неприятную вещь: ощущение, что архитектура следующей войны уже меняется быстрее, чем крупнейшая военная машина мира успевает ее перестроить под себя.
Когда Трамп вернулся в Белый дом, проект Replicator получил новое имя — Defense Autonomous Warfare Group, или DAWG. Сам ребрендинг выглядел не просто косметикой, а попыткой придать всей программе более жесткий, наступательный характер. Руководить новым контуром поставили генерал-лейтенанта морской пехоты Фрэнка Донована, заместителя командующего Силами специальных операций. Внутри системы его считали человеком дисциплины, прямоты и практического мышления — не визионером в стиле техноинвесторов, а офицером, которого интересует не идея как таковая, а то, работает ли она в реальности.
Донован присутствовал на финальном тестовом мероприятии Replicator в августе 2025 года, через два месяца после того, как один из автономных катеров едва не утопил буксир вместе с капитаном. Впечатления у него, по словам людей, знакомых с итогами, были двойственные. С одной стороны, его раздражало, что проект стал слишком публичным. В таких вещах лишняя огласка создает политическое давление, завышает ожидания и мешает спокойно доводить систему до рабочего состояния. С другой стороны, он все же увидел в этих испытаниях нечто важное: несмотря на провалы, ошибки и сырость многих решений, сами специалисты сумели продвинуться в вопросе совместной автономии дальше, чем можно было предположить по внешнему хаосу. То есть технология одновременно разочаровывала и соблазняла. Она еще не была надежной, но уже показывала, что при должной доработке может резко изменить возможности армии.
Именно поэтому Донован решил двигаться к упрощению. Вместо расползающегося набора платформ и амбиций он сделал ставку на более узкий и прагматичный подход: сократить число автономных систем и сосредоточиться на более простых дронах, пригодных для обороны Тайваня. По сути, это было признание того, что большая часть ранней военной ИИ-стратегии страдала той же болезнью, что и многие государственные технологические программы: слишком много направлений, слишком мало фокуса и постоянная путаница между демонстрацией потенциала и построением реальной боевой системы. Но даже этот разворот не успел толком оформиться. Уже в декабре Трамп выдвинул Донована на пост главы Южного командования США после неожиданного ухода прежнего руководителя на фоне американской кампании против венесуэльских лодок, якобы перевозивших наркотики. И снова ключевая программа оказалась зависимой от кадровых перестановок и политических вихрей.
Внутри Пентагона и Конгресса тем временем никуда не исчезли споры по самым базовым вопросам. Какие автономные программы действительно заслуживают финансирования? Какие из них имеют институциональную опору, а какие живут от одного лоббистского импульса до другого? Что именно считать приемлемым уровнем автономии? Где заканчивается помощь оператору и начинается машина, которая уже сама формирует смертельное действие? Эти вопросы остаются открытыми не потому, что на них никто не думал, а потому что на них нет удобных ответов. Слишком многое упирается сразу в технику, стратегию, этику, бюрократию и политику.
Показательно, что некоторые программы словно исчезли из публичного поля, но не из реальной жизни. Goalkeeper и Whiplash пропали из открытых бюджетных документов после возвращения Трампа, хотя по оценкам бюджета на 2026 год видно, что работа по сути продолжается — просто под менее узнаваемыми описаниями. Это типичный почерк современной оборонной бюрократии: проект может формально исчезнуть, чтобы снизить внимание, избежать скандала или заново упаковать его под новую политическую конъюнктуру, но сама технологическая линия не останавливается. Напротив, она уходит глубже под воду, где ее труднее отслеживать, но легче продолжать.
При этом государство не только сохраняет старые направления, но и запускает новые. В январе DAWG объявила конкурс с призовым фондом в 100 миллионов долларов на создание инструментов, которые с помощью больших языковых моделей смогут принимать устные команды командира и переводить их в инструкции для роя автономных дронов. Это уже очень серьезный шаг. До сих пор можно было спорить, где проходит граница между ИИ как системой анализа и ИИ как элементом оружия. Но когда модель должна интерпретировать живую человеческую речь, превращать ее в исполнимые команды и передавать их множеству машин, эта граница начинает стираться. Между словом командира и действием роя появляется новый посредник — языковая модель. А значит, появляется и новый слой риска.
Здесь особенно иронично выглядит эпизод с Anthropic. Компания тоже подала заявку на участие в этом конкурсе, потому что видела в нем возможность влиять на технологию еще до стадии развертывания. Внутри Anthropic считали, что такой формат не пересекает их красные линии, поскольку там все еще сохраняется пространство для контроля, остановки и надзора со стороны человека. Но заявку компании не выбрали. Зато дальше прошли предложения, связанные с технологиями OpenAI. Среди участников также оказались Palantir и SpaceX Илона Маска. То есть даже после публичного конфликта и разговоров о принципах общее направление не изменилось: Пентагон продолжает собирать вокруг себя тех игроков, которые готовы участвовать в строительстве следующего уровня боевой автоматизации.
А следующие стадии конкурса звучат уже совсем без эвфемизмов. Сначала — развитие систем ситуационной осведомленности и обмена информацией по целям. Затем — этап, который в оборонном языке называют launch to termination, то есть путь от запуска до поражения. За сухими словами скрывается очень прямая вещь: создание технологического контура, где автономная система не просто помогает ориентироваться, а сопровождает весь цикл смертельного действия. Это еще не обязательно полностью самостоятельное оружие в чистом виде, но именно в такую сторону все движется. Если соединить языковые модели, визуальное распознавание, маршрутизацию, рой платформ и устойчивость к потере связи, то в конечной точке вполне возникает каркас для системы, которая способна убивать почти без участия человека в реальном времени.
И здесь особенно весомо звучит предупреждение Джека Шанахана — отставного трехзвездного генерала, который в свое время руководил Project Maven. Его позицию нельзя списать на наивный гуманизм или внешнюю критику со стороны людей, не понимающих военной логики. Это человек изнутри системы. И именно он говорит предельно жестко: ни одна большая языковая модель в ее нынешнем виде не должна использоваться в полностью летальной автономной системе. Слишком велика вероятность катастрофы. По сути, он указывает на фундаментальную проблему всей нынешней гонки: государство уже хочет встроить LLM в боевую цепочку, тогда как сами модели по своей природе остаются вероятностными, склонными к ошибкам, нестабильным в незнакомой среде и не созданными для того уровня предсказуемости, который требует применение смертоносной силы.
В этом и состоит главный нерв всей истории. Пентагон не «подсел» на военный ИИ потому, что технология уже доказала свою зрелость и безупречность. Он подсел потому, что ИИ обещает то, перед чем военная машина почти не может устоять: скорость, масштаб, устойчивость, удешевление и шанс не проиграть будущую войну до ее начала. А когда технология начинает обещать стратегическое спасение, система перестает спрашивать, достаточно ли она надежна. Она начинает спрашивать, может ли позволить себе не использовать ее. Это очень опасный момент. Потому что именно так и рождаются большие технологические сдвиги в военной сфере: не из уверенности, что все под контролем, а из страха, что промедление обойдется еще дороже.
И, возможно, в этом самая мрачная правда новой эпохи. Машины еще не стали по-настоящему самостоятельными бойцами. Они все еще срываются, путаются, требуют страховочных кнопок, не выдерживают реальной среды и зависят от людей больше, чем любят признавать политики. Но одновременно они уже достаточно полезны, чтобы их было невозможно убрать назад в коробку. Они уже встроены в разведку, выбор целей, темп кампаний, архитектуру будущих дронов и планы на возможную войну с Китаем. То есть опасность не в том, что полностью автономная война внезапно случится завтра утром в законченной форме. Опасность в том, что она приходит по частям — через временные компромиссы, сырые решения, «пока только как помощь человеку», через эксперименты, ребрендинги, теневые бюджеты и дедлайны, которые всегда важнее осторожности.
Именно так военные системы обычно и переходят точку невозврата. Не одним громким решением, а длинной цепочкой небольших уступок, каждая из которых кажется управляемой. Чуть больше автоматизации здесь. Чуть меньше человеческой проверки там. Еще один конкурс, еще один подрядчик, еще один театр военных действий как полигон. В какой-то момент оказывается, что спор уже не о том, допустим ли ИИ в войне, а лишь о том, насколько быстро его пустят к спусковому крючку. И когда этот момент наступает, самый страшный вопрос звучит уже не как футурология, а как бюрократическая формальность: успеют ли они доставить систему к лету.


Десайфер, как ты успеваешь генерить столько контента и, в частности, текста?