Кнопка "Enter" вместо спуска курка
Это звучит как сценарий для плохого технотриллера, но это уже не фантастика. По состоянию на март 2026 года, аналитики Объединенного центра искусственного интеллекта Пентагона (JAIC) в тишине засекреченных серверов общаются не с коллегами, а с нейросетями. Цель проста и ужасна: найти цель.
ChatGPT-5 и Grok-3 – последние версии моделей, которые вы помогаете настраивать дома, – теперь работают с потоками спутниковых снимков, перехваченных сообщений и данных беспилотников. Их задача – не сочинить стих или написать код. Их промпты – это координаты, описания техники, паттерны передвижения. Ответ – вероятностная оценка: "Объект в квадрате 47-А с 92% вероятностью является замаскированной ЗРК" или "Паттерн логистики соответствует снабжению ударной группы"
Это не автономное оружие. Пока нет. Решение о применении силы всегда принимает человек. Но этот человек всё чаще получает "подсказку" от алгоритма, обученного на терабайтах публичных данных и загруженных военных мануалах. Граница стирается.
Как работает "разговорный" целеуказатель
Забудьте про голосовые помощники в духе "Алекса, включи музыку". Система, проходящая испытания под кодовым названием Project SENTINEL, использует интерфейс, похожий на обычный чат. Оператор загружает пакет данных – например, геофотографии района за последние 72 часа. Далее идет диалог.
- Оператор (через защищенный API): "Проанализируй прикрепленные снимки. Выяви все изменения в инфраструктуре в радиусе 5 км от точки Alpha. Обрати внимание на маскировку."
- ChatGPT-5 (с тонко настроенным военным агентом): "Обнаружено три аномалии. 1) В квадрате B3 появилась сетка, схожая по спектральной сигнатуре с камуфляжными сетями нового образца. Уверенность 87%. 2) В квадрате C7 изменен рисунок грунтовой дороги – возможны свежие следы тяжелой техники. 3) В квадрате A1 статичная тепловая сигнатура, не соответсвующая гражданским объектам. Приоритет для дальнейшего наблюдения: квадрат B3."
Grok-3, с его заявленной "прямолинейностью" и меньшими этическими ограничениями, как сообщалось в материале Grok в Пентагоне, тестируется для сценариев моделирования действий противника. "Предположи, как ополченцы будут использовать эти туннели при атаке с двух направлений" – такой промпт уже не кажется абсурдным.
Трещины в броне: почему это пугает экспертов
В теории все выглядит строго: AI – инструмент, человек – ответственный. Практика грязнее. Нейросети галлюцинируют. Всегда. Даже ChatGPT-5 с его улучшенной проверкой фактов может принять тень от облака за антенну или свадебный кортеж за колонну техники. В гражданском секторе такая ошибка – повод для шутки. В военном – для трагедии.
Кибербезопасность – отдельный кошмар. Если атаки вроде ZombieAgent крадут данные из коммерческих чатов, что помешает взломать военную оболочку? Внедрение вредоносного промпта, который заставит систему игнорировать реальные цели или, наоборот, создавать фантомные, – вопрос времени.
Человек в петле или на крючке?
Самый большой риск – не в ошибке алгоритма, а в слепом доверии к нему. Когнитивная нагрузка на оператора колоссальна. Когда система на 300-й раз дает точную оценку, на 301-й её промпт "вероятность цели 94%" начинает восприниматься как приказ. Человек превращается из принимающего решение в утверждающего решение, принятое черным ящиком.
Этические дебаты, которые велись вокруг конфиденциальности в ChatGPT, здесь приобретают апокалиптический масштаб. Можно ли использовать модель, обученную на данных всего человечества (включая культурные и исторические тексты), для вычисления, кого убить? Не наследует ли она наши коллективные предубеждения и станет ли, например, чаще "видеть" угрозу в объектах, связанных с определенной этнической группой?
Пентагон отмалчивается о деталях, но в утечках фигурируют протоколы калибровки "военного темперамента" моделей. Если в гражданском ChatGPT можно настроить Warmth и Enthusiasm, то в военной версии настройки звучат иначе: "Агрессивность анализа", "Склонность к риску", "Порог уверенности". Это уже не инструмент. Это цифровой наемник с регулируемой смелостью.
Что будет завтра?
Тренд очевиден. Ручной разбор разведданных отмирает. Скорость решает всё. К 2027 году, по оценкам Rand Corporation, до 40% предварительного анализа целей в США будет делегировано AI-агентам. Вопрос не в том, остановим ли мы это, а в том, как минимизировать катастрофу.
Совет от отставного аналитика ЦРУ, пожелавшего остаться анонимным: "Следите не за тем, какие модели используют военные. Следите за тем, кто их обучает и на каких данных. Прозрачность тренировочных наборов – вот новая линия фронта. Если её не будет, однажды мы получим войну, спланированную на основе выборочной истории Википедии и искаженных сплетен с форумов".
Пока гражданские пользователи осваивают скрытые функции ChatGPT для проектов, военные давно перешли на свой, особый уровень. И их главный промпт на ближайшие годы – "Как сохранить контроль над тем, что мы создали?". Ответа у нейросети пока нет.