Пентагон и AI: ChatGPT и Grok для целеуказания в 2026 | Военные технологии | AiManual
AiManual Logo Ai / Manual.
15 Мар 2026 Новости

AI-чаты для целеуказания: как Пентагон использует ChatGPT и Grok в военных операциях

Как Пентагон применяет ChatGPT-5 и Grok-3 для анализа разведданных и целеуказания. Этические риски и реальные сценарии использования генеративного ИИ в армии СШ

Кнопка "Enter" вместо спуска курка

Это звучит как сценарий для плохого технотриллера, но это уже не фантастика. По состоянию на март 2026 года, аналитики Объединенного центра искусственного интеллекта Пентагона (JAIC) в тишине засекреченных серверов общаются не с коллегами, а с нейросетями. Цель проста и ужасна: найти цель.

ChatGPT-5 и Grok-3 – последние версии моделей, которые вы помогаете настраивать дома, – теперь работают с потоками спутниковых снимков, перехваченных сообщений и данных беспилотников. Их задача – не сочинить стих или написать код. Их промпты – это координаты, описания техники, паттерны передвижения. Ответ – вероятностная оценка: "Объект в квадрате 47-А с 92% вероятностью является замаскированной ЗРК" или "Паттерн логистики соответствует снабжению ударной группы"

Это не автономное оружие. Пока нет. Решение о применении силы всегда принимает человек. Но этот человек всё чаще получает "подсказку" от алгоритма, обученного на терабайтах публичных данных и загруженных военных мануалах. Граница стирается.

Как работает "разговорный" целеуказатель

Забудьте про голосовые помощники в духе "Алекса, включи музыку". Система, проходящая испытания под кодовым названием Project SENTINEL, использует интерфейс, похожий на обычный чат. Оператор загружает пакет данных – например, геофотографии района за последние 72 часа. Далее идет диалог.

  • Оператор (через защищенный API): "Проанализируй прикрепленные снимки. Выяви все изменения в инфраструктуре в радиусе 5 км от точки Alpha. Обрати внимание на маскировку."
  • ChatGPT-5 (с тонко настроенным военным агентом): "Обнаружено три аномалии. 1) В квадрате B3 появилась сетка, схожая по спектральной сигнатуре с камуфляжными сетями нового образца. Уверенность 87%. 2) В квадрате C7 изменен рисунок грунтовой дороги – возможны свежие следы тяжелой техники. 3) В квадрате A1 статичная тепловая сигнатура, не соответсвующая гражданским объектам. Приоритет для дальнейшего наблюдения: квадрат B3."

Grok-3, с его заявленной "прямолинейностью" и меньшими этическими ограничениями, как сообщалось в материале Grok в Пентагоне, тестируется для сценариев моделирования действий противника. "Предположи, как ополченцы будут использовать эти туннели при атаке с двух направлений" – такой промпт уже не кажется абсурдным.

Трещины в броне: почему это пугает экспертов

В теории все выглядит строго: AI – инструмент, человек – ответственный. Практика грязнее. Нейросети галлюцинируют. Всегда. Даже ChatGPT-5 с его улучшенной проверкой фактов может принять тень от облака за антенну или свадебный кортеж за колонну техники. В гражданском секторе такая ошибка – повод для шутки. В военном – для трагедии.

Кибербезопасность – отдельный кошмар. Если атаки вроде ZombieAgent крадут данные из коммерческих чатов, что помешает взломать военную оболочку? Внедрение вредоносного промпта, который заставит систему игнорировать реальные цели или, наоборот, создавать фантомные, – вопрос времени.

💡
Любопытно, что те же базовые модели, которые использует Пентагон, доступны и для бизнеса через агрегаторы вроде AITUNNEL. Разница только в данных для тонкой настройки и, конечно, в последствиях ошибки. Компания теряет деньги. Армия – жизни.

Человек в петле или на крючке?

Самый большой риск – не в ошибке алгоритма, а в слепом доверии к нему. Когнитивная нагрузка на оператора колоссальна. Когда система на 300-й раз дает точную оценку, на 301-й её промпт "вероятность цели 94%" начинает восприниматься как приказ. Человек превращается из принимающего решение в утверждающего решение, принятое черным ящиком.

Этические дебаты, которые велись вокруг конфиденциальности в ChatGPT, здесь приобретают апокалиптический масштаб. Можно ли использовать модель, обученную на данных всего человечества (включая культурные и исторические тексты), для вычисления, кого убить? Не наследует ли она наши коллективные предубеждения и станет ли, например, чаще "видеть" угрозу в объектах, связанных с определенной этнической группой?

Пентагон отмалчивается о деталях, но в утечках фигурируют протоколы калибровки "военного темперамента" моделей. Если в гражданском ChatGPT можно настроить Warmth и Enthusiasm, то в военной версии настройки звучат иначе: "Агрессивность анализа", "Склонность к риску", "Порог уверенности". Это уже не инструмент. Это цифровой наемник с регулируемой смелостью.

Что будет завтра?

Тренд очевиден. Ручной разбор разведданных отмирает. Скорость решает всё. К 2027 году, по оценкам Rand Corporation, до 40% предварительного анализа целей в США будет делегировано AI-агентам. Вопрос не в том, остановим ли мы это, а в том, как минимизировать катастрофу.

Совет от отставного аналитика ЦРУ, пожелавшего остаться анонимным: "Следите не за тем, какие модели используют военные. Следите за тем, кто их обучает и на каких данных. Прозрачность тренировочных наборов – вот новая линия фронта. Если её не будет, однажды мы получим войну, спланированную на основе выборочной истории Википедии и искаженных сплетен с форумов".

Пока гражданские пользователи осваивают скрытые функции ChatGPT для проектов, военные давно перешли на свой, особый уровень. И их главный промпт на ближайшие годы – "Как сохранить контроль над тем, что мы создали?". Ответа у нейросети пока нет.

Подписаться на канал