04 марта 2026 года. В офисе Anthropic в Сан-Франциско царит хаос. Акции компании рухнули на 15% за сутки, а в соцсетях горят хештеги #ClaudeKiller. Причина: утечка документов, подтверждающих, что их ИИ Claude используется для целеуказания в военных операциях США.
От этики к контракту: как Claude стал инструментом Пентагона
Еще в 2025 году Anthropic громко заявлял о запрете военного использования своих моделей. Основатели писали о "ответственном AI". А теперь? Контракт с Palantir на интеграцию Claude Opus 4.6 в систему Maven - платформу для анализа данных Пентагона.
Согласно документам, доступным на 04.03.2026, Claude Opus 4.6 анализирует спутниковые снимки в реальном времени, идентифицируя передвижение техники и предлагая приоритетные цели для ударов. Точность заявлена на уровне 94%, но что насчет оставшихся 6%?
Palantir, компания Питера Тиля, давно работает с разведкой. Их система Maven с 2026 года интегрировала LLM для "контекстуального анализа и прогнозирования". Проще говоря, Claude не только видит танк, но и предсказывает, куда он движется.
Система Maven и целеуказание в реальном времени
Как это работает? Оператор загружает спутниковые данные. Claude Opus 4.6, работая как агент, сканирует изображения, отмечает аномалии и выдает рекомендации: "цель №A - высокая вероятность". Все за секунды.
Внутренние тесты, проведенные в феврале 2026, показали, что Claude иногда путает гражданские грузовики с военной техникой. Один из инженеров Anthropic написал в утечке: "Мы создаем систему, которая может убивать по ошибке".
И это тот самый Claude, который отказывался помогать военным в 2025 году. Что изменилось? Деньги. Контракт на $50 миллионов.
Реакция и последствия: протесты, утечки, регуляторы
Утечка документов произошла 2 марта 2026 года через канал анонимных сотрудников. В сети появились скриншоты внутренней переписки.
Сотрудники компании организовали протест. Несколько ведущих исследователей уволились, включая главу отдела этики AI.
На рынке: акции Anthropic упали с $120 до $102. Инвесторы боятся регуляторных последствий. В ЕС готовят законопроект о запрете автономного оружия.
Утечка внутренних документов: что показали логи
Анонимный источник предоставил логи. В них видно, как модель Claude Opus 4.6 тестировали на данных с Ближнего Востока. В одном из случаев, модель рекомендовала удар по зданию, которое позже оказалось школой.
Это поднимает вопрос: как ведут себя автономные агенты в стрессовых условиях?
Кроме того, появились опасения о безопасности. Если хакеры взломают Claude через уязвимости, как в истории с атакой через MCP, они могут манипулировать целеуказанием.
Что дальше для AI и войны?
Этот скандал - только начало. Военные всего мира видят в AI силу-множитель.
Регулирование? В Вашингтоне обсуждают "Акт о ответственном военном AI", но лоббисты техгигантов его тормозят. Антропик пытается спасти репутацию.
Совет от бывшего инженера Пентагона: "Не доверяйте AI целеуказание. Алгоритмы не понимают контекст, мораль и последствия. Человек должен всегда оставаться в цикле." Но в системе Maven, оператор лишь подтверждает рекомендации Claude.
Что делать разработчикам? Смотрите на этические политики. Участвуйте в протестах. Или уходите.
К 2027 году, мы можем увидеть первые судебные иски против Anthropic. Или международный договор. Но пока, Claude Opus 4.6 продолжает работать. И где-то, прямо сейчас, алгоритм решает, кто следующая цель.
Ирония в том, что Claude создавался для помощи людям, а не для их уничтожения.