Очередной провал: исходный код Claude Code "гуляет" по сети
Anthropic кричала об осторожности, пока её собственные секреты вытекали через дырявое ведро. Прошлой неделей всё началось - в сеть утекли внутренние документы по архитектуре Claude Code, новой модели для генерации кода на базе Claude 3.7 Sonnet. Теперь, 5 апреля 2026 года, ситуация стала абсурдной: в открытый доступ попал практически полный исходный код тренировочного пайплайна для этой же модели.
Это не просто несколько файлов. Репозиторий на 45 гигабайт содержит конфигурации, скрипты для сбора данных, схемы тонкой настройки и - самое тревожное - детали систем безопасности, которые должны были предотвращать генерацию вредоносного кода.
Инсайдеры в Anthropic подтверждают: утечка произошла из-за элементарной халатности. Инженер оставил доступ к внутреннему серверу GitLab открытым для всей корпоративной сети. Достаточно было одной учётной записи, скомпрометированной через фишинг.
Ирония ситуации бьёт в глаза. Компания, которая в прошлом месяце громко отказывалась от контракта с Пентагоном по этическим соображениям, не может защитить свои собственные данные от собственных сотрудников.
Миф о неуязвимости Claude Mythos
История с Claude Code - лишь верхушка айсберга. Всего три недели назад произошла утечка деталей о Claude Mythos, экспериментальной модели с 10 триллионами параметров, которую Anthropic скрывала даже от инвесторов.
Что мы узнали? Что компания годами тестировала модели, которые в разы мощнее публичных. Что их внутренние стандарты безопасности регулярно нарушались ради исследовательских целей. И что их знаменитая "Конституция AI" - документ, регламентирующий этическое поведение моделей - в некоторых экспериментах просто отключалась.
"Мы всегда ставим безопасность на первое место", - заявляла CEO Дарио Амодеи на конференции в марте. Теперь эти слова звучат как плохая шутка.
Двойные стандарты в действии
Вспомните их громкий отказ от военных контрактов. Anthropic позировала как рыцарь в сияющих доспехах, защищающий мир от злоупотреблений ИИ. Но внутри царил хаос.
Утекшие документы показывают: отдел информационной безопасности в компании укомплектован на 40% ниже нормы. Бюджет на безопасность данных в 2025 году был урезан на 15% - именно тогда, когда Anthropic готовила запуск Claude 3.7.
"Мы инвестируем в безопасность больше, чем конкуренты", - говорили они. Цифры показывают обратное. Пока OpenAI тратила 8% выручки на кибербезопасность, Anthropic выделяла лишь 3.2%.
Что теперь делать с этим кодом?
Утекший исходник Claude Code уже разошёлся по хакерским форумам. Чем это грозит?
- Копирование архитектуры: Конкуренты могут воссоздать модель без миллиардных затрат на R&D
- Обход safeguards: Зная, как работают системы безопасности, их легче взломать
- Целенаправленные атаки: Уязвимости в коде теперь видны всем
- Репутационный крах: Кто доверит данные компании, которая не может защитить свой код?
Особенно цинично выглядит этот провал на фоне того, как Anthropic угрожала отключить Claude Пентагону из-за "этических рисков". Собственные риски, видимо, их волновали меньше.
| Инцидент | Дата | Что утекло | Причина |
|---|---|---|---|
| Claude Mythos | 15.03.2026 | Архитектура, спецификации | Внутренний слив |
| Claude Code (архитектура) | 29.03.2026 | Документация, схемы | Открытый S3 bucket |
| Claude Code (исходный код) | 03.04.2026 | Полный код тренировочного пайплайна | Небезопасный GitLab |
Самый дорогой пиар в истории
Теперь оцените иронию. Anthropic прославилась тем, что отказалась от $950 млн от Пентагона. Этот жест принёс ей репутацию и инвестиции на $150 миллиардов. Но что стоит эта репутация, если её поддерживает фасад, а за ним - бардак?
Пентагон, кстати, не забыл этот отказ. Теперь, когда объявил компанию угрозой, у него появился весомый аргумент: "Они не могут защитить свои технологии, как они могут отвечать за безопасность национального масштаба?"
В индустрии уже шепчутся: возможно, весь этот театр с этическими принципами был лишь маркетингом. Красивой обёрткой для привлечения инвестиций от тех, кто боится ИИ-апокалипсиса.
Что дальше? Прогноз, от которого не по себе
Ситуация развивается по худшему сценарию. Утечка кода Claude Code - это не конец истории. Эксперты по кибербезопасности предупреждают: теперь хакеры будут искать конкретные уязвимости, описанные в этом коде.
Вероятнее всего, мы увидим:
- Взломы копий Claude Code, развёрнутых по утекшим инструкциям
- Целенаправленные атаки на инфраструктуру Anthropic, использующие знание внутренней архитектуры
- Массовые увольнения в отделе безопасности - станут искать виноватых
- Судебные иски от клиентов, чьи данные могли быть скомпрометированы
Но самый страшный сценарий другой. Anthropic позиционировала себя как компания, которая создаёт безопасный ИИ. Если их собственные модели, созданные с утекшими safeguards, попадут в плохие руки - это будет не просто удар по репутации. Это станет аргументом для жёсткого регулирования всей индустрии.
Парадокс? Да. Компания, которая хотела показать, как нужно делать ответственный ИИ, может стать причиной того, что всем это делать запретят. Халатность, прикрытая громкими словами, всегда обходится дороже, чем открытая жадность конкурентов.
Совет для остальных игроков рынка? Перестаньте тратить миллионы на пиар об "этичном ИИ". Начните с базового - закройте свои GitLab'ы, настройте доступы, найдите толкового CISO. Безопасность - это не про красивые мантры на конференциях. Это про скучные, рутинные проверки. Которые Anthropic, судя по всему, считала ниже своего достоинства.