Май 2026 года запомнится не только выходом очередной версии GPT, но и тектоническим сдвигом в open-source. Два казалось бы, далёких друг от друга сообщества — поклонники системного языка Zig и гигантская экосистема JVM (Java, Kotlin, Scala) — одновременно ввели официальный запрет на коммиты, сгенерированные искусственным интеллектом без ручного ревью. Это не просто мемная война с ChatGPT. Это — первый звонок того, что индустрия устала расхлёбывать последствия AI-кода.
Что именно запретили? Спойлер: не сам AI, а лень
Давайте сразу без истерики. Никто не отключает Copilot и не запрещает Claude писать функции. Суть нового правила, которое Zig core team и JVM-сообщества (в лице мейнтейнеров Apache, Eclipse и OpenJDK) приняли в апреле-мае 2026, предельно проста:
- Любой код, полностью или в значительной мере написанный AI-моделью, должен пройти полноценное code review с подтверждением, что ревьювер понимает каждую строчку.
- Коммиты без авторства человека (то есть когда разработчик просто скопировал ответ нейросети) — отклоняются автоматически.
- Запрещены AI-сгенерированные сообщения к коммитам — та самая магия, когда нейросеть пишет "fix: optimize loop for better performance", а по факту меняет одну переменную.
Звучит логично? В теории — да. Но на практике это означает, что контрибьюторы, привыкшие "попросить GPT написать пулл-реквест", окажутся за бортом. И вот тут начинается самое интересное.
NB: JVM сообщество пошло ещё дальше — они ввели обязательную аннотацию @AI-Generated в git blame для любых строк, созданных ИИ. Если такой маркер отсутствует, мейнтейнер имеет право откатить коммит без обсуждения.
Почему именно Zig и JVM? У них разные мотивы
На первый взгляд, странно: Zig — молодой нишевый язык, который только набирает обороты, а JVM — мамонт с десятилетиями истории. Но их объединяет одна проблема: качество AI-кода скатилось до неприличия. И это не просто субъективное нытьё старых сеньоров.
1 Zig: безопасность памяти под ударом
Zig позиционируется как более безопасная альтернатива C — с ручным управлением памятью, но без неопределённого поведения. Проблема в том, что AI-модели (даже самые свежие Claude 5 и GPT-6) генерируют Zig-код, который выглядит правильно, но содержит тонкие баги с утечками памяти и use-after-free. Мейнтейнер Zig Эндрю Келли публично заявил: "Мы тратим 40% времени ревью на исправление ошибок, которых не было бы, если бы код писал человек". Это убивает главное преимущество языка.
2 JVM: Франкенштейн из Java-классов
В JVM-мире другая беда. AI отлично пишет шаблонный код — геттеры, сеттеры, конфиги, маппинги. Но когда дело доходит до логики вроде транзакций, синхронизации потоков или корректной работы с GC — нейросети стабильно лажают. В марте 2026 года Apache Kafka чуть не получила регрессию производительности из-за AI-сгенерированного патча, который не учёл особенности JIT-компиляции. После этого совет OpenJDK и решил: хватит.
Как я писал в недавнем обзоре отношения разработчиков к AI-инструментам, эффективность действительно растёт, но тревога мейнтейнеров — тоже. И теперь тревога вылилась в конкретные действия.
Риски, которые не заметили менеджеры
Кто-то скажет: "Ну и что? Запретят — перестанут использовать чисто AI, будут редактировать руками". Но есть три риска, которые сообщества, кажется, недооценили.
Последствия, которые мы увидим уже через полгода
Я не гадалка, но тренд очевиден. Первое: запрет на AI-коммиты будет подхвачен и другими open-source проектами. Linux kernel уже обсуждает аналогичную политику. Второе: появятся плагины для CI/CD, которые автоматически детектят AI-сгенерированный код (по стилю, частоте токенов, характерным паттернам) и отправляют его на дополнительное ревью. Третье: раскол сообществ. Часть разработчиков уйдёт в проекты, где AI разрешён (например, некоторые JavaScript-фреймворки вроде Next.js пока воздерживаются от запретов).
Забавно, что решения Anthropic отказаться от военных контрактов и их конфликт с open-source сообществом тоже привели к ужесточению политик — но уже с другой стороны. Если одни пытаются ограничить использование своего ИИ в оружии, то другие ограничивают использование чужого ИИ в своём коде. Симметрия какая-то.
Кстати, о безопасности: проблемы AI — не только в коде. Недавние инциденты с Grok и CSAM показывают, что модели могут генерировать опасный контент даже случайно. А уж если они систематически плодят некорректный код для критической инфраструктуры — последствия могут быть куда серьёзнее.
Что делать разработчику? Три совета
Я не буду говорить "откажись от AI". Это глупо. Вместо этого:
- Не отправляй AI-код без ревью. Даже если ты сеньор, нейросеть может подложить свинью. Пропусти через себя каждую строчку.
- Пиши сообщения к коммитам руками. Это мелочь, но мейнтейнеры считывают AI-стиль мгновенно.
- Следи за политиками сообществ. То, что сейчас запрещено в Zig, завтра может быть нормой в Rust. И наоборот.
Возможно, через год мы будем с ностальгией вспоминать 2025-й — золотой век, когда можно было воткнуть промпт в ChatGPT и получить пулл-реквест, который мержили, даже не читая. Но лично мне кажется, что это к лучшему. Код — это ответственность. И если мы перекладываем её на нейросеть, мы перестаём быть инженерами.