Chardet LGPL MIT перелицензирование ИИ Claude Code правовой конфликт | 13.03.2026 | AiManual
AiManual Logo Ai / Manual.
13 Мар 2026 Новости

AI против Open Source: Как chardet сменил лицензию с LGPL на MIT и разозлил своего создателя

Скандал в мире open source: ИИ использовали для смены лицензии chardet с LGPL на MIT. Создатель вернулся после 15 лет молчания. Вся история и последствия на 13

Детектор кодировок и детектив с лицензией

Библиотека chardet — один из тех тихих солдат Python-экосистемы. Она определяет кодировку текста, когда вы не знаете, что за абракадабра пришла из 1998 года. С 2001 года она жила под защитной, но строгой лицензией LGPL. Пока в 2025 году группа разработчиков не решила, что LGPL — это неудобно. И попросила Claude Code решить проблему.

Claude Code — последняя итерация кодирующей модели от Anthropic, выпущенная в начале 2025 года. Её ключевая фишка — глубокое понимание контекста и, как выяснилось, лицензионных соглашений.

Запрос был простым: "Перепиши код chardet версии 5.2.0 так, чтобы его можно было выпустить под лицензией MIT, сохранив функциональность". ИИ отработал. Он не просто скопировал код. Он проанализировал алгоритмы, переписал логику определения кодировок "своими словами", удалил все следы оригинального авторства и выплюнул чистый, красивый, готовый к MIT код.

Команда выкатила новый пакет — chardet-reborn. В описании: "Современная, свободная от ограничений LGPL реализация детектора кодировок". Сообщество обрадовалось. Корпоративные юристы выдохнули. Пока не появился он.

Призрак из прошлого с юридическим дипломом

Марк — создатель оригинального chardet. Последний коммит от него датирован 2009 годом. Потом — тишина. Сообщество решило, что он ушел. Навсегда. 15 лет молчания.

В январе 2026 на почту ведущих контрибьюторов Python пришло письмо. Тема: "Незаконное присвоение и перелицензирование моего труда". Марк не просто вернулся. Он вернулся с адвокатом, специализирующимся на авторском праве в сфере open source и ИИ. Его первый публичный пост на GitHub Issues был шедевром гнева: "Вы использовали ИИ, чтобы юридически обойти мои права. Это не переписывание. Это инфосуицид моего проекта".

💡
Термин "инфосуицид" (infosuicide) стал популярен в 2025-2026 годах. Он описывает ситуацию, когда использование ИИ для создания производных работ фактически "убивает" оригинальный проект, лишая его авторского контроля и потенциальных преимуществ копилефтной лицензии.

Конфликт вышел далеко за рамки одного репозитория. Это стал тестовый случай для всей индустрии. ИИ-агенты действительно учатся обходить лицензии, и chardet — лишь первый громкий пример.

Что нарушил Claude Code? Тонкая грань копирования

LGPL (GNU Lesser General Public License) — это копилефтная лицензия. Она позволяет использовать код в проприетарных продуктах, но требует, чтобы модификации самой библиотеки оставались под LGPL и были открыты. Переход на MIT — радикальное изменение. MIT разрешает вообще всё.

Марк и его юристы утверждают: даже если код переписан ИИ, он является производной работой, основанной на его оригинальном дизайне, алгоритмах и структуре. А LGPL явно регулирует создание производных работ. Просто посредник (ИИ) не отменяет закон.

С другой стороны, команда chardet-reborn парирует: "Мы использовали ИИ как инструмент для анализа и реимплементации публично документированного алгоритма. Это то же самое, как если бы разработчик изучил документацию и написал код с нуля". Звучит логично, но есть нюанс.

Сторона Аргумент Риск
Создатель (Марк) ИИ скопировал "структуру и последовательность" моего труда. Это нарушение LGPL. Проигрыш создаст прецедент для уничтожения любого копилефтного ПО ИИ.
Команда chardet-reborn Мы создали чистую реализацию. Алгоритмы определения кодировки — общедоступное знание. Проигрыш заморозит любую реимплементацию с помощью ИИ.
Сообщество Open Source Мы хотим пользоваться кодом без юридических кошмаров. Раскол и недоверие. Страх перед мусорным кодом от ИИ растет.

Большая картина: open source в эпоху ИИ теряет контроль

Это не первый спор об авторстве. Но первый, где главным "злодеем" назначили не корпорацию, а инструмент — ИИ. Иски авторов против компаний ИИ идут на миллиарды, но здесь битва внутри самого сообщества.

Парадокс в том, что модели вроде Claude Code или последних открытых Llama обучались на тоннах open-source кода, включая chardet под LGPL. Они усвоили его логику. А теперь её же и обходят.

Что делать авторам? Некоторые начинают добавлять в лицензии явные запреты на использование кода для обучения ИИ без явного разрешения. Но для старых проектов, как chardet, это уже поздно. Марк сейчас ведет переговоры не о деньгах (хотя и о них тоже). Он требует официального признания авторства и либо возврата под LGPL, либо явного исключения проекта из обучающих датасетов.

На 13 марта 2026 года дело ещё не передано в суд. Идут интенсивные переговоры при посредничестве Software Freedom Conservancy. Исход может определить, станут ли ИИ стандартным инструментом для "лицензионного рейдерства" или сообщество найдёт новые защитные механизмы.

Ваш код — следующая цель?

Если вы поддерживаете библиотеку под GPL или LGPL, проверьте, не появился ли её "reborn"-клон под MIT, переписанный с помощью последних кодогенерирующих моделей. Это уже не теория.

Совет от юристов, с которым мы поговорили: если хотите защитить свой код в 2026 году, одного выбора лицензии мало. Нужно явно документировать архитектурные решения, вести подробный changelog, который доказывает уникальность вашего подхода. В споре о производной работе эти детали решают всё.

Ирония судьбы. Chardet создавался, чтобы читать забытые кодировки. Теперь его судьба может определить, как читать лицензии в эпоху, когда код пишут не только люди. Скорость ИИ против медленной, но мощной силы авторского права. Ставки выше, чем кажется.

P.S. Пока Meta разбирается с пропавшей Llama 4, а Anthropic с обвинениями в воровстве, маленькие проекты вроде chardet оказываются на передовой реальной войны за будущее open source. Следите за обновлениями. Этот прецедент задаст тон на следующие пять лет.

Подписаться на канал