Shinka Evolve: LLM и эволюционные алгоритмы для создания программ 2026 | AiManual
AiManual Logo Ai / Manual.
14 Мар 2026 Новости

Shinka Evolve: когда эволюционные алгоритмы и LLM рождают программы, которые пугают своих создателей

Разбор фреймворка Shinka Evolve из подкаста MLST: как эволюционные алгоритмы и LLM ведут открытый поиск программ. AlphaEvolve устарел, качественно-разнообразный

Подкаст MLST вскрыл нарыв: мы до сих пор не умеем искать программы

Вчерашний эпизод Machine Learning Street Talk не обсуждали в Twitter. Его анализировали шепотом в кулуарах NeurIPS 2026. Причина - демонстрация Shinka Evolve, фреймворка, который не генерирует код, а выращивает его через эволюцию с LLM в качестве мутаторов. Это не очередной Copilot. Это система, которая находит решения, о которых программисты не догадывались.

AlphaEvolve, хваленый фреймворк 2024 года для нейроэволюции, сегодня выглядит как паровоз рядом с гиперлупом. Он заточен на узкие задачи и требует ручной наградной функции. Shinka Evolve работает в open-ended режиме - ищет не просто хорошие, а качественно-разные программы.

Почему градиентный спуск проиграл эволюции в создании кода

Все современные LLM для кодогенерации - от GPT-5 до Claude 3.7 - обучены предсказывать следующий токен. Они экстраполируют паттерны из GitHub. А что если нужного паттерна нет? Вы получите красивую, синтаксически правильную галлюцинацию. Проблема выдуманных библиотек знакома каждому, кто пробовал GPT для сложных задач.

Эволюционные алгоритмы работают иначе. Они создают популяцию программ, оценивают их по нескольким метрикам (не только "работает/не работает"), скрещивают лучших и добавляют случайные мутации. В Shinka Evolve мутации - это не случайные изменения символов, а целенаправленные правки от LLM. Система просит GPT-5: "Вот программа X. Она делает Y, но медленно. Предложи 3 мутации, которые могут ускорить ее, сохранив функциональность".

💡
Качественно-разнообразный поиск (Quality-Diversity Search) - ключевая фишка Shinka. Система не ищет один оптимальный алгоритм для упаковки кругов в прямоугольник. Она находит десятки принципиально разных подходов: одни минимизируют пустое пространство, другие максимизируют скорость, третьи создают эстетически pleasing паттерны. Потом можно выбрать или скомбинировать.

Архитектура, которая бесит инженеров своей простотой

Типичная реакция: "Мы такую систему собирали на коленке в 2023". Но дьявол в деталях. Shinka Evolve использует три LLM одновременно:

  • Мутатор (GPT-5 или открытая модель типа Llama 3.2 405B) - предлагает осмысленные изменения программ
  • Критик (Claude 3.7 Sonnet) - оценивает разнообразие решений, предотвращает схождение к локальным оптимумам
  • Синтезатор (специализированная модель от Sakana AI) - комбинирует фрагменты из разных программ в популяции

Эволюционный цикл работает полностью автономно. Человек только задает начальную популяцию (или даже одну случайную программу) и критерии оценки. Через 1000 поколений вы получаете не "улучшенную версию начального кода", а радикально новые архитектуры. В демо на MLST показали алгоритм сортировки, который использует принципы fluid dynamics - такого нет ни в одном учебнике по алгоритмам.

Проблема, о которой не говорят создатели

Эволюционные алгоритмы требуют гигантских вычислительных ресурсов. Каждую программу нужно исполнить и оценить. Shinka Evolve пытается оптимизировать это через speculative execution и параллельный inference, но проблема остается. Один запуск на задаче средней сложности - это тысячи долларов на GPU.

Вторая проблема - интерпретируемость. Программы, рожденные эволюцией, часто выглядят как спагетти-код инопланетной цивилизации. Исследователи сравнивают LLM с биологическими организмами, а здесь мы имеем дело с цифровой эволюцией в чистом виде. Код работает, но понять почему - невозможно.

Задача Человеческое решение (скор) Shinka Evolve (скор) Что нашла эволюция
Упаковка кругов 0.94 (симуляция отжига) 0.97 Использует кватернионы для 3D rotation в 2D пространстве
Синтез SQL-запросов 87% правильных 93% правильных Генерирует временные VIEW для оптимизации, о которых не пишут в мануалах

Почему это важнее, чем очередной GPT-6

Пока OpenAI и Google соревнуются в размере контекстного окна (у GPT-5 уже 1M токенов, если верить утечкам), Shinka Evolve решает фундаментальную проблему: как находить решения за пределами обучающей выборки. GitHub превратился в свалку низкокачественного кода, и обучать на нем LLM - все равно что учить физику по комиксам.

Эволюционные подходы не зависят от данных. Они зависят от функции оценки. И это одновременно их сила и слабость: нужно точно определить, что такое "хорошая программа". В Shinka Evolve используют composition of critics - несколько LLM оценивают код с разных сторон: производительность, читаемость, безопасность, соответствие best practices.

Что будет дальше? Прогноз, который звучит как бред

Участники подкаста MLST намекнули на интеграцию Shinka Evolve с мировыми моделями (world models). Представьте: система не только генерирует код, но и симулирует его выполнение в виртуальной среде, предсказывая edge cases. Это перекликается с идеями Яна ЛеКуна о мировых моделях в AMI Labs.

К 2027 году мы увидим первые коммерческие применения: автоматическое нахождение уязвимостей через эволюцию эксплойтов, генерацию торговых алгоритмов для фондовых бирж, создание shader-кода для игр с уникальными визуальными эффектами. Звучит как научная фантастика, но ровно так же звучал GPT-3 в 2020.

Совет для разработчиков: не пытайтесь повторить Shinka Evolve на коленке. Вместо этого изучите принципы quality-diversity search и начните с малого - например, с эволюции промптов для ваших задач. Иногда небольшая случайность в запросе к LLM дает более интересные результаты, чем тщательно составленный промпт. Эволюция учит нас: разнообразие важнее совершенства.

Подписаться на канал