SkyDiscover: когда алгоритмы придумывают сами себя
В марте 2026 года открывать новые алгоритмы вручную - все равно что копать траншею ложкой. SkyDiscover 2.1 бросает вызов этому абсурду, превращая крупные языковые модели в машины для изобретения кода. Проект на GitHub skydiscover-ai за неделю собрал 4.8k звезд, и не просто так.
Создатели заявили, что их система превзошла закрытый AlphaEvolve от DeepMind на 217 бенчмарках. И выложили все в открытый доступ. Звучит как розыгрыш, но код работает.
На 03.03.2026 SkyDiscover 2.1 - последняя стабильная версия. Если скачиваете старый туториал с версией 1.x, вы зря тратите время. API полностью изменился.
Что он вообще умеет делать?
Фреймворк берет LLM (локальную или облачную) и заставляет ее генерировать, тестировать и эволюционировать алгоритмы. Не просто код, а именно алгоритмы - сортировки, оптимизации, методы машинного обучения.
- AdaEvolve - адаптивный эволюционный поиск, где LLM решает, какие мутации применить
- EvoX интеграция - работает с фреймворком для эволюционных алгоритмов как с бэкендом
- Мультимодальные промпты - можно кормить модель математическими формулами, псевдокодом и даже графиками
- Авто-валидация - каждый сгенерированный алгоритм тестируется на корректность и производительность
В теории это выглядит просто. На практике SkyDiscover обнаружил три новых алгоритма сортировки для частично упорядоченных массивов, которые работают на 15% быстрее Timsort. И сделал это за 72 часа на кластере из восьми RTX 5090.
AlphaEvolve vs SkyDiscover: битва закрытого и открытого
DeepMind выпустили AlphaEvolve в конце 2024 как проприетарную систему для открытия алгоритмов. Работала она блестяще, но стоил доступ как небольшой автомобиль. SkyDiscover вышел в феврале 2026 с простым тезисом: «Все, что умеет AlphaEvolve, но бесплатно и с открытым кодом».
| Критерий | SkyDiscover 2.1 | AlphaEvolve |
|---|---|---|
| Цена | Бесплатно (MIT License) | От $5000/месяц |
| Поддерживаемые LLM | Любые: GPT-5, Claude 3.7, Gemini 2.5, локальные (Llama 3.2, Qwen2.5) | Только внутренние модели DeepMind |
| Бенчмарки (на 03.2026) | 217 SOTA результатов | 204 SOTA результатов |
| Требования к железу | Можно запустить на ноутбуке с локальной LLM | Облачная инфраструктура DeepMind |
Главная фишка SkyDiscover - гибкость. Хочешь использовать локальную модель через llama.cpp или Ollama - пожалуйста. Предпочитаешь GPT-5 API - тоже работает. AlphaEvolve такой свободы не дает.
1 Установка: быстро и с подводными камнями
SkyDiscover написан на Python и требует версии 3.11+. Установка через pip простая, но есть нюансы с зависимостями.
# Клонируем репозиторий (актуально на 03.03.2026)
git clone https://github.com/skydiscover-ai/skydiscover.git
cd skydiscover
# Создаем виртуальное окружение
python -m venv venv
source venv/bin/activate # На Windows: venv\Scripts\activate
# Устанавливаем с поддержкой CUDA 12.4 (для RTX 40/50 серий)
pip install "skydiscover[cuda12]" -f https://download.pytorch.org/whl/torch_stable.html
# Или базовую установку для CPU
pip install skydiscover
Если видите ошибку с компиляцией EvoX - не паникуйте. Это известная проблема с некоторыми версиями компиляторов. Просто установите предкомпилированные wheels:
pip install evox-llm==0.8.5 --prefer-binary
2 Первый запуск: заставляем LLM изобретать
Базовый пример - поиск алгоритма для ускорения умножения матриц. SkyDiscover может использовать локальную модель через LM Studio или llama.cpp, но для начала возьмем OpenAI API.
import skydiscover as sd
from skydiscover.evolvers import AdaEvolve
# Настройка LLM бэкенда (актуальный API на март 2026)
llm_backend = sd.LLMBackend.openai(
model="gpt-5",
api_key="your_key_here",
temperature=0.7
)
# Создаем эволюционер с адаптивными мутациями
evolver = AdaEvolve(
backend=llm_backend,
population_size=50,
max_iterations=100,
problem_type="matrix_multiplication"
)
# Запускаем поиск алгоритма
result = evolver.discover(
objective="Minimize computation steps for 1024x1024 matrices",
constraints=["No Strassen algorithm variants", "Cache-aware"]
)
print(f"Найден алгоритм: {result.best_algorithm.name}")
print(f"Ускорение: {result.improvement:.2f}%")
Система будет генерировать, тестировать и скрещивать варианты алгоритмов. Через 2-3 часа вы получите работающий код на Python с тестами и бенчмарками. Если результат кажется бредовым - скорее всего, вы неправильно задали ограничения.
Реальные кейсы: где это уже работает
В исследовательских группах SkyDiscover используют не для абстрактных задач, а для конкретных проблем:
- Оптимизация запросов к базам данных - нашли новый алгоритм join ordering, который ускоряет сложные аналитические запросы на 18%
- Генерация loss-функций для нейросетей - создали три новых функции потерь для обучения GAN, которые стабилизируют тренировку
- Сжатие видео - обнаружили алгоритм предсказания кадров, который уменьшает битрейт H.266 на 12% без потерь качества
Самый неочевидный пример - команда использовала SkyDiscover для создания алгоритма балансировки нагрузки в микросервисной архитектуре. LLM сгенерировала решение, которое лучше справлялось с burst-трафиком, чем все человеческие разработки.
SkyDiscover не заменяет инженеров. Он заменяет ту часть работы, где нужно перебирать тысячи вариантов алгоритмов. Человек задает направление, ИИ - копает.
Кому это нужно? (Спойлер: не всем)
Если вы делаете очередной CRUD-сайт или мобильное приложение - SkyDiscover вам бесполезен. Это инструмент для:
- Исследователей алгоритмов - вместо месяцев ручного поиска можно пробовать тысячи идей автоматически
- Разработчиков компиляторов и баз данных - оптимизация низкоуровневых операций
- Команд машинного обучения - создание новых архитектур слоев или методов оптимизации
- Студентов компьютерных наук - для экспериментов с эволюцией алгоритмов (хотя тут нужно понимание основ)
Интеграция с другими open-source инструментами для LLM делает SkyDiscover универсальным. Можете подключить его к локальному серверу через Oobabooga или Jan AI и работать без интернета.
Темная сторона: что бесит в SkyDiscover
Идеальных инструментов не бывает. После недели работы с фреймворком понимаешь его недостатки:
- Документация отстает от кода - примеры для версии 2.0 не работают в 2.1, приходится рыться в issues
- Жрет память как не в себя - при работе с популяцией в 100 алгоритмов легко вылететь за 32 ГБ ОЗУ
- Слабые сандабоксы - сгенерированный код иногда пытается удалить файлы или сделать сетевые запросы
- Зависимость от качества LLM - с локальной моделью на 7B параметров результаты часто бредовые, нужны мощные модели
Последняя проблема решается использованием облачных моделей, но тогда теряется преимущество приватности. Для серьезных исследований в 2026 году лучше арендовать доступ к GPT-5 или Claude 3.7 через API.
Что будет дальше? Прогноз на 2027
SkyDiscover показал, что автоматическое открытие алгоритмов - не научная фантастика. Уже через год подобные системы станут стандартным инструментом в исследовательских лабораториях. Проблема в том, что они требуют огромных вычислительных ресурсов.
Мой прогноз: к середине 2027 года появятся специализированные облачные сервисы, которые будут предлагать "Algorithm Discovery as a Service". Вы загружаете описание проблемы, платите за время GPU, и получаете новый алгоритм. SkyDiscover же останется выбором для тех, кто хочет контроля над процессом и не боится возиться с настройкой.
Совет для первых экспериментов: не пытайтесь сразу открыть новый алгоритм для квантовых вычислений. Начните с малого - оптимизации простой операции, которую вы хорошо понимаете. Так вы почувствуете, как фреймворк думает, и сможете лучше направлять его поиск.
А самое главное - сохраняйте сгенерированные алгоритмы в репозиторий. Через год, когда выйдет SkyDiscover 3.0, сможете заново запустить поиск и посмотреть, насколько улучшились результаты. Это и есть настоящее исследование.