Poolside Laguna XS.2: 33B MoE модель с открытой лицензией Apache 2.0 | AiManual
AiManual Logo Ai / Manual.
28 Апр 2026 Инструмент

Poolside Laguna XS.2: возможности 33B MoE модели с открытой лицензией

Обзор Poolside Laguna XS.2 — открытой 33B MoE модели, сравнимой с Qwen 3.5. Агентские бенчмарки, примеры использования, сравнение с аналогами.

Не очередная "еще одна модель", а второй шанс для локальных агентов

Poolside (те, кто делают AI для программирования) выложили в открытый доступ Laguna XS.2. Это 33-миллиардная Mixture-of-Experts модель с лицензией Apache 2.0. Звучит как рядовой релиз? А вот не угадали. За этими сухими цифрами скрывается модель, которая на агентских задачах кладет на лопатки многие закрытые системы и при этом работает на железе, которое не требует продажи почки.

Суть: 33B параметров, из которых активны только ~8.2B (2 из 8 экспертов на каждом слое). Это как Mistral Small 4, только без французского шарма и с открытым исходником. Веса уже на Hugging Face, и вы можете скачать их прямо сейчас.

Зачем нам еще одна MoE? Затем, что Laguna XS.2 показывает результаты, сравнимые с Qwen 3.5, но при этом полностью свободна. Никаких ограничений на коммерческое использование. Никаких "research only". Apache 2.0 — бери и делай что хочешь.

В прошлой статье про Qwen3.5-4B Uncensored мы обсуждали, что даже 4B модель может быть опасна, но здесь — 33B с открытой лицензией. Чувствуете разницу? Открытая модель такого калибра — это инструмент, который можно адаптировать под свои задачи, в том числе под агентские сценарии. Poolside специально заточили ее под работу с инструментами и выполнение длинных цепочек действий.

Что под капотом и как это работает

Архитектура: 8 экспертов, 2 активных на токен (как в Mistral Small 4, кстати, мы писали о нем в обзоре Mistral Small 4). Но у Laguna XS.2 общее число параметров 33B, а активных — около 8.2B. Это означает, что инференс работает со скоростью модели 8B, а качество — как у плотной 30B. Неплохой компромисс?

Контекстное окно — 128K токенов. Этого хватает для анализа целого репозитория или написания большой PRD. Обучение велось на смеси кода и естественного языка, с упором на задачи, типичные для ассистента разработчика: генерация кода, рефакторинг, написание тестов, работа с git и терминалом.

Особенность: модель показывает выдающиеся результаты на SWE-bench Verified (агентные задачи по исправлению багов в open source проектах). По данным Poolside, Laguna XS.2 обходит Qwen 3.5 (сопоставимого размера) на ~5% и почти догоняет GPT-4o mini в агентском режиме. Но при этом работает на одном GPU.

Laguna vs. армия альтернатив

Кроме Qwen 3.5, есть с чем сравнивать. MiniMax M2.1 — тоже открытая, но 45B плотная, требует больше памяти. Liquid AI LFM2-2.6B — кроха, работает на CPU, но не тянет сложные сценарии. Laguna XS.2 — золотая середина: достаточно легкая, чтобы запустить на потребительской видеокарте с 24 ГБ VRAM (в кванте 4 бита), и достаточно мощная, чтобы конкурировать с топовыми моделями.

Например, в нашем материале про запуск MoE на 24 ГБ VRAM мы выяснили, что многие MoE модели влазят в этот бюджет. Laguna XS.2 — не исключение. С Q4 квантом она займет ~18 ГБ, оставляя место для контекста. Если у вас RTX 4090 или две 3090 — можно запускать в FP16 и получить полную скорость.

Как попробовать самому (и не сойти с ума)

Веса на Hugging Face: poolside/laguna-xs-2. Стандартный пайплайн через transformers: загружаете модель с device_map='auto', токенизатор, передаете промпт и получаете ответ. Для ускорения используйте vLLM или llama.cpp.

Если вашей видеокарты не хватает — используйте квантованные версии от сообщества на Hugging Face. Или арендуйте GPU на специализированных площадках вроде Vast.ai — там можно найти инстанс с RTX 4090 за копейки.

Кому это реально нужно

Разработчикам, которые хотят собрать локального ассистента для кодинга без привязки к облаку. Исследователям, дообучающим модели на своих данных. LLM-энтузиастам, которые устали от "вы не можете использовать эту модель в продакшене".

Важно: модель не имеет встроенной цензуры (насколько это возможно), но и не агрессивно uncensored, как некоторые из списка в нашей статье про новейшие uncensored модели. Вы можете сами решить, как ее модерировать, через системный промпт.

Мой прогноз: Laguna XS.2 станет популярной основой для агентных фреймворков (вроде LangGraph, CrewAI). Сообщество быстро наклепает лор и дообучения под конкретные инструменты. Через полгода увидим десятки вариантов с разными суперспособностями.

Совет, который может показаться неочевидным: не смотрите на общее количество параметров. В MoE важны активные — 8.2B у Laguna XS.2. Это меньше, чем у Mistral Small 4 (20B активных), но за счет лучшего обучения она может быть не менее эффективна. А с открытой лицензией — вы не заложник производителя.

Подписаться на канал