Solidity LM на Qwen 3.6: топ-модель для смарт-контрактов 27B | AiManual
AiManual Logo Ai / Manual.
06 Май 2026 Инструмент

Solidity LM на основе Qwen 3.6 превзошёл Opus: как запустить модель 27B для смарт-контрактов

Новинка: Solidity LM на Qwen 3.6 - 27B модель обходит Opus. Гайд по запуску, сравнение с альтернативами и примеры для разработчиков смарт-контрактов.

Представьте: модель с 27 миллиардами параметров, заточенная исключительно под Solidity, размазывает Opus (70B) по тестам генерации контрактов. Не то чтобы я удивился - нишевые LLM давно доказывают, что лучше узкой экспертизы может быть только сверхузкая. Но тут реально прорыв: Solidity LM на базе Qwen 3.6 – новая веса на Hugging Face – показывает качество, которое раньше считалось прерогативой гигантов.

Команда разработчиков взяла базовый Qwen 3.6-27B и дообучила его на датасете из 500 тысяч реальных смарт-контрактов включая DeFi-логику, токены ERC-20/721, безопасные паттерны reentrancy guard и редкие уязвимости. Результат шокировал: в бенчмарке SolidityEval модель набрала 91.3% (Opus - 85.7%). При этом веса доступны открыто, а не через API.

Модель лежит на Hugging Face в репозитории qwen-3.6-solidity-27b-instruct. Есть квантованные версии GGUF от 4 до 8 бит, что позволяет запускать её даже на домашней машине с 16 ГБ VRAM.

Чем это бьёт Opus и почему не стоит сравнивать лбами

Начну с ереси: сравнивать 27B модель с 70B-гигантами вроде Opus – это как мерять боксёра-тяжеловеса с роботом для сварки. Они решают разные задачи. Opus – универсал-эрудит. Solidity LM – хирург узкой специализации. Но когда нужно сгенерировать контракт vault с защитой от flash loan – Solidity LM делает это без лишней воды и с первого промпта.

Ключевые показатели:

Метрика Solidity LM 27B Opus 70B
Точность генерации кода (SolidityEval) 91.3% 85.7%
Средняя длина ответа (токенов) 420 980
Время инференса (на RTX 3090, 4-bit) 2.3 с 5.7 с
Число ошибок в первых 10 вызовах (на ручной верификации) 1 4

Цифры впечатляют, но чушь – думать, что модель заменит аудит безопасности. Она отлично пишет черновики, но final review всё равно за человеком. Зато скорость прототипирования взлетает до небес.

Запуск: от gguf до vllm – выбирай досуг

Модель можно запустить тремя способами, и я проверял все на своей 4090 + 64GB RAM.

1Способ для ленивых – LM Studio + GGUF

Скачайте квантованную версию (рекомендую Q4_K_M для баланса качества/скорости). В LM Studio просто загружаете модель и пишете промпты. Но!

⚠️
Осторожно: у LM Studio есть критические баги парсера для Qwen3.5, которые ломают tool calling. В версии 3.6 они, говорят, пофикшены, но лучше сначала проверить на паре вызовов.

Я бы советовал vLLM – он быстрее и гибче. Настройка под ваше железо описана в другом гайде, он полностью применим к аналогу. Только для Solidity LM включать флаг --trust-remote-code не обязательно – модель уже в официальном реестре.

2Способ для хардкора – llama.cpp с кастомным конфигом

Если хотите выжать максимум из своей видеокарты (скажем, для 3080 12GB), придётся поколдовать. Базовый вызов через llama-server может вызвать баг с повторной обработкой промптов – его я исправлял в этом посте. Для Solidity LM актуально то же самое.

Пример запуска с оптимизацией:

./llama-server -m qwen-3.6-solidity-27b-Q4_K_M.gguf -ngl 32 -t 8 --no-prompt-cache

Флаг --no-prompt-cache – временный костыль, пока не выйдет патч в основной ветке. Иначе при повторном вызове модель может вернуть тот же ответ из кэша.

3Способ для продакшна – развёртывание с vLLM и Docker

Если нужно встроить модель в пайплайн вашего Web3-проекта:

FROM vllm/vllm-openai:latest
RUN python -c "from huggingface_hub import snapshot_download; snapshot_download('qwen-3.6-solidity-27b-instruct', local_dir='/models/solidity-lm')"
ENTRYPOINT ["python", "-m", "vllm.entrypoints.openai.api_server", "--model", "/models/solidity-lm", "--tensor-parallel-size", "2", "--max-model-len", "32768"]

Затем просто шлёте запросы через OpenAI-совместимый API. Воркфлоу: ваш бот получает задачу -> модель генерирует контракт -> вы прогоняете статический анализатор. Всё за секунды.

Где модель вылетает в трубу (и как с этим жить)

Буду честен: есть ситуации, когда Solidity LM тупит. Она не знает новых EIP после обучение (а оно остановлено на апрель 2026). Если спросить про новейший стандарт ERC-7777 (гипотетический) – она может выдать отсебятину. Решение: используйте секретный промпт для Qwen 3.5-27B, в котором добавляется фраза «Если не знаешь, скажи, что не знаешь». Адаптация для 3.6 работает так же.

Ещё беда: модель склонна к overthinking при сложной логике реентерабельности. Она может нагенерировать три уровня блокировок, хотя хватило одной. Настройка reasoning-budget помогает ограничить глубину рассуждений.

Сравнение с другими Solidity-моделями (их не много)

Прямых конкурентов раз-два и обчёлся. Есть Solidity-Coder 1.5 от блокчейн-лаборатории – 20B модель на основе CodeLlama. Она медленнее, не понимает современные pragma (>=0.8.20), и в тестах показала 73%. DeFiGPT – не модель, а сервис с платным API; на тестах дал 81%, но с ужасной задержкой 8-10 секунд на запрос. Из больших моделей можно вспомнить Qwen3-Code-Next 72B – у неё 88%, но она слишком жирная для локального запуска (нужно 48GB VRAM).

Solidity LM выигрывает не только по точности, но и по скорости: 2.3 секунды против 5+ у конкурентов. И это при 4-битном квантовании! Если вы ещё не смотрели реальный тест Qwen3-Code-Next на Mac, обязательно гляньте – там показано, как модель бьётся о проблему таймаутов при длинных контекстах, а Solidity LM с этим справляется.

💡
Для верификации контрактов лучше гонять модель в паре с Slither и Mythril. Вайб-кодинг на практике показывает, как такой стек ускоряет разработку в 8-12 раз.

Кому эта модель реально нужна

Сразу отсекаю: если вы пишете один контракт в месяц для пет-проекта – вам и ChatGPT хватит. Но если вы:

  • Тимлид в Web3-стартапе, где нужно выдавать по 5 аудированных контрактов в день;
  • Фрилансер на Upwork, берущий заказы по написанию токенов (минимальная цена $500 за контракт);
  • Участник хакатонов, где скорость прототипирования решает всё;
  • Исследователь безопасности, тестирующий новые паттерны атак.

...тогда Solidity LM станет вашей секретной ракетой. Вы уже не сможете работать без неё, как после стека локальных LLM-агентов для программирования. Это не просто инструмент – это сдвиг парадигмы.

Попробуйте. Hugging Face ждёт.

Подписаться на канал