Cicikuş v2-3B: обзор модели 3B с Behavioral Consciousness Engine | 2026 | AiManual
AiManual Logo Ai / Manual.
07 Мар 2026 Инструмент

Cicikuş v2-3B: тестируем легкую модель с Behavioral Consciousness Engine

Тест модели Cicikuş v2-3B на базе Llama 3.2 3B. Behavioral Consciousness Engine, Secret Chain-of-Thought, 4.5 GB VRAM. Сравнение с Gemma 3 4B и MiniCPM-o-4.5.

Behavioral Consciousness Engine: новая магия или маркетинг?

Когда в очередном репозитории на Hugging Face видишь словосочетание «Behavioral Consciousness Engine», первая реакция — глаз начинает дергаться. Очередной модный термин для привлечения внимания? Но Cicikuş v2-3B, вышедшая в начале 2026 года, заставляет присмотриться внимательнее.

Это не просто еще один fine-tuned вариант Llama 3.2 3B. Авторы (или автор — судя по имени, турецкий энтузиаст) заявляют о двух ключевых фичах: том самом «движке поведенческого сознания» и технике Secret Chain-of-Thought (S-CoT). Если коротко — модель учится не просто отвечать, а имитировать внутренний монолог, процесс принятия решений. Ближайшая аналогия из нашего блога — «Тёмная цепочка мыслей» для Gemma 3 4B, но здесь подход зашит в саму архитектуру обучения.

💡
Behavioral Consciousness Engine (BCE) — это не отдельный модуль, а метод обучения, при котором модель генерирует скрытые «мысли» перед финальным ответом. Secret Chain-of-Thought — это эти самые мысли, которые пользователь не видит, но которые влияют на качество и последовательность вывода.

Жрет мало, но думает ли? Тесты на практике

Цифры сначала. 3.2 миллиарда параметров. Памяти нужно около 4.5 GB VRAM в 4-битном квантовании (GPTQ или GGUF). Запускается на одной видеокарте уровня RTX 3060 или даже на интегрированной графике с достаточным количеством оперативки. Это ее главный козырь.

Но размер — не главное. Как она справляется с задачами?

Мы прогнали ее через несколько сценариев:

  • Логические головоломки: Классические «A и B, но не C». Cicikuş v2-3B показывает результат выше среднего для своего класса. Ответы не просто угаданы, а содержат следы внутреннего рассуждения, если заглянуть в логи (да, S-CoT можно включить для отладки).
  • Генерация кода: На простые скрипты на Python реагирует адекватно. На сложные архитектурные задачи — ожидаемо пасует. Это не Qwen2.5-Coder-32B, и не стоит ждать чудес.
  • Ролевые сценарии: Вот здесь интересно. Модель, благодаря BCE, пытается вести себя «последовательно» в заданной роли. Мы не тестировали жесткие сценарии в духе Moral RolePlay, но легкий грим «помощного книжного магазина» она выдержала.

Важный нюанс: Secret Chain-of-Thought работает «под капотом». В обычном чат-режиме вы не видите этих размышлений. Чтобы их увидеть, нужно использовать специальный формат промпта или модифицировать код загрузки модели. Для рядового пользователя это просто черный ящик, который иногда выдает удивительно связные ответы.

С кем борется Cicikuş: альтернативы на ринге легких моделей

На рынке суб-5B моделей в 2026 году стало тесно. Каждая пытается выделиться. Давайте сравним Cicikuş v2-3B с основными конкурентами.

МодельПараметрыКлючевая фичаПримерный VRAM (4-bit)Сильная сторона
Cicikuş v2-3B3.2BBehavioral Consciousness Engine~4.5 GBСогласованность ответов, логика
Gemma 3 4B (2025)4BОптимизация от Google~5 GBБаланс и безопасность
MiniCPM-o-4.5B4.5BМультимодальность~6 GBРабота с текстом и изображениями
Falcon-H1-Tiny90MМикроскопический размер< 1 GBРабота на любом железе

Cicikuş не самая мощная в этой таблице. Gemma 3 4B, вероятно, переиграет ее в большинстве стандартных бенчмарков. Но дело в другом. BCE — это попытка решить проблему, о которой мы писали в статье про деградацию интеллекта в дистиллированных моделях. Когда модель маленькая, она часто выдает несвязную ересь. Cicikuş пытается эту связность сохранить через внутренний диалог.

Кому эта птичка подойдет? (А кому – нет)

Представьте, что вам нужен локальный AI-ассистент для простых задач, но вы ненавидите, когда он несет околесицу. Вы готовы пожертвовать мощностью ради предсказуемости. Тогда Cicikuş v2-3B — ваш кандидат.

Идеальный пользователь:

  • Энтузиаст, который хочет потестировать новую архитектуру обучения на своем слабом GPU.
  • Разработчик, которому нужен легкий, относительно стабильный движок для генерации несложного контента или диалогов в игрушке.
  • Исследователь, изучающий методы улучшения когерентности в маленьких моделях.

Бегите мимо, если вам нужно:

  • По-настоящему сложное рассуждение или анализ кода. Тут даже BCE не поможет — не хватит параметров.
  • Мультимодальность. Берите MiniCPM-o-4.5.
  • Работа в режиме «вопрос-ответ» на гигабайтах текста. Для этого есть более специализированные модели.

Скачать модель можно на Hugging Face. Ищите репозиторий с названием «Cicikus-v2-3B». Для загрузки и запуска рекомендуем использовать последнюю версию библиотеки transformers (актуальную на 07.03.2026) или популярные инструменты вроде LM Studio.

И что в итоге? Прогноз от скептика

Behavioral Consciousness Engine — это не прорыв уровня изобретения трансформера. Это элегантный хак, костыль, который пытается заставить маленькую модель притворяться большой. Но, черт возьми, иногда это работает.

Главный вопрос на 2026 год: станет ли этот подход мейнстримом для lightweight-моделей? Или его поглотит какая-нибудь крупная компания, запатентует и мы забудем? Пока же Cicikuş v2-3B — любопытный эксперимент, который стоит потраченных 4.5 гигабайт видеопамяти. Особенно если вы уже перепробовали все обычные дистилляты и хотите чего-то с «внутренним миром».

Мой совет? Не гонитесь за последним числом в бенчмарках. Скачайте, попробуйте поговорить с этой моделью на сложные этические темы. И обратите внимание на паузы между ответами. Возможно, именно в них и скрывается то самое «поведенческое сознание» — или просто хорошо прописанный скрипт.

Подписаться на канал