Gemma 3 270M тест: запуск на CPU, сравнение с Granite 4.0 Nano, Ollama | AiManual
AiManual Logo Ai / Manual.
11 Янв 2026 Инструмент

Gemma 3 270M: Тестирование самой маленькой модели семейства на потребительском железе

Полный обзор Gemma 3 270M. Как запустить на слабом ноутбуке, тесты скорости, сравнение с Granite 4.0 Nano и LFM2.5. Кому подойдет самая компактная модель Google

Маленький, да удаленький? Встречаем лилипута

Пока все обсуждают монстров на триллион параметров, Google тихо выпустила модель, которая помещается в карман. Gemma 3 270M — это не просто самая маленькая в семействе. Это эксперимент. Можно ли создать хоть сколько-нибудь полезный ИИ, который будет работать на процессоре десятилетней давности?

Я скачал эту крошку и устроил ей стресс-тест на своем старом ноутбуке с i5 восьмого поколения. Без видеокарты. Без 32 ГБ оперативки. Только чистая математика на CPU. Результаты удивили даже меня.

💡
Gemma 3 270M занимает всего ~500 МБ в формате Q4_K_M. Для сравнения: одна игра из Steam среднего размера — 40-50 ГБ. Эта модель легче обоев для рабочего стола.

Запускаем за 5 минут: Ollama против LM Studio

Самый быстрый способ познакомиться с моделью — через Ollama. Одна команда в терминале, и через пару минут у вас работает локальный чат.

Но есть нюанс. Стандартная команда ollama run gemma3:270m скачивает версию с квантованием Q4_0. Она работает, но можно лучше. Я рекомендую сразу использовать более агрессивное квантование — Q4_K_M. Разница в качестве почти незаметна, а скорость вырастает на 15-20%.

Не используйте полную версию модели без квантования. Она весит ~1 ГБ и работает в разы медленнее. На потребительском железе это бессмысленно.

Второй вариант — LM Studio. Графический интерфейс, выбор модели в два клика, настройка параметров генерации. Идеально для тех, кто боится терминала. Но будьте готовы к тому, что LM Studio более прожорлив к оперативной памяти.

Цифры не врут: тест производительности

Я замерил скорость генерации на трех устройствах:

Устройство Токенов/сек Загрузка CPU Потребление RAM
Intel i5-8250U (ноутбук 2017) 12-15 85-95% ~1.2 ГБ
Apple M1 MacBook Air 45-55 60-70% ~1.1 ГБ
Raspberry Pi 5 (8 ГБ) 2-4 100% ~900 МБ

12-15 токенов в секунду на восьмилетнем ноутбуке — это не скорость света. Но это читабельно. Вы задаете вопрос, пьете кофе, и через 10-15 секунд получаете ответ. Для сравнения: Granite 4.0 Nano 350M от IBM на том же железе дает 8-10 токенов в секунду. Gemma 3 быстрее.

Что умеет, а что нет: тест способностей

Не ждите от 270 миллионов параметров чудес. Это не Gemini 3 Flash. Это инструмент для конкретных задач.

Хорошо получается:

  • Перефразирование текста ("сделай это короче", "перепиши официальным языком")
  • Извлечение ключевых слов и сути из абзаца
  • Простейшая классификация ("это позитивный или негативный отзыв?")
  • Генерация шаблонных ответов (приветствия, простые инструкции)

Проваливает с треском:

  • Сложные цепочки рассуждений (забудьте про темную цепочку мыслей)
  • Математические вычисления (считает как калькулятор с севшей батарейкой)
  • Кодогенерация (пишет синтаксически правильный, но логически бессмысленный код)
  • Фактологическая точность (часто галлюцинирует даты, имена, события)
💡
Gemma 3 270M — это не энциклопедия. Это быстрый препроцессор для текста. Используйте его для подготовки данных, а не для получения знаний.

Сравнение с конкурентами: кто кого?

На рынке микро-моделей сейчас три основных игрока:

Модель Параметры Скорость (i5-8250U) Качество текста Идеальное применение
Gemma 3 270M 270 млн 12-15 t/s Хорошая связность, слабая фактология Быстрая предобработка текста
Granite 4.0 Nano 350M 350 млн 8-10 t/s Лучше с кодом, хуже с диалогом Edge-устройства, простой код
LFM2.5 1.2B Instruct 1.2 млрд 4-6 t/s Намного умнее, но медленнее Когда качество важнее скорости

Выбор зависит от задачи. Нужна максимальная скорость на древнем железе — берите Gemma 3 270M. Нужно чуть больше ума и можно пожертвовать скоростью — LFM2.5 1.2B. Работаете с кодом на Raspberry Pi — Granite 4.0 Nano.

Кому действительно пригодится эта модель?

Gemma 3 270M — нишевый инструмент. Вот кто выжмет из него максимум:

  • Разработчики IoT-устройств. Модель помещается в микроконтроллер с 1 ГБ памяти. Голосовые команды, классификация сенсорных данных, простые диалоги.
  • Обладатели старых ноутбуков. Хотите попробовать локальный ИИ, но нет денег на новый компьютер? Вот ваш билет.
  • Исследователи. Эксперименты с дистилляцией знаний, обучение с нуля на небольших датасетах, тестирование архитектурных решений.
  • Преподаватели. Показать студентам, как работают трансформеры, без аренды GPU за $100 в час.

А вот кому не стоит тратить время:

  • Ждете замену ChatGPT. Не дождетесь.
  • Нужна генерация сложного кода. Модель справится только с hello world.
  • Хотите анализировать длинные документы. Контекстное окно есть, но понимания длинных текстов — нет.

Прогноз: что будет с микро-моделями через год?

Gemma 3 270M — это только начало. Google явно готовит почву для чего-то большего. Вспомните слухи о Gemma 3 с архитектурой MoE. Если они смогут упаковать экспертов в 2-3 миллиарда параметров с таким же потреблением памяти...

Через год мы увидим модели размером 500M-1B, которые по качеству будут на уровне сегодняшних 7B-моделей. Они будут работать на смартфонах в фоновом режиме. На умных часах. В автомобильных системах.

Gemma 3 270M — это proof of concept. Доказательство, что ИИ может быть крошечным. Не самым умным, но достаточно полезным, чтобы оправдать свое существование в самом неожиданном месте.

Совет напоследок: скачайте модель, запустите на самом слабом устройстве, которое найдете. Удивитесь, что оно работает. А потом представьте, что будет через пять лет, когда такие модели станут в сто раз умнее, сохранив тот же размер.