Когда 350 миллионов параметров достаточно для агента
Представьте, что ваш умный домовой агент работает на процессоре от холодильника. Звучит как шутка, но Liquid AI выпустила LFM2.5-350M — модель, которая заставляет пересмотреть представления о минимальных требованиях для AI.
Всего 350 миллионов параметров, но обучение на 28 триллионах токенов. Это как взять гениального ребенка и заставить его прочитать всю библиотеку Конгресса. Несколько раз.
Цифры, которые не врут
Модель занимает меньше 500 мегабайт после 4-битного квантования. Для сравнения, Qwen3.5-0.8B требует в два раза больше памяти. И да, LFM2.5-350M обгоняет его в большинстве тестов на рассуждение.
| Модель | Параметры | Размер (4-bit) | Токены обучения |
|---|---|---|---|
| LFM2.5-350M | 350M | ~450 MB | 28T |
| Qwen3.5-0.8B | 800M | ~900 MB | 3T |
Почему это работает? Секрет в данных
28 триллионов токенов — это не опечатка. Liquid AI использовала свой фирменный подход к обучению на огромных корпусах. Модель видела больше текста, чем любой человек за тысячу жизней.
В результате, LFM2.5-350M понимает контекст лучше, чем многие модели в 2-3 раза крупнее. Проверено на бенчмарках февраля 2026.
Агенты на минималках
Самое интересное — способность к инструментам и агентным циклам. Модель поддерживает структурированный вывод, что позволяет ей вызывать функции и обрабатывать результаты.
Хотите собрать команду агентов на одной видеокарте? LFM2.5-350M идеально подходит для архитектуры AI-фабрики. Она займет так мало памяти, что вы сможете запустить несколько экземпляров параллельно.
Не ждите от нее чудес в кодинге сложных систем. Но для простых задач автоматизации, анализа текста или чат-бота — более чем достаточно.
Как использовать? Проще некуда
Модель доступна на Hugging Face. Загрузите ее с помощью стандартных инструментов. Для квантования используйте библиотеки типа llama.cpp или Ollama. Или воспользуйтесь онлайн-сервисом OptimizeML.com для автоматического квантования.
Если не хотите возиться с квантованием, посмотрите Hugging Face Agents — они упрощают запуск локальных моделей.
Для развертывания в продакшене, рассмотрите облачный сервис ModelDeploy.io, который специализируется на легких моделях.
Кому подойдет LFM2.5-350M?
- Разработчикам мобильных приложений: встройте AI в апп без серверов. Модель работает на процессорах Android и iOS.
- Энтузиастам умного дома: запустите агента на Raspberry Pi 4. Памяти хватит с запасом.
- Стартапам с ограниченным бюджетом: не платите за GPU, используйте CPU. Модель эффективна даже на старых серверах.
- Исследователям: изучайте, как маленькие модели справляются с большими задачами. Идеальная база для экспериментов.
Что в итоге? Маленький, но удалый
LFM2.5-350M не заменит GPT-4.5 или Claude 3.7. Но она открывает AI для устройств, которые раньше и мечтать не могли о локальных моделях.
Если вы хотите поэкспериментировать с другими компактными моделями Liquid AI, посмотрите LFM2-2.6B или LFM2.5 1.2B Instruct.
Мой прогноз: к концу 2026 года такие модели, как LFM2.5-350M, станут стандартом для встроенного AI. Начните экспериментировать сейчас, чтобы не отстать.