Liquid AI LFM2.5-350M: агенты на слабом железе | Обзор 2026 | AiManual
AiManual Logo Ai / Manual.
31 Мар 2026 Инструмент

Обзор модели Liquid AI LFM2.5-350M: агенты и инструменты на слабом железе

Обзор LFM2.5-350M: 350M параметров, <500MB после квантования, обучение на 28T токенах. Запуск на CPU и мобильных. Сравнение с Qwen3.5-0.8B.

Когда 350 миллионов параметров достаточно для агента

Представьте, что ваш умный домовой агент работает на процессоре от холодильника. Звучит как шутка, но Liquid AI выпустила LFM2.5-350M — модель, которая заставляет пересмотреть представления о минимальных требованиях для AI.

Всего 350 миллионов параметров, но обучение на 28 триллионах токенов. Это как взять гениального ребенка и заставить его прочитать всю библиотеку Конгресса. Несколько раз.

Цифры, которые не врут

Модель занимает меньше 500 мегабайт после 4-битного квантования. Для сравнения, Qwen3.5-0.8B требует в два раза больше памяти. И да, LFM2.5-350M обгоняет его в большинстве тестов на рассуждение.

МодельПараметрыРазмер (4-bit)Токены обучения
LFM2.5-350M350M~450 MB28T
Qwen3.5-0.8B800M~900 MB3T

Почему это работает? Секрет в данных

28 триллионов токенов — это не опечатка. Liquid AI использовала свой фирменный подход к обучению на огромных корпусах. Модель видела больше текста, чем любой человек за тысячу жизней.

В результате, LFM2.5-350M понимает контекст лучше, чем многие модели в 2-3 раза крупнее. Проверено на бенчмарках февраля 2026.

Агенты на минималках

Самое интересное — способность к инструментам и агентным циклам. Модель поддерживает структурированный вывод, что позволяет ей вызывать функции и обрабатывать результаты.

Хотите собрать команду агентов на одной видеокарте? LFM2.5-350M идеально подходит для архитектуры AI-фабрики. Она займет так мало памяти, что вы сможете запустить несколько экземпляров параллельно.

Не ждите от нее чудес в кодинге сложных систем. Но для простых задач автоматизации, анализа текста или чат-бота — более чем достаточно.

Как использовать? Проще некуда

Модель доступна на Hugging Face. Загрузите ее с помощью стандартных инструментов. Для квантования используйте библиотеки типа llama.cpp или Ollama. Или воспользуйтесь онлайн-сервисом OptimizeML.com для автоматического квантования.

Если не хотите возиться с квантованием, посмотрите Hugging Face Agents — они упрощают запуск локальных моделей.

Для развертывания в продакшене, рассмотрите облачный сервис ModelDeploy.io, который специализируется на легких моделях.

Кому подойдет LFM2.5-350M?

  • Разработчикам мобильных приложений: встройте AI в апп без серверов. Модель работает на процессорах Android и iOS.
  • Энтузиастам умного дома: запустите агента на Raspberry Pi 4. Памяти хватит с запасом.
  • Стартапам с ограниченным бюджетом: не платите за GPU, используйте CPU. Модель эффективна даже на старых серверах.
  • Исследователям: изучайте, как маленькие модели справляются с большими задачами. Идеальная база для экспериментов.

Что в итоге? Маленький, но удалый

LFM2.5-350M не заменит GPT-4.5 или Claude 3.7. Но она открывает AI для устройств, которые раньше и мечтать не могли о локальных моделях.

Если вы хотите поэкспериментировать с другими компактными моделями Liquid AI, посмотрите LFM2-2.6B или LFM2.5 1.2B Instruct.

💡
Совет: если вам нужно снять ограничения с модели для некоммерческого использования, следуйте этому руководству.

Мой прогноз: к концу 2026 года такие модели, как LFM2.5-350M, станут стандартом для встроенного AI. Начните экспериментировать сейчас, чтобы не отстать.

Подписаться на канал