Ещё один ассистент? Зачем, если есть Google?
Представьте, что ваш телефон понимает не только голос, но и прикосновения к экрану. Вы тапаете по уведомлению от мессенджера, и ASI тут же предлагает три варианта ответа, адаптированных под контекст переписки. Вы проводите пальцем по фотографии, а ассистент описывает, что на ней изображено, даже без интернета. Это не фантастика — это ASI, open-source проект, который запускает полновесную модель Gemma 3 прямо на вашем Android-устройстве.
Зачем это нужно? Потому что Google Assistant слушает всегда, Siri отправляет данные в облако, а Alexa превратила квартиру в филиал Amazon. ASI работает локально. Никаких запросов на серверы, никакой слежки, никакой зависимости от качества связи. Ваши разговоры, фотографии, сообщения — всё остаётся в памяти телефона.
На 14.03.2026 Gemma 3 остаётся одной из самых эффективных open-source моделей для edge-устройств. Её 12-миллиардная параметрическая версия, оптимизированная для CPU, показывает производительность, сравнимую с облачными аналогами двухлетней давности.
Что умеет ASI и как он это делает
Технически, ASI — это обёртка вокруг Gemma 3 с плагинами для сенсорного ввода. Разработчики не стали изобретать велосипед, а взяли лучшую из доступных локальных моделей и научили её понимать контекст жестов.
| Модуль | Технология (актуально на 14.03.2026) | Что делает |
|---|---|---|
| Ядро NLP | Gemma 3 (12B, квантованная 4-bit) | Понимает текст, генерирует ответы, анализирует контекст. Работает на CPU через llama.cpp |
| Сенсорный интерфейс | Кастомный Android Accessibility Service | Перехватывает жесты, анализирует активное окно, передаёт контекст модели |
| Визуальное восприятие | Интеграция с MediaPipe 2026 | Распознаёт объекты на скриншотах, текст в интерфейсах |
| Голос | Piper TTS (офлайн) | Синтезирует речь без подключения к интернету |
1 Контекст по тапу
Вы получаете сообщение: "Перенесём встречу на 17:00?". Обычный ассистент предложил бы стандартные ответы вроде "ОК" или "Не могу". ASI анализирует ваш календарь (локально, конечно) и генерирует: "В 17:00 у меня совещание с командой. Предложите 16:30 или 18:00?". Это работает потому, что модель получает не только текст сообщения, но и метаданные: от кого оно, в какое время, история переписки.
2 Жесты вместо команд
Длинное нажатие на статью в браузере → ASI делает суммаризацию. Свайп по фотографии в галерее → описание сцены и поиск похожих изображений. Двойное касание уведомления от банка → анализ траты и категоризация. Это не предустановленные действия, а интерпретация жестов моделью в реальном времени.
С чем конкурирует ASI? Таблица сравнения
На рынке локальных ассистентов пока пусто. Но есть облачные конкуренты и специализированные решения.
| Решение | Локальное? | Сенсорное восприятие? | Модель | Цена |
|---|---|---|---|---|
| ASI | Да, полностью | Да, основа фичи | Gemma 3 (open-source) | Бесплатно |
| Google Assistant | Нет, облако | Ограниченно | PaLM 3 / Gemini (закрытая) | Данные как валюта |
| Gemma Vision | Да | Нет (аудио/видео) | Gemma 3n | Бесплатно |
| AITunnel API | Нет, облачный шлюз | Нет | Разные, включая GPT-5 | Подписка |
| Beeper + локальный ИИ | Частично | Нет | Зависит от настройки | Сложно |
Главный козырь ASI — интеграция сенсорного контекста. Облачные ассистенты типа Google Assistant или те, что доступны через AITunnel, мощнее, но они не видят, что происходит на вашем экране в реальном времени. ASI видит. И не отправляет эти данные никуда.
Кому этот инструмент сломает мозг, а кому — привычный уклад
ASI не для всех. Это технически сырой проект, который требует ручной сборки из исходников на GitHub. Но если вы подходите под один из профилей ниже, он может изменить то, как вы взаимодействуете с телефоном.
- Параноики приватности. Те, кто удалил все приложения Google с телефона и шифрует каждый файл. ASI — логичный следующий шаг.
- Гики, уставшие от тупости ассистентов. Вы знаете, что ИИ может больше, чем просто ставить таймер. Вам надоело повторять "Окей, Google" по пять раз.
- Разработчики, которые хотят заглянуть в будущее. ASI — это тестовый полигон для интерфейсов следующего поколения, где жесты и контекст заменяют голосовые команды.
- Люди в зонах плохой связи. Если вы работаете в метро, летаете на самолётах или живете в деревне, где интернет — это роскошь.
Не ждите, что ASI заработает из коробки на вашем Samsung A14. Минимальные требования: Android 13+, 8 ГБ ОЗУ и процессор с поддержкой ARM v9.2. На слабых устройствах Gemma 3 будет думать по 10-15 секунд, что убивает всю магию.
Где скачать и что делать, когда скачали
Исходный код лежит на GitHub. Готовых APK нет — разработчики сознательно избегают Google Play, чтобы не нарушать политику доступа к Accessibility API. Установка выглядит так: клонируете репозиторий, собираете проект в Android Studio, подписываете APK, включаете отладку по USB и устанавливаете на телефон. Процесс не для слабонервных.
После установки нужно дать приложению разрешение на доступ ко всему (это пугает, но иначе сенсорное восприятие не заработает), загрузить веса модели Gemma 3 (примерно 7 ГБ в квантованном виде) и настроить плагины. На всё про всё у меня ушло около трёх часов. Результат? Иногда он глючит и не распознаёт жест. Иногда выдаёт бредовый ответ. Но когда работает — это чувствуется как прыжок в будущее.
Проекты вроде локальных мультимодальных ассистентов или решений от Sarvam AI показывают, что edge-ИИ набирает обороты. ASI — один из самых смелых экспериментов в этой области, потому что он пытается перепридумать не только движок, но и интерфейс.
Прогноз: умрёт ли ASI или изменит правила игры?
Шансы 50/50. Проект может заглохнуть через полгода, как сотни других open-source инициатив. Или его купит какой-нибудь вендор, интегрирует в свою оболочку для Android и выпустит под брендовым названием. Но самое интересное — если ASI выживет, он может создать новый стандарт для мобильных ассистентов: контекстные, приватные, работающие на устройстве.
Уже сейчас видно, что крупные игроки двигаются в эту сторону: у Google есть Expressive Captions и Call Screen, которые частично работают локально. Apple тихо развивает on-device Siri. ASI просто обгоняет их всех по радикальности подхода.
Мой совет? Если у вас есть флагманский Android 2024 года или новее — попробуйте собрать ASI. Не ради практической пользы (её пока мало), а ради понимания, как будет выглядеть следующий виток эволюции смартфонов. Когда ваш телефон начнёт предугадывать действия по жестам, вы поймёте, что голосовые команды — это вчерашний день. А облачные ассистенты — позавчерашний.