Забудьте про облака. Ваш iPhone теперь всё умеет сам
Представьте: вы в самолете, в метро без связи или просто не хотите, чтобы ваши промпты улетали в OpenAI. Вам нужна нейросеть. Раньше это означало «извините, нет сети». Теперь — достаточно открыть Lekh AI.
Это приложение для iOS, которое превращает ваш телефон в автономную ИИ-станцию. Большие языковые модели (LLM), генерация изображений Stable Diffusion, синтез речи (TTS) — всё работает локально. Без API-ключей, без ежемесячных подписок, без отправки данных куда-либо. Просто скачали модель — и она ваша.
Что умеет эта штука? Всё, что вы ожидаете от ИИ, но в кармане
- Чат с LLM: Поддерживает модели из каталога Hugging Face
mlx-community. Qwen2-7B, Llama 3.2, Gemma 2 — выбирайте на вкус. Контекст до 32К токенов. - Мультимодальность: Есть модели с зрением, вроде Qwen2-VL или Llama 3.2 Vision. Загрузите фото — получите описание, анализ или ответ на вопрос по изображению.
- Генерация изображений: Stable Diffusion 1.5 и XL работают прямо на устройстве. Не ждите скорости RTX 4090, но картинка в 512x512px рождается за пару минут.
- Синтез речи (TTS): Превращает текст в голос. Не такой навороченный, как Sonya TTS, но для базовых задач хватает.
- Обработка документов: Загрузите PDF — приложение извлечет из него текст и отправит в LLM для анализа, суммаризации или перевода.
- Замена моделей на лету: Устали от одной LLM? Переключитесь на другую без перезагрузки приложения.
Lekh AI против всех: кто в королевстве локального ИИ?
На рынке оффлайн-ИИ для мобильных устройств не так уж много игроков. Вот как Lekh AI выглядит на их фоне.
| Инструмент | Платформа | Ключевая фишка | Где проигрывает Lekh AI |
|---|---|---|---|
| Lekh AI | iOS | Всё в одном: LLM + SD + TTS на MLX | Только Apple экосистема |
| Swift Transformers | iOS/macOS | Библиотека для разработчиков | Нет готового приложения для пользователей |
| llama.cpp на Android | Android | Высокая скорость, много моделей | Только LLM, сложная настройка |
| Ollama | ПК (macOS/Linux/Win) | Простота, огромная библиотека моделей | Не для мобильных, только LLM |
Главный козырь Lekh AI — универсальность. Не нужно скачивать три разных приложения для чата, рисования и озвучки. Всё в одной оболочке, оптимизированной под железо Apple.
Внимание на размеры: Модели занимают место. Llama 3.2 3B — это около 2 ГБ, Stable Diffusion XL — ещё 6-7 ГБ. Убедитесь, что на телефоне есть свободные 10+ ГБ, если планируете держать несколько моделей сразу.
Как начать? От установки до первой картинки
1Скачать и запустить
Lekh AI доступен в App Store. Устанавливаете как любое другое приложение. При первом запуске он предложит скачать базовые модели. Можно согласиться или пропустить и выбрать свои позже.
2Выбрать и загрузить модель
В разделе «Models» есть каталог. Он подключается к mlx-community на Hugging Face. Тапаете на понравившуюся модель (например, «Qwen2-7B-Instruct») — начинается загрузка. Учтите, что это делается по Wi-Fi, и файлы большие.
3Начать диалог или создать изображение
Всё готово. Переходите во вкладку «Chat», пишете промпт. Или в «Image», описываете сцену — «космонавт, кормящий кота на Луне, ретро-фото» — и ждете. Скорость генерации зависит от модели и мощности iPhone. На iPhone 15 Pro Max одна картинка SD 1.5 рождается за 1.5-2 минуты.
Для кого это? Сценарии, где Lekh AI бьёт точно в цель
- Путешественники и командировочные: Нет интернета в поезде или самолете? Переведите меню, придумайте план дня, сгенерируйте открытку для друзей. Всё локально.
- Конфиденциальные задачи: Обработка рабочих документов, медицинских записей, личных заметок. Данные никуда не уходят с устройства. Если вам близка тема приватности, как в Meeting transcription CLI, то Lekh AI — ваш выбор.
- Образование и исследования: Студент может анализировать PDF-учебники, готовить конспекты, генерировать иллюстрации для реферата без поиска картинок в сети.
- Разработчики и тестировщики: Нужно быстро прототипировать работу с локальной LLM на iOS? Lekh AI показывает, что возможно на MLX. Полезно перед тем, как погружаться в Swift Transformers.
- Художники и креативщики: Быстрый брейншторминг визуальных идей в дороге. Набросали эскиз текстом — получили референс.
Подводные камни, или Почему это не замена ChatGPT
Идеальных решений не бывает. У Lekh AI тоже есть свои «но».
- Скорость и размеры моделей: Самые мощные модели (70B параметров) на iPhone не запустить. Приложение работает с более легкими версиями (до 7-8B). Ответ генерируется не мгновенно, а с задержкой в несколько секунд.
- Качество генерации: Локальные Stable Diffusion уступают облачным аналогам в детализации и сложности сцен. TTS звучит как робот из 2000-х.
- Управление памятью: Если у вас iPhone с 64 ГБ памяти, выбор моделей будет сильно ограничен. Придется постоянно что-то удалять и загружать заново.
- Энергопотребление: Длительная генерация изображений или работа с большим контекстом сажает батарею заметно быстрее.
Это инструмент для конкретных ситуаций, а не для ежедневного хайпового использования. Он решает проблему доступности ИИ там, где интернета нет или им пользоваться не хочется.
Что дальше? Будущее в вашем кармане
Lekh AI — яркий признак тренда: ИИ покидает облака и переезжает на крайние устройства (edge computing). Это уже не эксперимент, а рабочий инструмент.
Следующий логичный шаг — распределенные вычисления между устройствами. Представьте, что ваш iPhone, iPad и Mac вместе обрабатывают одну большую модель. Что-то похожее уже тестируют в проектах вроде AI Doomsday Toolbox.
Совет напоследок: не пытайтесь сделать Lekh AI своим основным ИИ-ассистентом. Используйте его как специализированный инструмент для ситуаций «интернета нет, а надо». Скачайте одну LLM для текста (например, Qwen2-7B) и одну модель для изображений (Stable Diffusion 1.5). Этого набора хватит для 90% оффлайн-задач. А ваш ChatGPT пусть отдыхает где-то в облаках.