Инвесторы поставили крест на «умных болталках»
Помните 2024 год? Тогда казалось, что бизнес-план «берем GPT-4, добавляем красивый интерфейс — и вот вам стартап за $10 млн» работает. Сегодня, в апреле 2026, такие проекты закрываются пачками. Венчурные фонды вроде Sequoia и a16z публично заявляют: больше ни цента на «тонкие обертки» (thin wrappers). Деньги идут в другое место — в глубь.
Простой пример: сервис, который «улучшает» промпты для Midjourney, сгорел за месяц после того, как в самой Midjourney v7 (релиз январь 2026) встроили интеллектуальный конструктор запросов. Зачем платить посреднику, если базовая модель делает это сама?
Архитектурная агония универсальных монстров
Проблема GPT-5, Claude 3.5 Sonnet и им подобных не в том, что они глупые. Они слишком умные для всего и ничего конкретного одновременно. Запускаешь задачу по анализу юридического контракта — модель тратит 80% вычислительных ресурсов на то, чтобы вспомнить структуру договора, а не на поиск рискованных пунктов. Дорого. Медленно. Неуклюже.
Вот почему все громче говорят про латентное рассуждение и Sparse Autoencoders. Идея — заставить модель не перебирать все нейроны для каждой задачи, а активировать только специализированные «модули». Но крупные вендоры двигаются к этому мучительно медленно.
Восстание вертикальных спецов
Пока OpenAI и Anthropic соревнуются в размере контекстного окна, маленькие компании втихую захватывают ниши. В 2026 году успешный AI-стартап — это не приложение, а deeply specialized model.
- MediCode-Llama 3B: модель, обученная исключительно на медицинских протоколах и историях болезней. Точность диагностики поддержки — 94%, против 67% у GPT-5 с промптом «ты врач». И работает на одном GPU.
- FinAudit-Nova: система, которая не генерирует текст, а вычисляет аномалии в финансовых отчетах, используя нейросимвольный подход. Она не «думает» — она проверяет по правилам. Идеально для регуляторов. (Об этом же тренде — в статье «Вычислять, а не предсказывать»).
Оркестр вместо дирижера: хайп multi-agent прошел, началась работа
В 2025 все увлеклись созданием «команд агентов»: один планирует, другой гуглит, третий пишет код. Получилось красиво на демках, в реальности — хрупко и дорого. Каждый агент был той же LLM-оберткой, просто в профиль.
Сейчас тренд — гетерогенные распределенные системы. Вместо десяти одинаковых GPT-агентов — сборка из разных движков: детерминированный планировщик на алгоритмах, символьный решатель для логики, маленькая LLM для коммуникации с пользователем и, может быть, один большой трансформер для креативных задач. Такая система не «общается» — она распределяет работу по оптимальным инструментам. Как в настоящей инженерии. Реальная польза multi-agent именно в этом.
Кто уже выигрывает от этого сдвига?
Посмотрите на Arcee AI. Они не тренируют огромные базовые модели. Они берут открытые Llama 3.2 или Mistral 2.5 и дообучают их на узких корпусах данных для конкретных индустрий. Клиент платит не за параметры, а за точность. Их выручка в 2025 выросла на 300%.
Или вспомните Яна ЛеКуна и его AMI Labs. Его команда вообще ушла от языкового моделирования в чистом виде. Они строят «мировые модели» (world models) — системы, которые учатся не на текстах, а на смоделированных физических взаимодействиях. Это другой фундамент.
| Тип решения | Пример 2024 | Пример 2026 | Разница |
|---|---|---|---|
| Юридический анализ | ChatGPT с загруженным PDF | Neuro-Symbolic Contract Parser | Стоимость запроса упала в 50 раз, точность выросла |
| Генерация кода | GitHub Copilot (универсальный) | Rust-specific Coder (обучен только на коде Rust) | На 40% меньше ошибок borrow-checker |
| Креатив | DALL-E 3 для всех картинок | Сеть для генерации UI-скетчей (только скетчи) | Консистентность стиля гарантирована архитектурой |
Что делать, если вы все еще делаете обертку?
Паника — плохой советчик. Но и делать вид, что ничего не меняется, — путь в небытие.
1. Копните вглубь своей ниши. Ваш сервис помогает писать маркетинговые тексты? Перестаньте быть курьером между пользователем и GPT. Соберите уникальный датасет успешных кейсов, обучите на нем маленькую модель (например, на базе Qwen 2.5-7B) специфике вашей аудитории. Теперь вы продаете не доступ к API, а экспертизу.
2. Декомпозируйте задачу. Не пихайте один огромный промпт в Claude. Разбейте процесс на этапы и для каждого подберите или создайте оптимальный инструмент. Для классификации запроса — легкий классификатор. Для поиска информации — RAG с векторной БД. Для генерации ответа — маленькую, но точную модель. Это и есть распределенная система. Иерархия — антипаттерн, а самоорганизация работает лучше.
3. Ищите партнерства для данных, а не для моделей. Уникальность теперь в данных, а не в доступе к GPT-5. Договоритесь с отраслевой компанией об эксклюзивном датасете — это ваша новая moat (защитный ров).
Прогноз на 2027: рынок очистится, победит инженерия
Через год мы увидим четкое разделение. С одной стороны — инфраструктурные гиганты (OpenAI, Google, xAI), которые будут поставлять «сырую интеллектуальную мощность» в виде больших, но все более модульных моделей. С другой — россыпь вертикальных компаний, которые будут строить из этих «кирпичей» и своих собственных специализированных блоков готовые, надежные, экономичные продукты.
LLM-обертка умрет окончательно. Останутся инженерные системы, где AI — лишь один из компонентов, наряду с детерминированными алгоритмами, символьной логикой и, да, старым добрым кодом. Как сказал один архитектор из крупного банка: «ChatGPT был игрушкой. Теперь нам нужен инструмент. А инструменты делают под конкретную задачу».
Совет напоследок: если вы инвестор, смотрите на команды с глубокими domain knowledge и опытом в ML-инженерии, а не в prompt engineering. Если вы разработчик — учитесь не только работать с API, но и собирать, чистить данные, дообучать модели и проектировать гетерогенные системы. Эра простых решений закончилась. Начинается эра сложной, но куда более интересной работы.