Великая стена вычислений
Сэм Альтман в январе 2026 года выглядел уставшим. На закрытой встрече с инвесторами он признал: «Мы больше не можем просто добавлять слои». Фраза, которая обрушила оценки десятков стартапов. Пять лет мантры «больше данных, больше параметров» дали сбой. Не постепенно, а резко, как лопнувший пузырь.
Что случилось? Все просто. Физика. Тренировка GPT-5, по данным внутреннего отчета OpenAI, просочившегося в TechCrunch, обошлась в $650 миллионов только на вычислениях. И это без учета энергии, охлаждения и сборки датасетов. Модель, которую обещали как прорыв, на тестах MMLU показала прирост всего в 3,7% к GPT-4 Turbo. Три процента за полмиллиарда долларов. Экономика лопнула.
Цитата из внутреннего меморандума Google DeepMind, март 2026: «Дорожная карта Gemini Ultra 2.0 нежизнеспособна. Запрос на 4 экзаватт-часа энергии для тренировки эквивалентен годовому потреблению Швейцарии. Финансовый комитет отклонил».
Три кита, которые сломались
Проблема не в одной компании. Проблема в фундаменте. В законах масштабирования, которые все считали вечными.
- Энергия. Чтобы обучить модель в 10 раз больше, нужно в 100 раз больше энергии. Это не линейно, это экспоненциально. Дата-центры ИИ сейчас потребляют 3% мировой электроэнергии. К 2028 году, по прогнозам Международного энергетического агентства, будет 8%. Страны начинают вводить квоты.
- Данные. Интернет кончился. Серьезно. Весь качественный текстовый, визуальный, аудиоконтент оцифрован и скормлен моделям. Теперь они едят собственные выходные данные — это ведет к модельным коллапсам. Качество падает с каждой итерацией.
- Стоимость инференса. Запуск GPT-5 для одного сложного запроса (цепочка рассуждений) стоит компании-клиента около $12. Попробуй построить бизнес, где каждый ответ модели стоит как чашка капучино. Клиенты отказываются.
| Модель (2026) | Оценочная стоимость обучения | Прирост качества (MMLU) | Статус |
|---|---|---|---|
| GPT-5 (OpenAI) | $650M | +3.7% | Выпущена, но с ограничениями |
| Gemini Ultra 2.0 (Google) | Проект заморожен | N/A | Отменен из-за затрат |
| Claude 4 Sonnet (Anthropic) | ~$320M | +5.1% | В продакшене, низкая рентабельность |
| DeepSeek-R1 (v3) | $8.5M | +15.2% (в специализированных задачах) | Активно набирает рынок |
Кто виноват? Стратегия лобового удара
OpenAI, Google, Anthropic — все они попали в одну ловушку. Они поверили, что кривая масштабирования будет вечной. Что если вложить еще $100 миллиардов, то модель станет разумной. Но график METR — это не экспонента. Рост замедлился до ползания.
Проблема в архитектуре. Трансформеры, изобретенные в 2017 году, — это тупиковая ветвь для общего интеллекта. Они прекрасно предсказывают следующее слово. Ужасно — рассуждают. Чтобы заставить GPT-5 решить сложную логическую задачу, нужно заставить его «подумать» вслух (техника chain-of-thought), что сжигает в 50 раз больше токенов и денег.
Новые лидеры. Не те, кого вы ждете
Пока гиганты разгребают последствия пузыря, на сцену выходят другие игроки. Их стратегия — не масштаб, а эффективность. Не предсказание, а рассуждение и координация.
1. DeepSeek. После сенсационного отчета R1 в 2025 году, они не стали гнаться за параметрами. Их DeepSeek-R1 v3 (2026) — это 7-миллиардная модель со специализированными модулями для планирования и проверки фактов. Она меньше, быстрее, дешевле. И на узких задачах (анализ кода, научный поиск) бьет GPT-5. Потому что она не угадывает ответ — она его строит по шагам.
2. Исследовательские коллективы, а не корпорации. Фреймворк «Gemma» от Google — это не модель, а набор инструментов для сборки эффективных ИИ под конкретную задачу. Его развивает сообщество. Архитектура «State Space Models» (SSM) от стартапа MambaMind — требует в 10 раз меньше вычислений для длинных контекстов. Гиганты слишком неповоротливы, чтобы отказаться от своих триллионных трансформеров.
3. Гибридные системы. Компания «Cognition.ai» (не путать с Devin) вообще не использует гигантские LLM для ядра своего продукта. Они соединяют десятки маленьких, сверхэффективных моделей-экспертов через классический символьный ИИ-планировщик. Система решает задачи уровня старшего разработчика, потребляя вычислительные ресурсы как ноутбук.
Предупреждение: переход на маленькие, эффективные модели — это не панацея. Они требуют другого типа инженеров — не data scientists, а архитекторов систем. Рынок труда уже начал ломаться. Узкие специалисты по тонкой настройке GPT-5 останутся без работы.
Что дальше? Бег с барьерами
Эра больших, тупых моделей заканчивается. Начинается эра умных, эффективных систем. Это болезненный переход. Акции Microsoft и Google уже отражают ожидания коллапса. Но это не конец ИИ. Это конец одной его формы.
Новый лидер будет определен не бюджетом на чипы, а тремя факторами:
- Архитектурным прорывом. Кто найдет замену трансформерам. Кандидаты: SSM, диффузионные трансформеры для мышления, нейроморфные чипы.
- Эффективностью данных. Кто научится учиться на в 1000 раз меньших датасетах без потери качества. Техники активного обучения и синтеза данных — новый хайп.
- Стоимостью инференса. Модель, которая думает в 100 раз дешевле, захватит рынок, даже если она немного «глупее» в синтетических тестах. Бизнес считает деньги.
Мой прогноз? К концу 2027 года мы даже не вспомним названия GPT-6 или Gemini. Лидером станет компания, о которой сегодня мало кто говорит. Возможно, это будет спасенный Маском стартап из Кремниевой долины. Или китайский коллектив. Или открытый проект из Европы.
Совет инвесторам на 2026 год: смотрите не на количество параметров в презентациях. Смотрите на графы «стоимость вывода на 1000 запросов» и «энергопотребление в ваттах». Там, где эти цифры падают вниз, — будущее. Все остальное — догорающий хвост уходящей кометы.