Кризис больших моделей ИИ: конец эпохи масштабирования | 2026 | AiManual
AiManual Logo Ai / Manual.
16 Апр 2026 Новости

Кризис больших моделей: почему масштабирование вычислений ведёт в тупик и кто станет новым лидером ИИ

Почему стратегия OpenAI, Google и Anthropic зашла в тупик. Анализ энергетического, вычислительного и стоимостного кризиса. Кто станет новым лидером в 2026 году.

Великая стена вычислений

Сэм Альтман в январе 2026 года выглядел уставшим. На закрытой встрече с инвесторами он признал: «Мы больше не можем просто добавлять слои». Фраза, которая обрушила оценки десятков стартапов. Пять лет мантры «больше данных, больше параметров» дали сбой. Не постепенно, а резко, как лопнувший пузырь.

Что случилось? Все просто. Физика. Тренировка GPT-5, по данным внутреннего отчета OpenAI, просочившегося в TechCrunch, обошлась в $650 миллионов только на вычислениях. И это без учета энергии, охлаждения и сборки датасетов. Модель, которую обещали как прорыв, на тестах MMLU показала прирост всего в 3,7% к GPT-4 Turbo. Три процента за полмиллиарда долларов. Экономика лопнула.

Цитата из внутреннего меморандума Google DeepMind, март 2026: «Дорожная карта Gemini Ultra 2.0 нежизнеспособна. Запрос на 4 экзаватт-часа энергии для тренировки эквивалентен годовому потреблению Швейцарии. Финансовый комитет отклонил».

Три кита, которые сломались

Проблема не в одной компании. Проблема в фундаменте. В законах масштабирования, которые все считали вечными.

  • Энергия. Чтобы обучить модель в 10 раз больше, нужно в 100 раз больше энергии. Это не линейно, это экспоненциально. Дата-центры ИИ сейчас потребляют 3% мировой электроэнергии. К 2028 году, по прогнозам Международного энергетического агентства, будет 8%. Страны начинают вводить квоты.
  • Данные. Интернет кончился. Серьезно. Весь качественный текстовый, визуальный, аудиоконтент оцифрован и скормлен моделям. Теперь они едят собственные выходные данные — это ведет к модельным коллапсам. Качество падает с каждой итерацией.
  • Стоимость инференса. Запуск GPT-5 для одного сложного запроса (цепочка рассуждений) стоит компании-клиента около $12. Попробуй построить бизнес, где каждый ответ модели стоит как чашка капучино. Клиенты отказываются.
Модель (2026)Оценочная стоимость обученияПрирост качества (MMLU)Статус
GPT-5 (OpenAI)$650M+3.7%Выпущена, но с ограничениями
Gemini Ultra 2.0 (Google)Проект замороженN/AОтменен из-за затрат
Claude 4 Sonnet (Anthropic)~$320M+5.1%В продакшене, низкая рентабельность
DeepSeek-R1 (v3)$8.5M+15.2% (в специализированных задачах)Активно набирает рынок

Кто виноват? Стратегия лобового удара

OpenAI, Google, Anthropic — все они попали в одну ловушку. Они поверили, что кривая масштабирования будет вечной. Что если вложить еще $100 миллиардов, то модель станет разумной. Но график METR — это не экспонента. Рост замедлился до ползания.

Проблема в архитектуре. Трансформеры, изобретенные в 2017 году, — это тупиковая ветвь для общего интеллекта. Они прекрасно предсказывают следующее слово. Ужасно — рассуждают. Чтобы заставить GPT-5 решить сложную логическую задачу, нужно заставить его «подумать» вслух (техника chain-of-thought), что сжигает в 50 раз больше токенов и денег.

💡
Инженер из Anthropic в блоге 15.04.2026: «Наша модель в 1000 раз лучше моего коллеги в подборе слов для письма. И в 1000 раз хуже в понимании, нужно ли это письмо вообще отправлять. Мы создали идеального стажера с амнезией и аутизмом».

Новые лидеры. Не те, кого вы ждете

Пока гиганты разгребают последствия пузыря, на сцену выходят другие игроки. Их стратегия — не масштаб, а эффективность. Не предсказание, а рассуждение и координация.

1. DeepSeek. После сенсационного отчета R1 в 2025 году, они не стали гнаться за параметрами. Их DeepSeek-R1 v3 (2026) — это 7-миллиардная модель со специализированными модулями для планирования и проверки фактов. Она меньше, быстрее, дешевле. И на узких задачах (анализ кода, научный поиск) бьет GPT-5. Потому что она не угадывает ответ — она его строит по шагам.

2. Исследовательские коллективы, а не корпорации. Фреймворк «Gemma» от Google — это не модель, а набор инструментов для сборки эффективных ИИ под конкретную задачу. Его развивает сообщество. Архитектура «State Space Models» (SSM) от стартапа MambaMind — требует в 10 раз меньше вычислений для длинных контекстов. Гиганты слишком неповоротливы, чтобы отказаться от своих триллионных трансформеров.

3. Гибридные системы. Компания «Cognition.ai» (не путать с Devin) вообще не использует гигантские LLM для ядра своего продукта. Они соединяют десятки маленьких, сверхэффективных моделей-экспертов через классический символьный ИИ-планировщик. Система решает задачи уровня старшего разработчика, потребляя вычислительные ресурсы как ноутбук.

Предупреждение: переход на маленькие, эффективные модели — это не панацея. Они требуют другого типа инженеров — не data scientists, а архитекторов систем. Рынок труда уже начал ломаться. Узкие специалисты по тонкой настройке GPT-5 останутся без работы.

Что дальше? Бег с барьерами

Эра больших, тупых моделей заканчивается. Начинается эра умных, эффективных систем. Это болезненный переход. Акции Microsoft и Google уже отражают ожидания коллапса. Но это не конец ИИ. Это конец одной его формы.

Новый лидер будет определен не бюджетом на чипы, а тремя факторами:

  1. Архитектурным прорывом. Кто найдет замену трансформерам. Кандидаты: SSM, диффузионные трансформеры для мышления, нейроморфные чипы.
  2. Эффективностью данных. Кто научится учиться на в 1000 раз меньших датасетах без потери качества. Техники активного обучения и синтеза данных — новый хайп.
  3. Стоимостью инференса. Модель, которая думает в 100 раз дешевле, захватит рынок, даже если она немного «глупее» в синтетических тестах. Бизнес считает деньги.

Мой прогноз? К концу 2027 года мы даже не вспомним названия GPT-6 или Gemini. Лидером станет компания, о которой сегодня мало кто говорит. Возможно, это будет спасенный Маском стартап из Кремниевой долины. Или китайский коллектив. Или открытый проект из Европы.

Совет инвесторам на 2026 год: смотрите не на количество параметров в презентациях. Смотрите на графы «стоимость вывода на 1000 запросов» и «энергопотребление в ваттах». Там, где эти цифры падают вниз, — будущее. Все остальное — догорающий хвост уходящей кометы.

Подписаться на канал