Миф о вечном росте
Сэм Альтман, лицо современного ИИ, неожиданно заговорил о пределах. О том, что у больших языковых моделей есть потолок. Это как если бы Илон Маск сказал, что у электромобилей закончится заряд. Звучит странно, учитывая, что OpenAI годами продавала нам историю экспоненциального роста.
Альтман не назвал конкретные цифры. Но его слова — первый публичный намек от лидера отрасли на то, что «чем больше, тем лучше» работает не бесконечно.
Три стены, в которые упрется ИИ
Давайте посмотрим на факты. Масштабирование моделей упирается в три фундаментальные проблемы:
- Данные. Весь интернет уже скормлен моделям. Повторное обучение на тех же данных дает убывающую отдачу. Новые данные генерируются медленнее, чем их съедают модели.
- Вычисления. Каждый новый шаг требует все больше ресурсов. Тренд, описанный в статье про «Закон уплотнения», показывает: мы приближаемся к физическим пределам чипов.
- Архитектура. Трансформеры, на которых построены все современные LLM, имеют фундаментальные ограничения. Они не умеют работать с логикой так, как это делает математика.
Что на самом деле сказал Альтман
В интервью TechCrunch Альтман осторожно заметил: «Мы видим, что увеличение параметров дает все меньший прирост качества». Он говорил о «точках убывающей отдачи» в масштабировании. Это не катастрофа. Это реализм.
А что инженеры? Они уже знают
В кулуарах конференций по машинному обучению об этом говорят уже год. Модели в 100 триллионов параметров? Технически возможно. Практически бессмысленно. Энергопотребление такого монстра превысит потребление средней европейской страны. А качество ответов вырастет на проценты, не на порядки.
| Поколение модели | Параметры | Прирост качества | Энергопотребление |
|---|---|---|---|
| GPT-2 (2019) | 1.5B | Базовый уровень | ~10 МВт·ч |
| GPT-3 (2020) | 175B | +300% | ~1 ГВт·ч |
| GPT-4 (2023) | ~1.7T | +50% | ~50 ГВт·ч |
| Гипотетический GPT-5 | ~10T | +10-15% (прогноз) | ~500 ГВт·ч |
Так что вместо масштабирования?
Индустрия уже ищет обходные пути:
- Специализация. Вместо одной гигантской модели — тысячи маленьких, заточенных под конкретные задачи. Пример: Chai Discovery для разработки лекарств.
- Гибридные системы. LLM + классические алгоритмы. Статья про гибридные вычисления мозга объясняет, почему это единственный путь к настоящему интеллекту.
- Альтернативные архитектуры. State Space Models, Mamba, RWKV — все это попытки уйти от трансформеров, которые требуют квадратичной памяти.
А как же сингулярность?
Вот здесь начинается самое интересное. Если у роста ИИ есть пределы, то идея технологической сингулярности (когда ИИ сам себя улучшает бесконечно) трещит по швам. Альтман, сам того не желая, подрывает один из главных нарративов своей же индустрии.
Вспомните скандал с GPT-5 и математическими задачами. Когда хайп столкнулся с реальными ограничениями архитектуры.
Ирония в том, что признание пределов роста может спасти ИИ-индустрию от пузыря. Когда инвесторы поймут, что следующий GPT не будет в 10 раз умнее предыдущего, деньги потекут в более приземленные, но рабочие проекты.
Что это значит для нас?
Пользователям, разработчикам, бизнесу:
- ИИ-инструменты стабилизируются. Не ждите, что ChatGPT завтра станет в 100 раз умнее. Эволюция, а не революция.
- Фокус сместится на интеграцию. Как соединить ИИ с существующими системами, а не создавать монолитных монстров.
- Появится пространство для маленьких игроков. Если нельзя победить размером, можно победить специализацией. Как в медицине, где риски галлюцинаций требуют узкоспециализированных решений.
Конец эпохи хайпа
Когда основатель OpenAI говорит о пределах роста, это сигнал. Сигнал того, что эпоха бесконечного масштабирования подходит к концу. Индустрия взрослеет. И это хорошо.
Потому что вместо погони за триллионами параметров мы, наконец, начнем думать о том, как сделать ИИ полезным, а не просто большим. Как решить фундаментальные математические проблемы, а не накручивать счет за электричество.
Альтман сделал то, что редко делают лидеры индустрии: признал, что у технологии есть потолок. Теперь интересно посмотреть, кто последует его примеру. Или продолжит продавать сказки о бесконечном росте.