Дефицит RAM убивает AI-PC: рост цен на память, прогнозы Omdia и IDC | AiManual
AiManual Logo Ai / Manual.
14 Янв 2026 Новости

Дефицит оперативной памяти убивает хайп вокруг «AI-PC»: что это значит для пользователей локального ИИ

Аналитика Omdia и IDC: дефицит оперативной памяти замедляет революцию AI-PC. Рост цен на 15-20%, снижение спецификаций ПК. Что делать энтузиастам локального ИИ?

Вспомните начало 2024 года. Каждая презентация Intel, AMD, NVIDIA заканчивалась одним и тем же слайдом: «AI-PC». Будущее, где ваш ноутбук сам генерирует текст, рисует картинки, пишет код. Без облаков. Без подписок. Без утечек данных в OpenAI. Звучало как революция.

Сейчас это будущее выглядит туманнее. Причина? Безобидные чипы памяти на фабриках в Южной Корее и Тайване. Точнее, их катастрофическая нехватка.

Цифры, которые заставят вас пересмотреть планы на апгрейд

Omdia и IDC только что опубликовали отчеты, которые читаются как медицинский диагноз. Прогноз по AI-PC на 2026 год? Снижен на 30%. Причина проста: производители не могут закупить достаточно оперативной памяти.

Показатель Прогноз до дефицита Прогноз после дефицита Изменение
Рост рынка AI-PC к 2026 180% 126% -54 п.п.
Средний объем RAM в AI-PC 32 ГБ 24 ГБ -25%
Цена на модули DDR5 (за ГБ) $8-10 $11-14 +15-20%

Цифра в $14 за гигабайт - не абстракция. Это значит, что апгрейд ноутбука с 16 до 32 ГБ обойдется не в $160, а в $224. Разница в $64 - это месячная подписка на ChatGPT Plus с запасом. Или два хороших ужина. Или половина видеокарты начального уровня.

Для локальных LLM разница между 16 и 32 ГБ - это разница между «запускается с трудом» и «работает комфортно». Особенно для моделей типа Llama 3 70B или ее квантованных версий.

Почему память стала дефицитным товаром?

Три фактора столкнулись одновременно:

  • ИИ-серверы пожирают все. HyperScaler'ы (Google, Microsoft, Amazon) закупают память тоннами для своих дата-центров. Один сервер H100 требует до 1 ТБ памяти. Один. А их строят десятками тысяч.
  • Спрос на смартфоны не падает. Apple только что анонсировала iPhone с ИИ-фичами, которым нужно больше RAM. Samsung ответила тем же.
  • Производство не успевает. Переход на новые техпроцессы (1-beta nm) идет с задержками. Фабрики работают на пределе, но спрос растет быстрее.

Результат? Производители ПК стоят в очереди за памятью. И они не первые в этой очереди. Серверные заказы идут первыми. Потом смартфоны. Потом, может быть, ПК.

Что это значит для вас, если вы запускаете локальные модели?

Плохие новости приходят сразу в трех форматах.

1. Цены на готовые системы взлетят

Dell, HP, Lenovo уже анонсировали повышение цен на бизнес-линейки с апреля. Потребительские модели подорожают к лету. Искусственный интеллект в вашем ноутбуке станет дорогой опцией. Не программной - аппаратной.

2. Сборка ПК превратится в квест

Хотели собрать рабочую станцию для локального ИИ? Приготовьтесь к охоте. Память DDR5-6000 с низкими таймингами будет исчезать с полок как графические карты во время майнингового бума. Только теперь причина не спекулянты, а банальная физическая нехватка чипов.

3. Производители начнут жульничать со спецификациями

Вы увидите больше рекламы: «AI-PC с 16 ГБ RAM!». Технически правда. Практически - издевательство. 16 ГБ хватит разве что для крошечной квантованной модели, которая уступает ChatGPT 3.5. Настоящие локальные LLM (те, что действительно заменяют облачные API) требуют минимум 24-32 ГБ. Лучше 64+.

💡
Если вы планируете апгрейд для локального ИИ, покупайте память сейчас. Цены будут только расти. Или рассмотрите альтернативы - например, собственные серверы, где можно контролировать каждый компонент.

А что с облачными API? Станут ли они выгоднее?

Парадокс: дефицит железа для локального ИИ может временно усилить позиции облачных провайдеров. Но не радуйтесь раньше времени.

Те же HyperScaler'ы, которые скупают память, - это те же компании, что предоставляют облачные AI-сервисы. Их затраты растут. Кто заплатит? Правильно, вы. Цены на облачные API уже начали ползти вверх.

Получается замкнутый круг: локальный ИИ дорожает из-за дефицита памяти → облачный ИИ дорожает из-за роста затрат провайдеров → пользователи застревают между молотом и наковальней.

Есть ли свет в конце тоннеля?

Производители памяти (Samsung, SK Hynix, Micron) строят новые фабрики. Но они откроются не раньше 2025-2026. До этого времени дефицит будет только нарастать.

Что делать прямо сейчас?

  1. Не гонитесь за последними моделями. RTX 50-й серии, которые все ждут, могут оказаться бесполезными без достаточного объема RAM. Да и их выпуск уже откладывают.
  2. Оптимизируйте то, что есть. Квантование моделей (GGUF, GPTQ) становится не опцией, а необходимостью. Модель 70B, квантованная до 4-бит, занимает ~40 ГБ вместо 140 ГБ.
  3. Смотрите на вторичный рынок. Серверная память DDR4 (ECC Registered) часто продается дешевле потребительской DDR5. А для многих локальных задач разница в скорости не критична.

И самый важный совет: не верьте маркетингу. «AI-Ready» на стикере ноутбука не значит, что на нем запустится что-то полезное. Смотрите на объем памяти. Только на него. Процессор и видеокарта вторичны.

Проверьте прямо сейчас: сколько оперативной памяти в вашем основном компьютере? Если меньше 32 ГБ - вы уже отстаете от требований локального ИИ. И с каждым месяцем отставание будет расти.

Что будет через год?

Рынок разделится на два лагеря. Первые - те, кто сможет позволить себе 64+ ГБ RAM и мощные GPU. Они будут запускать локальные модели уровня GPT-4. Вторые - все остальные. Они либо вернутся в облако (несмотря на риски приватности), либо будут использовать урезанные модели с сомнительной полезностью.

Ирония в том, что революция AI-PC, обещавшая демократизацию ИИ, может привести к обратному - к новой форме цифрового неравенства. Где доступ к качественному локальному интеллекту определяет не ваши навыки, а толщина кошелька.

Пока индустрия ищет выход из кризиса памяти, у вас есть два варианта: смириться с ростом затрат или начать оптимизировать все, что можно. Второй вариант выглядит разумнее. Особенно если учесть, что прогресс в квантовании не остановить.

Может, дефицит памяти - не катастрофа, а пинок к более эффективным технологиям? Время покажет. Но пока - готовьтесь платить больше. Или довольствоваться меньшим.