IPO SK hynix 2026: Конец дефицита HBM-памяти для AI | AiManual
AiManual Logo Ai / Manual.
29 Мар 2026 Новости

IPO SK hynix и конец RAMmageddon: как это удешевит аппаратуру для AI

IPO SK hynix в 2026 году принесет $50 млрд инвестиций в производство HBM-памяти. Что это значит для стоимости GPU NVIDIA и доступности железа для AI.

Кто платит $50 миллиардов за конец железного апокалипсиса?

Помните тот момент, когда вы увидели ценник на RTX 5090 Ti с 48 ГБ HBM3E? $4999. Не шутка. Или когда пытались заказать серверную стойку с восемью H100 - очередь на 9 месяцев. Это был RAMmageddon 2024-2025. Сейчас, 29 марта 2026 года, все меняется. Буквально на этой неделе.

SK hynix объявила о самом крупном технологическом IPO десятилетия. $50 миллиардов. Для сравнения - это больше, чем рыночная капитализация AMD в 2023 году. Все эти деньги направят на строительство трех новых фабрик по производству HBM-памяти. Не просто памяти. Той самой, которую NVIDIA засовывает в каждую новую архитектуру Blackwell и которая до сих пор была главным узким местом.

HBM4 - следующее поколение памяти для AI-ускорителей. Пропускная способность: 2 ТБ/с против 1.5 ТБ/с у HBM3E. Энергопотребление: на 30% ниже. SK hynix планирует начать массовое производство в конце 2026 года. Именно под эти мощности и привлечены инвестиции через IPO.

Почему HBM - это не просто память, а горло бутылки всей индустрии

Звучит парадоксально. Производителей памяти десятки. Но HBM (High Bandwidth Memory) - это другая лига. Здесь чипы памяти упаковываются вертикально и соединяются с процессором через кремниевые переходники (interposers). Плотность - безумная. Сложность производства - космическая.

Вот цифры, которые заставят вас понять масштаб. Для производства одного модуля HBM4 нужно:

  • 8-12 кристаллов DRAM, уложенных вертикально
  • Кремниевый переходник с десятками тысяч микроскопических соединений
  • Техпроцесс 1β nm (что примерно соответствует 12-14 нм, но для памяти)
  • Сборка в герметичный корпус с тепловодящим интерфейсом

До IPO SK hynix могла производить около 300 тысяч модулей HBM в месяц. Этого хватало примерно на 40 тысяч GPU NVIDIA Blackwell. В то время как спрос оценивался в 200 тысяч GPU ежемесячно. Дефицит в 5 раз. Цены взлетели. Очереди растянулись. Наш материал про дефицит чипов памяти до 2030 казался пророческим.

Производитель Мощности HBM до IPO (тыс. модулей/мес) Планы после IPO (тыс. модулей/мес) Срок выхода на мощность
SK hynix 300 850 Q4 2026
Samsung 200 500 Q1 2027
Micron 150 400 Q2 2027

Что это значит для вашего кошелька? Цифры, а не обещания

Давайте переведем гигабайты и терафлопсы в доллары. На данный момент (март 2026) серверная карта NVIDIA GB200 с 192 ГБ HBM3E стоит около $70 000. Из этой суммы примерно $18 000 - стоимость самой HBM-памяти. Это 25% цены. Безумие.

После выхода на полную мощность новых фабрик SK hynix аналитики Goldman Sachs прогнозируют:

  • Снижение стоимости HBM-памяти на 35-40% к концу 2027 года
  • Падение цен на флагманские AI-ускорители на 20-25%
  • Сокращение сроков поставок с 9 месяцев до 2-3 месяцев
  • Появление «бюджетных» карт с HBM для малого бизнеса

А теперь главное. NVIDIA уже заявила, что в архитектуре Rubin (ожидается в 2027 году) будет использоваться HBM4. Объем памяти на карту - до 288 ГБ. Без нового производства от SK hynix эти карты стали бы коллекционными раритетами по цене квартиры в Москве. Сейчас у них есть шанс стать рабочим инструментом.

Не ждите мгновенного обвала цен. Новые фабрики запустятся только в конце 2026 года. Первые партии доступной HBM появятся на рынке в начале 2027 года. Но тендеры на закупки AI-железа уже пересматриваются с учетом этих прогнозов.

А что с теми, кто предлагает альтернативы HBM?

Пока SK hynix и Samsung доминируют в HBM, другие игроки ищут обходные пути. В наших предыдущих материалах мы подробно разбирали RRAM против стены памяти и MRAM для экономии энергии. Эти технологии выглядят революционно, но есть нюанс.

Все они находятся на стадии прототипов или мелкосерийного производства. Да, RRAM обещает в 100 раз большую плотность. Да, MRAM экономит 90% энергии. Но сегодня, в марте 2026 года, ни одна из этих технологий не готова к массовому производству в объемах, необходимых для индустрии AI. Потребуется еще 3-5 лет.

HBM выигрывает войну не потому, что она идеальна. А потому, что она работает здесь и сейчас. И $50 миллиардов от IPO SK hynix укрепляют эту позицию до уровня неприступной крепости.

Ироничный поворот: SK hynix как производитель железа и софта

Самое забавное в этой истории - двойная роль SK hynix. С одной стороны, они производят железо (HBM) для всех AI-гигантов. С другой - как мы писали в материале про гигантскую MOE-модель на 519B параметров, они сами создают огромные языковые модели.

Получается идеальный цикл. SK hynix производит память → NVIDIA покупает ее для своих GPU → Разработчики тренируют модели на этих GPU → SK hynix использует эти GPU для тренировки своих моделей → Их модели помогают оптимизировать производство памяти. Замкнутый круг, где каждый виток приносит миллиарды.

💡
Практический совет на 2026-2027 годы. Если планируете масштабные закупки AI-оборудования - отложите тендеры на вторую половину 2027 года. К тому времени новые мощности SK hynix выйдут на полную производительность, а NVIDIA представит архитектуру Rubin с HBM4. Цена/производительность будет на 40% лучше, чем сегодня.

А пока - наблюдайте за котировками SK hynix на бирже. Их рост будет точным барометром того, насколько быстро закончится RAMmageddon. И насколько дешевле станет железо для следующего прорыва в AI.

Подписаться на канал