Провал ИИ в SystemVerilog: чип размером с участок | 2026 | AiManual
AiManual Logo Ai / Manual.
21 Апр 2026 Новости

Провал ИИ в генерации кода: как нейросеть спроектировала чип размером с участок

История о том, как нейросеть GPT-5 сгенерировала код для чипа, сделав его размером с участок земли из-за ошибок в FIFO и D-триггерах. Критика ИИ в аппаратном ди

Когда ИИ проектирует чипы: от мечты к кошмару

На прошлой неделе в одной из лабораторий Сан-Хосе инженер получил от нейросети GPT-5 проект FIFO-буфера на SystemVerilog. Он ожидал компактный блок, занимающий несколько тысяч логических вентилей. Вместо этого инструмент синтеза выдал оценку площади: 12 квадратных миллиметров на 5-нм техпроцессе.

Для справки: это как спроектировать сарай, а получить целый торговый центр. На одной кремниевой пластине таких "сараев" поместилось бы штук десять. Физически - абсурд. Финансово - катастрофа. А всё потому, что ИИ, обученный на тоннах кода с GitHub, не понимает разницы между софтом и железом.

Инцидент произошел 18 апреля 2026 года при использовании GPT-5 через API OpenAI с последними обновлениями для генерации кода. Модель, по словам инженеров, "уверенно" сгенерировала синтаксически правильный, но семантически безумный код.

Что сломалось? D-триггеры, триггеры, everywhere

Код для простого асинхронного FIFO содержал классическую ошибку: вместо использования памяти SRAM или регистровых файлов, ИИ реализовал буфер целиком на D-триггерах. Каждый бит данных хранился в отдельном триггере. Для буфера глубиной 1024 и шириной 32 бита это 32 768 триггеров.

В реальном аппаратном дизайне так не делают никогда. Триггеры жрут площадь и мощность. Для памяти используют специализированные блоки. Но GPT-5, обученный на примерах кода, часто видел в обучающих данных триггеры в тестовых бенчмарках и решил, что это норма.

"Он сгенерировал что-то вроде архитектуры 'Обратного Хэша', но без намёка на эффективность", - прокомментировал один из экспертов, вспоминая нашу статью про нейросети без умножений. Там хотя бы была логика. Здесь - просто груда бесполезных элементов.

💡
SystemVerilog - это язык описания аппаратуры (HDL). Генерация кода для него требует понимания временных диаграмм, тактовых доменов, физических ограничений. Современные LLM, включая Claude 3.7 Sonnet и Gemini Pro 2.0, обученные на 2025 год данных, всё ещё путаются в этих концепциях.

Контекст хайпа: почему все вдруг поверили в ИИ для железа

Последние два года нас кормили историями успеха. Cognichip привлёк $60 млн на ИИ для проектирования чипов. Ricursive Intelligence обещает революцию. Даже CERN использует HLS4ML для преобразования нейросетей в кремний, как мы писали в статье про крошечные модели против коллайдера.

Но там ИИ оптимизирует уже существующие архитектуры. Или работает в тесной связке с инженерами. Слепая же генерация кода "с нуля" по текстовому промпту - это другой уровень риска.

И дело не только в площади. Сгенерированный код имел латентность в 15 тактов для записи в FIFO (вместо 1). Пропускная способность - смехотворная. Если бы это был чип для AI-кластеров, как нанофотонный ИИ-чип, то вся система встала бы. Скорость света не спасла бы от такой архитектуры.

Почему даже GPT-5 не справляется с железом?

Ответ прост: данные. Большинство LLM обучаются на публичных репозиториях кода. А там SystemVerilog встречается либо в учебных примерах (часто упрощённых), либо в обрывках, выложенных для демонстрации. Промышленные RTL-коды, прошедшие сотни часов симуляции и верификации, в открытом доступе не лежат.

ИИ учится на хламе. И генерирует хлам, который выглядит как код. Синтаксис идеален. Семантика - провал.

Что просили Что получили Результат
Компактный FIFO на SRAM FIFO на D-триггерах Площадь x50 от ожидаемой
Латентность 1 такт Латентность 15 тактов Пропускная способность 67 МБ/с вместо 10 ГБ/с
Код, готовый к синтезу Код, требующий полной переработки Потеря 3 недель на исправление

Специализированные модели, вроде InCoder-32B-Thinking, показывают себя лучше для встраиваемых систем. Но и они далеки от идеала. Проблема в фундаментальном разрыве между текстовым паттерном и физической реальностью.

Что делать инженерам в 2026 году? Правила выживания

Первое: никогда не запускать синтез сгенерированного кода без ручной проверки. Второе: использовать ИИ только для шаблонных, хорошо документированных блоков. Третье: требовать от модели не только код, но и объяснение, почему выбрана та или иная архитектура.

  • Всегда спрашивайте про альтернативы. "Почему FIFO на триггерах, а не на SRAM?" Если ИИ не может ответить - код в корзину.
  • Проверяйте временные параметры. Задавайте конкретные ограничения по таймингу в промпте.
  • Используйте симуляцию на раннем этапе. Не доверяйте статической оценке площади. Запустите тестовый бенчмарк.

Как показал случай с SystemVerilog, разбивающим ИИ в пух и прах, даже самые продвинутые модели пасуют перед аппаратными ограничениями. Слепое доверие здесь - прямой путь к миллионным убыткам.

Будущее: когда ИИ всё-таки научится?

Оптимисты говорят, что к концу 2026 года появятся модели, обученные на синтетических данных от симуляторов и реальных промышленных проектах. Пессимисты (и большинство практикующих инженеров) считают, что ИИ останется лишь продвинутым автодополнением.

Мой прогноз: прорыв случится не в области больших языковых моделей, а в гибридных системах, где ИИ управляет инструментами EDA (Electronic Design Automation). Представьте, что нейросеть не пишет код, а руководит цепочкой синтеза, подбирая параметры для существующих генераторов IP-ядер. Как в истории с сборкой устройства без инструкций, но на уровне RTL.

А пока что запомните: если ИИ предлагает вам чип размером с участок, возможно, он подсознательно советует бросить микроэлектронику и заняться сельским хозяйством. Шутка. Но в каждой шутке...

Проверяйте каждый сгенерированный модуль. Считайте площадь. Считайте мощность. Симулируйте до посинения. И не верьте тексту, который выглядит правильно. Железо - это физика, а не литература.

Подписаться на канал