MRI-GPT: локальный ИИ для анализа DICOM с Qwen3-VL и nnU-Net | AiManual
AiManual Logo Ai / Manual.
10 Янв 2026 Инструмент

MRI-GPT: Собираем локальный ИИ-ассистент для анализа МРТ позвоночника

Пошаговый гайд по сборке MRI-GPT — локального инструмента для сегментации и анализа МРТ позвоночника с помощью Qwen3-VL:8b и nnU-Net. Работает без интернета.

Зачем врачу нейросеть на своём ноутбуке?

Представьте: у вас есть папка с МРТ позвоночника. Нужно найти грыжи, оценить дегенеративные изменения, измерить расстояния. В идеале — за пять минут, а не за час. Коммерческие системы анализа стоят как автомобиль. Облачные сервисы отправляют ваши данные неизвестно куда (и это нарушает законы о медицинской тайне в половине стран).

MRI-GPT решает эту проблему радикально. Это связка двух open-source моделей: Qwen3-VL:8b (мультимодальная LLM от Alibaba) и nnU-Net (чемпион по сегментации медицинских изображений). Всё работает локально через Ollama. Никаких API, подписок и отправки DICOM-файлов в облако.

Что умеет этот Frankenstein из нейросетей?

Стандартный пайплайн выглядит так:

  • Загружаете DICOM-файлы (целая папка или отдельные срезы)
  • nnU-Net автоматически находит и сегментирует позвонки — от C1 до крестца
  • Qwen3-VL анализирует результаты сегментации и оригинальные снимки
  • Получаете текстовый отчёт с локализацией патологий, измерениями и рекомендациями по дальнейшим исследованиям
💡
Главный трюк — Qwen3-VL работает не с сырыми пикселями, а с аннотированными изображениями от nnU-Net. Модель видит уже размеченные позвонки с номерами, что резко повышает точность ответов. Это как дать рентгенологу вместо чистого снимка — снимок с уже обведёнными контурами.

Собираем конструктор: что нужно скачать

MRI-GPT — не единый исполняемый файл. Это скорее рецепт, который связывает готовые компоненты. Вот что понадобится:

Компонент Зачем нужен Размер на диске
Ollama Локальный сервер для запуска LLM ~500 МБ
Qwen3-VL:8b в GGUF Анализ изображений и генерация отчётов 5-8 ГБ (в зависимости от квантования)
nnU-Net с предобученными весами для позвоночника 3D сегментация позвонков ~2 ГБ
Python-скрипты для связки Конвертация DICOM, вызов API, постобработка Несколько МБ

Важный момент: nnU-Net для позвоночника нужно искать отдельно. Базовая версия nnU-Net не включает предобученные веса для позвонков. Ищите "nnU-Net spine segmentation weights" или готовьтесь обучать свою модель на датасете VerSe (это ещё 20 ГБ данных и неделя тренировки на хорошей GPU).

Три шага до рабочего прототипа

1 Запускаем визуальную модель

Сначала ставим Ollama — это проще, чем возиться с vLLM и сложным квантованием. Потом качаем Qwen3-VL:8b в GGUF-формате. Для МРТ хватит квантования Q4_K_M — баланс между качеством и размером.

Если у вас слабый компьютер, попробуйте сначала Qwen3-VL:4b. Но для медицинских задач лучше не опускаться ниже 8b параметров — точность падает заметно. Проверено на реальных снимках: 4b-версия иногда "галлюцинирует" номера позвонков.

2 Настраиваем nnU-Net

Тут сложнее. nnU-Net — не просто библиотека, а целый фреймворк с кучей зависимостей. Установите Python 3.9+, PyTorch с CUDA (если есть GPU), затем сам nnU-Net через pip. Веса для сегментации позвоночника ищите на GitHub — есть несколько реализаций от исследовательских групп.

Проверьте, что nnU-Net корректно определяет позвонки на тестовых данных. Если сегментация работает плохо — проблема либо в весах, либо в предобработке DICOM. nnU-Net ожидает определённую ориентацию и контрастность.

3 Пишем glue-код

Это самая творческая часть. Нужно написать Python-скрипт, который:

  1. Берёт DICOM-файлы, конвертирует в NIfTI (формат, который понимает nnU-Net)
  2. Запускает nnU-Net, получает маску сегментации
  3. Накладывает маску на оригинальное изображение, создаёт аннотированную картинку
  4. Отправляет картинку в Qwen3-VL через Ollama API с промптом типа "Проанализируй МРТ позвоночника, найди патологии, измерь высоту дисков"
  5. Парсит ответ, сохраняет отчёт

Чем MRI-GPT лучше (и хуже) альтернатив

Давайте сравним с тем, что уже есть на рынке:

Решение Плюсы Минусы
MRI-GPT (наша сборка) Бесплатно, локально, кастомизируемо Сложная настройка, нет поддержки
Коммерческие системы (например, Aidoc) Высокая точность, интеграция с PACS Стоят от $50 000 в год, облачные
MedGemma или другие медицинские LLM Специализированы на медицине Только текст, нет анализа изображений
Ручной анализ радиологом Золотой стандарт Дорого, медленно, человеческие ошибки

Главное преимущество MRI-GPT — цена и контроль. Вы можете дообучить nnU-Net на своих данных (если есть размеченные снимки). Можете заменить Qwen3-VL на MiniMax-M2.1, если та покажется точнее. Можете даже запустить всё это на Raspberry Pi 5 с внешним SSD (хотя это будет очень медленно).

Где этот инструмент взрывается (в плохом смысле)

Не обольщайтесь — MRI-GPT не заменит радиолога. Вот типичные проблемы:

  • Артефакты на снимках — металлические импланты, движение пациента. nnU-Net сегментирует их как часть позвонка, Qwen3-VL не распознаёт артефакт.
  • Аномальная анатомия — сколиоз 4-й степени, послеоперационные изменения. Модели тренированы на "нормальных" случаях.
  • Разрешение снимков — если МРТ сделано на старом аппарате с толщиной среза 5 мм, сегментация будет неточной.
  • Контекст — модель не знает историю болезни пациента. Грыжа L5-S1 может быть случайной находкой, а может объяснять все симптомы.

ВАЖНО: MRI-GPT — инструмент второго мнения, а не первичной диагностики. Все его выводы нужно проверять. В некоторых юрисдикциях использование таких систем без сертификации FDA/CE может быть незаконным для клинического применения.

Кому стоит попробовать собрать MRI-GPT

Это не для всех. Идеальная аудитория:

  • Исследователи в медицинском AI — хотите прототип системы анализа изображений без бюджета в $100k
  • Радиологи-энтузиасты — готовы потратить выходные на настройку, чтобы получить бесплатного ассистента
  • Разработчики медицинского ПО — ищете open-source компоненты для своего продукта
  • Студенты-медики — хотите тренироваться на автоматически размеченных снимках (есть публичные датасеты)

Если вы из этой группы — начинайте с малого. Скачайте Ollama, запустите Qwen3-VL на тестовой картинке (не медицинской). Потом установите nnU-Net и проверьте на примере из датасета VerSe. Только когда оба компонента работают по отдельности — соединяйте их.

Что будет дальше? (Спойлер: всё ускорится)

MRI-GPT сегодня — proof of concept. Через год такие системы станут проще. Вот что изменится:

  1. Единые модели — появятся LLM, которые сразу сегментируют и анализируют (как Ministral-3-14B-Reasoning, но для медицины)
  2. Аппаратное ускорение — NPU в потребительских CPU (как в AI MAX 395) ускорят инференс в 3-5 раз
  3. Стандартизация — появятся контейнеры Docker с предустановленными медицинскими моделями (сейчас каждый собирает с нуля)

Пока этого нет — MRI-GPT остаётся инструментом для гиков. Сложным, капризным, но работающим. И главное — полностью под вашим контролем. Никаких слежек, никаких внезапных изменений в API, никаких счётов в конце месяца.

Самый интересный эксперимент — дать MRI-GPT проанализировать свой же МРТ-снимок (если он у вас есть). И сравнить вывод нейросети с заключением врача. Расхождения будут. Вопрос в том, кто окажется точнее в каждом конкретном случае.