MedGemma: обзор медицинских моделей от DeepMind, установка и применение | AiManual
AiManual Logo Ai / Manual.
06 Янв 2026 Инструмент

MedGemma: когда медицинский ИИ стал бесплатным (и что с этим делать)

Подробный разбор MedGemma — открытых медицинских моделей от DeepMind. Установка, примеры кода, сравнение с альтернативами и реальные сценарии использования.

Медицинский ИИ выходит из тени

До сегодняшнего дня медицинские языковые модели были как VIP-ложа на стадионе: дорого, недоступно, только для избранных. MedGemma ломает эту систему. DeepMind выпустила три модели с открытыми весами, которые понимают медицинские тексты, рентгеновские снимки и научные статьи. Бесплатно. Можно запустить на своём железе. Даже без интернета.

MedGemma — это не одна модель, а семейство: MedGemma 2B (текст), MedGemma 7B (текст) и MedGemma-CXR 2B (рентгеновские снимки). Все три работают локально, поддерживают длинный контекст и обучены на терабайтах медицинских данных.

Что умеют эти модели на самом деле

Забудьте про общие фразы вроде "помогает врачам". Вот конкретные задачи, которые MedGemma решает прямо сейчас:

  • Анализ медицинских записей: извлекает симптомы, диагнозы, препараты из неструктурированного текста
  • Ответы на медицинские вопросы: объясняет термины, даёт рекомендации на основе клинических руководств
  • Генерация отчётов: превращает сырые данные врачебных осмотров в структурированные документы
  • Анализ рентгеновских снимков (только MedGemma-CXR): описывает находки, ищет патологии, сравнивает с предыдущими снимками

Вот как выглядит простой запрос к MedGemma 7B:

from transformers import AutoModelForCausalLM, AutoTokenizer
import torch

model_name = "google/medgemma-7b"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype=torch.bfloat16,
    device_map="auto"
)

prompt = """Пациент: мужчина 45 лет, жалуется на кашель с мокротой,
температура 38.5°C, боль в груди при глубоком вдохе.
Вопрос: Какие дополнительные обследования необходимы?"""

inputs = tokenizer(prompt, return_tensors="pt").to("cuda")
outputs = model.generate(**inputs, max_length=500)
print(tokenizer.decode(outputs[0]))

Модель ответит примерно так: "Рекомендуется рентгенография органов грудной клетки, общий анализ крови с лейкоцитарной формулой, С-реактивный белок. При подозрении на пневмонию — посев мокроты."

💡
MedGemma обучена на PubMed, клинических руководствах, учебниках и реальных медицинских записях (анонимизированных). Она знает протоколы лечения, лекарственные взаимодействия и диагностические критерии лучше, чем среднестатистический интерн.

MedGemma-CXR: когда ИИ смотрит на ваши лёгкие

Это самая интересная часть. MedGemma-CXR 2B — мультимодальная модель, которая понимает рентгеновские снимки. Не просто классифицирует "пневмония/нет", а даёт развёрнутое описание:

from PIL import Image
from transformers import AutoProcessor, AutoModelForVision2Seq

processor = AutoProcessor.from_pretrained("google/medgemma-cxr-2b")
model = AutoModelForVision2Seq.from_pretrained(
    "google/medgemma-cxr-2b",
    torch_dtype=torch.bfloat16,
    device_map="auto"
)

image = Image.open("chest_xray.jpg")
prompt = "Опиши находки на рентгенограмме органов грудной клетки."

inputs = processor(
    text=prompt,
    images=image,
    return_tensors="pt"
).to("cuda")

output = model.generate(**inputs, max_length=300)
print(processor.decode(output[0], skip_special_tokens=True))

Результат: "На рентгенограмме ОГК в прямой проекции определяется усиление лёгочного рисунка в нижних отделах справа, небольшое затемнение в проекции S10. Сердечная тень не расширена. Диафрагма чёткая. Заключение: признаки правосторонней нижнедолевой пневмонии."

Звучит как отчёт опытного рентгенолога. Только этот "рентгенолог" работает 24/7, не устаёт и не берёт больничный.

Важно: MedGemma-CXR НЕ ставит диагнозы. Она описывает находки. Диагноз ставит врач. Модель — инструмент, а не замена специалисту. Хотя в некоторых сельских больницах Африки, где рентгенологов вообще нет, эта разница стирается.

Сравнение: MedGemma против конкурентов

На рынке медицинского ИИ три типа игроков:

МодельОткрытостьСтоимостьСпециализацияГде работает
MedGemmaПолностью открытаяБесплатноОбщая медицина + рентгенЛокально, офлайн
GPT-4 MedicalЗакрытая API$0.03/запросОбщая медицинаТолько облако
BioBERTОткрытаяБесплатноБиомедицинские текстыЛокально
CheXpertОткрытаяБесплатноТолько рентгенЛокально

MedGemma выигрывает у BioBERT в понимании клинического контекста (не просто статьи, а реальные истории болезни). Проигрывает GPT-4 Medical в breadth of knowledge (у OpenAI больше данных), но выигрывает в privacy (данные никуда не уходят) и стоимости (ноль рублей против тысяч в месяц).

Если вам нужна модель для анализа медицинских текстов и у вас есть GPU с 16GB памяти — берите MedGemma 7B. Если нужно работать с рентгенами — только MedGemma-CXR. Если ресурсов мало — MedGemma 2B запустится даже на ноутбуке.

Как установить и настроить за 10 минут

1Выбираем модель

На Hugging Face ищите:

  • google/medgemma-2b — 2B параметров, 4.5GB памяти
  • google/medgemma-7b — 7B параметров, 14GB памяти
  • google/medgemma-cxr-2b — 2B параметров + vision, 5GB памяти

2Ставим зависимости

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
pip install transformers accelerate bitsandbytes

Ускоритель bitsandbytes нужен для 4-битной квантизации (модель влезет в 8GB памяти).

3Загружаем с квантизацией

from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig
import torch

bnb_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_compute_dtype=torch.bfloat16,
    bnb_4bit_use_double_quant=True,
)

model = AutoModelForCausalLM.from_pretrained(
    "google/medgemma-7b",
    quantization_config=bnb_config,
    device_map="auto",
    trust_remote_code=True
)

Теперь модель займёт ~4GB вместо 14GB. Скорость упадёт на 20-30%, но это плата за возможность запуска на consumer hardware.

💡
Если у вас Mac с M1/M2, используйте mlc-llm или llama.cpp с поддержкой Metal. MedGemma работает через GGUF формат, но конвертировать нужно самостоятельно.

Реальные кейсы: где MedGemma уже работает

Не теории, а практика:

Автоматизация ведения медицинских карт

Частная клиника в Бразилии использует MedGemma 7B для преобразования голосовых записей врачей в структурированные электронные медицинские карты. Раньше на это уходило 15 минут на пациента, сейчас — 2. Модель работает на локальном сервере, данные никуда не уходят (требование законодательства).

Телемедицина в удалённых районах

Некоммерческая организация в Индии развернула MedGemma-CXR на Raspberry Pi 5 с подключением к портативному рентген-аппарату. Фельдшер в деревне делает снимок, модель описывает находки, результат отправляется врачу в город для подтверждения. Задержка — 3 секунды вместо 3 дней ожидания специалиста.

Образовательный симулятор для студентов-медиков

Медицинский университет в Германии создал на основе MedGemma интерактивного пациента. Студенты задают вопросы, получают симптомы, ставят предварительные диагнозы. Модель оценивает логику рассуждений и даёт обратную связь. Всё работает в локальной сети кампуса.

Похожий подход использовали победители Kaggle Challenge для создания ассистентов для людей с когнитивными нарушениями. Только там была Gemma 3n, а здесь — её медицинская специализированная версия.

Ограничения, о которых молчит документация

MedGemma — не панацея. Вот что бесит на практике:

  • Английский bias: модель обучена в основном на англоязычных данных. Русские медицинские термины знает плохо. Придётся дообучать или использовать перевод.
  • Консервативность: MedGemma перестраховывается. На вопрос "нужны ли антибиотики при ОРВИ?" ответит "обратитесь к врачу", а не даст чёткий протокол.
  • Нет мультимодальности кроме CXR: УЗИ, МРТ, КТ — только если конвертировать в описание руками. В отличие от Gemma Vision, который работает с любыми изображениями.
  • Медленные ответы на длинных контекстах: Если подать историю болезни на 10 страниц, генерация займёт 20-30 секунд даже на RTX 4090.

И главное: модель не обновляется в реальном времени. Новые исследования, изменения в протоколах лечения, новые препараты — всё это появится только в следующей версии. Если она вообще будет.

Кому подходит MedGemma (а кому нет)

Берите MedGemma, если:

  • Разрабатываете медицинское ПО с требованиями к конфиденциальности данных
  • Нужен офлайн-анализ медицинских текстов (как в офлайн-помощниках на Gemma 3n)
  • Создаёте образовательные или исследовательские инструменты
  • Бюджет на ИИ — ноль, а GPU есть

Не берите MedGemma, если:

  • Нужна поддержка русского языка из коробки
  • Требуется анализ изображений кроме рентгенов
  • Критична скорость ответа <1 секунды
  • Можно платить за API (тогда смотрите в сторону специализированных медицинских моделей OpenAI или Anthropic)

Что дальше? Fine-tuning и интеграция

MedGemma — хорошая база для дообучения. Вот как адаптировать её под свои нужды:

from transformers import Trainer, TrainingArguments
from datasets import Dataset
import torch

# 1. Готовим данные
medical_records = [
    {"text": "Пациент: ... диагноз: ...", "summary": "Краткое описание..."},
    # тысячи примеров
]
dataset = Dataset.from_list(medical_records)

# 2. Настраиваем обучение
training_args = TrainingArguments(
    output_dir="./medgemma-finetuned",
    num_train_epochs=3,
    per_device_train_batch_size=4,
    gradient_accumulation_steps=4,
    learning_rate=2e-5,
    fp16=True,
)

# 3. Запускаем fine-tuning
trainer = Trainer(
    model=model,
    args=training_args,
    train_dataset=dataset,
)
trainer.train()

На 1000 примеров с русскими медицинскими записями модель научится понимать локальную терминологию за 2-3 часа на одном GPU.

Для интеграции в существующие системы используйте REST API через FastAPI:

from fastapi import FastAPI
from pydantic import BaseModel
import torch
from transformers import pipeline

app = FastAPI()
medpipe = pipeline("text-generation", model="./medgemma-finetuned")

class MedicalQuery(BaseModel):
    text: str
    max_length: int = 300

@app.post("/analyze")
async def analyze(query: MedicalQuery):
    result = medpipe(query.text, max_length=query.max_length)
    return {"analysis": result[0]["generated_text"]}

Теперь ваша EHR-система может отправлять запросы на /analyze и получать структурированные ответы.

Юридический момент: в большинстве стран использование ИИ для медицинской диагностики требует сертификации. MedGemma такой сертификации не имеет. Используйте её как вспомогательный инструмент, а не как систему принятия решений.

Стоит ли переходить с других моделей?

Если вы используете общие модели вроде GPT-4 для медицинских задач — да, стоит попробовать. Точность в специализированных вопросах у MedGemma выше, стоимость — ниже, конфиденциальность — лучше.

Если у вас уже работает BioBERT или ClinicalBERT — переход неочевиден. MedGemma даст более развёрнутые ответы, но потребует больше ресурсов. Сравните на своих данных.

Если вы только начинаете медицинский AI-проект — стартуйте с MedGemma. Это бесплатно, открыто и работает. Позже, когда появятся деньги и понимание требований, можно будет перейти на коммерческие решения или обучить свою модель.

Один разработчик из Казахстана уже сделал это. Взял MedGemma 2B, дообучил на казахских медицинских записях, интегрировал в мобильное приложение для сельских фельдшеров. Месячная экономия на облачных API — $1200. Скорость работы — в 3 раза выше, потому что не зависит от интернета.

Медицинский ИИ больше не эксклюзив для корпораций с миллиардными бюджетами. Теперь это инструмент, который можно скачать, настроить и запустить за выходные. Главное — помнить, что последнее слово всегда за врачом. Даже если этот врач иногда советуется с нейросетью.