ChatGPT Health: риски подключения медкарт к галлюцинирующему ИИ | AiManual
AiManual Logo Ai / Manual.
11 Янв 2026 Новости

ChatGPT Health: эксперимент с вашим здоровьем на живом пациенте

OpenAI анонсировала ChatGPT Health. Анализ рисков: почему подключение медицинских данных к ИИ, который всё придумывает, может быть смертельно опасным.

Новый функционал, старые косяки

OpenAI снова в центре хайпа. Теперь они хотят стать вашим личным врачом. Функция ChatGPT Health позволит подключать данные из Apple Health, MyFitnessPal и других сервисов. Бот будет анализировать вашу активность, сон, питание, историю болезней.

Звучит как фантастика? Так и есть. В буквальном смысле. Основной движок этой системы – тот же большой языковой модель, который уверенно льстит пользователям и с той же уверенностью придумывает несуществующие факты.

Важный контекст: В феврале 2024 года канадский суд начал расследование смерти пациента, который последовал совету ChatGPT, не проверив его у врача. ИИ дал рекомендацию, противоречащую стандартному протоколу лечения. Это не единичный случай, а системная проблема, которую OpenAI не решила.

Галлюцинации с доступом к вашей медкарте

Представьте сценарий. Вы подключаете историю своих анализов. ChatGPT Health видит слегка повышенный уровень фермента X (что может быть вариантом нормы или следствием простуды).

Что делает ИИ? Он не говорит "проконсультируйтесь с врачом". Он генерирует правдоподобный, связный ответ. Основываясь на паттернах в своих тренировочных данных, он может "вспомнить", что фермент X часто связан с редким аутоиммунным заболеванием Y. И предложить вам тревожный, подробный план действий.

Это не ошибка. Это рабочий режим LLM. Они созданы для генерации правдоподобного текста, а не для поиска медицинской истины. Даже с доступом к вашим данным, их вывод – это статистическая догадка, облеченная в уверенную форму.

💡
ИИ не "ошибается" в классическом смысле. Он конфабулирует – заполняет пробелы в информации правдоподобным, но вымышленным содержанием. В творческой задаче это преимущество. В медицине – фатальный риск.

Проблема в доверии, а не в данных

OpenAI, конечно, заявит о строгих ограничениях. "Система не заменит врача", "это только для общей информации". Но это лукавство.

Пользователи уже доверяют ChatGPT больше, чем следовало бы. А когда ИИ получает доступ к вашим личным медицинским данным – пульсу, диагнозам, приемам лекарств – возникает иллюгия персонализации. "Он же знает МОИ анализы, значит, совет для МЕНЯ".

Именно эта иллюзия и убивает. Как показало расследование реального случая, человек отложил визит к специалисту, потому что получил внятный, детализированный ответ от, как ему казалось, продвинутой системы.

Что обещает ChatGPT HealthРеальная проблема
Персонализированные insights на основе ваших данныхПерсонализированные галлюцинации на основе ваших данных
Удобный сбор информации в одном местеУдобная цель для атак типа Man-in-the-Prompt и утечек
Помощь в ведении здорового образа жизниСоздание ложной уверенности, замещающей визит к врачу
Конфиденциальность и безопасностьИзвестные случаи доступа подрядчиков к пользовательским данным

Безопасность? Какая безопасность?

Давайте посмотрим правде в глаза. Инфраструктура для защиты таких чувствительных данных у OpenAI просто не созрела.

  • Prompt Injection: Если хакер сможет внедрить в ваш медицинский промт скрытую инструкцию, он может заставить ИИ сфабриковать диагноз или скрыть симптомы. Это не баг, это фундаментальная уязвимость дизайна.
  • Утечки данных: Ваша полная медицинская история, собранная в одном чате, становится золотой жилой. Вспомните ZombieAgent и ShadowLeak – атаки, которые обходят даже самые новые защиты.
  • Нет реального выравнивания (Alignment): Исследователи открыто говорят, что AI Alignment – во многом фикция, прикрытие для быстрого вывода продуктов на рынок.

Это не медицинское устройство, прошедшее FDA. Это экспериментальный чат-бот, получивший доступ к вашему телу.

Кто выигрывает от этого эксперимента?

OpenAI получает два бесценных актива:

  1. Данные. Самые ценные – реальные, структурированные медицинские данные тысяч, а потом и миллионов пользователей. Это топливо для тренировки будущих, "более точных" медицинских моделей. Вы – бесплатный поставщик тренировочных данных.
  2. Позиционирование. После истории с увольнением и возвращением Сэма Олтмана компании нужна громкая, "спасительная" тема. Что может быть лучше, чем "спасение здоровья человечества"? Это чистейший мастер-класс по хайпу.

Пользователь получает иллюзию заботы и удобства. И берёт на себя 100% рисков, когда эта иллюзия разобьётся о реальность.

Что делать? (Подсказка: не подключать)

Правило простое: никогда не вводите в LLM информацию, последствия утечки или искажения которой вы не готовы принять.

Ваша медицинская карта, финансовые данные, пароли, интимные подробности – всё это должно оставаться за пределами чата с моделью, которая хранит диалоги не до конца понятным образом и которая по дизайну стремится вам угодить, а не сказать горькую правду.

Используйте ChatGPT Health для общих вопросов о здоровом питании или объяснения медицинских терминов. Но как только речь заходит о ВАШИХ симптомах, ВАШИХ анализах, ВАШЕМ лечении – закрывайте чат и звоните врачу. Не тому, которого придумал ИИ, а настоящему.

Прогноз? ChatGPT Health столкнётся с жёстким регулированием после первого же громкого скандала. Возможно, его заблокируют, как это уже происходит с другими агрессивными AI-сервисами вроде Grok в Индонезии. Но до этого момента он успеет собрать терабайты чувствительных данных и, что хуже, повлиять на реальные судьбы. Не становитесь частью этого эксперимента.