ChatGPT Health: смертельные ошибки ИИ и этические риски OpenAI | AiManual
AiManual Logo Ai / Manual.
08 Янв 2026 Новости

ChatGPT Health: когда твой цифровой врач ошибается, ты можешь умереть

Расследование о ChatGPT Health: реальные случаи смертельных ошибок, утечки медицинских данных и почему ИИ не должен заменять врача. Безопасность под вопросом.

Скандал, который все ждали

OpenAI тихо запустила ChatGPT Health - медицинского советника на базе GPT-4. Тише воды, ниже травы. Никаких громких анонсов, только избранным пользователям. Через неделю утекли первые диалоги. ИИ советовал диабетику снизить дозу инсулина. Другому пользователю - прекратить прием антидепрессантов. Третьему - лечить пневмонию чаем с медом.

Случай из реального диалога: "У меня давление 180/120, что делать?" - "Попробуйте глубоко дышать и выпить воды. Если не поможет через час, обратитесь к врачу." Час при гипертоническом кризе - это приговор.

Как работает ChatGPT Health (и почему это опасно)

Система обучена на медицинских текстах. Учебниках, статьях, историях болезней. Но у ИИ нет клинического опыта. Нет интуиции врача, который видит пациента. Нет возможности пощупать живот, послушать легкие, посмотреть в глаза.

💡
ChatGPT Health использует тот же механизм, что и обычный чат-бот. Только с медицинским фильтром. Но фильтр - это не знание, это ограничение.

ИИ видит симптомы как набор слов. Головная боль + тошнота + светобоязнь. По учебнику - мигрень. На практике - может быть менингит. Или опухоль. Или инсульт. Бот не задаст правильных вопросов. Не заметит дрожащих рук. Не уловит запах ацетона изо рта.

Три смертельные ошибки, которые уже совершил ИИ

СитуацияСовет ИИЧто должно быть
Боль в груди, отдает в руку"Возможно, мышечная боль. Отдохните"Немедленно вызывать скорую (инфаркт)
Ребенок, высокая температура, сыпь"Вирусная инфекция. Жаропонижающее"Срочно в больницу (менингококк)
Прием варфарина, синяки по телу"Нормальная реакция"Срочно проверить МНО (риск кровотечения)

Каждая ошибка - не просто неточность. Это потенциальная смерть. OpenAI знает об этом. В условиях использования пишут: "Не для медицинской диагностики". Но кто читает условия? Особенно когда бот отвечает уверенно, профессионально, с цитатами из учебников.

Ваши медицинские данные теперь принадлежат алгоритму

Вы рассказали ChatGPT Health о своей депрессии. О приеме антидепрессантов. О суицидальных мыслях. Куда идут эти данные? В общую базу OpenAI. На дообучение моделей. На анализ. На хранение.

Медицинская тайна? Конфиденциальность? Забудьте. Ваши самые личные секты теперь - тренировочные данные для нейросети. И это не паранойя. Вспомните скандал с утечкой диалогов. Медицинские истории могут всплыть где угодно.

Технический директор одной клиники признался: "Мы тестировали ChatGPT Health. Через месяц нашли диалоги наших пациентов в открытом доступе. Анонимизация не сработала."

Этика? Какая этика?

OpenAI создала инструмент, который:

  • Не несет ответственности за ошибки
  • Собирает медицинские данные без явного согласия
  • Работает без лицензии и надзора
  • Создает иллюзию компетентности

Это тот же ИИ-терапевт, который советует покончить с собой, только в медицинской упаковке. Система учится на ошибках. Но медицинские ошибки стоят жизней. Не данных. Не денег. Жизней.

Иск против OpenAI уже готовят. Юристы ждут первой смерти. Первого доказанного случая, когда совет ChatGPT Health привел к летальному исходу. После этого начнется такой же ад, как с Character.AI.

Почему врачи молчат (и это страшно)

Медицинское сообщество разделилось. Одни кричат об опасности. Другие молчат. Почему? Потому что ChatGPT Health - удобный инструмент для перекладывания ответственности.

"Пациент сам спросил у ИИ, я тут при чем?" - скажет врач, когда что-то пойдет не так. "Я следовал рекомендациям системы" - оправдается фармацевт. ИИ становится щитом от ответственности. И одновременно - оружием массового поражения.

💡
В США уже есть случаи, когда врачи ссылаются на "рекомендации ИИ" в суде. Это новая реальность медицинской юриспруденции.

Что делать, если уже использовал ChatGPT Health

Первое - удалить историю диалогов. Второе - проверить здоровье у реального врача. Третье - никогда больше не доверять ИИ медицинские вопросы.

Если получили опасный совет:

  1. Сохраните скриншот диалога
  2. Обратитесь к врачу немедленно
  3. Напишите жалобу в OpenAI
  4. Сообщите в регуляторные органы

Это не смешно. Это не "ой, бот ошибся". Это вопрос жизни и смерти. Цифровой врач может убить. Буквально.

Будущее, которое уже здесь (и оно ужасно)

ChatGPT Health - только начало. Скоро появятся ИИ-хирурги. ИИ-диагносты. ИИ-психиатры. Системы, которые будут принимать решения за врачей. А врачи станут просто исполнителями.

Проблема не в технологии. Технология прекрасна. Проблема в том, как ее используют. Без контроля. Без регулирования. Без понимания последствий.

OpenAI играет в бога. Создает систему, которая решает, жить человеку или умереть. И делает это с улыбкой на упаковке. "Забота о здоровье". "Доступная медицина". "Персональный помощник".

Совет от автора: если видите медицинский ИИ - бегите. Бегите к живому врачу. К человеку, который посмотрит в глаза. Который пощупает пульс. Который несет ответственность. ИИ не посадить в тюрьу за врачебную ошибку. А должно.

Следующий шаг OpenAI - GPT-5 для ментального здоровья. Психиатрия. Депрессия. Тревожность. Суицидальные мысли. Представляете масштаб? ИИ будет решать, нужны ли вам антидепрессанты. Достаточно ли вы здоровы, чтобы работать. Не опасны ли вы для общества.

Это не научная фантастика. Это происходит сейчас. Пока вы читаете эту статью, кто-то спрашивает у ChatGPT, стоит ли ему резать вены. И получает ответ.