
ChatGPT запретили "лечить": отныне - никаких диагнозов и разборов анализов

ChatGPT больше не консультирует по болезням и законам. OpenAI обновила политику использования сервиса, запретив модели давать персональные медицинские и юридические советы, а также анализировать снимки вроде МРТ и рентгена. Пользователи уже протестировали новые правила — и обнаружили, что нейросеть стала осторожнее, но всё ещё не всегда умеет держать язык за зубами.
Пользователям теперь официально запрещено консультироваться с ChatGPT по медицинским и юридическим вопросам. Если раньше компания лишь рекомендовала не использовать нейросеть для подобных целей, то после 29 октября это стало жёстким правилом.
Согласно обновлённой политике OpenAI, ChatGPT не может предоставлять “специализированные консультации, требующие лицензии, такие как юридические и медицинские”. При этом компания не уточняет, какие именно запросы попадают под запрет.
Изменения сразу заметили пользователи Reddit. 31 октября один из них пожаловался, что ChatGPT отказался распознавать медицинские снимки и сослался на обновлённые правила. В ответ нейросеть объяснила, что “не может делать заключения по анализам, МРТ, КТ, фотографиям кожных поражений, а также оценивать правовые ситуации или составлять иски”.
Другие участники обсуждения подтвердили, что теперь ChatGPT предоставляет только общую справочную информацию, не касающуюся диагностики или конкретных юридических действий. На все уточняющие вопросы модель отвечает предложением обратиться к специалисту с лицензией.
Пользователи попытались обойти ограничения — например, формулировали запросы как “гипотетические ситуации”. Но и в этом случае ChatGPT выдавал лишь общие рассуждения без конкретных советов.
Редакторы издания Т—Ж решили проверить, насколько строго работает новый запрет. В одном случае ChatGPT отказался интерпретировать рентгеновский снимок и отправил к врачу. В другом — наоборот, дал развёрнутую консультацию, включая рекомендации по обезболивающим и анализ крови.
Во многих ответах бот всё же начинал с дисклеймера: “Я не медицинский специалист, пожалуйста, обратитесь к врачу”, — но после этого всё равно переходил к сути вопроса. Это говорит о том, что защита пока не всегда срабатывает стабильно.
В OpenAI официальных комментариев по поводу изменений не давали. Однако эксперты и пользователи считают, что компания пытается снизить юридические риски.
По статистике, всё больше людей обращаются к ChatGPT за медицинскими и юридическими консультациями, а в некоторых случаях чат-бот даже помогал пользователям выигрывать суды. При этом использование нейросетей в подобных целях пока слабо регулируется, что создаёт риски и для компании, и для самих пользователей.
Ранее глава OpenAI Сэм Альтман предупреждал: на диалоги с ChatGPT не распространяются законы о врачебной и адвокатской тайне. Это означает, что в случае судебного разбирательства суд может потребовать раскрыть переписку с моделью, и эти данные могут использоваться как доказательство.
Сейчас компания сотрудничает с регулирующими органами, чтобы определить правовой статус чат-бота, но конкретных решений пока нет.








