Компания OpenAI запретила ChatGPT давать советы по медицине и юриспруденции

Американская компания OpenAI обновила политику использования своих продуктов и запретила нейросети ChatGPT консультировать пользователей по вопросам медицины и юриспруденции.

Согласно новым правилам, давать рекомендации, требующие лицензии, например медицинские или юридические, можно только при участии соответствующего специалиста. Политика вступила в силу после обновления от 29 октября 2025 года.

Как следует из обновленной публичной Model Spec и разъяснений OpenAI, речь идет не о тотальном запрете тематики медицины и юриспруденции при общении с ChatGPT, а об ужесточении границ ответственности: модели должны не подменять врача или адвоката, не ставить диагнозы, не подбирать лечение и не давать адресные правовые советы, которые пользователь может воспринять как профессиональную консультацию.

При этом OpenAI допускаются справочные тексты, объяснение терминов, ссылки на официальные источники и советы "обратиться к специалисту". Под запрет попадают именно персонализированные решения ("какие таблетки мне пить", "как обойти уголовную статью"), а также запросы, которые могут привести к нанесению вреда – здесь модель обязана отказать или переключиться в режим безопасного ответа.

Такие ограничения ранее вводили и другие крупные платформы, поэтому шаг OpenAI выглядит скорее выравниванием политики под более жесткий стандарт, чем резким нововведением.