
Компания OpenAI обновила правила использования ChatGPT, официально запретив чат-боту выдавать персональные советы в сфере права и медицины.
Теперь пользователям прямо указано: ChatGPT нельзя использовать для «индивидуальных консультаций, требующих лицензии, таких как юридическая или медицинская помощь, без участия соответствующего специалиста».
Ранее, в январе 2025 года, политика OpenAI лишь намекала на подобные ограничения, запрещая действия, которые могут «существенно повлиять на безопасность, благополучие или права других».
Запрет последовал на фоне роста популярности ChatGPT среди канадцев, ищущих ответы на медицинские вопросы. Исследование Университета Ватерлоо показало, что только 31 % медицинских ответов ChatGPT-4 были полностью корректными, а понятными их признали лишь в 34 % случаев.
Тем не менее, по данным Университета Британской Колумбии, язык, которым ChatGPT формулирует советы, звучит настолько убедительно, что влияет на поведение пациентов в реальной жизни: многие приходят к врачу уже «вооружённые» мнением искусственного интеллекта.
Врачи отмечают, что пациенты всё чаще ссылаются на советы от ChatGPT — даже если они ошибочны, но при этом поданы уверенно и убедительно.
«Это не новая политика, — заявил представитель OpenAI. — ChatGPT никогда не заменял профессиональные консультации, но остаётся отличным инструментом для понимания юридической и медицинской информации».
Новое правило, добавленное 29 октября, запрещает использовать ИИ для «персонализированных консультаций, требующих лицензии». Однако поведение самой модели не изменилось — как подчеркнул глава медицинского направления OpenAI Караан Сингал, «всё работает как прежде».