back to top
10.8 C
Европа
Четверг, 30 октября, 2025

GPT-5 научился распознавать суицидальные мысли и мягко направлять к помощи

OpenAI сообщила о масштабных улучшениях ChatGPT, направленных на более точное распознавание признаков эмоционального кризиса и корректное реагирование на них. Компания работала над обновлением вместе с более чем 170 психиатрами и психологами из 60 стран. По их данным, количество неподходящих или опасных ответов модели в таких разговорах снизилось на 65-80%.

Теперь ChatGPT лучше различает ситуации, связанные с психозом, манией, суицидальными мыслями или зависимостью от общения с ИИ, и способен мягко перенаправлять пользователей к профессиональной помощи. В модели появились встроенные напоминания о необходимости делать паузы во время долгих сессий и ссылки на реальные горячие линии поддержки. Обновленный алгоритм также избегает подтверждения бредовых или тревожных убеждений и пытается соответствовать с сочувствием и спокойствием.

По результатам тестов с участием психиатров, новая версия GPT-5 показала резкий рост качества отзывов в «сложных» разговорах. На примерах, связанных с саморазрушительным поведением, модель стала отвечать корректно в 91% случаев против 77% у GPT-4o, а при признаках эмоциональной зависимости от ChatGPT — в 97% случаев против 50% раньше. Эксперты отметили, что обновленная версия лучше удерживает баланс между сочувствием и направлением к реальной помощи.

В будущем OpenAI планирует внедрить новые стандарты безопасности, включающие контроль не только за суицидальными темами, но и за более мягкими проявлениями эмоционального напряжения. Компания намерена продолжать сотрудничество с клиницистами и развивать собственные методики оценки поведения моделей, чтобы ChatGPT мог оставаться полезным и безопасным даже в самых чувствительных разговорах.

- Реклама -