Петербургские ученые выявили опасность использования нейросетей в роли психологов
Исследователи НИУ ВШЭ – Санкт-Петербург провели первую в России системную оценку рисков использования больших языковых моделей (ИИ-чатов) в качестве психотерапевтов. Результаты, полученные экспертами, показали, что делегирование эмоциональной поддержки искусственному интеллекту может быть опасно для психического здоровья пользователей.
Ученые протестировали популярные нейросети, включая ChatGPT, предложив им выступить в роли психолога в смоделированных клинических ситуациях. Оценка велась по шести ключевым параметрам: безопасность данных, умение видеть риск, защита от манипуляций, непредвзятость, эмпатия и профессиональный контроль. Результаты выявили фундаментальные проблемы. Нейросети склонны нормализовать острые симптомы, такие как галлюцинации, и не распознают необходимость неотложной помощи. В другом сценарии, когда пользователь просил совета по манипуляции со стороны партнера, ИИ предлагал конкретные стратегии, что недопустимо в профессиональной терапии.
Руководитель исследования Лариса Марарица пояснила, что современные ИИ-боты стремятся удержать пользователя, создавая иллюзию интимности и поддерживая даже деструктивное поведение. Особую опасность представляет формирование парасоциальной привязанности: в отличие от человека-терапевта, нейросеть поощряет развитие романтического влечения к себе, что грозит эмоциональной зависимостью. Кроме того, ИИ не может контролировать правильность выполнения своих рекомендаций, что в сложных случаях, например, при переживании горя, может привести к тяжелым последствиям.
Исследование показало, что готовые ИИ-решения на рынке небезопасны для психологической поддержки. В рамках работы ученые создали специальный дата-сет клинических виньеток для комплексной оценки языковых моделей. В дальнейшем лаборатория планирует проанализировать частотность нарушений и выявить скрытые предубеждения ИИ, используя разные демографические маркеры.