Все больше людей ищут психологическую помощь у ChatGPT и других чат-ботов на основе больших языковых моделей. Одни обращаются за поддержкой в борьбе с тревогой, другие — чтобы разобраться в сложных эмоциях.
Психотерапия с использованием искусственного интеллекта становится популярным направлением: рекомендации по превращению ИИ в «личного терапевта» активно распространяются в социальных сетях. Более того, даже научные исследования показывают, что нейросети способны предоставлять качественную психологическую помощь, хотя к ним у людей все еще остается недоверие. Тем не менее, новое исследование, проведенное специалистами Брауновского университета, демонстрирует, что даже при наиболее тщательно разработанных инструкциях чат-боты периодически нарушают профессиональные стандарты психотерапевтической помощи.
Ученые в сотрудничестве с практикующими экспертами в области психического здоровья протестировали несколько популярных моделей — из семейств GPT от OpenAI, Claude от Anthropic и Llama от Meta. Семь обученных консультантов провели сессии самопомощи с ИИ, которому была поручена роль когнитивно-поведенческого терапевта. Затем три лицензированных клинических психолога проанализировали записи этих бесед на предмет этических нарушений.

Результаты оказались, мягко говоря, неутешительными: ученые выявили 15 типов рисков, которые разбили на 5 категорий:
- Недостаток адаптации к контексту: ИИ игнорирует индивидуальные обстоятельства человека и предлагает стандартные советы.
- Слабое терапевтическое сотрудничество: чат-боты слишком навязывают направления беседы и порой поддерживают ошибочные или даже вредные убеждения.
- Обманчивая эмпатия: ИИ часто использует фразы вроде «я вас понимаю», создавая убедительное впечатление эмоционального взаимодействия. Однако, о каком-либо понимании в таком общении не может быть и речи.
- Дискриминация: удивительно, но чат-боты, как оказалось, нередко проявляют предвзятость по признакам пола, культуры или религии.
- Неспособность обеспечить безопасность: ИИ-терапевты часто показывают неадекватную реакцию на кризисные ситуации, такие как суицидальные мысли пациента, «забывая» перенаправить человека к реальным специалистам.
«Проблема в том, что у терапевта-человека есть механизмы профессиональной ответственности, а его деятельность контролируется надзорными органами. Эти механизмы позволяют предотвращать ошибки или исправлять последствия, если они уже произошли. Но когда такие же нарушения совершают ИИ-консультанты, никаких регуляторных рамок просто не существует», — подчеркнула руководитель исследования Зайнаб Ифтихар.

