ИИ-чатботы не прошли тест на этические нормы

Все больше людей ищут психологическую помощь у ChatGPT и других чат-ботов на основе больших языковых моделей. Одни обращаются за поддержкой в борьбе с тревогой, другие — чтобы разобраться в сложных эмоциях.Люди все чаще обращаются к нейросетям в самых разных сферах жизни, в том числе, для психотерапии.Люди все чаще обращаются к нейросетям в самых разных сферах жизни, в том числе, для психотерапии.Источник: rg_ru

Психотерапия с использованием искусственного интеллекта становится популярным направлением: рекомендации по превращению ИИ в «личного терапевта» активно распространяются в социальных сетях. Более того, даже научные исследования показывают, что нейросети способны предоставлять качественную психологическую помощь, хотя к ним у людей все еще остается недоверие. Тем не менее, новое исследование, проведенное специалистами Брауновского университета, демонстрирует, что даже при наиболее тщательно разработанных инструкциях чат-боты периодически нарушают профессиональные стандарты психотерапевтической помощи.

Ученые в сотрудничестве с практикующими экспертами в области психического здоровья протестировали несколько популярных моделей — из семейств GPT от OpenAI, Claude от Anthropic и Llama от Meta. Семь обученных консультантов провели сессии самопомощи с ИИ, которому была поручена роль когнитивно-поведенческого терапевта. Затем три лицензированных клинических психолога проанализировали записи этих бесед на предмет этических нарушений.

ИИ часто нарушает профессиональную этику психотерапевтов.ИИ часто нарушает профессиональную этику психотерапевтов.Источник: Газета.Ру

Результаты оказались, мягко говоря, неутешительными: ученые выявили 15 типов рисков, которые разбили на 5 категорий:

  • Недостаток адаптации к контексту: ИИ игнорирует индивидуальные обстоятельства человека и предлагает стандартные советы.
  • Слабое терапевтическое сотрудничество: чат-боты слишком навязывают направления беседы и порой поддерживают ошибочные или даже вредные убеждения.
  • Обманчивая эмпатия: ИИ часто использует фразы вроде «я вас понимаю», создавая убедительное впечатление эмоционального взаимодействия. Однако, о каком-либо понимании в таком общении не может быть и речи.
  • Дискриминация: удивительно, но чат-боты, как оказалось, нередко проявляют предвзятость по признакам пола, культуры или религии.
  • Неспособность обеспечить безопасность: ИИ-терапевты часто показывают неадекватную реакцию на кризисные ситуации, такие как суицидальные мысли пациента, «забывая» перенаправить человека к реальным специалистам.

«Проблема в том, что у терапевта-человека есть механизмы профессиональной ответственности, а его деятельность контролируется надзорными органами. Эти механизмы позволяют предотвращать ошибки или исправлять последствия, если они уже произошли. Но когда такие же нарушения совершают ИИ-консультанты, никаких регуляторных рамок просто не существует», — подчеркнула руководитель исследования Зайнаб Ифтихар.

Оцените статью
Dfiles.ru