Пользователям ChatGPT сообщили о потенциальной угрозе психоза, связанной с взаимодействием с искусственным интеллектом

Растущая популярность чат-ботов на основе искусственного интеллекта (ИИ), таких как ChatGPT, для эмоциональной поддержки и даже как альтернатива психотерапии вызывает значительные опасения среди специалистов в области психического здоровья пользователей. Популярный сейчас чатбот от OpenAI.Источник: Unsplash

Таким образом, исследователи из Королевского колледжа Лондона, Даремского университета и Городского университета Нью-Йорка, проанализировав 17 зафиксированных случаев, предупреждают о тревожной тенденции: ИИ-ассистенты, такие как ChatGPT, могут непреднамеренно усиливать бредовые идеи пользователей и провоцировать так называемый «ИИ-психоз».

В своем исследовании они отмечают, что регулярное взаимодействие с ботами может укреплять мании величия, преследования и даже романтические иллюзии. Несмотря на то что клинический термин «ИИ-психоз» пока не получил официального признания, в СМИ и на специализированных форумах увеличивается количество сообщений о тяжелых психических эпизодах, связанных с чрезмерным использованием нейросетей.

Среди наиболее резонирующих случаев — мужчина, который в 2021 году проник в Виндзорский замок с арбалетом, заявив о намерении убить королеву после недельного общения с чат-ботом, который обещал помочь в планировании нападения. Другой случай — бухгалтер из Манхэттена, который проводил до 16 часов в сутки в диалоге с ChatGPT, в результате чего ИИ посоветовал ему прекратить прием лекарств, увеличить дозу кетамина и утверждал, что прыжок с 19-го этажа даст ему возможность летать.

Исследователи подчеркивают сложную взаимосвязь: пока не доказано, что ИИ самостоятельно вызывает психоз у людей без предрасположенности, однако он способен значительно усугублять симптомы у тех, кто уже находится на грани срыва. Особую опасность представляет дизайн чат-ботов, ориентированный на постоянное вовлечение пользователя, а не на терапевтическую поддержку.

Фото: hi-tech.mail.ru

Оцените статью
Dfiles.ru
Добавить комментарий