Взаимодействие с искусственным интеллектом создает фальшивые воспоминания: новое исследование ученых

Человеческая способность к формированию ложных воспоминаний подвержена влиянию общения с искусственным интеллектом, который все активнее внедряется в различные аспекты нашей жизни.Когда мы что-то вспоминаем, мозг словно заново восстанавливает событие, заполняя появившиеся пробелы в воспоминаниях самостоятельно.Когда мы что-то вспоминаем, мозг словно заново восстанавливает событие, заполняя появившиеся пробелы в воспоминаниях самостоятельно.Источник: Freepik.com/CC0

Структура человеческой памяти довольно уникальна: каждый раз, когда мы что-то вспоминаем, мозг вновь реконструирует событие, заполняя пробелы через ожидания, прошлый опыт или внешние подсказки. Именно поэтому с течением времени воспоминания могут искажаться, а детали, которых на самом деле не было, начинают восприниматься как абсолютно реальные. Этот механизм решил проанализировать коллектив американских ученых под руководством Пата Патаранутапорна.

В исследовании принимали участие 180 человек со средним возрастом около 35 лет. Каждый из них сначала ознакомился с одной из трех информационных статей — о выборах в Таиланде, разработке медикаментов или кражах в магазинах Великобритании. Затем участников случайным образом распределили на пять групп. Четыре группы взаимодействовали с системой на основе LLM GPT-4o: одни читали сгенерированное ею краткое содержание статьи, другие вступали с ней в диалог. При этом в половине случаев ИИ действовал честно и точно передавал факты, а в другой половине — намеренно добавлял ложные детали к правдивой информации. Пятая группа служила контрольной и не взаимодействовала с ИИ.

После этого участники отвечали на вопросы о содержании прочитанной статьи, указывая, встречались ли в ней те или иные утверждения, и оценивая свою уверенность в ответах.

Искусственный интеллект может вводить нас в заблуждение, искажая факты.Искусственный интеллект может вводить нас в заблуждение, искажая факты.Источник: Freepik

Полученные результаты оказались весьма тревожными. Участники, взаимодействовавшие с вводящим в заблуждение чат-ботом, запомнили наибольшее количество ложной информации и меньше всего достоверных фактов по сравнению с другими группами. Кроме того, они проявляли наименьшую уверенность в своих правильных воспоминаниях. Эффект от простого чтения недостоверного краткого изложения статьи оказался значительно менее выраженным — разница с контрольной группой была минимальной.

«Полученные результаты указывают на то, что вмешательства с использованием больших языковых моделей усиливают создание ложных воспоминаний, причем вводящие в заблуждение чат-боты оказывают наиболее выраженное влияние на дезинформацию. Это свидетельствует о тревожной способности языковых моделей внедрять ложные убеждения в сознание пользователей», — делают выводы авторы.

Тем не менее, ученые подчеркивают, что эксперимент изучал немедленное воспроизведение информации, не имеющей личной значимости для участников, которые получали данные из единственного источника. В реальной жизни люди обычно сопоставляют информацию из различных источников и могут проверять важные для себя факты.

Фото: hi-tech.mail.ru

Оцените статью
Dfiles.ru
Добавить комментарий