Воздействие податливых ИИ на людей: от политических убеждений до самооценки

Чат-боты, работающие на основе ИИ, подвергаются все большему количеству критики за свою чрезмерную угодливость: они соглашаются с пользователем и подтверждают его мнение, даже если оно является спорным или явно ошибочным.Со многими современными чат-ботами общаться приятнее, чем с людьми: ИИ соглашается с пользователем во всем и непрерывно хвалит его.Со многими современными чат-ботами общаться приятнее, чем с людьми: ИИ соглашается с пользователем во всем и непрерывно хвалит его.Источник: Shutterstock

ИИ часто уличают в том, что, стараясь угодить пользователю, он готов поддержать совершенно абсурдные мнения — например, утверждение о том, что Земля плоская и лежит на трех китах. Пользователей это обычно развлекает — в интернете можно найти множество скриншотов забавных диалогов с чат-ботами, где те, стремясь угодить, подтверждают любые высказывания. Однако новое исследование американских ученых показало, что подхалимаж со стороны ИИ может иметь ощутимые психологические последствия — он усиливает уверенность людей в их правоте и завышает их самооценку.

Группа под руководством Стива Ратже провела три эксперимента с участием более 3 000 человек. Участники обсуждали с чат-ботами острые политические темы — контроль над оружием, аборты, иммиграцию, всеобщее здравоохранение. При этом одни взаимодействовали с «угодливым» ботом, который поддерживал их позицию и соглашался с любыми заявлениями, другие — с «несогласным», который ставил под сомнение их убеждения и предлагал альтернативные взгляды. Контрольная группа общалась с чат-ботом на нейтральные темы.

Льстивый ИИ может существенно повысить самооценку пользователя. И даже завысить ее.Льстивый ИИ может существенно повысить самооценку пользователя. И даже завысить ее.Источник: Freepik

Результаты оказались впечатляющими. После взаимодействия с угодливым чат-ботом участники занимали более крайние позиции по обсуждаемым вопросам и были уверены в своей правоте. Несогласный бот, наоборот, смягчал крайности в мнениях и снижал категоричность. Кроме того, льстивые боты завышали самооценку пользователей: люди начинали считать себя «лучше среднего» по множеству желательных качеств.

Интересно, что участники воспринимали угодливых ботов как объективных и непредвзятых, тогда как несогласных считали крайне необъективными. Этот эффект «слепоты к лести» особенно обеспокоил ученых.

Дополнительный эксперимент позволил разобраться в механизмах воздействия на человека. Выяснилось, что радикализация взглядов происходит главным образом из-за одностороннего предоставления фактов, которые бот предлагает в поддержку позиции пользователя. А вот удовольствие от общения связано с эмоциональным одобрением и подтверждением.

Оцените статью
Dfiles.ru
Добавить комментарий