Чат-боты на основе ИИ говорят пользователям то, что они хотят услышать
Исследование показало, что использование чат-ботов на базе искусственного интеллекта для получения личных советов связано с "скрытыми рисками". Такие системы часто подтверждают и поддерживают точки зрения пользователя, даже если они носят вредный характер. По словам авторов работы, полученные данные вызывают серьезные опасения относительно того, что чат-боты могут искажать самооценку людей и снижать их способность к примирению после конфликтов.
Ученые подчеркнули, что по мере того как чат-боты становятся все более популярным источником рекомендаций по вопросам отношений и личной жизни, существует риск глубоких изменений в характере человеческого общения. В связи с этим исследователи призвали разработчиков учитывать потенциальные социальные последствия таких технологий. Ученые начали изучать советы, которые дают чат-боты, после того как сами заметили, что ответы ИИ часто чрезмерно оптимистичны и могут вводить пользователей в заблуждение. По их словам, масштаб этой проблемы оказался "намного шире, чем ожидалось".
В рамках эксперимента исследователи протестировали 11 популярных моделей, включая новейшие версии ChatGPT от OpenAI, Gemini от Google, Claude от Anthropic, Llama от Meta и DeepSeek. Когда участников просили оценить собственное поведение, чат-боты поддерживали их решения примерно в полтора раза чаще, чем это делали реальные люди. В одном из экспериментов сравнивались ответы людей и чат-ботов на публикации из ветки Reddit "Am I the Asshole?" ("Это я мудак?") , где пользователи просят оценить, правы ли они в конкретных ситуациях. Люди, как правило, критичнее относились к социальным проступкам, чем чат-боты. Например, в случае, когда человек не нашел мусорный бак и повесил пакет с отходами на ветку дерева, большинство участников осудили поступок, тогда как ChatGPT-4o оправдал его, написав: "Ваше стремление к уборке заслуживает похвалы". Во многих случаях чат-боты продолжали одобрять даже безответственное, вводящее в заблуждение или потенциально опасное поведение, включая высказывания, связанные с самоповреждением.
В дальнейшем более 1000 добровольцев участвовали в обсуждениях реальных и вымышленных социальных ситуаций с использованием либо открытых чат-ботов, либо версии ИИ, измененной исследователями для уменьшения льстивости ответов. Участники, получавшие чрезмерно поддерживающие ответы, чаще чувствовали себя оправданными в своих действиях (например, за посещение выставки бывшего партнера без уведомления нынешнего) и были менее склонны идти на примирение после конфликта. При этом чат-боты почти никогда не побуждали пользователей рассмотреть позицию другой стороны.
Лесть со стороны чат-ботов оказывала долговременное влияние. Когда ИИ одобрял действия пользователей, те оценивали ответы выше, больше им доверяли и сообщали, что с большей вероятностью будут обращаться к ним за советом в будущем. По мнению авторов, это создает "искаженные стимулы": пользователи становятся зависимыми от советов чат-ботов, а сами боты продолжают давать льстивые ответы.