ИИ-модели незаметно влияют на социальные взгляды пользователей
Исследователи из Тель-Авивского университета вместе с коллегами показали, что ИИ-инструменты для написания текстов способны незаметно корректировать взгляды пользователей на острые социальные темы.
В ходе масштабных экспериментов с участием более 2500 человек добровольцы составляли эссе по таким острым вопросам, как смертная казнь, используя подсказки автозаполнения, предвзято подобранные ИИ. Результаты показали, что мнения участников начали склоняться в сторону позиций, навязанных алгоритмом, при этом люди не осознавали этих перемен. Работа опубликована в журнале Science Advances.
Особую тревогу ученых вызвало то, что традиционные методы защиты от дезинформации оказались неэффективными. Предупреждение пользователей о возможной предвзятости системы до начала работы или разъяснения после нее не помогли нейтрализовать влияние технологии. В отличие от прямого перечисления аргументов, формат автозаполнения действует мягко и коварно: человек воспринимает предложенные слова как часть собственного творческого процесса, что в итоге "перепрошивает" его внутренние убеждения.
Профессор Мор Нааман, один из руководителей проекта, подчеркнул серьезность ситуации в условиях, когда подобные системы становятся повсеместными: "Мы говорил людям до и после эксперимента, что они должны быть осторожными. Мы предупреждали, что ИИ будет или был предвзятым, но ничего не помогло. Их отношение к проблемам все равно изменилось". Это доказывает, что алгоритмы могут не просто предоставлять информацию, но и выступать мощным инструментом скрытого формирования общественного мнения.