ИИ-модели и люди по-разному понимают доверие к человеку. Израильское исследование
Ученые из Еврейского университета Иерусалима показали, что современные нейросети не просто обрабатывают данные, но и формируют собственные суждения о людях, похожие на человеческое доверие.
В исследовании приняли участие более тысячи человек, которые принимали решения в типичных ситуациях: сколько денег одолжить владельцу малого бизнеса, доверять ли няне, как оценить начальника или сколько пожертвовать основателю некоммерческой организации.
Параллельно ученые попросили ИИ-модели, такие как ChatGPT и Google Gemini, принять решения в аналогичных ситуациях. После этого ученые сравнили поведение людей и моделей. Оказалось, что и люди, и модели отдавали предпочтение тем персонажам сценариев, которые казались компетентными, честными и доброжелательными, но представление о доверии у людей и ИИ сильно отличалось.
Работа опубликована в журнале Proceedings of the Royal Society A Mathematical Physical and Engineering Sciences.
Если человек воспринимает личность целостно и интуитивно, то машина "раскладывает" ее на составляющие, как колонки в таблице. Такой подход делает суждения системы более жесткими и лишенными гибкости, присущей человеческому восприятию.
Особую тревогу у авторов работы вызвала систематичность искажений. ИИ склонен проявлять предвзятость по признакам возраста, религии или пола даже там, где другие данные идентичны. При этом разные модели могут выдавать противоположные вердикты в одной и той же ситуации. Это означает, что выбор конкретного алгоритма для найма сотрудников или выдачи кредитов может радикально изменить судьбу человека.
Соавтор работы Валерия Лерман подчеркивает фундаментальную разницу между "доверием" ИИ и человека: "Люди проявляют целостность и интуицию в том, как они судят других. ИИ действует более чисто и систематично, и это может приводить к совершенно разным результатам".
Ученые обращают внимание, что ИИ уже превратился из помощника в полноценного эксперта в медицине, финансах и найме сотрудников. Мы должны понимать, что, копируя структуру нашего доверия, машины лишены нюансов человеческого мышления, а их "объективность" часто скрывает в себе усиленные и жесткие стереотипы. Ответ на вопрос, можно ли доверять ИИ, зависит еще и от того, понимаем ли мы, как он понимает свое доверие к нам.