Люди больше не могут отличить снимки известных лиц, созданные ИИ, от реальных

Ученые из Ариэльского университета вместе с коллегами выяснили, что широко доступные нейросети генерируют изображения реальных людей, которые невозможно отличить от настоящих снимков.

Работа опубликована в журнале Cognitive Research: Principles and Implications.

Ученые использовали широко доступные модели ChatGPT и DALL·E для создания реалистичных изображений вымышленных и известных лиц. В ходе четырех экспериментов участники не смогли надежно отличить синтетические фотографии от подлинных, даже когда им были знакомы изображенные люди.

В каждом эксперименте принимали участие около 100 человек из США, Канады, Великобритании, Австралии и Новой Зеландии, среди них примерно равное количество мужчин и женщин, средний возраст 30-40 лет. В одном из экспериментов участникам показывали серию изображений лиц и просили определить, какие из них созданы нейросетью, а какие – реальны. В другом эксперименте люди пытались отличить настоящие фотографии голливудских звезд от сгенерированных нейросетью. Обе задачи оказались крайне сложными для людей. Фактически все свелось к простому угадыванию.

Команда показала, что предоставление реальных снимков или предварительное знакомство с внешностью человека практически не помогают распознать подделку. Результаты работы демонстрируют новый уровень реализма, достигнутый дипфейками.

Ученые предупреждают, что способность ИИ создавать синтетические изображения реальных людей открывает возможности для злоупотреблений. Например, можно сгенерировать картинку знаменитости, рекламирующей определенный продукт или политическую позицию. Важным моментом является то, что, если человек считает фотографию политика подлинной, он чаще всего считает подлинным и фон на снимке. Политика можно изобразить, выступающим на митинге, где он никогда не был, и дипфейк будет выглядеть убедительно практически для всех, кто его увидит.

Исследователи подчеркивают срочную необходимость разработки надежных методов обнаружения дипфейков, но отмечают, что на сегодня надежных способов определения подделок даже с помощью самых продвинутых ИИ-моделей не существует.