Последние исследования ученых из Копенгагенской школы бизнеса показывают, что современные инструменты искусственного интеллекта, создающие фотографии и имитирующие разговоры, настолько убедительны, что фейковые аккаунты, созданные с их помощью, кажутся более достоверными, чем реальных пользователей. Авторы представили свои выводы на Гавайской международной конференции по системным наукам (HICSS).

Фейковые аккаунты: почему узнать бота становится труднее

До недавнего времени создание действительно убедительной учетной записи в социальных сетях было настоящей проблемой. Размещенные там фейковые фотографии можно было найти и идентифицировать в интернете, а разговоры были явно искусственными. Однако стремительное развитие инструментов искусственного интеллекта оставляет существующие проблемы в прошлом.

Это показали результаты исследования с участием 375 добровольцев, задачей которых было отличать настоящие и фейковые аккаунты в Twitter. Мало того, что они не очень хорошо справились с этим, они, как правило, считали реальных пользователей более подозрительными.

Исследователи создали в Твиттере ветку о войне на Украине, в которую вошли как настоящие, так и фальшивые аккаунты, в которых представлены мнения, поддерживающие каждую из сторон. В поддельных учетных записях использовались изображения профилей, созданные инструментом искусственного интеллекта StyleGAN, а сообщения были созданы с помощью языковой модели GPT-3, той же самой, которая стоит за успехами знаменитого ChatGPT.

«Интересно, что учетные записи реальных пользователей вызвали наибольшие споры относительно их природы. Один из таких реальных профилей был оценен как бот 41,5% участников. В свою очередь, самый успешный бот был идентифицирован как поддельный профиль только 10% респондентов», – говорит соавтор доктор Сиппо Росси из Копенгагенской школы бизнеса. «Наши наблюдения показывают, что технология создания поддельных профилей настолько продвинута, что их трудно отличить от настоящих».


Поделитесь в соцсетях: