Имея подходящие инструменты, доступные сегодня, каждый может создавать, казалось бы, реальные изображения или заставить голоса выдающихся политических или экономических деятелей и артистов говорить все, что он хочет. Так, в сети могут появиться изображения бывшего президента США Дональда Трампа, позирующего с чернокожими избирателями, или президента Джо Байдена, отговаривающего людей голосовать в телефонном разговоре, или Папы Римского в пухлом белом пиджаке.
И хотя создание дипфейков само по себе не является преступлением, многие правительства, желая предотвратить возможное мошенничество, переходят к ужесточению регулирования использования искусственного интеллекта.
Помимо основного направления дипфейков, предполагающего создание порнографического контента с использованием изображений различных людей, в основном знаменитостей, без согласия, технология также может использоваться для мошенничества с личными данными путем изготовления фальшивых документов, удостоверяющих личность, или выдачи себя за других людей в телефонном разговоре.
Как показывает отчет Sumsub, поставщика услуг проверки личности, в 2022-2023 годах во многих странах мира резко возросло количество случаев мошенничества с использованием дипфейков.
Например, попытки мошенничества с использованием ИИ на Филиппинах увеличились на 4500 процентов в годовом исчислении. За ними следуют такие страны, как Вьетнам, США и Бельгия. Поскольку возможности так называемого искусственного интеллекта может вырасти еще больше, о чем свидетельствуют такие продукты, как видеогенератор Sora AI. Попытки дипфейкового мошенничества также могут распространиться и на другие области.
Поделитесь в соцсетях: